Skip to main content
Tag

information

RDV le 13.2.2024 avec Bernard Guetta en invité spécial : que pense un député européen et ex-journaliste du traitement médiatique réservé à l’Europe ?

By Agenda, Home, Prix, Prix EUNo Comments

Reporters d’Espoirs a le plaisir de compter Bernard Guetta, journaliste lauréat du Prix Albert Londres, ex-chroniqueur « Géopolitique » à France Inter et actuellement député européen, parmi les invités à sa soirée « Médias : donnez-nous envie d’Europe ! », mardi 13 février à 19h à la Gaité Lyrique. Un événement accessible gratuitement sur inscription ici.

L’opportunité d’un regard à la fois critique et constructif sur le traitement médiatique de l’Europe, par un expert de l’Europe et du journalisme, qui échangera et débattra avec les journalistes réunis lors de cette soirée, parmi lesquels Mémona Hintermann, grand reporter, figure du JT de France 3, qui a couvert les grands événements européens de ces trente dernières années, Paolo Levi correspondant des médias italiens La Stampa et Ansa, ou encore Alexia Kefalas, correspondante de France24 et du Figaro à Athènes.

L’occasion aussi d’un échange avec les 7 lauréats du Prix européen du jeune reporter, âgés de 23 à 30 ans, en provenance de toute l’Europe.

A propos de Bernard Guetta

Après avoir couvert la naissance de Solidarność en Pologne, l’essor du néolibéralisme dans l’Amérique reaganienne et l’effondrement communiste dans l’U.R.S.S sous Gorbatchev en tant que correspondant pour Le Monde, Bernard Guetta fut durant 27 ans chroniqueur à France Inter. Il a été également directeur de la rédaction de l’Expansion et du Nouvel Observateur et éditorialiste à l’Express, au Temps et à Libération.

Au cours de sa carrière, il a reçu 6 prix de journalisme, dont le prestigieux Prix Albert-Londres en 1981. Il est également l’auteur de nombreux ouvrages traitant de géopolitique dont le dernier, « La Nation européenne », est paru chez Flammarion en avril 2023.

Il est élu député européen, membre du groupe Renew Europe, depuis 2019. Il est le premier vice-président de la sous-commission Droits de l’Homme (DROI), membre de la commission des affaires étrangères (AFET) et de la délégation à la commission de coopération parlementaire UE-Russie, de la délégation pour les relations avec les pays du Machrek et de la délégation à l’Assemblée parlementaire de l’Union pour la Méditerranée. 

Au Parlement comme dans ses interventions publiques, Bernard Guetta concentre ses efforts sur la nécessaire concrétisation d’une Europe-puissance en défendant ses valeurs et en décryptant les rapports de forces d’un monde en totale et rapide mutation.

 

“Le logiciel libre a gagné de nombreuses batailles” – Sylvestre Ledru, directeur de l’ingénierie et responsable France de Mozilla

By Home, InterviewsNo Comments

Grand contributeur au monde du logiciel libre, Sylvestre Ledru est directeur de l’ingénierie et responsable de Mozilla pour la France. L’organisation est à l’origine du navigateur web Firefox, de l’application de messagerie Thunderbird et d’outils dédiés à un web plus libre, accessible et ouvert à tous de manière sécurisée et respectueuse de la vie privée.


Comment vous êtes-vous intéressé à l’informatique et au monde du logiciel libre (open-source) ?

Comme beaucoup dans l’industrie, j’ai commencé par les jeux vidéo avant de m’intéresser à l’informatique au début des années 1990. À l’époque, on me disait qu’il n’y avait pas d’avenir dans ce secteur et qu’il y aurait beaucoup de chômage ! J’y suis tout de même allé par passion. Et j’ai découvert plein de gens brillants dans le logiciel libre qui me donnaient envie de rejoindre ces communautés pour à la fois apprendre et améliorer l’état de la technologie.

C’est passionnant de voir aujourd’hui comment l’open-source a gagné : que ce soit sur un site web, un logiciel, sur un téléphone, un ordinateur ou un serveur, ces systèmes reposent sur du logiciel libre. Les grandes entreprises du numérique s’en servent pour gagner du temps en adaptant l’outil à leurs besoins et économiser des millions d’euros de licences. Est-ce que Google aurait pu grossir si vite avec du logiciel propriétaire ? Est-ce que Android aurait pu démarrer sans le noyau Linux ?

Est-ce que Mac OS X aurait été un tel succès sans l’utilisation par Apple de briques libres ? Si PHP n’avait pas existé, est-ce que Facebook aurait pu démarrer aussi rapidement ? Que serait AWS (hébergeur cloud le plus utilisé du monde) sans le logiciel libre ?

Quelle est la position des Français dans le monde du logiciel libre ?

En France, nous avons la chance de bénéficier d’études quasiment gratuites et donc de temps libre pour utiliser ces logiciels et les améliorer, contrairement à d’autres pays où les études coûtent cher et requièrent de travailler en parallèle pour survivre. C’est une des raisons pour lesquelles les Français sont très présents dans ce secteur.

L’un des logiciels libres les plus connus est le lecteur vidéo VLC : il est d’origine française. La recherche française a investi dans la création d’outils open-source de machine learning (ex: Scikit-Learn) ou de langages machines bas niveau (ex: OCaml). Les contributeurs les plus actifs de Debian (distribution Linux la plus utilisée pour les serveurs) comportent des Français. Un outil structurant du web d’aujourd’hui, Docker, a été créé par quelques français également… La France est très à la pointe, et les Français sont présents dans toutes les grandes entreprises technologiques du monde. Peut-être est-ce lié à notre culture, à notre devise, ou à un penchant à travailler pour le bien commun qui est ancré. Peut-être est-ce aussi notre esprit critique qui explique notre penchant particulier pour l’informatique.

Mozilla est une des marques les plus connues du monde de l’open-source, une sorte de porte-drapeau.

Mozilla a été créée sur les cendres de Netscape, au début des années 2000 en partant du constat qu’il y avait une meilleure façon de faire du web qu’Internet Explorer – que Microsoft a d’ailleurs délaissé en arrêtant d’investir. À l’époque, Firefox s’appelait la Mozilla Suite, et le navigateur a popularisé des fonctionnalités comme les onglets, le blocage de pop-ups et des mesures liées à la protection de la vie privée… certaines de ces fonctionnalités qui paraissent aujourd’hui évidentes. Au fur et à mesure, des centaines, des milliers de gens se sont mobilisés pour contribuer à améliorer le logiciel ou rapporter des bugs.

Aujourd’hui, Mozilla est une entreprise d’environ 700 salariés dans le monde, doublée d’une fondation. Nous coopérons avec tous les acteurs de la tech, y compris avec nos concurrents, pour développer des fonctionnalités nouvelles, définir des standards et faire avancer le web.

Vous défendez un “Internet accessible, libre et ouvert à tous”. Dans une situation de conflit où le web se ferme à certains endroits, comment parvenez-vous à assurer cette mission ?

Nous ne fournissons pas de connexion Internet ni filaire ni satellitaire, en revanche on investit énormément sur la sécurité : le HTTPS pour tous il y a quelques années avec Let’s Encrypt, le langage bas-niveau Rust ou encore la résolution des failles de sécurité de Firefox en moins de 24h. Le navigateur Tor, basé sur Firefox, permet de brouiller l’origine de la requête web afin d’outrepasser certaines restrictions ou surveillances émises localement. C’est notamment utile pour les journalistes dans une zone de conflit ou un dissident politique. On peut citer ici le cas d’Edward Snowden, lorsqu’il a échangé avec les journalistes du Guardian et du Washington Post. Tor est open-source et on coopère régulièrement pour intégrer des fonctionnalités de Tor dans Firefox.

Avez-vous le sentiment que la conscience progresse quant à l’importance de protéger nos données personnelles ?

Nous avons mis en place l’outil Firefox Monitor pour permettre à chacun de savoir si ses données ont fait partie d’une fuite de données.

Je suis impressionné par le nombre d’appels d’arnaque au CPF (Compte personnel de formation) que l’on peut recevoir. Ces gens exploitent les fuites de données pour vous contacter et vous mettre en confiance, notamment en vous donnant des informations personnelles comme votre adresse.

On a tellement d’informations personnelles sur énormément de systèmes informatiques d’entreprises qu’une fuite est parfois inévitable.

Quand une structure collecte des données sur les utilisateurs, il faut s’assurer qu’elle en ait besoin, qu’elle détient uniquement le minimum nécessaire, sur une durée limitée dans le temps. C’est là que le RGPD [la réglementation européenne sur la Protection des Données] est intéressant et apporte un cadre juridique solide, à tel point qu’il a inspiré les californiens avec le Digital Privacy Act.

Notez que les fake news se nourrissent de l’accumulation des données : les bulles de filtre peuvent vous enfermer, par un algorithme, dans une catégorie de personnes considérées comme intéressées par la désinformation. Et ce sont ces sites de fake news qui sont arrosés de publicités, ce qui a tendance à créer un cercle vicieux pour les algorithmes. Donner un cadre légal et juridique est nécessaire pour lutter contre cela.

Quel est votre regard sur le programme French Tech ? Apporte-t-il quelque chose à Internet tel que vous le concevez ?

Nous avons en France des entreprises qui ont des modèles vertueux, comme Doctolib, BlaBlaCar, Swile ou Alan, dont les modèles économiques ne reposent pas sur l’accumulation de données. La tech en France s’est dynamisée comme jamais ces dernières années. Ces entreprises s’inspirent du management à l’américaine qui est, je pense, assez adapté au monde de la tech, les salaires y sont plus valorisés que par le passé pour conserver les talents français. J’espère qu’un jour, on sera capable de créer des géants européens.

Vous écrivez régulièrement sur différents blogs (linuxfr et votre propre blog) afin de partager votre expertise, vos problématiques et vos solutions.

J’ai la chance de travailler sur des projets à la pointe de la technologie. L’objectif, quand on écrit des billets de blog, c’est d’expliquer notre démarche à des structures qui aimeraient aller dans la bonne direction, et les inspirer pour qu’elles gagnent du temps. Il nous arrive chez Mozilla d’écrire des publications scientifiques qui sont réutilisées par tous les acteurs de la tech, contribuant ainsi à un cercle vertueux d’amélioration des technologies.

Quel est votre rapport personnel à l’information ? Quels médias consultez-vous ? En quelles sources d’information avez-vous confiance ?

Je suis un grand consommateur d’informations. Dans la presse généraliste, je lis Le Monde, Les Jours et Courrier International parce que j’aime avoir du recul sur la France d’un point de vue étranger. Dans la presse technique, je lis Linux Weekly News et Twitter où il existe de bonnes sources véritablement expertes.

Dans les oreilles de Sylvestre Ledru (attention, podcasts spécialisés ! 🙂)

  • IRL de Mozilla (anglais)
  • How to Fix the Internet de l’EFF (anglais)
  • Darknet Diaries de Jack Rhysider (anglais)
  • Open Source Security Podcast de Josh Bressers et Kurt Seifried (anglais)
  • Mécaniques du Journalisme de France Culture
  • Les Odyssées de France Inter

Propos recueillis par Gilles Vanderpooten et Joshua Tabakhoff, Reporters d’Espoirs.

« Un ordinateur est forcément incroyablement rapide, précis et idiot, et les humains sont forcément lents, répétitifs et intelligents »

By InterviewsNo Comments

Yani Khezzar, journaliste et responsable de l’innovation pour l’information à TF1

Yani Khezzar est journaliste responsable de l’innovation au sein de la rédaction de TF1. Son rôle : participer à l’enrichissement des reportages diffusés dans le journal télévisé, en les agrémentant de 3D, réalité augmentée ou en traitant des données nouvelles grâce à l’intelligence artificielle. Nominé au Prix Reporters d’Espoirs 2021 dans la catégorie innovation, Yani Khezzar était également présent sur notre espace au salon Vivatech pour un tour d’horizon des innovations éditoriales et numériques au service du journalisme de solutions, aux côtés de François Saltiel (Arte, France Culture) et d’Alice Pouillier (Ulule, SoGood).

Votre travail d’innovation participe-t-il à une volonté de montrer autre chose que « les trains qui déraillent » et le monde qui va mal ?

On a encore plus besoin aujourd’hui, durant cette pandémie, de messages d’optimisme. Le journal de TF1 a à cœur de mettre en avant des initiatives, notamment pour équilibrer des JT lorsqu’ils sont anxiogènes en raison d’actualités graves. Notre raison d’être est d’inspirer positivement la société, en témoigne le slogan de TF1, “partageons des ondes positives.

Nous tachons de l’illustrer par des portraits de personnalités inspirantes, ou par des opérations comme SOS Villages lancée par Jean-Pierre Pernaut pour mettre en relation des repreneurs et commerçants des villages de France. Les formats innovants, la technologie

comme la 3D et la réalité augmentée, nous permettent également de montrer à l’écran ce qui n’est pas filmable, pour alerter tout en donnant à voir des solutions ou en projetant un futur souhaitable. C’est ce que nous avons fait en offrant dans plusieurs reportages une vision en 3D de ce que pourrait donner la montée des eaux en France, ou de l’impact du changement climatique sur nos cultures agricoles d’ici 2050. [Reportages visionnables sur ce lien]

Tout téléspectateur peut constater ce que donne l’intégration de la 3D ou de la réalité augmentée dans vos reportages. La technologie modifie-t-elle aussi votre manière de travailler, en coulisses ?

Dans notre démarche d’innovation, il y a en effet aussi des choses qui ne se voient pas à l’écran mais modifient, et améliorent, la façon dont les journalistes travaillent. L’intelligence artificielle nous permet par exemple de faciliter le dérushage de nos interviews (dans le processus de montage des sujets), ou encore de surveiller nos réseaux sociaux et de vérifier les informations qui y circulent. Souvent, lorsqu’une information prend de l’ampleur sur les réseaux sociaux, l’intelligence artificielle va la repérer en amont. Ces nouveaux outils nous permettent d’accroître notre efficacité.

Finalement, votre démarche s’inscrit-elle dans une problématique bien connue de tous : la captation de l’attention !

TF1 est un média télé qui produit avant tout de l’information visuelle, tout en tâchant de ne jamais céder à l’information-spectacle. Le danger lorsque l’on utilise ces outils, c’est de vouloir trop s’amuser avec. Si l’on souhaite se divertir avec des effets spéciaux, le cinéma ou les jeux vidéo sont bien plus appropriés. La technologie utilisée dans le JT est toujours au service du contenu. Par exemple, pour le reportage sur la fonte des glaciers à l’horizon 2050,  

son but est d’illustrer en images que la montée des eaux va transformer le littoral français. Les images parleront toujours mieux que les mots. Afin de mobiliser la population sur ces sujets et de trouver des solutions, il n’y a rien de tel que de faire un peu de prospective pour montrer ce qu’il risque de se produire. Ainsi nous avons projeté une simulation de l’Université de Caen enrichie par les données du GIEC régional, sur une rue d’Etretat qui sera probablement inondée en cas d’orage.

Quid des solutions à envisager une fois que l’on a mis en lumière ce risque ? Des logements flottants construits sur l’eau par exemple.

Le côté spectaculaire de la réalité augmentée est indéniable mais il sert le sujet. Un public qui aurait tendance à zapper facilement ou à se renseigner sur les réseaux sociaux peut finalement s’intéresser au reportage grâce aux outils technologiques. Ce pouvoir d’attraction doit être utilisé à bon escient et toujours au service de l’information. Notre mot d’ordre est également d’utiliser la technologie uniquement lorsque l’information n’est pas filmable.

Comment voyez-vous « l’automatisation » de l’information dans 5 ans ?

Il va être intéressant d’accompagner le développement de l’innovation dans l’information. Il faut aborder la journée d’un journaliste comme étant un ensemble de tâches. Certaines sont des tâches proprement journalistiques comme la définition d’un sujet, l’enquête et la vérification des informations. Il va falloir y accorder de plus en plus de temps, notamment en raison de la concurrence des plateformes qui ne sont pas proprement journalistiques, comme les réseaux sociaux ou des citoyens. La valeur ajoutée des médias journalistiques sera précisément de mettre un point d’honneur à la vérification de l’information. Sachant qu’une journée ne dure que 24h, il faut réduire le temps sur certaines tâches des journalistes afin qu’ils se consacrent à l’essentiel. L’intelligence artificielle peut nous apporter ce bénéfice. L’automatisation de tâches à faible valeur ajoutée, comme l’abattage de dépêches, le phoning ou encore la retranscription manuscrite des interviews va permettre de soulager le travail des journalistes. Pour reprendre la pensée d’Einstein, un ordinateur est forcément incroyablement rapide, précis et idiot et les humains sont forcément lents, répétitifs et intelligents. C’est la combinaison des deux qui va permettre de créer quelque chose de puissant et d’utile.

Retrouvez la retransmission vidéo du débat dont est extraite cette interview sur :

Propos recueillis par François Saltiel, animateur du débat, et retranscrits par Léa Sombret.

« Pour trouver des solutions, il faut laisser s’exprimer un maximum de gens », entretien avec Benoît Raphaël

By InterviewsNo Comments

Benoît Raphaël est journaliste, expert en transition numérique des médias et entrepreneur. Il a notamment cofondé Flint en 2016, un explorateur d’informations, basé sur l’intelligence artificielle et collective, pour s’informer de façon rapide et pertinente et présent sur notre nouvelle plateforme LaFranceDesSolutions.fr.

Cette plateforme, créée par Reporters d’Espoirs est à destination des journalistes et des professionnels des médias. Son objectif : faciliter leur veille de contenus de solutions et d’initiatives pour les aider à enrichir leurs reportages, identifier de nouveaux angles, sujets, des projets concrets et pérennes.

À l’occasion du lancement de cette plateforme de mise en relation des acteurs de solutions et des médias, nous mettons en lumière nos partenaires techniques, acteurs de la FrenchTech.

Vous travaillez dans le secteur des médias depuis de nombreuses années. Votre parcours en quelques mots ?

Je viens de la presse quotidienne régionale (PQR), donc du local et du populaire. Cette logique de proximité, je l’ai petit à petit exportée à des médias nationaux, notamment avec Le Monde, en co-créant LePost.fr (ancêtre du HuffPost), puis en créant Le Plus de L’Obs et le Lab d’Europe 1.

Plus tard, je me suis intéressé au journalisme de solutions : comment faire en sorte que les journalistes ne parlent pas seulement des problèmes mais qu’ils aillent chercher aussi des solutions ? On a donc monté une offre d’abonnement dédiée au sein de Nice-Matin en 2015. Par la suite, je me suis attaqué au problème de la surinformation, de l’infobésité et de la polarisation des débats, du fait qu’on ait du mal à débattre sans se battre. On a alors créé Flint.

Flint développe l’intelligence artificielle pour trier et extraire une information “qualifiée et de qualité” parmi tous les contenus existants, afin de remédier au risque d’infobésité… Quelles fonctionnalités offre Flint à ses utilisateurs ?

Flint permet à chacun de s’informer de façon pertinente et personnalisée. Il est basé sur l’intelligence artificielle et l’intelligence collective, qui est humaine, interactive et transparente, car les algorithmes ne suffisent pas.

Aujourd’hui, Flint est un journal dont on est le propre rédacteur en chef et dans lequel il y a des algorithmes de recommandations vertueux qui permettent d’explorer l’info sans nous enfermer. Il y a des rubriques auxquelles on peut s’abonner, qui sont faites par des journalistes ou des partenaires.

Vous reconnaissez-vous dans le mouvement de la Tech4Good ?

Flint est un acteur de l’information, plus précisément un acteur technologique de l’information puisqu’on est une “machine contre les machines” (les algorithmes des réseaux sociaux et des moteurs de recherche qui nous enferment).

On peut qualifier ça de Tech4Good… mais ce n’est pas pour autant que Facebook est Tech4Bad ! Les robots définissent leurs propres règles en fonction des objectifs qu’on leur a donnés. Dans le cas de Facebook, les objectifs étant uniquement la croissance de l’audience et de l’engagement pour favoriser la publicité, ils ont abouti à un système qui est devenu incontrôlable, tout comme ça l’a été précédemment, pour faire une analogie, dans l’agroalimentaire quand le marketing aveugle l’a emporté sur la qualité nutritive.

Il existe un risque de biais introduit par les algorithmes et les développeurs. Comment faites-vous pour offrir à vos utilisateurs une curation de contenus la plus neutre possible ?

Le modèle n’est pas tant créé par le développeur que par l’algorithme lui-même. Le biais algorithmique est normal puisqu’un algorithme est par définition une simplification de la réalité. Le plus important est de mettre les bons points de contrôle et les bons objectifs pour faire en sorte que ce biais ne nous éloigne pas trop de la réalité et, par effet d’entraînement, ne finisse pas par avoir des effets extrêmement pervers.

Notre modèle se veut vertueux : nos utilisateurs doivent être mieux informés, et non pas plus addict. Le seul biais que nous pourrions avoir est la personnalisation qui pourrait contribuer à enfermer les gens dans une bulle. Pour l’éviter, nous avons introduit de nouveaux modèles dans nos algorithmes : celui du hasard, qui consiste à ramener de nouveaux contenus dont l’utilisateur n’a pas l’habitude, et celui de la diversité des sources, pour avoir plusieurs approches du même sujet. Cependant, qui dit diversité dit également risque de désinformation. On a donc aussi travaillé des contre-algorithmes qui permettent de se protéger des contenus extrêmes.

L’intelligence artificielle est un domaine où bien des français sont pionniers et se démarquent – pensons par exemple à Yann Le Cun ou Luc Julia. Etes-vous confiant dans le génie technologique français ?

Oui mais le problème est qu’ils travaillent pour l’étranger, la fameuse fuite des cerveaux… En France, nous sommes très bons en mathématiques, donc en algorithmique mais il nous manque la puissance.

Je pense que les Français ont un rôle à jouer sur la qualité. Peut-être coûte-t-elle plus cher, ne produit pas des effets aussi massifs que les géants américains, mais peut donner lieu à une multiplicité d’initiatives. Je ne suis pas certain que la production de masse soit le seul avenir de notre société. 

Vous avez accompagné un certain nombre de médias dans leur transition numérique et leur recherche de business model. Quels sont les projets auxquels vous êtes particulièrement heureux d’avoir contribué ?

Tous ! LePost.fr créé pour le groupe Le Monde était un média populaire très différent, qui s’appuyait sur l’énergie du web et n’avait jamais été fait de cette façon-là. Nous avons fait des erreurs, appris beaucoup de choses, et l’idée reposait vraiment sur une forme de générosité d’un média qui s’appuie sur une participation populaire. Il a été un succès d’audience.

Le Lab d’Europe1, pour sa part, avait un ton très qualitatif et vraiment différent.

Quant à Nice-Matin, c’est la plus jolie expérience pour moi en termes de sens et de création d’une mécanique nouvelle.

Comment faites-vous pour identifier ces nouveaux créneaux, ces voies d’innovation ?

Pour trouver des solutions dans un monde complexe et interconnecté, il faut diversifier l’offre. On a besoin d’une diversité de voix, de genres, de cultures, mais aussi une diversité sociale. Le monde évoluant, on identifie de nouvelles problématiques : au départ, il fallait ouvrir davantage la parole, ensuite il fallait aller chercher cette parole, puis travailler sur les solutions pour changer la manière dont on abordait l’information – ce que Reporters d’Espoirs avait déjà anticipé.

Maintenant, on a besoin de créer des machines pour venir équilibrer les machines de recommandations d’articles qui finissent par nous enfermer et déstabiliser la démocratie.

Ce que l’on disait en 2017 à propos de la crise informationnelle à venir a été renforcé par la crise sanitaire. Elle a révélé cette crise et éveillé beaucoup de gens, suscitant un malaise profond, massif, populaire qui pose un problème pour la démocratie. Comme le démontre notre sondage IFOP/Flint sur le rapport des Français à l’information, la surinformation nous submerge (73% des Français), crée la confusion, et demande ainsi beaucoup de temps de cerveau. Médias, comme citoyens et chefs d’entreprise doivent trouver des solutions pour sortir de la crise, ce qui demande un temps précieux pour redevenir visionnaire et pas simplement réagir sans réfléchir. Nous allons avoir besoin de créativité et de diversité d’approches dans les prochaines années !

Quel est votre propre rapport à l’information ?

L’infofatigue qui s’ajoute à la surinformation et à la désinformation. 3% à 7% des français ne consomment plus d’information parce qu’ils n’en peuvent plus. Parce qu’ils ont besoin de temps pour soi, parce qu’une information perçue comme peu utile, déprimante, voire contradictoire et obligeant à consacrer des heures à démêler le vrai du faux, stresse, fatigue ou génère une démission. Je suis un peu dans cette configuration-là, aussi je suis l’actualité à travers Flint car il répond à un vrai problème qui se posait à moi. On a besoin d’avoir quelque part des contre-médias, des contre-approches, qui nous permettent d’aborder les problèmes en s’inspirant de choses qui fonctionnent.

La méthode du journalisme de solutions n’est pas facilement modélisable mathématiquement. Comment fait Flint pour identifier des contenus « à impact » ou à « tonalité positive » ?

L’approche de Flint est essentiellement psychosociale. Nous avons référencé 20 000 profils Twitter experts dont on analyse le comportement par rapport à plusieurs milliers d’articles. Le robot établit ses modèles mathématiques psychosociaux à partir de cela, à la manière d’un institut de sondage à partir d’une panélisation qualitative. Parler de solutions correspond à une certaine façon d’aborder l’information, à un profil psychosocial que le robot parvient à repérer.

Pour aller plus loin, nous avons besoin, à la manière de Yuka (application qui permet de scanner les produits alimentaires), d’étiqueter l’information, d’identifier l’opinion d’un article, d’apprécier sa valeur scientifique et technique. C’est ce que permet la troisième génération de robots que nous avons initiée.

LaFranceDesSolutions.fr est un outil à destination des professionnels des médias qui agrège le meilleur des contenus médias solutions ainsi que des initiatives partout en France pour étayer les reportages. Étant vous-même journaliste, quelle utilité y voyez-vous ?

D’abord, l’approche, positive et non naïve, est intéressante puisqu’on se rend compte que la problématique du journalisme de solutions est validée par tous les indicateurs – éditoriaux, citoyens, économiques. LaFranceDesSolutions.fr montre la richesse de ce journalisme, c’est une belle vitrine.

Je pense qu’elle permet aussi d’aider à faire le tri, ce qui constitue notre problématique commune. Il existe une richesse incroyable d’informations, mais elle est difficile à trier. Concernant les solutions, on voit bien la difficulté à trier : ce n’est pas un hashtag et il ne suffit pas de taper “solution” dans un moteur de recherche pour trouver des reportages de solutions.

Grâce à la technologie Flint, la plateforme LaFranceDesSolutions.fr a donc l’avantage de mettre en avant ce type de contenus. Elle donne l’exemple, met en avant des initiatives que les médias ont tendance à esquiver, donc je pense qu’il y a une vraie valeur ajoutée à mettre en avant.

Propos recueillis par Joshua Tabakhoff


[Vu des USA] Elections américaines 2016 : où est passée l’information ?

By L'actu des médias, Le LabNo Comments

[OPINION] Par Katrina vanden Heuvel, éditrice du journal The Nation (USA).

En bref

  • Dans cette tribune d’opinion parue mardi dans le Washington Post, Katrina vanden Heuvel, éditrice du journal The Nation (USA), pointe les dérives médiatiques qui se sont illustrées dans la couverture des élections américaines. Elle regrette que les médias aient mis sur le même plan les deux candidats principaux, Trump et Clinton, et aient écarté des sujets cruciaux qui auraient dû être portés à connaissance des citoyens américains et examinés conformément à la déontologie journalistique.
  • L’éditrice du journal lance un appel à valeur universelle : les médias ne doivent pas manquer à leur devoir de vigilance, en faisant primer l’audience à tout prix sur l’investigation et l’éclairage des citoyens. C’est la condition pour que les journalistes soient garants de la démocratie.

 

Quel a été le thème central de la campagne présidentielle de 2016 ?

Dans la plupart des périodes électorales précédentes, la réponse à cette question a été relativement simple. En 2008 et 2012, c’était l’économie. En 2004, c’était la sécurité nationale et la guerre en Irak. Mais cette année, les choses sont beaucoup moins claires, parce que les problèmes les plus urgents auxquels le peuple américain est confronté ont été éclipsés par des titres outrageants, de faux scandales, des nouvelles erronées, et une couverture honteuse du cirque de Donald Trump. Plus que dans toute autre élection récente, le rôle des médias est devenu un enjeu central de la campagne.

La « faute » des médias a débuté en 2015, alors que les réseaux en quête d’audience et de profit- et à but lucratif- ont encouragé la montée de Trump en lui offrant un accès illimité, sans regard critique et sans filtre sur les ondes. Sur l’année, les trois principaux journaux télévisés du soir ont couvert Trump deux fois plus que Hillary Clinton – et 16 fois plus que le sénateur Bernie Sanders, dont ils ont massivement marginalisé voire rejeté la candidature. D’après une étude parue en mars dernier, les médias ont accordé à Trump l’équivalent de près de 2 milliards de dollars de parole sans contrainte. La couverture électorale qui a suivi n’a pas été plus glorieuse. Fin Octobre, ces mêmes journaux télévisés du soir avaient à peine consacré une demi-heure de temps aux questions politiques, au total depuis le début de l’année 2016. Le changement climatique, le commerce et d’autres questions importantes n’avaient été l’objet d’aucune couverture médiatique.

Il est évident que d’autres facteurs – comme l’aptitude des candidats au poste – font partie des sujets les plus pertinents dans une élection. Mais cela ne donne pas pour autant aux médias le loisir d’ignorer les questions d’importance vitale pour les électeurs de l’ensemble du pays. Cela n’excuse pas la manière dont certains médias ont mis sur le même plan Trump et Clinton, créant et alimentant une fausse équivalence entre les deux candidats ou les partis qui les ont désignés. Cela ne justifie pas non plus que la couverture médiatique des candidats eux-mêmes ait été dépourvue de substance.

Commençons par Trump. Il faut reconnaitre que, dans la presse écrite en particulier, des journalistes tel David Fahrenthold du Washington Post ont fait un travail de reportage remarquable. Mais malgré la malhonnêteté pathologique de Trump, la démagogie raciale et le mépris à l’égard du Premier Amendement de la Constitution des Etats-Unis [1], une grande partie des médias l’ont dépeint comme un candidat « normal » à la présidence. Et le passage sous silence de certains sujets a réellement œuvré à l’avantage de Trump. Trump a pris la fuite  en refusant de dévoiler ses déclarations de revenus – une violation de la transparence qui aurait été considérée comme impardonnable à tout autre candidat. De même, il n’est pas difficile d’imaginer comment les médias auraient pu traiter un autre candidat à la présidence qui se serait explicitement vanté d’une agression sexuelle, enregistrement audio à preuve, et une cohorte de témoignages de femmes à l’appui affirmant avoir été l’objet d’attouchements. Et pourtant, après que le choc initial des propos de Trump se soit dissipé, les allégations à son encontre ont – incroyablement – été mises de côté.

De l’autre côté du spectre, il y a Clinton et le pseudo-scandale qui n’en finira pas. Le mois dernier, après que le directeur du FBI James B. Comey a révélé publiquement l’existence de nouveaux courriels potentiellement pertinents dans le cadre de l’enquête sur le serveur privé de Clinton, les médias s’en sont donné à cœur joie. Il était évident que le FBI en l’espace de quelques heures, n’avait rien découvert d’incriminant – le véritable scandale étant en réalité l’ingérence indue de Comey dans l’élection. Mais cela n’a pas empêché la plupart des médias d’amplifier les appels de Trump à « enfermer » la candidate ou de spéculer sur les retombées électorales.

Et si en 2008, les médias se sont concentrés à juste titre sur les implications historiques du premier président afro-américain, huit ans plus tard, l’hypothèse de l’élection potentielle de la première femme présidente du pays a largement été écartée. Il est difficile de ne pas établir de lien entre la normalisation de la misogynie de Trump et l’échec écrasant des médias à reconnaître ce moment-clé pour l’égalité et la dignité fondamentale de la moitié de la population de notre nation.

Ceci étant dit, il n’a pas fallu cette campagne pour montrer que beaucoup de médias sont dans un état de délabrement, ou que nous avons besoin de plus de « chiens de garde », plutôt que de toutous, pour défier des intérêts puissants à travers le spectre politique. Il y a eu d’autres moments où la suspension du regard critique et de la vérification des faits a mis la nation en danger. Par exemple lorsque les journalistes ont joué les pom-pom girls pour l’invasion de l’Irak.

Mais même avec une perspective historique, ce moment médiatique est particulièrement dangereux et lourd de conséquences. La couverture de cette campagne n’est pas le fait du hasard. Elle est le résultat de changements structurels corrosifs – l’effondrement des quotidiens locaux, la concentration excessive des médias, l’effacement des frontières entre l’actualité et le divertissement, la montée des « right-wing news » [NDLR : groupe de bloggeurs conservateurs] – qui rendent plus difficile la mission des médias à nous tenir informés des questions qui exigent notre attention. Pourtant, en dépit de ces défis croissants, les médias conservent un pouvoir extraordinaire pour établir les ordres du jour, façonner les perceptions et décider ce qui fait ou ne fait pas partie du débat public à l’échelle nationale. Tant que nous aurons un système corporatiste qui valorisera les clics et les classements plus que les débats politiques sérieux et les personnes et les communautés concernées, les problèmes ne feront que s’aggraver.

Quand la nation se réveillera mercredi, les analyses post-mortem commenceront. Dans ce cadre, nous devrions réfléchir sérieusement aux raisons de la distorsion des pratiques médiatiques qui s’est illustrée tout au long de cette campagne. Nous avons besoin de réformes structurelles pour faire revivre des médias centrés sur leur responsabilité, qui ne fassent pas primer les profits sur l’intérêt public. Et nous devrions être déterminés à nous assurer que lors des prochaines élections, le peuple américain puisse compter sur une presse libre et déterminée à remplir son rôle indispensable dans notre démocratie.

 

Cette tribune d’opinion a été publiée mardi dans The Washington Post, par Katrina vanden Heuvel, éditrice du journal The Nation (USA). Traduit par Gilles Vanderpooten, Reporters d’Espoirs (France) avec l’autorisation de l’auteure.
Titre original : « Media Malpractices 2016 ».

 

[1] « Le Congrès n’adoptera aucune loi relative à l’établissement d’une religion, ou à l’interdiction de son libre exercice ; ou pour limiter la liberté d’expression, de la presse ou le droit des citoyens de se réunir pacifiquement ou d’adresser au Gouvernement des pétitions pour obtenir réparations des torts subis. »