Archive Page 2

7 études de cas en data journalism et visualisation de données

Bookmark and Share

Beaucoup de veille en ce moment, et peu d’écrit. Voici quand même quelques études de cas à vous faire partager.

Depuis un an que  je piste les exemples de data journalism, je constate que les initiatives françaises sont bien rachitiques et que j’atterris le plus souvent sur des sites anglo-saxons. Avec le nytimes.com, le washingtonpost.com et le guardian.co.uk en pionniers du genre. Les études de cas ci-dessous illustrent assez bien l’état du journalisme de données français par rapport à ce qui se fait aux Etats-Unis, en Grande-Bretagne ou même en Espagne.

Plusieurs facteurs se combinent pour expliquer ce décalage français : un rapport différent aux données, une histoire journalistique divergente, une culture de la transparence publique antagonique, un appareil législatif singulier et surtout des rédactions appauvries tant en moyens financiers qu’en compétences humaines. Je détaillerai ces explications dans un prochain post, en attendant, je vous renvoie à l’article d’Elodie Castelli sur journ@lismes.info « Le Data-journalisme peine à se développer en France » et aux quelques compilations ci-dessous.

Le New York Times : leader américain en matière de data journalism. Ses infographies sont les plus innovantes et les plus esthétiques. Son partenariat avec IBM (logiciel ManyEyes) lui permet de proposer un « visualization lab » interactif et participatif.

Le Guardian : le titre a joué un rôle important dans le mouvement d’ouverture des données publiques au Royaume-Unis avec son manifeste Give us back our crown jewels. Avec son Datablog et son Datastore, il milite activement pour la libération des données, l’appropriation et le partage par le plus grand nombre de ses bases de données. Il réalise régulièrement des visualisations de données très réussies et joue un rôle d’exemplarité en lançant, par exemple, un concours de visualisations l’an dernier.

El Pais : son site dédie une rubrique au journalisme visuel. Au début des années 2000, elle accueillait surtout des infographies traditionnelles, illustratives et non-interactives. Désormais, cette section accueille de très belles visualisations, qui racontent des histoires.

En France, les initiatives en matière de journalisme de données proviennent surtout des pure-players : Mediapart et Rue 89 ont lancé des cartes participatives ; LePost.fr mène l’expérimentation un peu plus loin avec un traitement « data journalist » du cumul des mandats (cela fera sans doute l’objet d’un prochain post sur ce blog).

Un petit mot sur Gapminder. Ce n’est pas vraiment du data journalism, puisqu’il n’y a pas d’éditorialisation ni de volonté de couvrir l’actualité, même si le site met en avant certaines comparaisons de données. Gapminder reste pour autant un site très puissant de visualisation de données mondiales, ludique et didactique.

ManyEyes et Socrata : ces plateformes sociales de manipulation de données fournissent à tous un outil, un espace de stockage et un réseau pour y mettre en valeur bases de données et visualisations. Pas d’éditorialisation, uniquement du crowdsourcing, et une démarche d’ouverture et de partage. Le Sarkomètre du Nouvel Obs a été réalisé et hébergé sur Socrata. Ces plateformes ne sont donc pas si éloignées du journalisme de données qu’elles pourraient le laisser penser à première vue.

Creative Commons License

Ce qu’aurait pu être le Sarkomètre du Nouvel Obs

Bookmark and Share

Avec son Sarkomètre, le Nouvel Obs a mis un pied dans les données structurées. Une avancée incontestable, mais si timide qu’elle souligne finalement l’ampleur du fossé  qui sépare encore la presse traditionnelle de la visualisation de données.

Reprenons. Le 1er février dernier, lenouvelobs.com publiait un tableau récapitulant, pour 113 promesses  formulées par Nicolas Sarkozy pendant la dernière campagne présidentielle, si l’engagement a été tenu, oublié ou engagé.

La base de données constituée par les journalistes comprend également, pour chaque promesse, sa thématique, la déclaration originelle du candidat Sarkozy, et un commentaire de la rédaction du Nouvel Observateur.

Il s’agit effectivement d’une démarche de structuration de données : publier dans un tableau ce qui d’ordinaire est publié par le Nouvel Obs sous forme d’article, de récit, en croisant des indicateurs (thème, promesse, déclaration, réalisation, commentaire) et des variables (les 113 promesses).

Le Nouvel Obs reprend ici la démarche de Politifact, avec son Obameter (The Obameter : Tracking Obama’s Campaign Promises), qui a noté plus de 500 promesses faites par Barack Obama pendant sa dernière campagne selon leur degré de réalisation (Promise Kept, Compromise, Promise Broken, Stalled, In the Works, Not yet rated).

Politifact est un projet de journalisme innovant lancé par Matt Waite au sein du St. Petersburg Time en 2008, pendant la campagne pour les élections présidentielles aux Etats-Unis : le site évaluait la véracité des propos tenus par les hommes politiques sur une échelle allant de « True » à « False » en passant par « Mostly True », « Half True » et « Barely True ».

Revenons d’abord sur le principal bon point du Sarkomètre : il a été publié via Socrata, une plateforme d’hébergement et de publication de bases de données. Avantages de la solution Socrata :

  • Interactive : l’interface de Socrata permet aux internautes de trier, de masquer ou de compiler les données par ligne ou par colonne.
  • Conversationnelle: les internautes peuvent noter et commenter la base de données
  • Virale : les internautes peuvent partager le Sarkomètre via Delicious, Digg, Facebook et Twitter
  • Ouverte : la base de données peut être librement publiée sur d’autres sites/blogs via un Social Data Player embeddable, il est possible de télécharger la base de donnée sous différent formats ou d’y accéder via l’API Socrata.

En passant par Socrata, le Nouvel Obs respecte tous les codes de l’open data. La base de donnée est libre, et cela représente une petite révolution dans un univers journalistique plutôt enclin à s’accrocher aux droits d’auteurs.

Maintenant cette belle avancée signalée, venons-en aux insuffisances.

Le tableau réalisé par le Nouvel Obs nous permet d’échapper à un article long, répétitif, encombré de formules destinées garder l’attention du lecteur tout en déroulant les 113 promesses. C’est déjà un beau progrès, mais le Nouvel Obs aurait pu aller beaucoup plus loin.

Le Sarkomètre ne nous permet pas de nous rendre compte instantanément que sur 103 promesses :

-31 ont été tenues

-39 ont été engagées

-43 ont été oubliées

Il ne nous permet pas de voir du premier coup d’œil que les thématiques ayant fait l’objet du plus grand nombre de promesses sont :

-La fiscalité (10 promesses)

-La famille (8 promesses)

-La santé (8 promesses)

-L’éducation (7 promesses)

Et que ces thématiques affichent des taux différents de conversion des promesses en engagements tenus :

-Fiscalité : promesses tenues à 40% (4 promesses tenues sur 10)

-Famille : promesses tenues à 0% (0 promesse tenue sur 8 )

-Santé : promesses tenues à 25% (2 promesses tenues sur 8 )

-Education : promesses tenues à 29% (2 promesses tenues sur 7)

Pour cela, il aurait fallu que le Nouvel Obs réfléchisse à la visualisation de sa base de données.

Voyons maintenant ce que le Sarkomètre aurait pu être.

Puisque je n’ai ni le temps ni l’équipe nécessaire à la réalisation de ces visualisations (mais il pourrait un jour en être autrement), je vous propose simplement quelques exemples de graphisme.

Le Sarkomètre aurait pu proposer :

  • Une visualisation qui permette d’identifier en un clin d’œil quelle est la proportion des promesses tenues.

Comme sur l’Obameter :

  • Une visualisation représentant la part relative de chaque thématique dans les promesses tenues/en cours de réalisation/abandonnées

Comme pour l’agenda du président Obama analysé par le Washington post :

Ou à la façon de Where does my money go

  • Une visualisation représentant les ratios promesse tenues/promesses formulées pour chaque thématique

Comme sur cette visualisation de l’évolution du pouvoir d’achat des foyers américains sur Flowing Data :

  • Une timeline mettant en évidence le rythme de réalisation des promesses et les priorités de l’équipe gouvernementale

Comme la timeline d’ABC News sur la dernière campagne présidentielle américaine :

  • Une visualisation graphique du champ lexical de la formulation des promesses dans les discours du candidat Sarkozy

Comme sur Capitol Words :

Ou comme dans la rubrique In Obama’s Words du Washington Post :

  • Même un simple petit curseur, comme sur Politifact aurait déjà été plus parlant.

Conclusion : structurer des donnée ne suffit pas, un travail d’éditorialisation est nécessaire pour faire ressortir des idées de la base de données.

Creative Commons License

Data Data Data

Bookmark and Share

Ce billet a été rédigé par Benoit Vidal, étudiant en 4ème année à l’École des Hautes Études des Technologies de l’Information et de la Communication.

Cela fait déjà quelques temps que l’on peut considérer que nous sommes en pleine infobésité. Avec les blogs, les réseaux sociaux, le temps réel, les addicts de l’information ont de quoi assouvir leur dépendance. C’est dans cet espace que l’on voit apparaître un désir de traitement de l’information différent, plus proche des besoins du récepteur. Du journalisme de liens à l’hyperlocal (ou micro local), l’enjeu est bien celui des données. Ce que l’on appelle data(base) journalism, le journalisme de données, s’inscrit clairement dans trois trajectoires de l’ère de l’Information dans laquelle nous venons à peine de rentrer.

Le premier point, sur lequel je ne m’épancherai pas car Caroline Goulard dresse un état des lieux lucide dans un mémoire, est la crise/disparition de la presse papier, l’avènement du web et les changements profonds qu’ils provoquent dans l’économie de la presse.

Raw Data Now

La seconde trajectoire est plus scientifique et concerne le web sémantique, un web des données. Avec un approfondissement et une complexification du web, c’est un saut quantitatif et qualitatif sans précédent, aux conséquences socio-économiques encore largement insoupçonnées. Afin de donner de l’élan à ce web de données, Tim Berners Lee (créateur du web) a lancé le paradigme Linked Data ou données liées. Son slogan Raw Data Now suppose de libérer les données telles qu’elles. C’est la première étape inévitable pour un web avec plus de sens, un web « sémantisé ». Lancé par le gouvernement Obama et leur data.gov, ou des organismes tels que la Sunlight Foundation, on assiste aujourd’hui à de véritables lâchés de données.

La visualisation de données est un des grands défis de ce siècle.

Que faire de ces données brutes ? La réussite des visualisations graphiques interactives du New-York Times relève de leur capacité à faire travailler ensemble journalistes, interaction designers et développeurs afin de donner du sens à l’intéractivité, un sens visuel… à des données qui n’en ont pas, de leur donner une lisibilité, une accessibilité. C’est là toute la difficulté et c’est de la synergie des différents métiers que naîtra la cohérence. Ce traitement de l’information est vraiment pertinent lorsque l’on pense que nous n’en sommes qu’au début du tout numérique. Le lecteur des journaux gratuits chaque matin trouvera certainement un intérêt dans des e-books (Kindle, Tablet Mac) s’ils apportent une réelle plus-value à un canard papier, s’il peut prendre part à ce qu’il regarde, s’il peut jouer avec l’information. L’expérience sera pour lui plus enrichissante, en opposition avec le journalisme narratif. Je vous invite à regarder cette vidéo avec Manuel Lima, Interaction Designer et fondateur de VisualComplexity.com, au sujet de la visualisation de données.

Statistical thinking will one day be as necessary for efficient citizenship as the ability to read and write.

George Wells n’avait pas tort. Cependant, nous ne sommes pas encore dans un contexte de data-obésité comme on peut connaître aujourd’hui une infobésité réelle. Tout comme l’information signifie pouvoir, il y a beaucoup de réticences à libérer des données, notamment en France. Data War ?

En conclusion, je vous laisse lire Eric Scherer, directeur stratégie et relations extérieures de l’AFP :

L’an dernier, la page la plus visitée du site du New York Times fut une infographie interactive. Le problème, c’est que les groupes de presse français disent ne pas savoir où trouver les talents pour faire un travail de cette qualité.

Pour aller plus loin : L’information, source de pouvoir

Illustration : www.memoclic.com

66 visualisations et exemples de database journalism

Bookmark and Share

Lorsque j’ai lancé ce blog, je pensais avant tout en faire un atelier de travail pour un (éventuel) projet de lancement de site de database journalism. Il me semble naturel d’y publier quelques travaux préparatoires. Voici un premier document, compilation des différentes visualisations repérées depuis trois mois.

Il y a aura une suite et des améliorations. Il y aura aussi, je l’espère, vos commentaires, remarques et suggestions 🙂

Creative Commons License

Quel modèle de circulation des contenus pour l’information en ligne ?

Bookmark and Share

A l’ordre du jour aujourd’hui : le modèle de circulation des contenus. Je vais faire un petit écart par rapport à la thématique directrice de ce blog. Les réflexions qui suivent ne concernent pas spécifiquement le database journalism, mais plus largement tout projet d’information en ligne.

J’ai remarqué que pour s’imaginer ce qu’est le Web, les métaphores spatiales sont souvent privilégiées. Ne parle-t-on pas de « visiteurs », de « navigation » ou d’ « adresse » ? (une analyse plus précise par  Denis Jamet ici)

Si on aborde le Web comme un espace, il existe alors plusieurs façons de concevoir un site d’information. Je vais développer deux grandes lignes.

1-Le site Web comme espace clos

Une première possibilité consiste à envisager un site d’information comme un espace clos à l’intérieur du Web. Les visiteurs entrent ou sortent du site, mais les contenus hébergés sur le site, eux, ne sont pas destinés à voyager.

C’est le modèle adopté à l’origine par les sites de la presse traditionnelle (même si les choses bougent un peu depuis). Certains ont même érigé des péages à l’entrée de leur domaine (lesechos.fr, le monde.fr et liberation.fr, en partie, leparisien.fr autrefois). Pour ces sites en mode « propriété », tout l’enjeu est d’attirer les visiteurs entre leurs murs, et de les y faire rester. On comprend alors qu’ils soient plutôt réticents à insérer des liens vers d’autres sites Web dans leurs propres contenus, surtout lorsqu’il s’agit de concurrents.

Plusieurs analyses peuvent démontrer que cette conception « propriétaire » du site d’information n’est pas la plus efficiente.

Tout d’abord l’idée que le nombre de liens sortants, et, plus largement, le degré d’ouverture du site améliorent l’audience d’un site d’information.

Voir à ce sujet l’étude de Patrick Le Floch, Christophe Cariou et Fabrice Le Guel La presse en ligne : audiences, contenus et hyperliens :

« Les résultats suggèrent assez clairement que la visibilité de la presse sur le web est bien moins importante pour son audience que le fait de permettre à ses lecteurs d’aller poursuivre leur lecture ailleurs. Alors que la presse en ligne tend encore à négliger l’importance des liens sortants, l’analyse présente suggère qu’ils ont déjà un impact relativement important. »

Mais également le fait que les 2/3 des visiteurs des sites d’information n’arrivent pas sur les contenus via la page d’accueil du site, mais viennent d’ailleurs. Et que cet « ailleurs » pourvoyeur d’audience gagnerait à être mieux pris en compte par les sites d’info.

Voir sur ce thème  La presse en ligne d’ailleurs vers ailleurs !, des mêmes Patrick Le Floch, Christophe Cariou et Fabrice Le Guel.

2-Les contenus décentralisés


A l’opposé de cette vision centralisée du site d’information,  on peut imaginer un modèle où le site comme espace clos perdrait sa pertinence au profit des contenus. Les briques d’information –articles, infographies, vidéos, photos…- acquerraient alors un statut d’atomes autonomes, libres de vagabonder sur la Toile, de s’assembler dans un site ou de se démultiplier. L’activité des journalistes n’est alors plus d’alimenter un site mais de produire des contenus affichant le même ADN, celui d’une marque d’information.

Qu’importe alors le nombre de visiteurs du site, ce qui compte c’est la visibilité des contenus d’une marque. Cela suppose d’en organiser la diffusion et de penser leur exportabilité dès leur création. Diffusion sur les réseaux sociaux, bien sûr, mais plus largement auprès de toute communauté pour laquelle ce contenu aura de la valeur. Cela peut prendre la forme de flux RSS, d’outils de partage, de code ouvert, mais aussi de syndication, de partenariats, etc.

Les acteurs du Web 2.0 s’identifient totalement à ce deuxième modèle décentralisé et ouvert. Ils ont compris qu’il n’y a pas d’intérêt à garder les usagers à l’intérieur de leurs sites, et que leur rôle est moins d’ériger des frontières que d’organiser la circulation et le partage de l’information, de faciliter sa prise en main, son analyse et son commentaire.

Narvic, dans son post Comment les pros de l’info tentent un hold-up sur Internet, décrit un « écosystème » de l’information dans lequel les contenus journalistiques n’existent que par leur diffusion et leur réappropriation par les blogueurs, les agrégateurs, voire même les moteur de recherche.

« La question est d’assurer la liberté, la qualité et la fiabilité de l’information sur internet, puisque c’est désormais là, de plus en plus, que les gens cherchent à s’informer. La question doit donc être envisagée au niveau global de cet « écosystème » de l’information et de tous les acteurs qui y participent en ligne : c’est à dire, certes, des entreprises de presse et des journalistes, mais aussi les internautes dans leur ensemble, qui « votent avec leurs claviers » et participent ainsi directement à la détermination de l’agenda de l’information et à sa difusion, et aussi la petite minorité d’entre eux qui participent et s’expriment : écrivent des commentaires et des billets de blog, postent des photos et des vidéos, diffusent des liens vers les contenus qu’ils recommandent. Cela concerne aussi, bien entendu, les acteurs du net qui mettent à la disposition des internautes les moyens et les outils qui permettent à cet écosystème de fonctionner : moteurs, agrégateurs, plateformes de partage et réseaux sociaux. »

Les entreprises de presse traditionnelle commencent à comprendre l’intérêt d’organiser la diffusion et le partage de leurs contenus, mais conservent une vision de leur site Web comme espace clos d’hébergement, dont il faut maximiser l’audience.

Les propos de Guillaume Bournizien, membre du département marketing et nouveaux médias du Figaro, dans l’article d’Easybourse.com « Twitter un vecteur d’audience intéressant pour les médias ? » sont une bonne illustration:

«l’objectif est d’amener un maximum de trafic sur le site par le biais d’une stratégie de déportalisation. L’idée étant que demain l’internaute accédera au contenu non pas en allant sur le site, mais en allant sur d’autres services».


Quelques pistes pour l’avenir

Reste désormais à inventer un nouveau mode d’organisation des contenus informationnels qui allierait la souplesse de contenus autonomes et la puissance d’une marque d’information crédible et reconnue.

Pourrait-on encore appeler ça un site d’information ?

Bien des questions se posent.

Qu’advient-il de la page d’accueil ? A-t-elle perdu toute raison d’être ? Faut-il la conserver comme vitrine de la marque uniquement ? Peut-elle encore servir comme espace de diffusion de contenus et de réorientation des visiteurs ?

Comment construire un modèle économique sur de tels postulats ? Pas question de reconstruire des zones payantes, bien évidemment. Pour valoriser économiquement un tel modèle d’information, il faudrait d’abord remettre en cause les pratiques actuelles. Cesser de mesurer la performance d’un site à son nombre de visiteurs uniques. Favoriser l’audience de la marque sur celle du site. Revoir tous les indicateurs actuellement plébiscités, du temps passé sur le site au taux de rebond. (Sur la non pertinence du taux de rebond, voir l’analyse très claire d’Arnaud de la communauté WordPress) Ces indicateurs collent bien au modèle du site d’information centralisé, mais il ne prennent pas en compte les contenus. Ils encouragent les rédactions Web à emprisonner les visiteurs entre les murs de leurs sites et prennent mal en compte les pratiques de lecture par flux RSS ou via les réseaux sociaux.

Même les formats publicitaires doivent être repensés. Qu’adviendra-t-il des bandeaux si l’audience est liée au contenu et non à la page ?

Beaucoup de pistes, peu de réponses. Mais j’attends avec impatience vos réactions : cela vous semble-t-il complètement utopique ?

Pour approfondir

Quelque articles de Narvic pour identifier les influences de mes réflexions :

Creative Commons License

Illustrations : Stock.XCHNG

« On l’a pas en format ordinateur »

Bookmark and Share


Nicolas Kayser-Bril, data journaliste et blogueur invité, propose un retour d’expérience sur un projet qu’il publiera au printemps prochain

Un projet de database journalisme commence toujours par la récolte des données. Très opportunément, plein d’organismes étatiques adorent collecter des données, que ce soit le nombre de plantations de kiwi dans le Tarn-et-Garonne (187 d’après Agreste) ou le nombre de menaces ou chantage dans le Nord (384 en octobre d’après Cartocrime).

L’administration adore les bases de données. Et souvent, elle ne rechigne pas à les mettre en ligne.

Là où le bas blesse, c’est qu’elle fait tout pour que ces données restent cloisonnées, en dehors du web. La preuve ? Impossible de faire un lien vers les ressources que j’ai citées plus haut.

Je travaille en ce moment sur un projet agrégeant des données départementales. Ce qui implique d’appeler chaque préfecture. A quelques exceptions près, les fonctionnaires transmettent les fichiers demandés (faut dire que ce sont des données déjà publiées hors-ligne).

La qualité des documents, en revanche, laisse à désirer. 20% des fichiers sont au format Excel. 10% au format Word. Le reste, du PDF. En enlevant les tableurs faits avec les pieds et en rajoutant les pdfs convertis depuis Excel, environ 25% des données sont structurées, c’est-à-dire lisibles par un ordinateur.

Exemple imaginaire :

Donnée non-structurée : « Les classes de CM2 de l’école du quartier Saint-Jean sont fermées pour cause de grippe A. Les élèves concernées sont priés de rester chez eux, sauf ceux inscrits à la chorale, qui pourront répéter à l’école Jean Moulin. »

Donnée structurée :

Au-delà du problème de la structuration des données, force est de constater que les administrations ont du mal à passer à l’informatique. Un nombre non-négligeable de préfectures, environ 10%, n’y comprennent tellement rien que j’ai eu du mal à ne pas mourir de rire au téléphone.

La palme de l’inefficacité revient à celles qui ont pris le temps de scanner des documents Word imprimés. Mais le meilleur reste cette réplique d’un charmant fonctionnaire d’Evreux : « Désolé, on l’a pas en format ordinateur ».

Ouvrir les données, c’est bien. Les rendre exploitables, c’est mieux. Dans la plupart des pays moins corrompus que la France, l’accès aux données est une question réglée depuis plusieurs années. Le nouveau débat concerne leur format et leur facilité d’accès.

Le Sénat américain propose le résultat des votes au format XML depuis mai dernier. Beaucoup plus simplement, le gouvernement suédois tente de rassembler en un même portail l’ensemble des bases de données de ses ministères en indiquant leur degré de structuration (opengov.se).

Le problème a apparemment été discuté à l’Opendata Barcamp à Paris vendredi dernier (mais pas moyen de savoir quelles en ont été les conclusions).

Auteur : Nicolas Kayser-Bril

Creative Commons License

Illustration : www.photo-libre.fr

Le décryptage économique : un créneau porteur pour le database journalism

Bookmark and Share


Un récent article de Slate.fr (La télévision française est nulle en économie, 23/11/09, par Oriane Claire), a confirmé mes intuitions : le décryptage de l’information économique pourrait être un créneau porteur pour le database journalism.

Selon un sondage BVA pour le Codice (Conseil pour la diffusion de la culture économique), « 2 Français sur 3 ont soif d’économie ». 71% des sondés estiment que les Français en général sont plutôt mauvais, voire très mauvais, en économie, et 79% aimeraient trouver des émissions télé de décryptage aux heures de grande écoute.

Slate.fr apporte quelques précisions :

« 65% des sondés se disent «mal» informés des changements qui se produisent dans la vie économique en France et pourtant 74% d’entre eux pensent que l’économie est plus importante que la politique.. »

Premières conclusions : il existe une vraie demande pour de l’information économique, et surtout pour de la vulgarisation économique. Les Français sont confrontés à un problème d’accessibilité : l’information existe (Les Echos, La Tribune, sites Web spécialisés), mais ils peinent à la comprendre et à se l’approprier.

Voilà pour la demande, voyons maintenant la perception de l’offre d’information économique.

L’article de slate.fr nous fournit quelques chiffres, toujours en s’appuyant sur le sondage du Codice…

La télévision est donc le média le plus consulté pour l’information économique, et pourtant son offre en la matière est loin d’être satisfaisante, comme l’explique Oriane Claire :

« Les programmes ne parlent pas d’économie, ils expliquent comment faire des économies ou comment éviter les arnaques, c’est du conso mag, rien de plus. »

Principale conclusion à tirer sur l’offre d’information économique : elle ne correspond pas aux attentes et aux pratiques des Français.

En appliquant quelques principes basiques de marketing, on devrait déduire de tout ça qu’une offre de contenus clairs et faciles à comprendre, permettant de mieux comprendre l’actualité économique, aurait toutes les chances de rencontrer un public.

Reste à déterminer la forme et le support de ces contenus. Pourquoi pas un site Web de journalisme de données ? La suite de l’article de slate.fr me donne deux raisons de penser que l’idée serait pertinente.

Premièrement, Oriane Claire déplore que la télévision nuise à la bonne compréhension de l’environnement économique, car elle aborde ce sujet par des histoires individuelles plus que par des nombres. Les récits, les témoignages se prêtent mieux au petit écran que les évolutions dans le temps. Le reproche d’Oriane Claire à la télévision pourrait tout aussi bien être fait à la radio ou à la presse traditionnelle. On reconnaît ici le biais du traitement de l’information évoqué par Adina Levin avec le concept de frogboiling : lorsque le traitement de l’actualité se focalise sur les événements, il ne permet pas de faire émerger les tendances de fond. D’où l’importance d’aborder l’information économique via les bases de données, qui permettent de re-contextualiser des chiffres dans le temps et l’espace.

Deuxièmement, selon les spécialistes de l’audiovisuel cités par la journaliste, l’information économique est peu traitée à la télévision car elle « n’est pas visuelle, elle ne rend pas sur écran ». Sous entendu : l’information économique serait mieux traitée par des mots que par des images. A mon avis, ces spécialistes se trompent complètement. Les sondés du CODICE expriment une attente d’information économique simplifiée, contextualisée et facile à appréhender. Impossible à faire passer dans un article de presse, à moins de rédiger un manuel d’économie pour les nuls (je ne vous refais pas la démonstration de cette affirmation, vous la trouverez ici). Plus que par des images, l’information économique doit être traitée par de la visualisation pour répondre aux besoins des Français. Le PIB, la dette publique, le nombre de chômeurs… autant de données qui ne peuvent être comprises sans être mises en relation avec les résultats des années précédentes, les chiffres des autres pays ou le poids de tel ou tel indicateur dans la constitution d’un indice. Encore une fois, tout converge pour conclure que le journalisme de données est la meilleure manière de traiter l’information économique, et qu’il existe là un créneau qui me semble porteur.

Je vais terminer ma démonstration par un exemple. Dans son article, la journaliste Oriane Claire s’attarde sur le traitement du surendettement. Phénomène traité avec un ton tragique à la télévision, mais sans mise en perspective avec la part de la population concernée (moins de 1% des foyers français). Le journaliste de données aurait ici privilégié une comparaison entre la part des foyers surendettés et la part des foyers qui épargnent. Il aurait ainsi pu faire remarquer, comparaisons internationales à l’appui, que la France bénéficie d’un taux d’épargne parmi les plus élevés au monde. Et s’il avait été inspiré, notre journaliste de données en aurait profité pour mettre en relation l’endettement des ménages français (très faible) avec celui de l’Etat français (très fort), une situation qu’il est très intéressant de comparer avec celle d’autres pays européens. En Grande Bretagne par exemple, la situation est inverse, avec un fort endettement privé et un faible endettement public.

Pour le moment, seuls 28% des français consultent de l’information économique sur Internet (sondage CODICE). Gageons que le database journalism fera évoluer cette situation.

Creative Commons License


Inscrivez votre adresse e-mail pour vous abonner à ce blog et être averti de mes nouveaux posts par e-mail

Rejoignez 25 autres abonnés

Sélection de liens

Contact :

goulard.caroline@gmail.com

Blog Stats

  • 34,195 hits

Visuel d'en-tête : Photos Libres