Archive for the 'Le database journalism : Pourquoi?' Category

Quatre voies du datajournalism

J’ai eu l’impression, ces derniers jours, de répéter plusieurs fois la même chose à des personnes différentes. (Ce qui est un vrai plaisir quand il s’agit de datajournalism). D’où l’idée d’articuler ici ces quelques éléments récurrents.

Finalement, le datajournalism ou journalisme de données, peut difficilement se résumer à un type de contenu ou à un type de démarche. J’ai identifié quatre dimensions, et pour chacune les compétences nécessaires à sa mise en œuvre :

1-Compréhension : Le datajournalism permet de mieux comprendre le monde.

Pour cette visualisation des succès au box office américain depuis 1986, l’équipe du nytimes.com a particulièrement travaillé sur la forme des courbes, et leur couleur.


Le datajournalism, c’est de la visualisation d’information. C’est une des composantes du traitement rich media (tel que le défini Alain Joannes), une des applications du journalisme visuel. Dans cette première logique, le datajournalism permet de faire comprendre par l’image certaines idées bien mieux que ne le feraient des mots.

Le datajournalism fait ici appel aux compétences des graphistes et aux connaissances en sémiotique visuelle ou en sémiologie graphique : pour que chaque forme et chaque couleur fasse sens instantanément.

Pour faire comprendre une affaire d’espionnage politique à Madrid, elpais.com a mis au point une visualisation animée et interactive.

Mais le datajournalism va au delà de l’infographie car il ne s’adresse pas uniquement à l’intelligence visuelle, il travaille également sur l’intelligence cinétique. En datajournalism la visualisation est forcément interactive. Elle doit permettre à l’internaute de jouer avec les données, de manipuler la visualisation. Plongé dans une posture active, l’usager appréhende et mémorise plus facilement l’information.

La datajournalism ne pourra donc pas se passer des compétences d’un interaction designer. Ni de celles d’un ergonome.

2.Personnalisation :  Le datajournalism permet de personnaliser la vue sur le monde

Gapminder permet de visualiser à la demande les relations entre différents indicateurs statistiques mondiaux.

Le datajournalism, c’est aussi de l’information à la carte. Un des moyens de répondre à la fragmentation des audiences.

La visualisation de données consiste à bâtir une interface graphique pour accéder à une base de données. Cela permet bien sûr de proposer un aperçu de gros volumes de données, d’en faire jaillir le message essentiel. Mais cela ouvre également la possibilité d’interroger n’importe quelle partie de cette base de données, et de la rendre accessible et compréhensible instantanément. Ainsi, une des dimensions de l’interactivité consiste à rendre la visualisation librement paramétrable. Une application de datajournalism peut alors répondre toutes les attentes particulières des internautes autour d’un thème d’information.

Les savoir-faire d’un architecte de l’information deviennent ici utiles.

3.Investigation : Le data journalisme permet d’éclairer autrement le monde.

En analysant un document de 458 mille pages sur les notes de frais des députés britanniques, le Guardian a révélé des abus dans l’utilisation des fonds publics britanniques.

Le datajournalism est également un outil d’investigation. Les bilans de la cour des comptes, les rapports du FMI, les statistiques de l’OCDE, etc., contiennent énormément de matériau pour le journalisme d’investigation. Seulement, il faut savoir faire parler ces données. C’est à dire qu’il faut prendre le temps de les lire, qu’il faut savoir les interpréter, qu’il faut des outils pour appréhender des tendances à partir de gros volumes de données, qu’il faut avoir l’idée de croiser une base de données avec une autre, etc., pour faire apparaître des informations jusque là ignorées.

Interroger les données plutôt que les témoins est un art encore très délaissé par les médias français. Peut-être parce que cela suppose d’emprunter des outils et des méthodes aux sciences (voir la brillante illustration de Fabrice Epelboin sur RWW France) : pour extraire de l’information d’immenses bases de données, il n’y pas d’autres moyens que de construire des modélisations, que d’utiliser des outils de gestion de la complexité.

Impossible de réaliser ce genre d’investigation sans statisticien.

4.Participation : Le data journalism permet de participer à la description du monde

Avec l’aide de 200 internautes, l’équipe d’Owni.fr a géolocalisé les bureaux de votes français et a rendu cette base de données gratuite, ouverte et libre.

Enfin, le datajournalism suppose parfois de faire appel au crowdsourcing pour collecter les données et pour les qualifier. Lorsque la base de données n’existe pas, lorsqu’il est matériellement impossible qu’un petit groupe de personnes collecte toutes les données sur un sujet, la force du datajournalism réside dans sa capacité à fédérer la participation des internautes pour obtenir des données à faire parler.

Cela nécessite un gros travail d’animation de communauté.

Il faut encore mentionner deux compétences indispensables au datajournalism, et transversales à ces quatre dimensions.

Tout d’abord les savoir-faire des développeurs. Développeur axé back office et data, pour construire et gérer les bases de données, mais aussi développeur axé animation, flash, et front office.

Et pour finir, pas de datajournalism sans travail d’éditorialisation. Par éditorialisation j’entends : problématisation, inscription dans le débat public, storytelling, hiérarchisation, définition d’un angle de traitement de l’actualité et d’un message à délivrer. Vous remarquerez que j’esquive volontairement la référence au journalisme. Je suis persuadée qu’il n’est pas besoin de se définir comme journaliste pour être capable de remplir ce rôle d’éditorialisation. Maintenant, est-ce que ce travail d’éditorialisation est du journalisme ? Je vous laisse en débattre.

Creative Commons License

Data journalism : pourquoi les médias français ne s’y mettent pas ?

Bookmark and Share

Pourquoi les médias français se sont-ils si peu saisis du data journalism, à la différence des médias anglosaxons ? Quelques éléments de réponses ont déjà été apportés : par Valérie Peugeot sur www.lavoixdudodo.info et par Elodie Castelli sur www.journalismes.info. Après les études de cas, je vous livre ici ma synthèse. L’occasion de vous faire partager les enseignements tirés de cinq entretiens, réalisés en janvier dernier avec Hubert Guillaud, Jean Marc Manach et Charles Népote de la Fing, avec Fabrice Epelboin de RWW France et avec Nicolas Voisin de Owni.fr.

Comment expliquer le peu d’empressement des rédactions françaises à s’emparer du journalisme de données ? Plusieurs facteurs se combinent, certains relèvent des rédactions, d’autres de leur environnement

Côté rédactions :

Des rédactions en manque de moyens financiers…

Tout d’abord, côté rédactions traditionnelles, la plupart consacrent très peu de ressources à la R&D, et donc à du journalisme d’expérimentation, comme de la visualisation de données. La presse quotidienne n’en a tout simplement pas les moyens, les pure players difficilement. La presse magazine ou le secteur audiovisuel pourraient peut-être parier sur le journalisme de données, mais la crise économique ne les incite pas à de tels investissements.

Quelques exceptions néanmoins : l’Express.fr a recruté deux documentalistes pour réfléchir sur la structuration de données (plus d’info sur le blog d’Eric Mettout) ; France 24 mène un gros travail autour du Web sémantique au sein de son Lab (plus d’info sur le blog de Mikiane)

… en manque de moyens humains

Les rédactions ne sont pas seulement appauvries sur le plan financier, elles manquent aussi de ressources humaines. Car le data journalism nécessite du temps et des compétences : en datamining, en statistiques, en développement, en web-design, en interaction design, en sémiologie visuelle…

Actuellement, personne en France n’a réussi à réunir le bon mix de compétences. Pourtant, c’est sans doute ce qui fait le succès des visualisations du nytimes.com depuis deux ans : le titre fait travailler ensemble des ingénieurs, des infographistes et des journalistes, tous payés le même salaire et sur un même pied d’égalité. Rien à voir avec l’état d’esprit des rédactions françaises, dans lesquelles les « informaticiens » sont déconsidérés.

Ce cloisonnement des rédactions est sans doute un peu moins prégnant lorsqu’on s’intéresse aux rédactions web, mais il n’en reste pas moins un frein au développement du data journalism en France.

… en manque de culture web

Tout simplement, les rédactions traditionnelles n’ont souvent pas l’intuition du data journalism. La plupart du temps, elles ont un train de retard par rapport aux développements du web. Les écoles de journalisme commencent juste à intégrer le journalisme d’innovation et le web dans leurs enseignements. Pour beaucoup des acteurs de ce secteur, cela reste encore un truc de « geek ».

… en manque d’approche statistique

Ce manque d’intuition n’est pas sans rapport avec une culture journalistique très française. Une certaine hagiographie du journalisme made in France prend racine dans l’opposition « facts vs fiction » : opposition entre le journalisme de faits à l’anglo-saxonne et le journalisme littéraire et d’opinion du pays d’Albert Londres. La mythologie journalistique française sacralise la belle plume et le subjectivisme. Sur ce terreau pousse la défiance de nombreux journalistes envers tout ce qui pourrait paraître trop rationaliste, trop technophile ou trop américain.

A ceci s’ajoute la faible culture mathématique, statistique et scientifique de bien des rédacteurs de presse généraliste.

Aversion à mettre les mains dans les données brutes, malaisance avec les valeurs chiffrées, crainte de voir les techniciens commander les rédactions : autant de sensations diffuses qui ne facilitent pas la reconnaissance du data journalism en France.

Pour trouver quelques affinités entre la visualisation de données et l’histoire française, il faut sortir du champ journalistique et se pencher sur celui de la sémiologie. En particulier, la sémiologie graphique, inventée en France par Jacques Bertin, aborde les problématiques de visualisation d’informations géographiques.

Des journalistes américains au service des communautés locales ?

Enfin, une dernière hypothèse pourrait expliquer l’affinité des médias anglosaxons avec le data-journalism. Les journalistes américains se considèrent peut-être plus comme étant au service d’une communauté.

Aux Etats-Unis, les journalisme de données s’est beaucoup développé à l’échelon local avec du crimemapping et des services pratiques (les horaires d’ouvertures des magasins, par exemple). La référence en la matière reste EveryBlock d’Adrian Holovaty : un « agrégateur-visualiseur » de données micro-locales (critiques de restaurants, prix de l’immobilier, etc.).

Les données jouent un rôle important dans la valorisation des territoires. Le journalisme de données, au niveau hyperlocal, peut ainsi être utilisé par les rédactions pour générer de la proximité avec les communauté d’habitants pour lesquelles elles travaillent.

Côté environnement :

Une autre dimension doit être prise en compte : le journalisme de données ne dépend pas uniquement des journalistes, mais également des données à leur disposition.

Une culture de la transparence différente entre la France et les pays anglo-saxons

Et, là aussi, la France est à la traine par rapport aux anglosaxons. Les Etats-Unis et la Grande Bretagne se sont illustrés par leurs mouvements d’ouverture des données : avec les sites gouvernementaux data.gov et data.gov.uk, mais aussi avec de puissants militants de la cause de l’opendata, la Sunlight Foundation aux Etats-Unis, et le datablog du Guardian en Grande Bretagne.

Ici encore, on pourrait invoquer un fossé culturel : la culture anglo-saxonne de la transparence dans la gestion publique n’a pas d’équivalent en France. La campagne « Give us back our crown jewels », portée par le Guardian en 2006, ne pourrait pas avoir d’écho sur nos terres républicaines. Pourtant elle a joué un rôle important dans la libération des données publiques en Grande Bretagne. Le Guardian a ainsi activement milité pour que les données collectées grâce à l’argent du contribuable britannique soient accessibles gratuitement, afin de stimuler l’innovation. Il a joué un rôle d’exemplarité en ouvrant ses propres bases de données (DataStore) et en organisant un concours d’applications basées sur ces données libérées. (Voir à ce sujet l’article de Jean Marc Manach « Les joyaux de la couronne n’appartiennent à personne »)

Pas de consensus sur la valeur économique de l’ouverture des données en France

Dans son plaidoyer pour l’ouverture des données, le Guardian insistait sur l’enjeu économique de l’ouverture des données publiques : une meilleure valorisation des données stratégiques, plus de services, plus d’opportunités commerciales, plus d’innovation, moins d’asymétrie informationnelle et donc des marchés plus efficients, et au final, un plus grand dynamisme économique.

En France, il n’y a pas de consensus sur la valeur économique des données publiques. Les entreprises dont l’activité repose sur la privatisation de données n’ont pas intérêt à leur ouverture. L’avantage économique de la libération des données ne s’est pas imposé face aux gains espérés de leur monétisation via la vente de licences. C’est ainsi, par exemple, que l’IGN continue à faire payer l’accès à une importante partie de ses bases de données. (voir ce précédent post pour plus d’info)

Les conditions juridiques de la réutilisation des bases de données

Sans aller jusqu’à dire que l’appareil juridique français est un frein à l’ouverture des données, il faut garder en tête certaines particularités de notre droit des bases de données.

Premier point : le droit d’auteur. Les données brutes ne sont pas, en elles-mêmes, soumises au droit d’auteur mais une base de données peut être protégée par le droit d’auteur si elle découle d’un acte de création intellectuelle, c’est-à-dire si elle témoigne d’une originalité caractérisée. L’auteur de la base de données jouit alors d’un monopole d’exploitation de son œuvre (droits patrimoniaux) ainsi que de droits au respect de l’intégrité de son œuvre et au respect de sa paternité sur l’œuvre (droits moraux).

Deuxième point : le droit des producteurs de bases de données. Lorsque la création d’une base de données nécessite un investissement financier, humain et matériel substantiel, le droit des producteurs reconnaît au créateur un droit de protection analogue à celui de l’auteur sur son œuvre. Cette disposition est destinée à protéger l’investissement des personnes qui prennent l’initiative et le risque économique de créer une base de données. Cette protection garantit au producteur de la base de données un monopole d’exploitation, il peut interdire toute extraction substantielle de données de sa base.

Pour plus de détails voir la très bonne synthèse de Didier Frochot sur les-infostratèges.com et l’étude de la jurisprudence par Bernard Lamon.

Troisième point : la CNIL et les dispositions relatives à la protection de la vie privée. Toute base de données impliquant des données nominatives et/ou personnelles doit faire l’objet d’une déclaration à la CNIL. La collecte et la conservation des données d’une telle base sont également soumises à conditions (voire le site de la CNIL pour plus d’info). De même, doit être soumis à la CNIL tout croisement de bases de données qui aboutirait à qualifier des données personnelles.

L’enjeu de la structuration des données

Enfin, l’ouverture des données repose avant tout sur un enjeu d’accessibilité. Certes, on trouve aujourd’hui de nombreuses données chiffrées sur des organismes publics ou privés. Mais bien souvent ces données sont perdues au milieu de fichiers pdf, éparpillées entre des masses de texte, scannées en format image… et lorsqu’il s’agit de croiser de bases de données, on se retrouve face à des formats disparates et peu malléables… bref, les données sont rarement structurées.

D’accord, la loi du 17 juillet 1978 reconnaît à tout citoyen français le droit d’obtenir communication des documents détenus par une administration.

D’accord, une autorité administrative dédiée, la CADA (commission d’accès aux documents administratifs), veille au bon respect de ce droit d’accès aux documents administratifs.

Mais rien n’oblige les administrations à communiquer leurs données sous format numérique, encore moins de façon structurée.

Sur ce sujet, l’expérience de Nicolas Kayser-Bril est édifiante (voir l’article « On l’a pas en format ordinateur »).

Creative Commons License

Illustration : http://www.sxc.hu/

Data Data Data

Bookmark and Share

Ce billet a été rédigé par Benoit Vidal, étudiant en 4ème année à l’École des Hautes Études des Technologies de l’Information et de la Communication.

Cela fait déjà quelques temps que l’on peut considérer que nous sommes en pleine infobésité. Avec les blogs, les réseaux sociaux, le temps réel, les addicts de l’information ont de quoi assouvir leur dépendance. C’est dans cet espace que l’on voit apparaître un désir de traitement de l’information différent, plus proche des besoins du récepteur. Du journalisme de liens à l’hyperlocal (ou micro local), l’enjeu est bien celui des données. Ce que l’on appelle data(base) journalism, le journalisme de données, s’inscrit clairement dans trois trajectoires de l’ère de l’Information dans laquelle nous venons à peine de rentrer.

Le premier point, sur lequel je ne m’épancherai pas car Caroline Goulard dresse un état des lieux lucide dans un mémoire, est la crise/disparition de la presse papier, l’avènement du web et les changements profonds qu’ils provoquent dans l’économie de la presse.

Raw Data Now

La seconde trajectoire est plus scientifique et concerne le web sémantique, un web des données. Avec un approfondissement et une complexification du web, c’est un saut quantitatif et qualitatif sans précédent, aux conséquences socio-économiques encore largement insoupçonnées. Afin de donner de l’élan à ce web de données, Tim Berners Lee (créateur du web) a lancé le paradigme Linked Data ou données liées. Son slogan Raw Data Now suppose de libérer les données telles qu’elles. C’est la première étape inévitable pour un web avec plus de sens, un web « sémantisé ». Lancé par le gouvernement Obama et leur data.gov, ou des organismes tels que la Sunlight Foundation, on assiste aujourd’hui à de véritables lâchés de données.

La visualisation de données est un des grands défis de ce siècle.

Que faire de ces données brutes ? La réussite des visualisations graphiques interactives du New-York Times relève de leur capacité à faire travailler ensemble journalistes, interaction designers et développeurs afin de donner du sens à l’intéractivité, un sens visuel… à des données qui n’en ont pas, de leur donner une lisibilité, une accessibilité. C’est là toute la difficulté et c’est de la synergie des différents métiers que naîtra la cohérence. Ce traitement de l’information est vraiment pertinent lorsque l’on pense que nous n’en sommes qu’au début du tout numérique. Le lecteur des journaux gratuits chaque matin trouvera certainement un intérêt dans des e-books (Kindle, Tablet Mac) s’ils apportent une réelle plus-value à un canard papier, s’il peut prendre part à ce qu’il regarde, s’il peut jouer avec l’information. L’expérience sera pour lui plus enrichissante, en opposition avec le journalisme narratif. Je vous invite à regarder cette vidéo avec Manuel Lima, Interaction Designer et fondateur de VisualComplexity.com, au sujet de la visualisation de données.

Statistical thinking will one day be as necessary for efficient citizenship as the ability to read and write.

George Wells n’avait pas tort. Cependant, nous ne sommes pas encore dans un contexte de data-obésité comme on peut connaître aujourd’hui une infobésité réelle. Tout comme l’information signifie pouvoir, il y a beaucoup de réticences à libérer des données, notamment en France. Data War ?

En conclusion, je vous laisse lire Eric Scherer, directeur stratégie et relations extérieures de l’AFP :

L’an dernier, la page la plus visitée du site du New York Times fut une infographie interactive. Le problème, c’est que les groupes de presse français disent ne pas savoir où trouver les talents pour faire un travail de cette qualité.

Pour aller plus loin : L’information, source de pouvoir

Illustration : www.memoclic.com

Le décryptage économique : un créneau porteur pour le database journalism

Bookmark and Share


Un récent article de Slate.fr (La télévision française est nulle en économie, 23/11/09, par Oriane Claire), a confirmé mes intuitions : le décryptage de l’information économique pourrait être un créneau porteur pour le database journalism.

Selon un sondage BVA pour le Codice (Conseil pour la diffusion de la culture économique), « 2 Français sur 3 ont soif d’économie ». 71% des sondés estiment que les Français en général sont plutôt mauvais, voire très mauvais, en économie, et 79% aimeraient trouver des émissions télé de décryptage aux heures de grande écoute.

Slate.fr apporte quelques précisions :

« 65% des sondés se disent «mal» informés des changements qui se produisent dans la vie économique en France et pourtant 74% d’entre eux pensent que l’économie est plus importante que la politique.. »

Premières conclusions : il existe une vraie demande pour de l’information économique, et surtout pour de la vulgarisation économique. Les Français sont confrontés à un problème d’accessibilité : l’information existe (Les Echos, La Tribune, sites Web spécialisés), mais ils peinent à la comprendre et à se l’approprier.

Voilà pour la demande, voyons maintenant la perception de l’offre d’information économique.

L’article de slate.fr nous fournit quelques chiffres, toujours en s’appuyant sur le sondage du Codice…

La télévision est donc le média le plus consulté pour l’information économique, et pourtant son offre en la matière est loin d’être satisfaisante, comme l’explique Oriane Claire :

« Les programmes ne parlent pas d’économie, ils expliquent comment faire des économies ou comment éviter les arnaques, c’est du conso mag, rien de plus. »

Principale conclusion à tirer sur l’offre d’information économique : elle ne correspond pas aux attentes et aux pratiques des Français.

En appliquant quelques principes basiques de marketing, on devrait déduire de tout ça qu’une offre de contenus clairs et faciles à comprendre, permettant de mieux comprendre l’actualité économique, aurait toutes les chances de rencontrer un public.

Reste à déterminer la forme et le support de ces contenus. Pourquoi pas un site Web de journalisme de données ? La suite de l’article de slate.fr me donne deux raisons de penser que l’idée serait pertinente.

Premièrement, Oriane Claire déplore que la télévision nuise à la bonne compréhension de l’environnement économique, car elle aborde ce sujet par des histoires individuelles plus que par des nombres. Les récits, les témoignages se prêtent mieux au petit écran que les évolutions dans le temps. Le reproche d’Oriane Claire à la télévision pourrait tout aussi bien être fait à la radio ou à la presse traditionnelle. On reconnaît ici le biais du traitement de l’information évoqué par Adina Levin avec le concept de frogboiling : lorsque le traitement de l’actualité se focalise sur les événements, il ne permet pas de faire émerger les tendances de fond. D’où l’importance d’aborder l’information économique via les bases de données, qui permettent de re-contextualiser des chiffres dans le temps et l’espace.

Deuxièmement, selon les spécialistes de l’audiovisuel cités par la journaliste, l’information économique est peu traitée à la télévision car elle « n’est pas visuelle, elle ne rend pas sur écran ». Sous entendu : l’information économique serait mieux traitée par des mots que par des images. A mon avis, ces spécialistes se trompent complètement. Les sondés du CODICE expriment une attente d’information économique simplifiée, contextualisée et facile à appréhender. Impossible à faire passer dans un article de presse, à moins de rédiger un manuel d’économie pour les nuls (je ne vous refais pas la démonstration de cette affirmation, vous la trouverez ici). Plus que par des images, l’information économique doit être traitée par de la visualisation pour répondre aux besoins des Français. Le PIB, la dette publique, le nombre de chômeurs… autant de données qui ne peuvent être comprises sans être mises en relation avec les résultats des années précédentes, les chiffres des autres pays ou le poids de tel ou tel indicateur dans la constitution d’un indice. Encore une fois, tout converge pour conclure que le journalisme de données est la meilleure manière de traiter l’information économique, et qu’il existe là un créneau qui me semble porteur.

Je vais terminer ma démonstration par un exemple. Dans son article, la journaliste Oriane Claire s’attarde sur le traitement du surendettement. Phénomène traité avec un ton tragique à la télévision, mais sans mise en perspective avec la part de la population concernée (moins de 1% des foyers français). Le journaliste de données aurait ici privilégié une comparaison entre la part des foyers surendettés et la part des foyers qui épargnent. Il aurait ainsi pu faire remarquer, comparaisons internationales à l’appui, que la France bénéficie d’un taux d’épargne parmi les plus élevés au monde. Et s’il avait été inspiré, notre journaliste de données en aurait profité pour mettre en relation l’endettement des ménages français (très faible) avec celui de l’Etat français (très fort), une situation qu’il est très intéressant de comparer avec celle d’autres pays européens. En Grande Bretagne par exemple, la situation est inverse, avec un fort endettement privé et un faible endettement public.

Pour le moment, seuls 28% des français consultent de l’information économique sur Internet (sondage CODICE). Gageons que le database journalism fera évoluer cette situation.

Creative Commons License

Pourquoi le journalisme de données c’est mieux que le journalisme tout court

Bookmark and Share



journal

J’ai déjà mentionné dans deux précédents posts (ici et ici) quelques avantages du journalisme de données, ou database journalism :

– Dans un contexte de défiance envers les médias traditionnels, les bases de données apportent une caution d’objectivité

– Auprès d’un grand public dont la culture mathématique reste limitée, l’infographie permet une meilleure appropriation des informations chiffrées

– Elle apporte à l’information une dimension ludique et interactive

– Elle permet aux internautes de personnaliser leur consultation de données, y compris via la géolocalisation

Mais, me répondrez-vous, si les bases de données présentent tant d’avantages, pourquoi les médias traditionnels n’en publient-ils pas plus ?

D’abord parce qu’ils n’en ont pas la place. L’espace est limité dans un journal, les TV n’ont que 24 heures de programmes par jour. Impossible dans ces conditions de donner accès sur chaque sujet à toutes les données, pour tous les échelons du territoire et sur toutes les périodes.

Sur Internet cette contrainte disparaît. Le coût de stockage des données diminue d’année en année, il sera bientôt nul, ou presque.

Autre obstacle au journalisme de données dans les médias traditionnels : leur aspect figé. Pas possible de zoomer sur un détail d’une carte ou de choisir les données à comparer entre elles dans un journal, ni de chercher les données pour ma ville via un moteur de recherche.

On comprend donc mieux pourquoi le database journalism n’a pas vraiment d’intérêt hors du Web.

D’autant plus que les bases de données en ligne présentent au moins trois autres avantages :

1/ Il s’agit d’un contenu evergreen, qui ne se périme pas. Les données et leur visualisation peuvent être réactualisées en permanence, voire même être rafraîchies en temps réel si les bases de données sont reliées à des capteurs.

2/ Le database journalism s’ajute parfaitement aux nouveaux modes de consommation de l’information en ligne. Les internautes ne reçoivent pas passivement les flux d’information comme ils lisaient le journal ou regardaient la télé, ils ont un comportement actif, commentent, complètent, créent ou diffusent ou agrègent des contenus. Les visualisations interactives de bases de données permettent justement une pratique active de l’information : il est possible de rechercher dans une base, de zoomer sur une carte, de personnaliser une infographie, de paramétrer les données à comparer, d’apporter ses propres données….

3/ Le journalisme de données permet d’atteindre le micro-local. Toutes les données hyperlocales, trop insignifiantes pour mériter un article dans la PQR, peuvent trouver leur place dans des bases de données destinées à de petites communautés. Ces dernières seront toujours intéressées par les chiffres de la délinquance dans leur quartier, les résultats scolaires des différentes écoles de la ville, ou la liste des restaurateurs qui s’approvisionnent chez les producteurs locaux.

J’espère vous avoir convaincu de l’intérêt du journalisme de données. Désormais, il ne reste plus qu’à… se mettre au travail : rassembler journalistes, statisticiens, designers et informaticiens pour  traiter, indexer et transformer des données brutes en infographies pleines de sens, pour penser leur diffusion sur Internet, pour organiser leur récupération, et les doter d’un modèle économique viable.

Illustration : www.photo-libre.fr

Creative Commons License

Le database journalism pour nous sauver du « frogboiling »

Bookmark and Share


Ou pourquoi le database journalism s’oppose au journalisme traditionnel

GRENOUILLE 5

Pour ce quatrième post, il me semble plus que temps d’esquisser une définition de mon sujet d’étude : en une phrase, le database journalism, ou journalisme de données, consiste à exploiter des bases de données pour en extraire de l’information compréhensible par tous.

Actuellement, les médias traditionnels traitent l’actualité par le récit (stories), ils racontent des histoires. A l’opposé, le database journalism initie un traitement de l’actualité par les données (data). Autrement dit : un dessin vaut mieux qu’un long discours.

Pour ceux qui ne verraient pas d’emblée l’attrait des données par rapport aux récits, je vous renvoie au vibrant plaidoyer de Nicolas Vanbremeersch (aka Versac) sur slate.fr (Pour un journalisme de données). Il y revient sur l’impressionnante ascension de Contador à Verbier, lors du dernier Tour de France, et regrette qu’aucun journal n’ait donné de réponses chiffrées à des questions comme : où se situe Contador par rapport à la vitesse de montée moyenne des coureurs ? que représente sa montée en terme de puissance ? à quoi la comparer ?…

L’homme fait une montée record, et, le lendemain, dans la presse, rien d’autre que du commentaire. On ne donne même pas son temps d’ascension, ou uniquement sur de très rares — et étrangers — sites web. Seule prime l’information de base (il a gagné), et vient ensuite immédiatement le temps du commentaire.

[…] Nulle part, sur le web ou dans le papier, le quidam ne peut retrouver un tableau simple, disposant les données objectives de la montée de Verbier. Nulle part, sur un des plus grands événements internationaux, générant un volume de commentaires et hypothèses absolument énorme […], on ne peut jouer avec des données simples: durée de la montée, poids du coureur, puissance développée, VO2Max…

Le débat, sur ces bases, est faussé. »

Ainsi, des données bien mises en valeur et intelligemment agrégées peuvent être un meilleur moyen de traiter une actualité qu’un article rédigé. Un vrai « renversement de perspective » pour reprendre les termes de Nicolas Kayser-Bril (blogueur sur Window on the media). L’unité de base de l’activité journalistique, traditionnellement, c’est l’article (story); avec le journalisme de donnée, ça devient la base de données. Le commentaire et la narration sont secondaires, les données chiffrées priment. Là où les journalistes traditionnels pensaient en terme de récit, de signature, de titraille, de chapeau et d’accroche, il s’agit de rendre visible les mêmes phénomènes mais à travers le langage des nombres, des bases de données, de l’infographie, de la cartographie et autres visualisations.

« Newspapers need to stop the story-centric worldview », enjoignait déjà en 2006 le journaliste américain Adrian Holovaty, précurseur sur ce thème, dans un article-plaidoyer pour le journalisme de données A fundamental way newspaper need to change.

Journalisme traditionnel et journalisme de données reposent sur deux modèles opposés. Le blogueur Adina Levin le démontre bien dans son post Database journalism – a different definition of “news” and “reader”. Au fondement du journalisme traditionnel on trouve le vieil adage selon lequel les trains qui arrivent à l’heure n’intéressent personne (le modèle man bites dog, en anglais). Seuls les faits inattendus, les événements soudains, méritent d’apparaître dans les journaux. Il est rare qu’on y rende compte des petites évolutions, des dynamiques de long terme.

Cette suprématie de l’actualité chaude rend nos sociétés vulnérables au frogboiling avertit Adina Levin. Le concept est tiré d’une légende urbaine selon laquelle la grenouille dont l’eau du bocal se réchauffe graduellement s’habitue au changement de température. Elle ne saute pas hors du bocal, même quand l’eau se met à bouillir. D’où, mort de la grenouille. De la même façon, l’encombrement de telle ou telle route départementale ne sera pas perçu comme un problème, jusqu’à ce qu’un grave accident ne fasse les gros titres.

En opposition au journalisme traditionnel, le database journalism met justement en valeur les tendances de fond et leur donne un sens. Par une visualisation appropriée, des données compilées depuis des années peuvent raconter des histoires.

Sans vouloir dramatiser en accentuant le côté « nos vies sont en danger sans journalisme de données », je crois qu’il existe de réelles attentes pour un traitement de l’actualité par les chiffres. L’absence d’une telle démarche à destination du grand public suscite un manque d’autant plus grand que le nombre de données structurées disponible augmente constamment. Dans son article Demain, l’intelligence des données, Hubert Guillaud (InternetActu) démontre que la masse de données brutes accessible via Internet va être décuplée dans les prochaines années, grâce au développement des capteurs, puces RFID ou autres interfaces connectées.

Sans attendre jusque là, les administrations françaises mettent à disposition de nombreuses bases de données. Pour autant, quel journal nous a présenté une infographie intelligente pour faire sentir l’ordre de grandeur de la dette publique, ou le niveau d’étude moyen des dirigeants des établissements publics français ?

Assez d’articles, on veut des contenus !

Creative Commons License

Illustration : www.photo-libre.fr

Le database journalism : à la croisée des grandes tendances du Web

Bookmark and Share


statistique

Comme expliqué dans la page « A propos », mon exploration du database journalism est sensée nourrir un projet de lancement d’un site d’info basé sur du journalisme de données.

Si je voulais faire simple, je pourrais résumer mon projet à un site d’infographies. Evidemment, ça ne serait pas aussi attractif : l’idée de compiler sur des pages Web des dizaines d’infographies telles qu’on a l’habitude de les voir dans les pages de nos journaux ferait même plutôt fuir.

Un petit post s’impose donc pour convaincre d’éventuels réticents que le journalisme de données, ou database journalism, est bien au cœur des dernières tendances du Web, et qu’il résonne de promesses captivantes.

Le database journalism s’inscrit à la croisée de plusieurs grandes tendances :

1/Le Web-design et la 3D : de l’infographie en trois dimensions, animée, percutante, ça change tout ! Ca pourrait même réconcilier nos concitoyens avec les nombres (cf sur ce blog: un problème avec les nombres ?).

2/La personnalisation : la délinéarisation, la fragmentation voire l’individualisation, de la consommation d’information sont désormais caractéristiques des usages du Web. La mise à disposition de bases données via des interfaces graphiques peut justement offrir une personnalisation poussée de l’information. Une infographie interactive peut ainsi être plus ou moins largement paramétrée par l’utilisateur : choix du zoom, délimitation de la zone géographique, sélection des dimensions comparées, personnalisation des critères de visualisation… Chaque infographie devient ainsi unique, parfaitement adaptée aux besoins d’un internaute à un moment précis de son parcours de navigation.

3/La géolocalisation : la personnalisation appliquée à la situation géographique de l’internaute. Cela peut permettre, par exemple, à chaque Internaute d’entrer dans les infographies différemment selon l’endroit où il se trouve. Résultat : un impact bien plus grand des données présentées. La carte du taux de mortalité par accident de la route suscite moins la curiosité si elle est présentée à l’échelle de la France qu’à celle de son quartier.

4/La transparence des données publiques : l’administration Obama a donné une vraie impulsion en janvier dernier en ouvrant l’accès à un catalogue de données brutes de l’Etat américain, sur le site data.gov. Le gouvernement britannique s’y est mis aussi (http://innovate.direct.gov.uk/). Le  mouvement d’ouverture des bases de données est lancé, mais les données brutes restent difficilement lisibles sans médiation graphique. Il ne reste donc plus qu’à s’en saisir pour y greffer des interfaces de visualisation éditorialisées. C’est ici que le database journalism trouve sa place.

5/Le Web social et le crowdsourcing: Non seulement les internautes ont la possibilité de personnaliser les infographies, mais ils peuvent également contribuer à récolter les données. Pour analyser les 458 mille pages sur les notes de frais des députés britanniques, le Guardian a, par exemple, demandé à ses lecteurs-volontaires d’analyser chacun un petit bout du document. La participation des internautes permet à la fois de collecter des données micro-locales et de fédérer des communautés autour des bases de données.

6/L’Internet des objets et le temps réel : l’étiquetage électronique des objets, via des puces Rfid capables de transmettre ou d’enregistrer des données, ouvre la voie à de nouvelles façons de collecter l’information. Un capteur, encapsulé dans une montre ou n’importe quel objet usuel, peut, par exemple, donner des indications géo-localisées, en temps réel, sur la pollution de l’air. La transmission des données entre puces Rfid et espaces de stockages numériques peut se faire automatiquement, et être intégrée à des infographies réactualisées en permanence. (Voir l’article de Daniel Kaplan sur InternetActu.net)

J’essaierai, bien entendu, de développer toutes ces dimensions du database journalism dans mes prochains posts.

Et, promis, je vous donnerai par la suite des exemples commentés de journalisme de données.

Creative Commons License

Illustration : www.photo-libre.fr

Inscrivez votre adresse e-mail pour vous abonner à ce blog et être averti de mes nouveaux posts par e-mail

Rejoignez 25 autres abonnés

Sélection de liens

Contact :

goulard.caroline@gmail.com

Blog Stats

  • 34,226 hits

Visuel d'en-tête : Photos Libres