Posts Tagged 'frogboiling'

Le décryptage économique : un créneau porteur pour le database journalism

Bookmark and Share


Un récent article de Slate.fr (La télévision française est nulle en économie, 23/11/09, par Oriane Claire), a confirmé mes intuitions : le décryptage de l’information économique pourrait être un créneau porteur pour le database journalism.

Selon un sondage BVA pour le Codice (Conseil pour la diffusion de la culture économique), « 2 Français sur 3 ont soif d’économie ». 71% des sondés estiment que les Français en général sont plutôt mauvais, voire très mauvais, en économie, et 79% aimeraient trouver des émissions télé de décryptage aux heures de grande écoute.

Slate.fr apporte quelques précisions :

« 65% des sondés se disent «mal» informés des changements qui se produisent dans la vie économique en France et pourtant 74% d’entre eux pensent que l’économie est plus importante que la politique.. »

Premières conclusions : il existe une vraie demande pour de l’information économique, et surtout pour de la vulgarisation économique. Les Français sont confrontés à un problème d’accessibilité : l’information existe (Les Echos, La Tribune, sites Web spécialisés), mais ils peinent à la comprendre et à se l’approprier.

Voilà pour la demande, voyons maintenant la perception de l’offre d’information économique.

L’article de slate.fr nous fournit quelques chiffres, toujours en s’appuyant sur le sondage du Codice…

La télévision est donc le média le plus consulté pour l’information économique, et pourtant son offre en la matière est loin d’être satisfaisante, comme l’explique Oriane Claire :

« Les programmes ne parlent pas d’économie, ils expliquent comment faire des économies ou comment éviter les arnaques, c’est du conso mag, rien de plus. »

Principale conclusion à tirer sur l’offre d’information économique : elle ne correspond pas aux attentes et aux pratiques des Français.

En appliquant quelques principes basiques de marketing, on devrait déduire de tout ça qu’une offre de contenus clairs et faciles à comprendre, permettant de mieux comprendre l’actualité économique, aurait toutes les chances de rencontrer un public.

Reste à déterminer la forme et le support de ces contenus. Pourquoi pas un site Web de journalisme de données ? La suite de l’article de slate.fr me donne deux raisons de penser que l’idée serait pertinente.

Premièrement, Oriane Claire déplore que la télévision nuise à la bonne compréhension de l’environnement économique, car elle aborde ce sujet par des histoires individuelles plus que par des nombres. Les récits, les témoignages se prêtent mieux au petit écran que les évolutions dans le temps. Le reproche d’Oriane Claire à la télévision pourrait tout aussi bien être fait à la radio ou à la presse traditionnelle. On reconnaît ici le biais du traitement de l’information évoqué par Adina Levin avec le concept de frogboiling : lorsque le traitement de l’actualité se focalise sur les événements, il ne permet pas de faire émerger les tendances de fond. D’où l’importance d’aborder l’information économique via les bases de données, qui permettent de re-contextualiser des chiffres dans le temps et l’espace.

Deuxièmement, selon les spécialistes de l’audiovisuel cités par la journaliste, l’information économique est peu traitée à la télévision car elle « n’est pas visuelle, elle ne rend pas sur écran ». Sous entendu : l’information économique serait mieux traitée par des mots que par des images. A mon avis, ces spécialistes se trompent complètement. Les sondés du CODICE expriment une attente d’information économique simplifiée, contextualisée et facile à appréhender. Impossible à faire passer dans un article de presse, à moins de rédiger un manuel d’économie pour les nuls (je ne vous refais pas la démonstration de cette affirmation, vous la trouverez ici). Plus que par des images, l’information économique doit être traitée par de la visualisation pour répondre aux besoins des Français. Le PIB, la dette publique, le nombre de chômeurs… autant de données qui ne peuvent être comprises sans être mises en relation avec les résultats des années précédentes, les chiffres des autres pays ou le poids de tel ou tel indicateur dans la constitution d’un indice. Encore une fois, tout converge pour conclure que le journalisme de données est la meilleure manière de traiter l’information économique, et qu’il existe là un créneau qui me semble porteur.

Je vais terminer ma démonstration par un exemple. Dans son article, la journaliste Oriane Claire s’attarde sur le traitement du surendettement. Phénomène traité avec un ton tragique à la télévision, mais sans mise en perspective avec la part de la population concernée (moins de 1% des foyers français). Le journaliste de données aurait ici privilégié une comparaison entre la part des foyers surendettés et la part des foyers qui épargnent. Il aurait ainsi pu faire remarquer, comparaisons internationales à l’appui, que la France bénéficie d’un taux d’épargne parmi les plus élevés au monde. Et s’il avait été inspiré, notre journaliste de données en aurait profité pour mettre en relation l’endettement des ménages français (très faible) avec celui de l’Etat français (très fort), une situation qu’il est très intéressant de comparer avec celle d’autres pays européens. En Grande Bretagne par exemple, la situation est inverse, avec un fort endettement privé et un faible endettement public.

Pour le moment, seuls 28% des français consultent de l’information économique sur Internet (sondage CODICE). Gageons que le database journalism fera évoluer cette situation.

Creative Commons License

Publicités

Le database journalism pour nous sauver du « frogboiling »

Bookmark and Share


Ou pourquoi le database journalism s’oppose au journalisme traditionnel

GRENOUILLE 5

Pour ce quatrième post, il me semble plus que temps d’esquisser une définition de mon sujet d’étude : en une phrase, le database journalism, ou journalisme de données, consiste à exploiter des bases de données pour en extraire de l’information compréhensible par tous.

Actuellement, les médias traditionnels traitent l’actualité par le récit (stories), ils racontent des histoires. A l’opposé, le database journalism initie un traitement de l’actualité par les données (data). Autrement dit : un dessin vaut mieux qu’un long discours.

Pour ceux qui ne verraient pas d’emblée l’attrait des données par rapport aux récits, je vous renvoie au vibrant plaidoyer de Nicolas Vanbremeersch (aka Versac) sur slate.fr (Pour un journalisme de données). Il y revient sur l’impressionnante ascension de Contador à Verbier, lors du dernier Tour de France, et regrette qu’aucun journal n’ait donné de réponses chiffrées à des questions comme : où se situe Contador par rapport à la vitesse de montée moyenne des coureurs ? que représente sa montée en terme de puissance ? à quoi la comparer ?…

L’homme fait une montée record, et, le lendemain, dans la presse, rien d’autre que du commentaire. On ne donne même pas son temps d’ascension, ou uniquement sur de très rares — et étrangers — sites web. Seule prime l’information de base (il a gagné), et vient ensuite immédiatement le temps du commentaire.

[…] Nulle part, sur le web ou dans le papier, le quidam ne peut retrouver un tableau simple, disposant les données objectives de la montée de Verbier. Nulle part, sur un des plus grands événements internationaux, générant un volume de commentaires et hypothèses absolument énorme […], on ne peut jouer avec des données simples: durée de la montée, poids du coureur, puissance développée, VO2Max…

Le débat, sur ces bases, est faussé. »

Ainsi, des données bien mises en valeur et intelligemment agrégées peuvent être un meilleur moyen de traiter une actualité qu’un article rédigé. Un vrai « renversement de perspective » pour reprendre les termes de Nicolas Kayser-Bril (blogueur sur Window on the media). L’unité de base de l’activité journalistique, traditionnellement, c’est l’article (story); avec le journalisme de donnée, ça devient la base de données. Le commentaire et la narration sont secondaires, les données chiffrées priment. Là où les journalistes traditionnels pensaient en terme de récit, de signature, de titraille, de chapeau et d’accroche, il s’agit de rendre visible les mêmes phénomènes mais à travers le langage des nombres, des bases de données, de l’infographie, de la cartographie et autres visualisations.

« Newspapers need to stop the story-centric worldview », enjoignait déjà en 2006 le journaliste américain Adrian Holovaty, précurseur sur ce thème, dans un article-plaidoyer pour le journalisme de données A fundamental way newspaper need to change.

Journalisme traditionnel et journalisme de données reposent sur deux modèles opposés. Le blogueur Adina Levin le démontre bien dans son post Database journalism – a different definition of “news” and “reader”. Au fondement du journalisme traditionnel on trouve le vieil adage selon lequel les trains qui arrivent à l’heure n’intéressent personne (le modèle man bites dog, en anglais). Seuls les faits inattendus, les événements soudains, méritent d’apparaître dans les journaux. Il est rare qu’on y rende compte des petites évolutions, des dynamiques de long terme.

Cette suprématie de l’actualité chaude rend nos sociétés vulnérables au frogboiling avertit Adina Levin. Le concept est tiré d’une légende urbaine selon laquelle la grenouille dont l’eau du bocal se réchauffe graduellement s’habitue au changement de température. Elle ne saute pas hors du bocal, même quand l’eau se met à bouillir. D’où, mort de la grenouille. De la même façon, l’encombrement de telle ou telle route départementale ne sera pas perçu comme un problème, jusqu’à ce qu’un grave accident ne fasse les gros titres.

En opposition au journalisme traditionnel, le database journalism met justement en valeur les tendances de fond et leur donne un sens. Par une visualisation appropriée, des données compilées depuis des années peuvent raconter des histoires.

Sans vouloir dramatiser en accentuant le côté « nos vies sont en danger sans journalisme de données », je crois qu’il existe de réelles attentes pour un traitement de l’actualité par les chiffres. L’absence d’une telle démarche à destination du grand public suscite un manque d’autant plus grand que le nombre de données structurées disponible augmente constamment. Dans son article Demain, l’intelligence des données, Hubert Guillaud (InternetActu) démontre que la masse de données brutes accessible via Internet va être décuplée dans les prochaines années, grâce au développement des capteurs, puces RFID ou autres interfaces connectées.

Sans attendre jusque là, les administrations françaises mettent à disposition de nombreuses bases de données. Pour autant, quel journal nous a présenté une infographie intelligente pour faire sentir l’ordre de grandeur de la dette publique, ou le niveau d’étude moyen des dirigeants des établissements publics français ?

Assez d’articles, on veut des contenus !

Creative Commons License

Illustration : www.photo-libre.fr

Articles les plus consultés

Inscrivez votre adresse e-mail pour vous abonner à ce blog et être averti de mes nouveaux posts par e-mail

Rejoignez 25 autres abonnés

Sélection de liens

Contact :

goulard.caroline@gmail.com

Blog Stats

  • 34,248 hits

Visuel d'en-tête : Photos Libres