Posts Tagged 'contenus'

Quel modèle de circulation des contenus pour l’information en ligne ?

Bookmark and Share

A l’ordre du jour aujourd’hui : le modèle de circulation des contenus. Je vais faire un petit écart par rapport à la thématique directrice de ce blog. Les réflexions qui suivent ne concernent pas spécifiquement le database journalism, mais plus largement tout projet d’information en ligne.

J’ai remarqué que pour s’imaginer ce qu’est le Web, les métaphores spatiales sont souvent privilégiées. Ne parle-t-on pas de « visiteurs », de « navigation » ou d’ « adresse » ? (une analyse plus précise par  Denis Jamet ici)

Si on aborde le Web comme un espace, il existe alors plusieurs façons de concevoir un site d’information. Je vais développer deux grandes lignes.

1-Le site Web comme espace clos

Une première possibilité consiste à envisager un site d’information comme un espace clos à l’intérieur du Web. Les visiteurs entrent ou sortent du site, mais les contenus hébergés sur le site, eux, ne sont pas destinés à voyager.

C’est le modèle adopté à l’origine par les sites de la presse traditionnelle (même si les choses bougent un peu depuis). Certains ont même érigé des péages à l’entrée de leur domaine (lesechos.fr, le monde.fr et liberation.fr, en partie, leparisien.fr autrefois). Pour ces sites en mode « propriété », tout l’enjeu est d’attirer les visiteurs entre leurs murs, et de les y faire rester. On comprend alors qu’ils soient plutôt réticents à insérer des liens vers d’autres sites Web dans leurs propres contenus, surtout lorsqu’il s’agit de concurrents.

Plusieurs analyses peuvent démontrer que cette conception « propriétaire » du site d’information n’est pas la plus efficiente.

Tout d’abord l’idée que le nombre de liens sortants, et, plus largement, le degré d’ouverture du site améliorent l’audience d’un site d’information.

Voir à ce sujet l’étude de Patrick Le Floch, Christophe Cariou et Fabrice Le Guel La presse en ligne : audiences, contenus et hyperliens :

« Les résultats suggèrent assez clairement que la visibilité de la presse sur le web est bien moins importante pour son audience que le fait de permettre à ses lecteurs d’aller poursuivre leur lecture ailleurs. Alors que la presse en ligne tend encore à négliger l’importance des liens sortants, l’analyse présente suggère qu’ils ont déjà un impact relativement important. »

Mais également le fait que les 2/3 des visiteurs des sites d’information n’arrivent pas sur les contenus via la page d’accueil du site, mais viennent d’ailleurs. Et que cet « ailleurs » pourvoyeur d’audience gagnerait à être mieux pris en compte par les sites d’info.

Voir sur ce thème  La presse en ligne d’ailleurs vers ailleurs !, des mêmes Patrick Le Floch, Christophe Cariou et Fabrice Le Guel.

2-Les contenus décentralisés


A l’opposé de cette vision centralisée du site d’information,  on peut imaginer un modèle où le site comme espace clos perdrait sa pertinence au profit des contenus. Les briques d’information –articles, infographies, vidéos, photos…- acquerraient alors un statut d’atomes autonomes, libres de vagabonder sur la Toile, de s’assembler dans un site ou de se démultiplier. L’activité des journalistes n’est alors plus d’alimenter un site mais de produire des contenus affichant le même ADN, celui d’une marque d’information.

Qu’importe alors le nombre de visiteurs du site, ce qui compte c’est la visibilité des contenus d’une marque. Cela suppose d’en organiser la diffusion et de penser leur exportabilité dès leur création. Diffusion sur les réseaux sociaux, bien sûr, mais plus largement auprès de toute communauté pour laquelle ce contenu aura de la valeur. Cela peut prendre la forme de flux RSS, d’outils de partage, de code ouvert, mais aussi de syndication, de partenariats, etc.

Les acteurs du Web 2.0 s’identifient totalement à ce deuxième modèle décentralisé et ouvert. Ils ont compris qu’il n’y a pas d’intérêt à garder les usagers à l’intérieur de leurs sites, et que leur rôle est moins d’ériger des frontières que d’organiser la circulation et le partage de l’information, de faciliter sa prise en main, son analyse et son commentaire.

Narvic, dans son post Comment les pros de l’info tentent un hold-up sur Internet, décrit un « écosystème » de l’information dans lequel les contenus journalistiques n’existent que par leur diffusion et leur réappropriation par les blogueurs, les agrégateurs, voire même les moteur de recherche.

« La question est d’assurer la liberté, la qualité et la fiabilité de l’information sur internet, puisque c’est désormais là, de plus en plus, que les gens cherchent à s’informer. La question doit donc être envisagée au niveau global de cet « écosystème » de l’information et de tous les acteurs qui y participent en ligne : c’est à dire, certes, des entreprises de presse et des journalistes, mais aussi les internautes dans leur ensemble, qui « votent avec leurs claviers » et participent ainsi directement à la détermination de l’agenda de l’information et à sa difusion, et aussi la petite minorité d’entre eux qui participent et s’expriment : écrivent des commentaires et des billets de blog, postent des photos et des vidéos, diffusent des liens vers les contenus qu’ils recommandent. Cela concerne aussi, bien entendu, les acteurs du net qui mettent à la disposition des internautes les moyens et les outils qui permettent à cet écosystème de fonctionner : moteurs, agrégateurs, plateformes de partage et réseaux sociaux. »

Les entreprises de presse traditionnelle commencent à comprendre l’intérêt d’organiser la diffusion et le partage de leurs contenus, mais conservent une vision de leur site Web comme espace clos d’hébergement, dont il faut maximiser l’audience.

Les propos de Guillaume Bournizien, membre du département marketing et nouveaux médias du Figaro, dans l’article d’Easybourse.com « Twitter un vecteur d’audience intéressant pour les médias ? » sont une bonne illustration:

«l’objectif est d’amener un maximum de trafic sur le site par le biais d’une stratégie de déportalisation. L’idée étant que demain l’internaute accédera au contenu non pas en allant sur le site, mais en allant sur d’autres services».


Quelques pistes pour l’avenir

Reste désormais à inventer un nouveau mode d’organisation des contenus informationnels qui allierait la souplesse de contenus autonomes et la puissance d’une marque d’information crédible et reconnue.

Pourrait-on encore appeler ça un site d’information ?

Bien des questions se posent.

Qu’advient-il de la page d’accueil ? A-t-elle perdu toute raison d’être ? Faut-il la conserver comme vitrine de la marque uniquement ? Peut-elle encore servir comme espace de diffusion de contenus et de réorientation des visiteurs ?

Comment construire un modèle économique sur de tels postulats ? Pas question de reconstruire des zones payantes, bien évidemment. Pour valoriser économiquement un tel modèle d’information, il faudrait d’abord remettre en cause les pratiques actuelles. Cesser de mesurer la performance d’un site à son nombre de visiteurs uniques. Favoriser l’audience de la marque sur celle du site. Revoir tous les indicateurs actuellement plébiscités, du temps passé sur le site au taux de rebond. (Sur la non pertinence du taux de rebond, voir l’analyse très claire d’Arnaud de la communauté WordPress) Ces indicateurs collent bien au modèle du site d’information centralisé, mais il ne prennent pas en compte les contenus. Ils encouragent les rédactions Web à emprisonner les visiteurs entre les murs de leurs sites et prennent mal en compte les pratiques de lecture par flux RSS ou via les réseaux sociaux.

Même les formats publicitaires doivent être repensés. Qu’adviendra-t-il des bandeaux si l’audience est liée au contenu et non à la page ?

Beaucoup de pistes, peu de réponses. Mais j’attends avec impatience vos réactions : cela vous semble-t-il complètement utopique ?

Pour approfondir

Quelque articles de Narvic pour identifier les influences de mes réflexions :

Creative Commons License

Illustrations : Stock.XCHNG

Le database journalism pour nous sauver du « frogboiling »

Bookmark and Share


Ou pourquoi le database journalism s’oppose au journalisme traditionnel

GRENOUILLE 5

Pour ce quatrième post, il me semble plus que temps d’esquisser une définition de mon sujet d’étude : en une phrase, le database journalism, ou journalisme de données, consiste à exploiter des bases de données pour en extraire de l’information compréhensible par tous.

Actuellement, les médias traditionnels traitent l’actualité par le récit (stories), ils racontent des histoires. A l’opposé, le database journalism initie un traitement de l’actualité par les données (data). Autrement dit : un dessin vaut mieux qu’un long discours.

Pour ceux qui ne verraient pas d’emblée l’attrait des données par rapport aux récits, je vous renvoie au vibrant plaidoyer de Nicolas Vanbremeersch (aka Versac) sur slate.fr (Pour un journalisme de données). Il y revient sur l’impressionnante ascension de Contador à Verbier, lors du dernier Tour de France, et regrette qu’aucun journal n’ait donné de réponses chiffrées à des questions comme : où se situe Contador par rapport à la vitesse de montée moyenne des coureurs ? que représente sa montée en terme de puissance ? à quoi la comparer ?…

L’homme fait une montée record, et, le lendemain, dans la presse, rien d’autre que du commentaire. On ne donne même pas son temps d’ascension, ou uniquement sur de très rares — et étrangers — sites web. Seule prime l’information de base (il a gagné), et vient ensuite immédiatement le temps du commentaire.

[…] Nulle part, sur le web ou dans le papier, le quidam ne peut retrouver un tableau simple, disposant les données objectives de la montée de Verbier. Nulle part, sur un des plus grands événements internationaux, générant un volume de commentaires et hypothèses absolument énorme […], on ne peut jouer avec des données simples: durée de la montée, poids du coureur, puissance développée, VO2Max…

Le débat, sur ces bases, est faussé. »

Ainsi, des données bien mises en valeur et intelligemment agrégées peuvent être un meilleur moyen de traiter une actualité qu’un article rédigé. Un vrai « renversement de perspective » pour reprendre les termes de Nicolas Kayser-Bril (blogueur sur Window on the media). L’unité de base de l’activité journalistique, traditionnellement, c’est l’article (story); avec le journalisme de donnée, ça devient la base de données. Le commentaire et la narration sont secondaires, les données chiffrées priment. Là où les journalistes traditionnels pensaient en terme de récit, de signature, de titraille, de chapeau et d’accroche, il s’agit de rendre visible les mêmes phénomènes mais à travers le langage des nombres, des bases de données, de l’infographie, de la cartographie et autres visualisations.

« Newspapers need to stop the story-centric worldview », enjoignait déjà en 2006 le journaliste américain Adrian Holovaty, précurseur sur ce thème, dans un article-plaidoyer pour le journalisme de données A fundamental way newspaper need to change.

Journalisme traditionnel et journalisme de données reposent sur deux modèles opposés. Le blogueur Adina Levin le démontre bien dans son post Database journalism – a different definition of “news” and “reader”. Au fondement du journalisme traditionnel on trouve le vieil adage selon lequel les trains qui arrivent à l’heure n’intéressent personne (le modèle man bites dog, en anglais). Seuls les faits inattendus, les événements soudains, méritent d’apparaître dans les journaux. Il est rare qu’on y rende compte des petites évolutions, des dynamiques de long terme.

Cette suprématie de l’actualité chaude rend nos sociétés vulnérables au frogboiling avertit Adina Levin. Le concept est tiré d’une légende urbaine selon laquelle la grenouille dont l’eau du bocal se réchauffe graduellement s’habitue au changement de température. Elle ne saute pas hors du bocal, même quand l’eau se met à bouillir. D’où, mort de la grenouille. De la même façon, l’encombrement de telle ou telle route départementale ne sera pas perçu comme un problème, jusqu’à ce qu’un grave accident ne fasse les gros titres.

En opposition au journalisme traditionnel, le database journalism met justement en valeur les tendances de fond et leur donne un sens. Par une visualisation appropriée, des données compilées depuis des années peuvent raconter des histoires.

Sans vouloir dramatiser en accentuant le côté « nos vies sont en danger sans journalisme de données », je crois qu’il existe de réelles attentes pour un traitement de l’actualité par les chiffres. L’absence d’une telle démarche à destination du grand public suscite un manque d’autant plus grand que le nombre de données structurées disponible augmente constamment. Dans son article Demain, l’intelligence des données, Hubert Guillaud (InternetActu) démontre que la masse de données brutes accessible via Internet va être décuplée dans les prochaines années, grâce au développement des capteurs, puces RFID ou autres interfaces connectées.

Sans attendre jusque là, les administrations françaises mettent à disposition de nombreuses bases de données. Pour autant, quel journal nous a présenté une infographie intelligente pour faire sentir l’ordre de grandeur de la dette publique, ou le niveau d’étude moyen des dirigeants des établissements publics français ?

Assez d’articles, on veut des contenus !

Creative Commons License

Illustration : www.photo-libre.fr

Inscrivez votre adresse e-mail pour vous abonner à ce blog et être averti de mes nouveaux posts par e-mail

Rejoignez 25 autres abonnés

Sélection de liens

Contact :

goulard.caroline@gmail.com

Blog Stats

  • 34,072 hits

Visuel d'en-tête : Photos Libres