Migration du blog sur blog.actuvisu.fr

Bookmark and Share

Fermeture du blog databasejournalisme.wordpress.com

Désormais vous retrouverez tous mes billets sur notre nouvelle plateformes ActuVisu à l’adresse http://blog.actuvisu.fr/

Je continuerai de vous faire-part de mes découvertes en matière de datajournalism et de visualisation de l’information sur cette nouvelle plateforme.

Vous y trouverez également les billets rédigés par les autres membres de l’équipe ActuVisu :

  • FX blogue en anglais sur la dataviz et l’enjeu des datas dans le monde anglo-saxon
  • Benoit s’intéresse à l’architecture de l’information, son marketing et l’expérience utilisateur de manière plus globale
  • Léo, a entrepris de visualiser le texte de À la recherche du temps perdu de Proust, et nous fait suivre les avancées de son projet. Il vous parlera aussi des outils, des process, et des aspects statistiques de la visualisation de données

Enfin, ce nouveau blog sera un espace privilégié pour vous tenir informés des actualités de notre projet de site de visualisation de l’information www.actuvisu.fr

Pour ceux qui étaient abonnés au flux RSS de ce blog, nous vous prions de remettre à jour votre abonnement avec cette nouvelle adresse : http://blog.actuvisu.fr/feed

Rendez-vous sur http://blog.actuvisu.fr/ , sur notre fil Twitter, ou sur notre page Facebook.

Creative Commons License

Visualiser les différents modes de scrutin en Grande Bretagne

Suite de notre suivi des élections britanniques, toujours en compagnie de FX, ami, collègue et blogueur sur Datanamics.

Petit résumé : le Conservative Party est arrivé en tête du scrutin du 6 mai dernier, mais ces législatives n’ont pas dégagé de majorité absolue au Parlement. Les Conservateurs ont donc dû former une coalition avec les Liberal Democrats emmenés par Nick Clegg. Le ralliement des Lib Dem s’est monnayé contre une révision du mode de scrutin. Acteur de troisième rang dans un monde politique britannique dominé par le bipartisme, les Lib-Dem sont, en effet, attachés à l’introduction d’une dose de proportionnalité dans le système électoral anglais.

Le mode de scrutin en vigueur est le scrutin majoritaire à un tour : le candidat qui remporte le plus de voix dans sa circonscription est élu. C’est le système FPTP (pour first past the post). Ce système sur-représente le parti majoritaire, au détriment des petites formations.
(Voir cet article de Lalibre.be, pour plus d’information sur le système électoral anglais)

Il existe d’autres systèmes, déjà expérimentés dans l’univers anglosaxon. La Electoral Reform Society recommande trois autres modes de scrutin, introduisant une représentation plus proportionnelle :

Venons-en concrètement à ce qui nous intéresse ici : quels seraient les effets d’un changement de scrutin sur la représentation politique ? Si l’élection du 6 mai dernier s’était jouée avec un système plus proportionnel, qu’est-ce que cela aurait changé ?
Nous vous avons préparé deux petites visualisations à partir des données publiées par le Datablog du Guardian (qui s’appuie sur la Electoral Reform Society), en nous intéressant aux 12 grandes régions britanniques.
La première est interactive (si vous l’ouvrez sur Tableau Public en cliquant dessus), et vous permet de visualiser, région par région (ou en additionnant les scores de plusieurs régions) combien de sièges au Parlement chaque parti aurait obtenu avec tel ou tel mode de scrutin.
La seconde est une infographie, montrant pour chaque région et pour chaque parti quel est le mode de scrutin le plus avantageux.
Qu’en retenir ?
  • Quelque soit le mode de scrutin envisagé, le parti en première place reste le même, dans toutes les régions, selon nos projections à partir des résultats de 2010. Les modes de scrutin AV, AV+ ou STV changent parfois la donne pour la deuxième et troisième place.
  • Pour cette élection de mai 2010, le système actuel FPTV avantageait les conservateurs dans plus de la moitié des régions. Dans les régions où le FPTV n’était pas le plus avantageux, c’est le STV qui donnait au Conservative Party le plus de sièges.
  • A l’inverse, l’actuel système électoral joue en la défaveur des Lib-Dem dans toutes les régions, alors que le STV leur garantissait le plus de sièges, dans toutes les régions également.
  • Quant aux Labour, le système leur permettant de gagner le plus de sièges varie selon les régions : parfois le mode AV, parfois le mode actuel FPTV, parfois le STV.

Pour le moment, nous ne savons pas dans quelle direction s’orientera la réforme électorale voulue par Nick Clegg. Nul doute qu’il procèdera lui aussi à ce genre de calcul et de visualisation pour arrêter sa position.

Vous trouverez une analyse plus en profondeur de la situation britannique sur le blog de FX.

Visualiser les concordances entre soutiens politiques de la presse britannique et victoires aux élections

Bookmark and Share

A trois jours des élections générales au Royaume-Uni, l’occasion de revenir sur les prises de position des principaux quotidiens nationaux.

Les journaux britanniques n’hésitent pas à afficher clairement leur soutien pour tel ou tel candidat et l’appui apporté par les rédactions représente un enjeu de campagne pour les partis politiques. Car ces prises de position ne sont pas acquises une fois pour toutes. Si le Times a soutenu le Labour en 2005, il s’affiche cette année en faveur du Conservative Party, par exemple, tout comme le Guardian.

Dès lors il devient très intéressant d’observer les concordances et dissonances entre soutiens médiatiques et soutiens dans les urnes.

C’est exactement l’objectif de l’infographie ci-dessous: quel journal a soutenu quel parti pour chaque élection depuis 1945 ? Et quel a été le parti vainqueur pour chaque élection ? Le tout mis en perspective avec le poids de chaque journal, compte tenu de sa diffusion.

Cette infographie a été réalisée à partir des données fournies par le Data Blog du Guardian ici :

Is it the Sun wot wins it for Labour? How newspaper support affects elections

The Sun and Labour support: How newspaper readers have voted in UK general elections

Ce Data Blog, au-delà de réaliser des très bonnes visualisations d’actualité, est en effet une mine de données. Les journalistes y publient les bases de données dont ils se servent pour mener leurs enquêtes, et invitent les lecteurs à réaliser des infographies à partir de cette matière première (et à les poster sur Flickr).

C’est exactement ce que nous avons voulu faire avec FX, qui blogue sur la visualisation de l’information, en anglais, sur Datanamics. Et qui est aussi un de mes co-équipiers dans l’aventure ActuVisu.

Une première mise en garde, loin de nous l’idée de suggérer une corrélation directe entre soutien médiatique et victoire aux élections. Nous sommes tous deux convaincus que les médias n’ont pas de claire emprise sur les actes et consciences des électeurs anglais et que les changements de bord des gouvernements britanniques relèvent bien plus d’une problématique liée aux évolutions sociales. Nous avons plutôt voulu questionner les évolutions de la presse quotidienne nationale en fonction de sa coloration politique.

Je vous renvoie à l’article détaillé de FX pour une analyse approfondie, mais j’aimerais juste attirer votre attention sur quelques petites choses que nous enseigne cette infographie :

  • Les années 70 sont déterminantes : à partir de là la coïncidence entre la couleur politique des médias et celle de la victoire électorale semble plus prégnante.
  • C’est également à partir des années 70 que le Sun acquiert une diffusion importante, et qu’il commence à changer de bord politique au gré des élections
  • Et c’est aussi dans les années 70 que s’amorce le déclin du traditionnel soutien aux Conservateurs que représente le Daily Express, et celui du traditionnel soutien au Labour que représente le Daily Mirror.
  • Qu’en conclure ? que le Sun est un élément déterminant depuis les années 70.

La vraie étude, celle que nous n’aurons pas le temps de faire, consisterait à analyser pourquoi une telle concordance entre les prises de position du Sun et le résultat des élections ? Quel est l’impact du Sun ? Le Sun aurait-il un sens particulièrement affiné du changement social, au point d’anticiper les changements de majorité politique, voire de les renforcer ?

Si vous avez déjà eu l’occasion de vous pencher sur cette question, je vous invite à nous faire part de vos réflexions.

Creative Commons License

Nous lançons ActuVisu !

Enfin des nouvelles de mon grand projet à vous faire partager ! Nous lançons aujourd’hui notre marque d’information en ligne ActuVisu, et la page actuvisu.fr.

http://www.actuvisu.fr est un site de visualisation de l’actualité. Nous y publieront nos premières infographies interactives au début de l’été 2010.

J’en profite pour changer le nom du mon compte Twitter, qui devient @ActuVisu, et pour repeindre tout mon petit univers en ligne aux couleurs de notre logo.

Et j’ouvre une nouvelle page sur ce blog, totalement dédiée à ce projet, à son équipe, à notre démarche

Quatre voies du datajournalism

J’ai eu l’impression, ces derniers jours, de répéter plusieurs fois la même chose à des personnes différentes. (Ce qui est un vrai plaisir quand il s’agit de datajournalism). D’où l’idée d’articuler ici ces quelques éléments récurrents.

Finalement, le datajournalism ou journalisme de données, peut difficilement se résumer à un type de contenu ou à un type de démarche. J’ai identifié quatre dimensions, et pour chacune les compétences nécessaires à sa mise en œuvre :

1-Compréhension : Le datajournalism permet de mieux comprendre le monde.

Pour cette visualisation des succès au box office américain depuis 1986, l’équipe du nytimes.com a particulièrement travaillé sur la forme des courbes, et leur couleur.


Le datajournalism, c’est de la visualisation d’information. C’est une des composantes du traitement rich media (tel que le défini Alain Joannes), une des applications du journalisme visuel. Dans cette première logique, le datajournalism permet de faire comprendre par l’image certaines idées bien mieux que ne le feraient des mots.

Le datajournalism fait ici appel aux compétences des graphistes et aux connaissances en sémiotique visuelle ou en sémiologie graphique : pour que chaque forme et chaque couleur fasse sens instantanément.

Pour faire comprendre une affaire d’espionnage politique à Madrid, elpais.com a mis au point une visualisation animée et interactive.

Mais le datajournalism va au delà de l’infographie car il ne s’adresse pas uniquement à l’intelligence visuelle, il travaille également sur l’intelligence cinétique. En datajournalism la visualisation est forcément interactive. Elle doit permettre à l’internaute de jouer avec les données, de manipuler la visualisation. Plongé dans une posture active, l’usager appréhende et mémorise plus facilement l’information.

La datajournalism ne pourra donc pas se passer des compétences d’un interaction designer. Ni de celles d’un ergonome.

2.Personnalisation :  Le datajournalism permet de personnaliser la vue sur le monde

Gapminder permet de visualiser à la demande les relations entre différents indicateurs statistiques mondiaux.

Le datajournalism, c’est aussi de l’information à la carte. Un des moyens de répondre à la fragmentation des audiences.

La visualisation de données consiste à bâtir une interface graphique pour accéder à une base de données. Cela permet bien sûr de proposer un aperçu de gros volumes de données, d’en faire jaillir le message essentiel. Mais cela ouvre également la possibilité d’interroger n’importe quelle partie de cette base de données, et de la rendre accessible et compréhensible instantanément. Ainsi, une des dimensions de l’interactivité consiste à rendre la visualisation librement paramétrable. Une application de datajournalism peut alors répondre toutes les attentes particulières des internautes autour d’un thème d’information.

Les savoir-faire d’un architecte de l’information deviennent ici utiles.

3.Investigation : Le data journalisme permet d’éclairer autrement le monde.

En analysant un document de 458 mille pages sur les notes de frais des députés britanniques, le Guardian a révélé des abus dans l’utilisation des fonds publics britanniques.

Le datajournalism est également un outil d’investigation. Les bilans de la cour des comptes, les rapports du FMI, les statistiques de l’OCDE, etc., contiennent énormément de matériau pour le journalisme d’investigation. Seulement, il faut savoir faire parler ces données. C’est à dire qu’il faut prendre le temps de les lire, qu’il faut savoir les interpréter, qu’il faut des outils pour appréhender des tendances à partir de gros volumes de données, qu’il faut avoir l’idée de croiser une base de données avec une autre, etc., pour faire apparaître des informations jusque là ignorées.

Interroger les données plutôt que les témoins est un art encore très délaissé par les médias français. Peut-être parce que cela suppose d’emprunter des outils et des méthodes aux sciences (voir la brillante illustration de Fabrice Epelboin sur RWW France) : pour extraire de l’information d’immenses bases de données, il n’y pas d’autres moyens que de construire des modélisations, que d’utiliser des outils de gestion de la complexité.

Impossible de réaliser ce genre d’investigation sans statisticien.

4.Participation : Le data journalism permet de participer à la description du monde

Avec l’aide de 200 internautes, l’équipe d’Owni.fr a géolocalisé les bureaux de votes français et a rendu cette base de données gratuite, ouverte et libre.

Enfin, le datajournalism suppose parfois de faire appel au crowdsourcing pour collecter les données et pour les qualifier. Lorsque la base de données n’existe pas, lorsqu’il est matériellement impossible qu’un petit groupe de personnes collecte toutes les données sur un sujet, la force du datajournalism réside dans sa capacité à fédérer la participation des internautes pour obtenir des données à faire parler.

Cela nécessite un gros travail d’animation de communauté.

Il faut encore mentionner deux compétences indispensables au datajournalism, et transversales à ces quatre dimensions.

Tout d’abord les savoir-faire des développeurs. Développeur axé back office et data, pour construire et gérer les bases de données, mais aussi développeur axé animation, flash, et front office.

Et pour finir, pas de datajournalism sans travail d’éditorialisation. Par éditorialisation j’entends : problématisation, inscription dans le débat public, storytelling, hiérarchisation, définition d’un angle de traitement de l’actualité et d’un message à délivrer. Vous remarquerez que j’esquive volontairement la référence au journalisme. Je suis persuadée qu’il n’est pas besoin de se définir comme journaliste pour être capable de remplir ce rôle d’éditorialisation. Maintenant, est-ce que ce travail d’éditorialisation est du journalisme ? Je vous laisse en débattre.

Creative Commons License

Prix de la presse au Kg : la presse française bien plus chère que la presse étrangère

Bookmark and Share

Au menu : une très bonne visualisation d’Elsa Secco, des explications sur sa réalisation et quelques mots d’éditorialisation.

La visualisation d’abord, réalisée par Elsa Secco, à partir des données fournies par Philippe Douroux dans son très bon article « Aux Etats-Unis, la presse pèse 3 fois plus lourd et coûte moins de 2€/Kg« .

Elsa Secco est webdesigner et étudiante en quatrième année à l’Hetic.

Quelques précisions sur sa réalisation ensuite :

ELSA : « C’est la première visualisation que je réalise, et je voulais vraiment m’éclater, qu’elle soit, avant tout, fun et accessible.

J’ai tout de suite eu l’idée de représenter les données par des plumes, double-métaphore pour illustrer le poids et l’écriture.

Le plus laborieux a été de croiser l’image et les mathématiques. Il fallait absolument que les proportions soient respectées, pour que le lecteur comprenne instantanément ce qui est comparé et analysé. J’ai donc passé un moment à trouver la bonne échelle et faire des règles de 3 !

Ensuite, j’ai étudié plusieurs possibilités de schémas, je ne dis pas que le mien est le meilleur, mais je voulais aussi le mettre dans le contexte de l’illustration, comme si des plumes tombaient du nid de l’oiseau.

D’ailleurs je suis assez fière de mon oiseau, car il a une tête assez grotesque.🙂  »

Et pour finir, je ne peux pas m’empêcher de vous livrer les quelques commentaires que ces données m’inspirent.

L a presse française, coûte, en moyenne 11,30€ le Kg alors qu’aux Etats-Unis elle coûte moins de 2€ le Kg, selon les calculs de PhDx dans son récent article sur slate.fr.

D’accord, vous allez me dire : quel sens ça a de comparer le prix au Kg de la presse ? J’y vois deux vertus pédagogiques :

Premièrement, comparer les prix au Kg, c’est mettre en lumière deux phénomènes très importants dans la perte d’attractivité de la presse papier française :

  1. La presse française offre moins de contenu que certains titres étrangers (par exemple, les très copieux Washington Post et New York Times)
  2. La presse française est plus chère que la presse étrangère.

Pour lutter contre des difficultés endémiques ou une crise économique conjoncturelle, certains titres ont amoindri leur rédaction et/ou leur pagination, tout en augmentant le prix d’achat. Comment s’étonner que les lecteurs désertent ? A l’origine des difficultés de la presse quotidienne française, il n’ y a pas seulement une transformation de la demande, un bouleversement des pratiques de lecture, il a aussi la faible attractivité de l’offre, et la visualisation d’Elsa montre bien cela.

Deuxièmement : cette référence au prix au Kg nous fait prendre conscience de la matérialité de la presse papier. Un journal c’est de l’encre, du papier, des camions pour le transporter… Et tout cela à un coût (plus de 60% des charges  d’exploitation d’un titre). Des coûts qui ne se retrouvent pas dans la presse en ligne.

Certains considèrent comme un paradoxe que bien des lecteurs, qui acceptaient de payer hier pour leur journal, ne conçoivent plus aujourd’hui de payer pour de l’information en ligne. Calculer le prix de la presse au Kg suggère une explication : les lecteurs ne payaient déjà pas pour l’information au temps des journaux imprimés, ils payaient pour le papier, l’encre, l’essence dans les camions et le salaire des porteurs.

Creative Commons License

Data journalism : pourquoi les médias français ne s’y mettent pas ?

Bookmark and Share

Pourquoi les médias français se sont-ils si peu saisis du data journalism, à la différence des médias anglosaxons ? Quelques éléments de réponses ont déjà été apportés : par Valérie Peugeot sur www.lavoixdudodo.info et par Elodie Castelli sur www.journalismes.info. Après les études de cas, je vous livre ici ma synthèse. L’occasion de vous faire partager les enseignements tirés de cinq entretiens, réalisés en janvier dernier avec Hubert Guillaud, Jean Marc Manach et Charles Népote de la Fing, avec Fabrice Epelboin de RWW France et avec Nicolas Voisin de Owni.fr.

Comment expliquer le peu d’empressement des rédactions françaises à s’emparer du journalisme de données ? Plusieurs facteurs se combinent, certains relèvent des rédactions, d’autres de leur environnement

Côté rédactions :

Des rédactions en manque de moyens financiers…

Tout d’abord, côté rédactions traditionnelles, la plupart consacrent très peu de ressources à la R&D, et donc à du journalisme d’expérimentation, comme de la visualisation de données. La presse quotidienne n’en a tout simplement pas les moyens, les pure players difficilement. La presse magazine ou le secteur audiovisuel pourraient peut-être parier sur le journalisme de données, mais la crise économique ne les incite pas à de tels investissements.

Quelques exceptions néanmoins : l’Express.fr a recruté deux documentalistes pour réfléchir sur la structuration de données (plus d’info sur le blog d’Eric Mettout) ; France 24 mène un gros travail autour du Web sémantique au sein de son Lab (plus d’info sur le blog de Mikiane)

… en manque de moyens humains

Les rédactions ne sont pas seulement appauvries sur le plan financier, elles manquent aussi de ressources humaines. Car le data journalism nécessite du temps et des compétences : en datamining, en statistiques, en développement, en web-design, en interaction design, en sémiologie visuelle…

Actuellement, personne en France n’a réussi à réunir le bon mix de compétences. Pourtant, c’est sans doute ce qui fait le succès des visualisations du nytimes.com depuis deux ans : le titre fait travailler ensemble des ingénieurs, des infographistes et des journalistes, tous payés le même salaire et sur un même pied d’égalité. Rien à voir avec l’état d’esprit des rédactions françaises, dans lesquelles les « informaticiens » sont déconsidérés.

Ce cloisonnement des rédactions est sans doute un peu moins prégnant lorsqu’on s’intéresse aux rédactions web, mais il n’en reste pas moins un frein au développement du data journalism en France.

… en manque de culture web

Tout simplement, les rédactions traditionnelles n’ont souvent pas l’intuition du data journalism. La plupart du temps, elles ont un train de retard par rapport aux développements du web. Les écoles de journalisme commencent juste à intégrer le journalisme d’innovation et le web dans leurs enseignements. Pour beaucoup des acteurs de ce secteur, cela reste encore un truc de « geek ».

… en manque d’approche statistique

Ce manque d’intuition n’est pas sans rapport avec une culture journalistique très française. Une certaine hagiographie du journalisme made in France prend racine dans l’opposition « facts vs fiction » : opposition entre le journalisme de faits à l’anglo-saxonne et le journalisme littéraire et d’opinion du pays d’Albert Londres. La mythologie journalistique française sacralise la belle plume et le subjectivisme. Sur ce terreau pousse la défiance de nombreux journalistes envers tout ce qui pourrait paraître trop rationaliste, trop technophile ou trop américain.

A ceci s’ajoute la faible culture mathématique, statistique et scientifique de bien des rédacteurs de presse généraliste.

Aversion à mettre les mains dans les données brutes, malaisance avec les valeurs chiffrées, crainte de voir les techniciens commander les rédactions : autant de sensations diffuses qui ne facilitent pas la reconnaissance du data journalism en France.

Pour trouver quelques affinités entre la visualisation de données et l’histoire française, il faut sortir du champ journalistique et se pencher sur celui de la sémiologie. En particulier, la sémiologie graphique, inventée en France par Jacques Bertin, aborde les problématiques de visualisation d’informations géographiques.

Des journalistes américains au service des communautés locales ?

Enfin, une dernière hypothèse pourrait expliquer l’affinité des médias anglosaxons avec le data-journalism. Les journalistes américains se considèrent peut-être plus comme étant au service d’une communauté.

Aux Etats-Unis, les journalisme de données s’est beaucoup développé à l’échelon local avec du crimemapping et des services pratiques (les horaires d’ouvertures des magasins, par exemple). La référence en la matière reste EveryBlock d’Adrian Holovaty : un « agrégateur-visualiseur » de données micro-locales (critiques de restaurants, prix de l’immobilier, etc.).

Les données jouent un rôle important dans la valorisation des territoires. Le journalisme de données, au niveau hyperlocal, peut ainsi être utilisé par les rédactions pour générer de la proximité avec les communauté d’habitants pour lesquelles elles travaillent.

Côté environnement :

Une autre dimension doit être prise en compte : le journalisme de données ne dépend pas uniquement des journalistes, mais également des données à leur disposition.

Une culture de la transparence différente entre la France et les pays anglo-saxons

Et, là aussi, la France est à la traine par rapport aux anglosaxons. Les Etats-Unis et la Grande Bretagne se sont illustrés par leurs mouvements d’ouverture des données : avec les sites gouvernementaux data.gov et data.gov.uk, mais aussi avec de puissants militants de la cause de l’opendata, la Sunlight Foundation aux Etats-Unis, et le datablog du Guardian en Grande Bretagne.

Ici encore, on pourrait invoquer un fossé culturel : la culture anglo-saxonne de la transparence dans la gestion publique n’a pas d’équivalent en France. La campagne « Give us back our crown jewels », portée par le Guardian en 2006, ne pourrait pas avoir d’écho sur nos terres républicaines. Pourtant elle a joué un rôle important dans la libération des données publiques en Grande Bretagne. Le Guardian a ainsi activement milité pour que les données collectées grâce à l’argent du contribuable britannique soient accessibles gratuitement, afin de stimuler l’innovation. Il a joué un rôle d’exemplarité en ouvrant ses propres bases de données (DataStore) et en organisant un concours d’applications basées sur ces données libérées. (Voir à ce sujet l’article de Jean Marc Manach « Les joyaux de la couronne n’appartiennent à personne »)

Pas de consensus sur la valeur économique de l’ouverture des données en France

Dans son plaidoyer pour l’ouverture des données, le Guardian insistait sur l’enjeu économique de l’ouverture des données publiques : une meilleure valorisation des données stratégiques, plus de services, plus d’opportunités commerciales, plus d’innovation, moins d’asymétrie informationnelle et donc des marchés plus efficients, et au final, un plus grand dynamisme économique.

En France, il n’y a pas de consensus sur la valeur économique des données publiques. Les entreprises dont l’activité repose sur la privatisation de données n’ont pas intérêt à leur ouverture. L’avantage économique de la libération des données ne s’est pas imposé face aux gains espérés de leur monétisation via la vente de licences. C’est ainsi, par exemple, que l’IGN continue à faire payer l’accès à une importante partie de ses bases de données. (voir ce précédent post pour plus d’info)

Les conditions juridiques de la réutilisation des bases de données

Sans aller jusqu’à dire que l’appareil juridique français est un frein à l’ouverture des données, il faut garder en tête certaines particularités de notre droit des bases de données.

Premier point : le droit d’auteur. Les données brutes ne sont pas, en elles-mêmes, soumises au droit d’auteur mais une base de données peut être protégée par le droit d’auteur si elle découle d’un acte de création intellectuelle, c’est-à-dire si elle témoigne d’une originalité caractérisée. L’auteur de la base de données jouit alors d’un monopole d’exploitation de son œuvre (droits patrimoniaux) ainsi que de droits au respect de l’intégrité de son œuvre et au respect de sa paternité sur l’œuvre (droits moraux).

Deuxième point : le droit des producteurs de bases de données. Lorsque la création d’une base de données nécessite un investissement financier, humain et matériel substantiel, le droit des producteurs reconnaît au créateur un droit de protection analogue à celui de l’auteur sur son œuvre. Cette disposition est destinée à protéger l’investissement des personnes qui prennent l’initiative et le risque économique de créer une base de données. Cette protection garantit au producteur de la base de données un monopole d’exploitation, il peut interdire toute extraction substantielle de données de sa base.

Pour plus de détails voir la très bonne synthèse de Didier Frochot sur les-infostratèges.com et l’étude de la jurisprudence par Bernard Lamon.

Troisième point : la CNIL et les dispositions relatives à la protection de la vie privée. Toute base de données impliquant des données nominatives et/ou personnelles doit faire l’objet d’une déclaration à la CNIL. La collecte et la conservation des données d’une telle base sont également soumises à conditions (voire le site de la CNIL pour plus d’info). De même, doit être soumis à la CNIL tout croisement de bases de données qui aboutirait à qualifier des données personnelles.

L’enjeu de la structuration des données

Enfin, l’ouverture des données repose avant tout sur un enjeu d’accessibilité. Certes, on trouve aujourd’hui de nombreuses données chiffrées sur des organismes publics ou privés. Mais bien souvent ces données sont perdues au milieu de fichiers pdf, éparpillées entre des masses de texte, scannées en format image… et lorsqu’il s’agit de croiser de bases de données, on se retrouve face à des formats disparates et peu malléables… bref, les données sont rarement structurées.

D’accord, la loi du 17 juillet 1978 reconnaît à tout citoyen français le droit d’obtenir communication des documents détenus par une administration.

D’accord, une autorité administrative dédiée, la CADA (commission d’accès aux documents administratifs), veille au bon respect de ce droit d’accès aux documents administratifs.

Mais rien n’oblige les administrations à communiquer leurs données sous format numérique, encore moins de façon structurée.

Sur ce sujet, l’expérience de Nicolas Kayser-Bril est édifiante (voir l’article « On l’a pas en format ordinateur »).

Creative Commons License

Illustration : http://www.sxc.hu/

Inscrivez votre adresse e-mail pour vous abonner à ce blog et être averti de mes nouveaux posts par e-mail

Rejoignez 24 autres abonnés

Sélection de liens

Contact :

goulard.caroline@gmail.com

Blog Stats

  • 33,784 hits

Visuel d'en-tête : Photos Libres