OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 La part d’ombre de Google Livres http://owni.fr/2012/06/13/la-part-dombre-de-google-livres/ http://owni.fr/2012/06/13/la-part-dombre-de-google-livres/#comments Wed, 13 Jun 2012 11:46:56 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=113175

Paix des braves pour Les Echoshache de guerre enterrée pour La Tribune ;  calumet de la paix partagé pour le Nouvel Observateur : la presse est unanime pour célébrer l’accord-cadre rendu public lundi entre Google, le Syndicat national de l’édition (SNE) et la Société des gens de lettres (SGDL), sur la numérisation des livres indisponibles sous droits.

Il est vrai que l’évènement est d’importance, puisque cet arrangement met fin à plus de sept années de conflits entre le moteur de recherche et le monde de l’édition française, à propos du programme de numérisation Google Books, qui avait entendu renverser de fond en comble les règles du droit d’auteur pour progresser plus vite.

Pourtant derrière cette belle unanimité, de multiples signes, émanant notamment d’auteurs français méfiants ou remontés contre les instances prétendant les représenter, attestent qu’il reste comme “un caillou dans la chaussure“, pour reprendre les paroles de l’écrivain Nicolas Ancion…

Il faut d’abord mettre en lumière le côté clair de cet accord, pour mieux cerner ensuite son côté obscur, notamment en ce qui concerne ses liens avec la loi sur l’exploitation numérique des livres indisponibles du 20ème siècle, adoptée par le Parlement français en mars dernier.

Procès fleuve

L’essentiel du contentieux portait sur le recours par Google à l’opt-out – l’option de retrait – un procédé par lequel il demandait aux titulaires de droits de se manifester explicitement pour demander à sortir de son programme, ce qui lui permettait d’avancer dans la numérisation des ouvrages sans s’embarrasser a priori de la question chronophage de la gestion des droits.

Jugement Google/La Martinière : Alea jacta est ?

Jugement Google/La Martinière : Alea jacta est ?

Le verdict du procès Google/La Martinière est donc tombé vendredi, mettant fin plusieurs années d’incertitude en ...

Mais cette méthode a été condamnée par la justice française en décembre 2009, au terme d’un procès retentissant faisant suite à une plainte de l’éditeur La Martinière, soutenu par le SNE et la SGDL, qui a rappelé que l’opt-in – l’option d’adhésion – était seule compatible avec les règles du droit d’auteur français qui exigent que les titulaires de droits donnent un consentement explicite et préalable à l’utilisation de leurs œuvres.

L’impasse atteinte par Google en France a également trouvé écho aux États-Unis, où un autre procès fleuve l’oppose depuis plus longtemps encore aux auteurs et éditeurs américains. Saisi pendant plusieurs années d’une proposition de règlement entre les parties, qui aurait entériné le procédé de l’opt-out, le tribunal de New York en charge de l’affaire a lui aussi fini par estimer début 2011 que seule une solution à base d’opt-in pouvait être envisagée. Si un accord paraissait pouvoir être trouvé sur ce fondement avec les éditeurs américains, ce n’est visiblement pas le cas avec les auteurs réunis au sein de l’Author’s Guild, avec qui Google a repris une guerre de procédure acharnée. Et alors qu’on avait pu penser un moment que l’Author’s Guild allait être déboutée, le tribunal a fini à la fin du mois dernier par conforter sa position, ce qui place à présent Google dans une posture délicate aux Etats-Unis.

Cette situation d’échec dans le volet américain de l’affaire Google Livres contraste avec l’entente qui s’est installée peu à peu en France entre Google et les éditeurs, suite à sa condamnation en justice. Dès novembre 2010, Hachette Livres avait décidé de passer un protocole d’accord avec Google pour la numérisation de 50 000 oeuvres épuisées, sur la base de listes d’ouvrages établis par l’éditeur, ce qui consacrait un retour à l’opt-in. Il avait été suivi de manière emblématique par les éditions La Martinière, qui concluaient en août 2011 un accord paraissant suivre des principes similaires. Gallimard, Flammarion et Albin Michel annonçaient de leur côté en septembre 2011 un abandon des poursuites et l’ouverture de négociations.

L’accord-cadre conclu lundi s’inscrit donc dans une certaine logique et un mouvement graduel d’apaisement. Il consacre sans doute le basculement du groupe Editis, dont la position au sujet de Google Livres restait à ce jour incertaine, ainsi que l’abandon des poursuites par la SGDL, côté auteurs.

Réciprocité

Un internet raisonné où chaque partie se comprend” : les propos d’Antoine Gallimard lors de la conférence de presse mettent en avant l’esprit de réciprocité consacré par cet accord.

L’idée de base pour les éditeurs acceptant d’entrer dans l’accord consistera à travailler avec Google pour dresser une liste de titres figurant dans l’immense base de 20 millions d’ouvrages numérisés de Google, de vérifier qu’il en possède bien les droits et que les livres ne sont plus disponibles à la vente, que ce soit en papier ou en numérique.

L’éditeur aura alors la faculté de décider s’il souhaite que Google commercialise ses ouvrages via son propre dispositif de vente (Google Play), la “majorité des revenus”étant reversés à l’éditeur, d’après Philippe Colombet de Google France. Cet élément est décisif, car on imagine que c’est précisément ce taux de retour sur le produit des ventes de Google qui a satisfait les éditeurs français. Dans la première version du règlement américain, 63% des sommes étaient reversées aux titulaires de droits via le Book Right Registry. Ce règlement prévoyait également qu’au cas où les droits d’exploitation n’étaient pas retournés intégralement aux auteurs, le partage de ces revenus devait se faire à 65% pour l’auteur et à 35% pour l’éditeur. Gardez bien cela en tête, car il est fort probable que l’arithmétique soit beaucoup moins favorable aux auteurs avec l’accord-cadre français. Pour l’instant, il n’est cependant pas possible de connaître dans le détail le contenu de cet accord-cadre, qui ne sera transmis qu’aux éditeurs membres du SNE (et pas aux auteurs ? Tiens donc ? ;-).

En complément de ce partage des revenus, le SNE et la SGDL reçoivent eux aussi des sommes qui serviront pour les éditeurs à financer l’opération “Les petits champions de la lecture” et pour les auteurs à améliorer la base de données de la SGDL. Notons que le montant de ces sommes reste confidentiel côté français, alors qu’il était clairement annoncé en ce qui concerne le Règlement américain (125 millions de dollars). Autre pays, autres moeurs !

Mais l’argent n’est quand même pas tout et en matière de livre numérique, le nerf de la guerre, c’est d’abord la possession des fichiers. Or ici, les éditeurs obtiennent de pouvoir récupérer les fichiers numérisés par Google, assortis du droit d’en faire une exploitation commerciale, selon “plusieurs modalités proposées par Google” d’après le compte-rendu   de la conférence de presse dressé par Nicolas Gary d’Actualitté. Cette expression un brin sibylline renvoie visiblement à des possibilités de distribution, par les propres moyens de l’éditeur ou via des plateformes commerciales, étant entendu que, comme cela avait déjà plus ou moins filtré à propos des accords Hachette et Lamartinière, des exclusivités ont été consenties par les éditeurs français afin que les fichiers ne soient pas distribués par les concurrents les plus menaçants pour Google : Apple et Amazon. A ce sujet, il est sans doute assez cocasse de relever que les questions d’atteinte à la libre concurrence ont joué un rôle essentiel dans le rejet du règlement aux Etats-Unis et que l’Autorité de la Concurrence en France s’est déjà émue de l’évolution de Google vers une position dominante en matière dans le domaine du livre numérique.  Les éditeurs pourront par ailleurs également exploiter les fichiers sous forme d’impression à la demande.

Mis à part ces réserves sur lesquelles je reviendrai plus loin, on peut donc considérer l’accord-cadre français comme un échange de bons procédés, relativement équilibrés même s’il parait globalement très favorable aux éditeurs français. Google de son côté pourra à présent se targuer de l’exemple français pour essayer de trouver un terrain d’entente aux Etats-Unis ou dans d’autres pays dans le monde.

Pur hasard

Pourtant la part d’ombre de l’arrangement n’a pas manqué d’apparaître dès la conférence de presse de lundi, notamment lorsque Antoine Gallimard a dû répondre à propos des rapports entre ce dispositif et la récente loi sur la numérisation des livres indisponibles du 20ème siècle. Pour le président du SNE, “la présentation de cet accord-cadre n’est que pur hasard avec le calendrier de la loi sur la numérisation des oeuvres indisponibles du XXe siècle”.

Mais les similitudes sont tout de même troublantes et le pur hasard a visiblement bien fait les choses. Car la loi sur l’exploitation numérique des livres indisponibles du 20ème siècle porte exactement sur le même objet que l’accord-cadre conclu avec Google, à savoir le corpus massif des oeuvres qui ne sont plus disponibles à la vente sous forme papier ou numérique, mais qui restent protégées par des droits. Or ce qui frappe immédiatement, c’est la différence de fonctionnement au niveau juridique des deux dispositifs envisagés.

En effet, alors que les éditeurs et les auteurs se sont visiblement battus avec opiniâtreté pour faire triompher l’opt-in dans l’accord-cadre, ils ont accepté avec la loi sur les livres indisponibles que soit introduit dans le Code de propriété intellectuelle français un opt-out !  J’ai déjà eu l’occasion de dire que cette loi était plus que critiquable dans la mesure où elle  portait très fortement atteinte aux principes du droit d’auteur français et que loin de constituer une alternative à Google Livres, elle ne faisait qu’en singer (maladroitement) les modalités.

La fin de l’hégémonie de Google Books ?

La fin de l’hégémonie de Google Books ?

Google serait contraint d'obtenir un accord explicite des auteurs avant la numérisation de leurs œuvres. Que faire pour la ...

Or la loi française, dans l’exposé même de ses motifs, explique qu’il n’était en quelque sorte pas possible de faire autrement que de passer par un opt-out pour introduire un système de gestion collective viable pour les oeuvres orphelines. L’accord-cadre intervenu lundi prouve que c’est absolument faux et que de l’aveu même des éditeurs du SNE et des auteurs de la SGDL, qui ont pourtant fait un lobbying d’enfer pour pousser cette loi, une autre approche était tout à fait possible, plus respectueuse des droits de tous - à commencer par ceux des auteurs –  !

Il est donc évident maintenant que cette loi a introduit dans le Code des adultérations majeures au droit d’auteur quasiment pour rien et pour bien mesurer la gravité de la chose, il faut relire ce qu’en dit par exemple le juriste spécialisé en propriété intellectuelle Franck Macrez dans le premier commentaire du texte paru au Dalloz :

En définitive, et à s’en tenir à la cohérence de la loi nouvelle avec les principes traditionnels du droit d’auteur, le bilan de ce texte voté en urgence est désastreux [...] Les auteurs se voient, par la force de la loi, obligés de partager les fruits de l’exploitation de leur création avec un exploitant dont la titularité des droits d’exploitation numérique est fortement sujette à caution. L’obligation d’exploitation permanente et suivie, qui participe de l’essence même de l’archétype des contrats d’exploitation du droit d’auteur, est anémiée. La présomption de titularité des droits d’exploitation sur l’œuvre au profit de son propriétaire naturel est réduite à néant. Que reste-t-il du droit d’auteur ?

Tactique

Quelle cohérence y a-t-il de la part des éditeurs du SNE et des auteurs de la SGDL a avoir tant poussé pour faire advenir cette loi, alors qu’un accord-cadre avec Google était en préparation ?

On peut penser que la première – et sans doute principale – raison était avant tout d’ordre tactique. Il est beaucoup plus simple de négocier avec un acteur redoutable comme Google si on peut assurer ses arrières en lui faisant remarquer qu’en cas d’échec des pourparlers, on pourra se tourner vers un dispositif national, financé à grands renforts d’argent de l’Emprunt national pour numériser et exploiter les ouvrages indisponibles, sans avoir besoin des services du moteur de recherche.

Mais une fois ce bénéfice tactique empoché, il y a de fortes raisons de penser que les éditeurs préféreront l’accord-cadre au dispositif mis en place par la loi française. Tout d’abord, l’accord-cadre a le mérite de rester secret, ce qui est toujours bien pratique, alors que la loi française, malgré beaucoup d’obscurités lors de son adoption, est lisible par tout un chacun. Comme le fait remarquer malicieusement @BlankTextfield sur Twitter, Google et le SNE pourraient commencer leur opération des “Petits champions de la lecture”… en permettant à tout le monde de lire cet accord ! Chiche ? Sachant que le Règlement Google Books avait lui aussi la vertu d’être complètement public…

L’autre avantage réside sans doute paradoxalement dans les fameuses “exclusivités” que comporte l’accord-cadre, qui empêchent des acteurs comme Apple et surtout Amazon d’exploiter les fichiers. Il faut sans doute moins y voir une condition imposée par Google qu’une entente passée entre tous les acteurs. Car il ne doit pas tant déplaire aux éditeurs français qu’Amazon par exemple soit ainsi mis sur la touche ; Mister Kindle et ses prix cassés étant considérés comme l’antéchrist numérique par beaucoup… En comparaison, il faut reconnaître que le dispositif de la loi sur les indisponibles est plus ouvert, puisque la société de gestion collective qui récupèrera la gestion des droits grâce à l’opt-out est tenue d’accorder des licences d’exploitation commerciales sur une base non-exclusive.

Notons enfin que contrairement à ce qu’a indiqué Antoine Gallimard lors de la conférence de presse, il y a fort peu de chances que la loi sur les indisponibles et l’accord-cadre s’avèrent “complémentaires”, et ce, pour une raison très simple. Si les ouvrages figurent sur des listes permettant à Google de les exploiter commercialement et si les éditeurs récupèrent les fichiers avec la possibilité de les exploiter, par définition, ces livres ne sont PLUS indisponibles. Ils ne peuvent donc plus être inscrits sur la base de données gérée par la BnF, qui constitue la première étape du processus d’opt-out.

Si les éditeurs principaux du SNE font le choix de signer l’accord-cadre avec Google, la loi française sur les indisponibles sera mécaniquement vidée de sa substance et il n’en restera en définitive que les vilaines scories juridiques qu’elle a introduit dans le Code…

Allez comprendre ! Mais vous allez voir qu’il y a d’autres éléments fort éclairants…

Serf

Le grand mérite de cette loi sur les indisponibles est peut-être d’avoir amené un grand nombre d’auteurs à se mobiliser, en marge de la SGDL, pour la défense de leurs droits dans l’environnement numérique.

Des livres libérés de licence

Des livres libérés de licence

Les licences libres ont permis l'émergence de succès dans les domaines de la musique et de la photographie. En revanche, la ...

Réunis sous la bannière du collectif “Le droit du serf“, ils ont fait valoir, notamment lors de discussions avec le Ministère de la Culture, que les oeuvres indisponibles doivent être assimilées à des oeuvres épuisées, ce qui dans l’esprit du droit d’auteur français, signifie que les droits devraient entièrement leur revenir. Un éditeur qui laisse un ouvrage s’épuiser manque vis-à-vis de l’auteur à une obligation essentielle du contrat d’édition. Dès lors que l’éditeur reconnaît, comme c’est le cas dans l’accord-cadre avec Google, que les oeuvres sont bien “indisponibles”, il n’est pas normal qu’il puisse continuer à revendiquer des droits numériques et une prétention à toucher une rémunération.

Cette rémunération de l’auteur a toutes chances d’ailleurs d’être réduite à la portion congrue. Souvenez-vous que dans le Règlement américain, il était prévu que 63% des revenus dégagés par Google iraient aux titulaires de droits, avec une répartition de 65% à l’auteur et de 35% à l’éditeur. Dans le dispositif de la loi sur les indisponibles, les sommes doivent être partagées à 50/50 entre l’éditeur et l’auteur (ce qui est déjà plus défavorable…). Avec l’accord-cadre, ce sera dans la plupart des cas sans doute bien pire encore. En effet, pour pouvoir être en mesure d’exploiter les livres sous forme numérique, les éditeurs font signer aux auteurs des avenants concernant les droits numériques. On sait par exemple que c’est ce qu’a dû faire Hachette [PDF] suite à la passation de l’accord en 2010 avec Google. Or il est notoire que les éditeurs dans ce cas font signer des avenants numériques qui maintiennent le taux de rémunération prévu pour le papier (entre 8 et 12% en moyenne). Et beaucoup d’auteurs hélas ont sans doute déjà accepté de tels avenants… ce qui signifie qu’à tout prendre l’accord-cadre avec Google est beaucoup plus rémunérateur pour les éditeurs que la loi sur les indisponibles. C’est plus clair comme ça ?

Soulignons enfin un point essentiel : il y a tout lieu de penser que l’opt-in imposé à Google s’applique en définitive beaucoup mieux pour les éditeurs que pour les auteurs. En effet, comme le fait très justement remarquer dans une tribune caustique l’auteur de SF et pilier du collectif “le droit du serf”, Yal Ayerdhal, la sortie du dispositif de l’accord-cadre va sans doute nécessiter pour les auteurs une action positive en direction de leur éditeur, et le site Actualitté pointe également ce problème :

“[...] que peut faire un auteur pour empêcher que son oeuvre soit numérisée en amont, et non plus en aval, avec cette simple possibilité de faire retirer le livre de la liste ? ” La démarche est complexe, voire laborieuse, et le président du SNE de nous répondre : « Mais en tout cas, il a le droit de la faire retirer. Son droit de retrait est inaliénable. » Le droit, certes, mais rien à faire en amont de la numérisation…

On est donc bien toujours dans l’opt-out… mais pour l’auteur seulement ! Ceci étant dit, ce travers majeur existait aussi dans la loi sur les oeuvres indisponibles, qui offre à l’éditeur des moyens beaucoup plus aisés de se retirer du dispositif que pour l’auteur

Quelle filière industrielle pour la numérisation du patrimoine ?

Quelle filière industrielle pour la numérisation du patrimoine ?

Quelle voie intermédiaire prendre, entre une logique libérable de la privatisation basée sur la publicité et visant ...

Au final, on peut comprendre que certains auteurs se posent des questions à propos du rôle de la SGDL dans cet arrangement, alors que des points de désaccords importants existaient entre le SNE et cette organisation à propos de la question de l’évolution des contrats d’édition numériqueL’organisation répond à ces critiques en mettant en avant le fait que l’accord qu’elle a signé avec Google est indépendant de celui conclu par le SNE.

Admettons… mais comment expliquer alors qu’en 2010, la SGDL ait si vivement réagi à l’annonce du partenariat conclu entre Google en Hachette, en appelant ses membres à la plus grande vigilance ? En dehors du chèque versé par Google, quelles garanties a-t-elle bien pu obtenir qui aient à présent calmé ses frayeurs, alors que les modalités de fonctionnement de l’accord-cadre de lundi semblent identiques à celles de l’accord Hachette ?

D’autres acteurs de la “chaîne du livre” peuvent sans doute nourrir quelques inquiétudes. Il n’est plus question des libraires par exemple, alors qu’en 2011, La Martinière les mettait encore en avant (mais 2011, c’était déjà il y a si longtemps…). Quant aux bibliothèques, elles sont littéralement rayées de la carte par cet accord, alors qu’elles avaient quand même reçu quelques miettes symboliques dans la loi sur les indisponibles. En ce qui concerne leurs propres accords, aussi bien Hachette que La Martinière avaient évoqué la possibilité que les fichiers remis par Google soient transférés à la Bibliothèque nationale de France. Qu’en est-il pour cet accord ? Mystère… Sans compter que la BnF n’est pas l’ensemble des bibliothèques françaises et que la question du déficit criant de l’offre de livres numériques prévue pour elles reste entière.

Trois scénarios

Vous l’aurez compris, la part d’ombre principale de cet accord-cadre réside pour moi dans son articulation avec la loi sur les indisponibles. L’explication la plus simple consiste sans doute à se dire que les éditeurs français ont habilement joué sur tous les tableaux à la fois et qu’ils l’ont finalement emporté partout.

Mais essayons de nous porter dans l’avenir et d’envisager trois scénarios d’évolution pour cette loi :

  1. Le scénario idyllique : Les deux dispositifs s’avèrent effectivement complémentaires, comme l’avait prophétisé Antoine Gallimard. Les éditeurs gardent ainsi le choix entre deux voies différentes pour faire renaître leurs livres indisponibles. Certains vont travailler avec Google, d’autres – en nombre suffisant – passent par la gestion collective de la loi sur les indisponibles. Certains encore distinguent plusieurs corpus et les orientent soit vers Google, soit vers le dispositif Indisponibles, sur une base cohérente. Il en résulte au final deux offres distinctes et intéressantes pour les consommateurs. La France gagne l’Euro 2012 de football et on découvre un nouveau carburant inépuisable sur la Lune. Hem…

  2. Le scénario pathétique : Les éditeurs font le choix massivement d’adopter l’accord-cadre et de marcher avec Google. Comme je l’ai expliqué plus haut, cela tarit à la source le réservoir des oeuvres qui peuvent intégrer le dispositif, faute d’être indisponibles. La gestion collective envisagée par la loi demeure une sorte de coquille quasi-vide. Les sommes considérables de l’Emprunt national dévolues à ce projet auront été mobilisées en vain. Le Code de Propriété Intellectuelle reste quant à lui défiguré. La France est éliminée piteusement de l’Euro de foot 2012 et on apprend que la Lune émet des particules cancérigènes sur la Terre. Hem…

  3. Le scénario machiavélique : Contrairement à ce que j’ai dit plus haut, il existe tout de même une façon de connecter le dispositif  de la loi sur les Indisponibles à l’accord Google. Mais cela me paraîtrait tellement tordu que je n’avance l’hypothèse… qu’en tremblant ! Imaginons que Google et les éditeurs s’accordent sur un délai pour que le moteur n’exploite pas les oeuvres. Celles-ci sont donc bien indisponibles au sens la loi et elles peuvent être inscrites dans la base, ce qui déclenche l’opt-out. Peut alors jouer à plein l’effet de “blanchiment des contrats d’édition”, qui garantit aux éditeurs de conserver les droits, même sur les oeuvres pour lesquelles cela aurait pu être douteux (notamment les oeuvres orphelines).  Google réalise alors en France, ce qu’il ne peut plus rêver d’atteindre aux Etats-Unis, en demandant in fine une licence d’exploitation à la société de gestion collective.  Alors que les français étaient en passe de gagner l’Euro 2012, la finale est interrompue par une pluie de criquets. On découvre sur la Lune une forme de vie cachée, hostile et bavante, qui débarque pour tout ravager. Hem…

PS : merci @BlankTextField pour ses tweets #GBSfr sur cet accord, sans lesquels j’aurais eu bien du mal à démêler cet écheveau…


Images par Mike Licht [CC-by]

]]>
http://owni.fr/2012/06/13/la-part-dombre-de-google-livres/feed/ 26
Google recherche domaine public désespérément http://owni.fr/2010/10/07/google-recherche-domaine-public-desesperement/ http://owni.fr/2010/10/07/google-recherche-domaine-public-desesperement/#comments Thu, 07 Oct 2010 07:58:38 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=30721 L’affaire Google Book paraît au point mort, tant la machine judiciaire américaine semble s’être enlisée dans l’examen du second Règlement, qui devait mettre un terme aux poursuites dont Google faisait l’objet de la part des auteurs et éditeurs. Si ce n’était la parution d’une étude de fond par le professeur Pamela Samuelson « The Google Book Settlement as Copyright Reform« , on pourrait penser que les choses sont redevenues complètement inertes sur ce front.

Pourtant il se passe des choses, mais pour une fois, ce sont moins les livres sous droits qui posent problème à Google que les livres du domaine public. À mesure que le contenu de sa bibliothèque numérique grandit, Google se trouve en effet confronté à un défi de plus en plus complexe pour déterminer si les ouvrages scannés appartiennent ou non au domaine public, afin de savoir s’il peut les diffuser dans leur intégralité ou seulement sous la forme d’extraits.

Combien d'ouvrages restent ainsi "gelés" par l'incertitude juridique dans Google Book ? Colorado 2005054. Par Michael (mx5tx). CC-BY. Source : Flickr

Le diagnostic juridique est plus simple à effectuer pour les Etats-Unis, car une règle veut que les œuvres publiées avant 1923 appartiennent automatiquement au domaine public. Mais pour le reste du monde, Google est obligé de composer avec la variété des lois nationales en matière de durée du droit d’auteur et de déterminer l’identité des auteurs sur les ouvrages, ainsi que leurs dates exactes de décès. Comme ces informations sont loin d’être disponibles dans tous les cas, Google a instauré une règle automatique de protection en bloquant la diffusion des ouvrages publiés après à 1870, quand leur statut juridique est indéterminé.

Des milliers et des milliers de livres doivent ainsi rester « congelés » dans la banquise de l’incertitude juridique et la situation peut même devenir épineuse pour Google lorsqu’il a affaire à des éditeurs un peu malins, qui profitent des lacunes de l’information juridique pour tenter de faire main basse sur le domaine public…

Google, victime du « coup du reprint » ?

C’est une tactique bien connue du monde de l’édition de tenter de faire renaître des droits d’auteur sur le domaine public à l’occasion d’un simple reprint (copyfraud !). Le site Techdirt nous apprenait au début du mois dernier qu’un éditeur américain, Kessinger Publishing, était en train de tenter cette manœuvre avec Google Book, avec un certain succès, semble-t-il. Son plan consiste à télécharger des ouvrages du domaine public à partir de la bibliothèque numérique ; à en faire des réimpressions et à se retourner contre Google en lui réclamant d’en bloquer l’accès, en se prévalant de droits sur les reprints.

Le pire, c’est que visiblement… ça marche ! Des utilisateurs se sont plaints sur le forum de Google Book d’avoir vu disparaître certains des ouvrages auxquels ils avaient accès et la manœuvre de Kessinger Publishing concernerait plus de 97 000 ouvrages (!!!). L’éditeur est même allé jusqu’à déposer un ISBN pour mieux appuyer ses prétentions. De l’art de se servir de Google Book pour faire sortir des livres du domaine public et se les approprier…

La réaction de Google de bloquer ces ouvrages peut surprendre. Techdirt estime qu’il s’agit d’une sorte de « réflexe » de la firme, échaudée par une série d’affaires en justice à propos de sa bibliothèque numérique, qui préfère à présent retirer d’abord et examiner ensuite le bien-fondé des plaintes. On peut lire ici cependant dans cette autre discussion de forum, de la bouche d’un de ses employés, que Google a l’air de donner raison à l’éditeur et de considérer que ces reprints constituent bien des rééditions qui font renaître des droits…

Une telle attitude est vraiment étonnante (à tel point que certains en viennent à se demander si tout cela n’est pas un coup monté de toutes pièces par Google, qui agirait en sous-main à travers Kessinger Publishing pour reverrouiller les ouvrages du domaine public ! Bienvenu dans X-Files !)

Mais il y a quelque chose de plus troublant encore, qui me donne beaucoup à réfléchir…

Et si l’exclusivité commerciale de Google Book ne valait… rien !

Avant même d’avoir à juger si les revendications de Kessinger Publishing sur les ouvrages du domaine public étaient fondées, Google aurait pu répliquer en accusant l’éditeur d’avoir violé l’exclusivité commerciale qu’il revendique sur les ouvrages numérisés par ses soins. Car Kessinger Publishing fait bien commerce des ouvrages récupérés et réimprimés, par le biais d’Amazon. Cette exclusivité, Google y tient pourtant… C’est l’une des restrictions fortes que Google impose à ses bibliothèques partenaires, en leur interdisant pendant une durée variable de faire elle-même un usage commercial des copies qui leur sont remises ou de les transférer à une partenaire susceptible d’en faire un usage commercial.

Si Google n’a pas réagi en menaçant l’éditeur de poursuites, c’est peut-être tout simplement que cette fameuse exclusivité n’est pas si solide en droit. Peut-être n’a-t-elle même aucune valeur et ne constitue-t-elle qu’un moyen d’intimidation ? Techdirt le laisse clairement entendre :

Now, it’s important to note that Kessinger reprinting public domain books scanned by Google is perfectly legal [...]. There’s nothing infringing (at least in the US — elsewhere, it’s a bit unsettled) about taking someone else’s scan of public domain works and then publishing it yourself.

À bon entendeur, salut… et notamment toutes les bibliothèques partenaires de Google ! Il est peut-être temps de se demander si de simples clauses contractuelles ont vraiment le pouvoir de faire renaître des droits sur le domaine public….

La fameuse exclusivité commerciale qui apparaît dans les conditions d'utilisation des fichiers que l'on télécharge à partir de Google Book

L’autre explication possible, c’est que Google est bien en peine de déterminer si les ouvrages en question font ou non partie du domaine public…

L’intelligence collective à la rescousse…

Coïncidence ? La semaine dernière, le même site Techdirt relevait que Google avait lancé un appel sur le forum de Google Book pour inviter les utilisateurs à lui signaler les livres encore bloqués qui appartiendraient au domaine public, afin que leur statut puisse être éventuellement révisé. Plusieurs personnes se sont déjà manifestées pour apporter à Google de précieuses informations juridiques concernant des ouvrages.

Ce n’est pas la première fois que l’intelligence collective est ainsi appelée à la rescousse pour améliorer la gestion des droits. OCLC avait en effet lancé en 2008 une expérience en ce sens avec le Copyright Evidence Registry. Cette interface collaborative devait permettre aux bibliothécaires et professionnels de l’information partout dans le monde de partager des informations légales sur les livres, afin de compléter les métadonnées de Worldcat. Il était même prévu qu’à terme ces données puissent servir à bâtir un système automatique permettant de déterminer l’appartenance ou non d’un ouvrage au domaine public. Ce projet pilote devait durer six mois dans une première phase. Depuis son lancement, on n’a guère eu de nouvelles de son avancement et il est difficile de savoir où il en est aujourd’hui.

OCLC et Google ayant signé un accord pour permettre à ce dernier de réutiliser les données de Worlcat, on peut imaginer que les informations juridiques collectées par ce biais bénéficient d’une façon ou d’une autre à Google. Mais elles doivent être bien insuffisantes encore pour que Google, le géant de l’information, soit contraint d’ouvrir à ce sujet des discussions de forum !

Et certains exemples montrent la gestion des droits sur les livres numérisés restera certainement encore inextricable pendant longtemps.

C'est dingue, les gars de Google ne veulent pas croire mon arrière-petit-fils ! Image CC Flickr Okinawa Soba.

Mais puisque je vous dis que c’est mon arrière-grand père !

Ce billet est l’occasion pour moi d’attirer votre attention sur un cas assez symptomatique de cette grande pagaille de la gestion des droits, qui m’avait été rapporté en mai dernier dans les commentaires d’un autre billet de S.I.Lex.

Un internaute, sous le pseudo de Bowatz, était venu me raconter que Google Books bloquait l’accès à plusieurs ouvrages dont son arrière-grand père était l’auteur, alors même qu’ils étaient manifestement dans le domaine public, l’aïeul étant décédé en 1914. Ces livres devenus rares et difficiles à trouver en France, Bowatz demandait à Google qui avait trouvé ses exemplaires dans des bibliothèques américaines, de les débloquer. Mais malgré plusieurs échanges de mails, Google semblait s’en tenir à sa règle automatique de 1870 et refusait paradoxalement de reconnaître qu’il avait le droit de diffuser ces livres ! Voyez la réponse que Bowatz avait bien voulu poster sur S.I.Lex :

Nous préférons nous montrer très prudents. C’est pourquoi nous diffusons uniquement de courts extraits jusqu’à ce que nous parvenions à déterminer si un livre est protégé ou non par des droits d’auteur.

Nous recherchons actuellement des solutions pour augmenter le nombre d’ouvrages consultables dans leur intégralité dans le monde entier. Notez que certains titres pouvant être téléchargés au format PDF dans certains pays peuvent ne pas l’être dans d’autres, selon la législation locale en matière de droits d’auteur. Notre objectif est de rendre Google Livres aussi utile que possible, ce qui signifie que nous intégrons un maximum d’ouvrages au lieu d’attendre d’avoir pu déterminer avec précision leur statut.

Seuls les livres relevant du domaine public (livres pour lesquels les droits d’auteur sont arrivés à expiration) peuvent être téléchargés. Pour les internautes se trouvant aux États-Unis, il s’agit en principe de tous les livres publiés avant 1923. Dans les autres pays, nous déterminons la date appropriée en fonction de la législation locale.
Comme pour toutes les décisions relatives au contenu de Google Livres, nous adoptons une attitude prudente tant dans la lecture de la loi sur les droits d’auteur que sur les faits connus concernant un livre donné. Cette fonctionnalité n’est pas disponible pour les livres sous droits d’auteur. Google respecte et protège en effet les droits d’auteur de tous les éditeurs.

Google ne partage pas les livres sous droits d’auteur. Notez que les ouvrages relevant du domaine public ne sont pas encore tous dotés de l’option « Télécharger ».

Nous travaillons actuellement à l’ajout de ce bouton sur tous ces ouvrages. Nous vous remercions de votre patience.

C’est alors qu’un autre lecteur de S.I.Lex, Bernard Majour, suggéra judicieusement d’aller demander aux bibliothèques partenaires de Google, qui ne devaient pas manquer d’avoir reçu un exemplaire numérisé. Bowatz identifia que les ouvrages de son arrière-grand père provenaient d’Havard et de Michigan, et il adressa à nouveau sa demande d’accès aux deux bibliothèques. De manière surprenante, le même principe de précaution lui fut opposé :

Réponse de Michigan (qui gère le Hathi Trust, l’entrepôt géant dans lequel les bibliothèques partenaires de Google déposent leurs copies) :

So the unfortunate news that I need to give you then is that for persons accessing works in HathiTrust from outside the US, we are only providing full text access to works published prior to 1870. We realize this is not ideal, but at this point we aren’t able to make individual determinations of copyright status of non-US works based on author death dates/on a country-by-country basis. We are hopeful that as the project progresses we will be able to revise this policy and/or do individual determinations on foreign works, but at this point we don’t have the staffing/expertise to do so. Google makes their own determinations about copyright status, but they use this same criteria. My understanding is that it is a blanket « safe » year/amount of time before which all foreign works are likely to be safely in the public domain.

Réponse d’Havard :

Depending on your location, definitely if you are within the U.S., you can download pdf files from Google Books directly, or via the HOLLIS Catalog. I believe the end results are the same.

Même en apportant la preuve que l’auteur était bien décédé depuis 70 ans, Bowatz ne pouvait pas obtenir accès à l’ouvrage de son arrière-grand père, alors qu’il aurait pu le faire s’il avait été aux États-Unis… Mais finalement, celui-ci ne se laissa pas démonter, et via un proxy américain, il réussit à berner Google Book et à télécharger les ouvrages tant désirés (ce qui au passage en dit long sur la fiabilité des protections mises en place par Google…).

Édifiant, non ?

Gestion des droits : à quand le deus ex machina ?

Les choses auraient peut-être été un peu différentes, si Bowatz avait cherché aujourd’hui à accéder à ces ouvrage. Il aurait tout d’abord pu fournir les informations dont il disposait à Google par le biais du forum et peut-être aurait-il eu gain de cause (cela vaudrait la peine d’essayer, pour voir). On également appris récemment que l’Université du Michigan avait lancé un système de gestion des droits, qui servira à établir des diagnostics automatiques du statut juridique des ouvrages dans Hathi Trust (CRMS : Copyright review Management System).

En Europe, c’est normalement le projet ARROW qui devrait servir à mettre en place une architecture de gestion des droits à l’échelle des pays de l’Union. Des progrès ont visiblement été accomplis la semaine dernière, avec la remise de documents d’étape importants à la Commission européenne, mais les résultats concrets se font toujours quelque peu attendre.

Sinon en France, il paraît que 750 millions d’euros devraient être consacrés à la numérisation du patrimoine culturel dans le cadre du grand emprunt. J’espère que quelqu’un a songé à proposer qu’une partie de cet argent finance la création d’un Registre du domaine public français, qui permettrait de tracer les contours juridiques de notre patrimoine.

Non, personne ? Il me semble pourtant au vu de tout ce qui précède ci-dessus que ce serait diablement utile…

Billet initialement publié sur :: S.I.Lex ::

Image de une CC Flickr markhillary

]]>
http://owni.fr/2010/10/07/google-recherche-domaine-public-desesperement/feed/ 7
Google Book et les bibliothèques américaines: vers des accords plus équilibrés? http://owni.fr/2010/04/18/google-book-et-les-bibliotheques-americaines-vers-des-accords-plus-equilibres/ http://owni.fr/2010/04/18/google-book-et-les-bibliotheques-americaines-vers-des-accords-plus-equilibres/#comments Sun, 18 Apr 2010 12:24:43 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=12540

Image CC Flickr floato

La bibliothèque de l’Université de Virginie a obtenu des aménagements dans son partenariat avec le géant américain, qui en atténuent certains aspects contestables : les contreparties exigées ont été revues à la baisse.

Le mois dernier, des informations importantes nous sont parvenues des États-Unis, au sujet de modifications intervenues dans les accords liant Google à plusieurs bibliothèques partenaires de son programme de numérisation des livres.

À ma connaissance, ces nouveaux éléments n’ont fait l’objet d’aucun commentaire en France, alors même qu’ils attestent qu’un nouveau type de rapports, plus équilibrés, est peut-être en train de se mettre en place outre-Atlantique.

Contrairement à ce qui se passe pour les bibliothèques européennes (à l’exception notable de la bibliothèque de Lyon), plusieurs bibliothèques américaines ont choisi de considérer que les accords les liant à Google constituaient des documents publics et obtenu qu’ils puissent être rendus révélés.

C’est le cas pour l’université de Virginie qui a publié à la mi-février une nouvelle version de son contrat, intervenue pour tenir compte de modifications découlant du Règlement Google Book, dont certains aspects ont des conséquences sur les bibliothèques partenaires de Google (le contrat est ici et voir pour une FAQ éditée par l’Université de Virginie à propos de son partenariat avec Google).

C’est Peter Hirtle sur LibraryLaw Blog, le premier qui a relevé que ce nouvel accord contenait des aménagements substantiels, information relayée ensuite par James Grimmelmann sur The Laboratorium.

L’Université de Virginie est partenaire du programme Bibliothèques de Google Book depuis 2006, mais elle s’était limitée jusqu’à présent à fournir à Google des ouvrages du domaine public, pour lesquels le droit d’auteur était expiré. Au début de l’année, l’université a choisi d’approfondir son partenariat avec Google en devenant une fully participating library (Bibliothèque Pleinement Participante), ce qui correspond au degré le plus élevé de collaboration et consiste à accepter de remettre à Google des ouvrages protégés par le droit d’auteur pour qu’il les numérise (voir ici pour la définition de ces différents degrés de participation). On savait déjà qu’une bibliothèque comme celle de Michigan avait fait ce choix et visiblement, Stanford s’est également décidée en février à remettre à Google ses livres sous droits.

Pour la bibliothèque de l’université de Virginie, ce changement de statut a été l’occasion d’une renégociation de l’accord qui atténuent plusieurs des aspects les plus contestables des contreparties exigées par Google en échange de la remise des fichiers à titre gracieux.

On sait en effet, grâce à la révélation des premiers contrats de Michigan et de l’université de Californie, que Google impose à ses bibliothèques partenaires des conditions de quatre ordres :

  • Une exclusivité commerciale, pouvant s’étendre sur des périodes très longues (2050 visiblement pour certaines bibliothèques américaines ; 25 ans pour les bibliothèques européennes) ;
  • Une exclusivité d’indexation (c’est-à-dire le fait d’empêcher les moteurs de recherche concurrents d’indexer le contenus des fichiers remis aux bibliothèques) ;
  • Des restrictions d’usage des fichiers : limitation du téléchargement, interdiction de remettre les fichiers à des tiers, y compris pour des partenariats non-commerciaux, etc. Ces restrictions, qualifiées par Olivier Ertzscheid d’ « eugénisme documentaire », s’imposaient sans limitation de durée dans le temps, même pour des ouvrages appartenant au domaine public.
  • Une clause de confidentialité, interdisant la révélation du contenu du contrat.

Outre la levée de la confidentialité, il semblerait que l’université de Virginie ait obtenu dans son nouveau contrat que l’ensemble de ces exclusivités et restrictions disparaissent complètement à l’issue d’une durée de 15 ans, à compter de la remise des fichiers à la bibliothèque. Elle bénéficierait alors d’une propriété pleine et entière, comme si elle avait procédé à la numérisation par elle-même [4.10 (d)].

Dans le même temps, la portée de l’exclusivité commerciale a été atténuée. Il reste interdit à l’Université de développer à partir des fichiers remis par Google des services similaires à ceux que Google Book Search comporte, mais les parties s’accordent pour reconnaître que l’impression à la demande ne fait pas partie de ces services et que l’université pourra se lancer dans ce type d’activités sans avoir besoin de recueillir l’accord de Google, quand bien même ce service serait payant [4.10 (b)]. L’université de Michigan a visiblement déjà obtenu un tel assouplissement de son contrat, qui lui a permis de mettre en place un service d’impression à la demande en partenariat avec Amazon.

D’autres clauses illustrent cette recherche d’un meilleur équilibre entre Google et son partenaire. On relève par exemple que si Google n’est pas en mesure, pour une quelconque raison, d’assurer l’accès aux ouvrages numérisés du domaine public pendant 6 mois, toutes les restrictions prévues par l’accord seront levées et la bibliothèque retrouvera une pleine propriété de ses propres copies [4.10 (c)]. Une autre clause indique que si Google apporte des améliorations (en termes de qualité par exemple) à ses propres fichiers, il doit s’efforcer de remettre une copie améliorée à la bibliothèque qui a fourni le livre original [4.13].

Comme l’indique Peter Hirtle dans son billet, toutes ces améliorations profitent grandement aux bibliothèques partenaires, surtout que dans le même temps, Google est toujours lié à l’obligation d’offrir un accès gratuit aux ouvrages du domaine public qu’il numérise [4.3].

Cependant, je me démarquerais de son analyse en ajoutant que des points majeurs de déséquilibre subsistent toujours : l’exclusivité d’indexation en particulier figure toujours en toutes lettres dans le contrat, inchangée [4.9]. La crispation sur ce point montre combien cet aspect est important pour la stratégie de Google Book. Je vous recommande à cet égard de lire le passage consacré par Marin Dacos et Pierre Mounier dans leur récent ouvrage , L’édition électronique, à la manière dont Google Book utilise le data mining :

On constate que Google Books ne se comporte ni comme un éditeur, ni comme un libraire. Il utilise sa puissance de calcul et d’indexation pour réaliser un gigantesque système d’information sur le livre, menant le data mining (fouille de données) à son paroxysme pour construire des cartes et des itinéraires entre les objets numériques et les outils de son armada de services.

On comprend dès lors que Google cherche à se réserver la possibilité de construire un tel système d’information, quitte à recourir à une exclusivité d’indexation qui constitue une atteinte grave à la liberté d’accès d’information et porte en elle le risque d’une dérive vers le monopole.

Le même déséquilibre est toujours patent en matière de métadonnées. Outre ses ouvrages, la bibliothèque de l’Université de Virginie accepte de remettre à Google ses métadonnées, en lui concédant une licence très large d’utilisation (heureusement à titre non exclusif) [2.6].

On peut également se demander ce qu’il adviendra des avancées de ce contrat si le Règlement Google Book, auquel il est fondamentalement lié, n’est pas validé par la justice américaine (et il semble bien que de nombreux aspect de ce règlement seront rejetés par le juge Denny Chin, même si l’incertitude est encore forte sur ce point). Google se montrera-t-il toujours aussi généreux s’il est ramené à la case départ de son procès américain ?

Et pendant ce temps en Europe…

L’autre question concerne la situation des bibliothèques européennes, qui par contraste avec leurs homologues américaines, demeurent sous l’emprise de contrats beaucoup plus restrictifs, portant atteinte au domaine public dont elles ont accepté de confier la numérisation à Google.

L’idée avait été avancée à la fin de l’année dernière qu’un comité des sages puisse être réuni au niveau de l’Union européenne pour déterminer les conditions acceptables dans le cadre de partenariats public-privé de numérisation. Nous sommes en avril et nous ne voyons toujours rien venir de ce côté…

En attendant, le gouvernement italien a vraisemblablement signé en mars un accord de numérisation avec Google qui est loin d’être aussi équilibré que ceux conclus par les bibliothèques américaines. La clause de confidentialité sévit toujours (mais comment un gouvernement peut-il accepter cela !) et le fait qu’on nous annonce que l’on pourra accéder aux documents numérisés par le biais d’Europeana n’est pas en soi une garantie que les restrictions d’usage ont été levées, car Europeana se contente de moissonner des métadonnées et de faire des liens vers les documents numérisés.

Du côté de la France, au gré des rapports officiels qui se succèdent, un certain flottement règne sur la question d’un éventuel partenariat de numérisation avec Google. C’est le moins que l’on puisse dire…

Le rapport Tessier de décembre condamnait fermement les exclusivités et restrictions des accords et préconisait une autre piste de partenariat avec Google sous la forme d’un échange de fichiers. A suivi le rapport Gaillard de la commission des finances du Sénat qui, au nom du réalisme budgétaire et malgré les perspectives ouvertes par l’emprunt national, semblait à nouveau favorable à un partenariat « classique » avec Google. Et cette semaine, le rapport sur le livre numérique de Christine Albanel préconise de faire… les deux à la fois ! Échangeons les fichiers ET réfléchissons à un accord de numérisation avec « de grands moteurs de recherche » (qui ça ?). Cocasse !

Mais il y a mieux… Les lecteurs attentifs du journal La Tribune auront peut-être relevé un article en date du 25 mars dernier « Les Français préparent leur alternative à Google Livres », comportant ce passage singulier :

Le ministère de la Culture, les éditeurs et représentants des auteurs ont accepté d’ouvrir des discussions pour aboutir d’ici à juillet à un accord tripartite, sur la numérisation des livres du XXe siècle épuisés. Objectif: numériser en masse, à partir des fonds de la BnF, quelque 500.000 à 1 million d’ouvrages, en y consacrant une part du grand emprunt. Auteurs et éditeurs accepteraient de libérer en bloc les droits, sans obliger à une autorisation œuvre par œuvre. L’accord prévoirait un modèle de diffusion et d’exploitation avec un partage de revenu à définir. Si un tel accord est conclu, la France serait en position de proposer à Google l’échange de fichiers suggéré en janvier par la mission Tessier, sur la numérisation du patrimoine écrit : Google pourrait être retenu pour numériser les ouvrages tombés dans le domaine public. Il remettrait à la BNF un fichier d’une œuvre patrimoniale, contre une œuvre du XXe siècle sous droit numérisée par les Français.

En gros, cela revient à dire : l’argent de l’emprunt national utilisé pour numériser des livres sous droits des éditeurs français ; le patrimoine confié à Google et pour le « payer », un échange de fichiers, non pas ouvrages du domaine public contre ouvrages du domaine public, à l’image de ce que prévoyait le rapport Tessier… mais ouvrages protégés contre ouvrages libres de droits !

Hum…

Personnellement, j’arrête de lire les rapports français et de m’intéresser à leurs pirouettes d’apprentis sorciers ; je leur préfère le « travail au corps » que les bibliothèques américaines mènent pour neutraliser pas à pas le venin des exclusivités.

Cliquer ici pour voir la vidéo.

Billet initialement publié sur :: S.I.Lex ::

À lire aussi : Google livres : par le petit book de la tablette (1/3)

]]>
http://owni.fr/2010/04/18/google-book-et-les-bibliotheques-americaines-vers-des-accords-plus-equilibres/feed/ 1
Google livres : par le petit book de la tablette (1/3) http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/ http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/#comments Tue, 16 Mar 2010 15:04:46 +0000 Olivier Ertzscheid http://owni.fr/?p=10168 google2

Photo CC Christopher Chan sur Flickr

[...] N’ayant en guise d’ouvrage que la chronique idoine de ce blog, je me décide à rédiger une nouvelle série de billets pour expurger l’amoncellement de nouvelles au sujet de Google Books.

Le premier de ces billets (que vous êtes en train de lire, bande de petits veinards), sera uniquement consacré au volet “numérisation d’ouvrages du domaine public”, autrement dit le programme “Library partners” de Google Books.

============================
Google Books : l’état c’est moi.
============================

Côté bibliothèques, il manquait encore à la stratégie de Google deux pierres essentielles, tant pour les “relations publiques” et l’image du projet (de plus en plus malmenée), que pour le précédent que cela permettrait de créer : ces deux pierres sont la signature d’un accord avec une bibliothèque nationale (d’où les négociations, dès l’été 2009 et probablement encore un peu avant, avec la BnF), et celle de la signature avec un état en tant que tel. Or voici donc que depuis le 10 Mars 2010, Google a signé avec le ministère de la Culture italien pour la numérisation et la mise en ligne d’un million de volumes, libres de droits (publiés avant 1860).

Coup double et coup de maître, puisque ledit contrat confère à Google un statut de prestataire étatique qui pourrait en inciter plusieurs autres – états – à revoir leur position, et lui donne également accès à non pas une mais bien deux bibliothèques nationales (Rome et Florence). Comme le souligne Le Monde, c’est donc bien d’une victoire politique qu’il s’agit. D’autant que ce nouvel allié politique devrait là encore pouvoir être cité comme témoin dans le procès en cours concernant la numérisation des ouvrages sous droits (et je ne parle même pas des – nouvelles – activités de lobbying ainsi autorisées …)

Modus operandi. Tout comme pour le projet de numérisation de la bibliothèque de Lyon, Google installera un centre de numérisation en Italie. La numérisation du million d’ouvrages – pour l’instant – concernés, devrait prendre deux ans. Sur les aspects concrets de ladite numérisation et les risques toujours actuels de dérive vers un eugénisme documentaire, on sait peu de choses. La dépêche AFP délayée dans Les Échos nous indique que :

- “le moteur de recherche s’engage à fournir aux bibliothèques des copies numériques de ces livres, “leur permettant ainsi de les rendre accessibles aux lecteurs sur d’autres plateformes, y compris d’autres projets européens comme Europeana“.

Rien n’est dit sur le type de copie numérique qui sera ainsi partagée, sur son ouverture à l’indexation par d’autres moteurs, sur l’exclusivité – ou non – d’indexation, bref sur l’ensemble des points qui posent habituellement problème dans les contrats signés entre Google et les bibliothèques.

À noter : la déshérence et le désengagement de l’État italien berlusconien dans le domaine des politiques publiques peut également apparaître comme un facteur non-négligeable à l’explication de cette “première mondiale”. Bon par contre on n’a pas réussi à prouver que la Camorra avait infiltrée Google mais bon entre pieuvres… ;-)

==========================================
Google Books : l’OPAC ultime en ligne de mire ?
==========================================

Quand on s’interroge sur le “pourquoi Google investit-il à perte dans la numérisation d’ouvrages du domaine public”, on dispose de plusieurs niveaux de réponse :

- d’abord – c’est l’argument que je ressasse depuis longtemps – parce que ce projet est tout sauf une danseuse et que Google, après avoir “gagné” la bataille de l’information, a compris – avant d’autres, y compris les états présidant au devenir financier de nos bibliothèques nationales numériques -  qu’il devait se positionner sur la bataille de la connaissance. Comme il a avant d’autres compris que l’essence de la bibliothèque, que les enjeux qui la fondent et lui sont indissolublement liés sont d’abord de nature politique. Et que de la maîtrise de cet échiquier politique dépendrait ensuite la maîtrise de secteurs économiques entiers (dont la “chaîne du livre” en tant que maillon – pas forcément faible – des industries de la connaissance)

- ensuite parce que cet investissement lui donne la légitimité (et la compétence) pour s’installer durablement sur le secteur de la numérisation d’ouvrages sous droits (second volet de Google Books)

- et tout un tas d’autres raisons, dont la constitution de la plus grande archive documentaire de corpus multilingue (ceci expliquant peut-être sa suprématie dans le domaine de la traduction automatique…)

Preuve est désormais faite que numériser des livres peut permettre de ramasser un beau pactole et que ces investissements dès le lancement du projet en 2004, l’étaient dans une perspective claire de monétisation. Dans la cadre de la “plateforme” Google Books, il est plusieurs manières de gagner de l’argent :

- pour les éditeurs… ben c’est tout l’enjeu du procès actuel aux États-Unis et en France… pour gagner de l’argent avec les éditeurs disais-je, il suffit à Google de casser la chaîne de médiation (en évacuant par exemple les libraires), ou tout au moins de s’y positionner comme un routeur incontournable préemptant au passage des droits de douane qu’il est le seul à fixer (c’est précisément le rôle du Google Books Settlement).

- pour gagner de l’argent avec les auteurs, il suffit d’augmenter leur commission, en se payant sur les commissions que ne touchent plus les éditeurs et/ou les libraires (et je maintiens qu’en juin 2010, date de lancement désormais officielle de Google Editions, on verra apparaître un outil de micro-paiement à destination des auteurs, construit sur le modèle pay-per-click des publicités Adsense … les paris sont ouverts ;-)

- pour gagner de l’argent avec les bibliothèques, c’est à peine plus compliqué : soit on leur propose des contrats léonins jouant clairement sur un abus de position dominante, (voir aussi ce qu’il pourrait en être de l’inaliénabilité du domaine public) mais il est probable que ce ne soit pas entièrement satisfaisant (et un peu risqué) sur le long terme. Soit on leur fait payer l’accès à la copie de l’ouvrage par le truchement de licences monopostes (volet bibliothèque du GoogleBooks Settlement). Soit on prévoit de leur proposer, à terme, un accès – payant – à ce qui ressemble chaque jour davantage à un OPAC planétaire de ressources en texte intégral (les OPAC planétaires classiques s’arrêtant aux seules métadonnées).

Il n’est ainsi pas improbable qu’en même temps qu’il lancera Google Editions pour (contre?) les libraires et éditeurs, Google, en s’appuyant sur la masse de documents du domaine public déjà numérisés, en s’appuyant également sur les fonctionnalités de plus en plus “bibliothéconomiques” de l’interface GoogleBookSearch, il n’est pas improbable disais-je que Google propose aux bibliothèques une architecture “full-web” leur permettant – et à leurs utilisateurs – de déporter “dans les nuages” une partie significative des composantes habituellement dévolues aux SIGB (Systèmes informatiques de Gestion de Bibliothèque). Fantasme de mon esprit malade ? Nous verrons bien :-)

google4

Image CC MikeBlogs sur Flickr

=========================================================================
Google Books : des rapports et des lois … mais pas vraiment de rapport à la loi …
=========================================================================

Après le rapport Tessier (exégèse disponible ici), c’est donc la très sérieuse commission des finances du Sénat qui planche sur le rapport Gaillard : “La politique du livre face au numérique“, dont une partie importante est entièrement consacrée à “l’affaire Google“. Pas grand chose à signaler dans ledit rapport, si ce n’est qu’il valide les conclusions du rapport Tessier (= la BnF doit signer avec Google en évitant l’exclusivité d’indexation et en se réservant les droits de mise à disposition immédiate auprès de son public). Le prochain rendez-vous est fixé au 28 avril prochain où la commission de la culture débattra pendant une table-ronde réunissant tous les acteurs de la chaîne du livre des deux points suivants :

– “l’avenir de la filière du livre et l’opportunité de fixer un prix unique au livre numérique,
- la politique de numérisation pour le livre, selon qu’il est libre de droits ou sous droits.

Le rapport Gaillard tient tout entier en une phrase clé : “avec les moyens actuels de la BnF, il faudrait environ 750 millions d’euros et 375 ans pour numériser l’ensemble des ouvrages. Selon M. Bruno Racine, la totalité des fonds de la BnF pourrait être numérisée en 10 ans par Google.Ita missa est. Sauf que … Sauf que l’expression même de “numériser l’ensemble des ouvrages” n’a aucun sens bibliothéconomique, Google pas plus que la BnF ne prétendant vouloir (et surtout pouvoir) numériser l’intégralité des fonds documentaires.

La numérisation est d’abord affaire de choix et de priorités définies selon des critères là encore bibliothéconomiques (rareté, ancienneté, fréquence des emprunts, etc …) et prendre prétexte comptable de l’éternel fantasme de la bibliothèque universelle me semble un raisonnement spécieux qui masque les réels enjeux politiques d’un tel projet.

Dernier point intéressant dans le rapport Gaillard, le tableau de la répartition des fonds du grand emprunt entre les différents organismes publics bénéficiaires.

A noter que, nonobstant la procédure toujours en cours (le procès Google Books donc), certaines universités (et pas des moins prestigieuses) déjà parties prenantes lors du lancement de Google Books,  n’hésitent pas à apporter publiquement leur soutien à la version “amendée” dudit Google Books Settlement. C’est le cas de Stanford, qui vient donc de resigner avec Google.

A noter encore, et toujours concernant les issues possible du procès en cours, vous avez la possibilité de vous coller un bon mal de crâne prendre la mesure des différents scénarios possibles, en consultant le schéma (pdf) disponible sous ce lien et produit par la très active et lobbyiste Library Copyright Alliance.

Et Europeana dans tout ça ?? Et bien, à parcourir le rapport sur les prochaines étapes de déploiement de ce projet, on est saisi de constater à quel point l’enlisement le dispute à l’atermoiement. Un saisissement que deux paramètres permettent d’éclairer : dans l’urgence et la vitesse à laquelle bougent les choses sur la question de la numérisation patrimoniale (grâce à l’effet de ricochet et/ou d’aspiration de la numérisation commerciale), l’échelon européen ne semble pas être le bon pour articuler un projet “à l’échelle” de Google. L’autre paramètre est naturellement financier, une majorité de bibliothèques européennes, du côté de l’Europe de l’Est notamment, s’interrogeant sur l’opportunité de passer du temps à alimenter un portail sans aucune visibilité là où des partenariats avec Google leurs permettraient d’économiser de la logistique, du temps, et surtout de l’argent. À n’en pas douter, la récente signature du partenariat avec le ministère de la Culture italien ne va pas contribuer à mobiliser les acteurs européens dans le sens du développement d’Europeana. Bref, ce qui était et qui demeure un beau projet souffre d’un énorme problème de positionnement, résultant lui-même d’un tout aussi important problème de calendrier et d’une implication parfaitement insuffisante (et insuffisamment répartie) entre ses différents acteurs supposés (soit, en théorie, l’ensemble des bibliothèques nationales européennes).

=============================================
Google Books ou le périmètre des biens communs.
=============================================

Comme l’illustre magnifiquement Asaf Hanuka, le monstre Google continue d’effrayer. Google est méchant. Google s’expose à une liste de plus en plus impressionnante (et documentée) de critiques. Les premiers cris d’effroi passés, il serait dommage de perdre de vue que la principale dangerosité du projet Google Books ne lui est pas intrinsèque. Bien au contraire, elle tient, en ce domaine comme en d’autres, au fait que les avancées de la firme nous obligent (et nos “états” avant nous …) en permanence à repenser la nature et le périmètre de ce qui doit être, devenir ou demeurer un ensemble de biens communs de la connaissance. Ce n’est qu’au prix d’une définition claire et politiquement argumentée desdits biens communs qu’un balisage efficace (efficient ?) de la frontière entre ce qui relève de la sphère publique et de la sphère privée pourra être établi sur la question de la numérisation en particulier, et sur la question de l’accès à l’information en général.

================================
Google Books : “A path to insanity”.
================================

Dans l’un de ses derniers essais (repéré sur Techcrunch), intitulé : “For the Love of Culture : Google, copyright and our future“, Lawrence Lessig se livre à la meilleure analyse – selon moi … – des dangers que représente Google Books non pas en tant que dispositif, mais en tant que processus d’aliénation de l’accès à la culture, en tant que processus d’industrialisation de la copie** (comme en écho aux lectures industrielles théorisées par Alain Giffard, ces deux-là – Lessig et Giffard – ayant depuis longtemps parfaitement cerné la réelle nature du problème de GoogleBooks). Le texte est un argumentaire absolument limpide et remarquable qu’il conviendrait de citer en entier. Quelques extraits pour vous mettre en bouche :

C’est ici le problème de la granularité documentaire que pose Lessig. Là où les bibliothèques se posent (parfois un peu trop …) la question de savoir quels types d’unités de connaissance peuvent “faire collection”, l’approche de Google Books transforme chaque opération intellectuelle d’indexation, d’extraction, de citation ou même de simple “lecture” en une “copie”, rendant toute tentative de collection aussi vaine que la lecture du Livre de sable de Borges. Résultat ?

Au-delà même des aspects législatifs et réglementaires qui complexifient et rendent monétisables les différentes traçabilités de ces copies (via, par exemple, les DRM “embarqués” dans icelles), la notion même de copie (telle que mise en œuvre par GoogleBooks et telle que combattue par Lessig), la notion même de copie est dangereuse parce qu’elle brise et révoque l’idée même de toute possibilité de continuité documentaire. Or sans continuité documentaire, toute agrégation, toute collection devient impossible. Sans continuité documentaire, toute culture cède la place à d’éphémères et innombrables acculturations temporaires.

La copie devient ainsi une fin en soi, éternellement “légiférable” et “monétisable” parce qu’éternellement reproductible et déconnectée de la totalité, de la complétude initiale qui lui permet d’exister en tant que telle. La copie devient une fin en soi, en même temps qu’elle cesse d’être l’instrument ou le support d’une pratique de recherche, de lecture, d’étude ou de partage. Elle s’industrialise**.

google3

Image CC ahhyeah sur Flickr

Lessig conclut son essai de la manière suivante :
The deal constructs a world in which control can be exercised at the level of a page, and maybe even a quote. It is a world in which every bit, every published word, could be licensed. It is the opposite of the old slogan about nuclear power: every bit gets metered, because metering is so cheap. We begin to sell access to knowledge the way we sell access to a movie theater, or a candy store, or a baseball stadium. We create not digital libraries, but digital bookstores: a Barnes & Noble without the Starbucks.” (…) “In real libraries, in real space, access is not metered at the level of the page (or the image on the page). Access is metered at the level of books (or magazines, or CDs, or DVDs). You get to browse through the whole of the library, for free. You get to check out the books you want to read, for free. The real-space library is a den protected from the metering of the market. It is of course created within a market; but like kids in a playroom, we let the life inside the library ignore the market outside.

We are about to change that past, radically. And the premise for that change is an accidental feature of the architecture of copyright law: that it regulates copies. In the physical world, this architecture means that the law regulates a small set of the possible uses of a copyrighted work. In the digital world, this architecture means that the law regulates everything. For every single use of creative work in digital space makes a copy. Thus–the lawyer insists–every single use must in some sense be licensed. Even the scanning of a book for the purpose of generating an index–the action at the core of the Google book case–triggers the law of copyright, because that scanning, again, produces a copy.

I have no clear view. I only know that the two extremes that are before us would, each of them, if operating alone, be awful for our culture. The one extreme, pushed by copyright abolitionists, that forces free access on every form of culture, would shrink the range and the diversity of culture. I am against abolitionism. And I see no reason to support the other extreme either–pushed by the content industry–that seeks to license every single use of culture, in whatever context. That extreme would radically shrink access to our past. (…) But this is too important a matter to be left to private enterprises and private deals. Private deals and outdated law are what got us into this mess. Whether or not a sensible public policy is possible, it is urgently needed.
Il y a effectivement urgence. Et cette urgence n’est pas comptable, elle ne se chiffre pas en nombre de millions de volumes numérisables à l’instant “t” ou en millions d’euros nécessaires à une numérisation exhaustive. Google ne fait que laisser se déployer son écosystème informationnel, il ne fait que laisser tourner à plein régime toute la force d’inertie générée par une tyrannie de l’accès à l’information érigée et maquillée en paradigme de l’organisation des connaissances. Mais la faute n’incombe pas à Google. Il n’appartient pas à Google de circonscrire son rayon d’action. Seule compte pour lui la possibilité de l’étendre, ce dont on ne saurait le blâmer tant nous profitons – pour l’instant – des effets de bord de ces incessantes extensions.

C’est aux états et aux théoriciens qu’il appartient de circonscrire le rayon d’action de ces écosystèmes aussi économiquement dérégulés qu’ils sont informationnellement cohérents. Et l’un des meilleurs et des plus sûrs moyens pour y parvenir est de délimiter un régime mondial des biens communs (ce qui n’est pas tout à fait la même chose que de parler de l’accès comme “d’un bien public mondial”). Des biens communs dont le centre de gravité est pour l’instant partout, ou tout du moins à chaque endroit dans ou pour lequel se pose la question d’une appropriation possiblement pérenne ; mais des biens communs dont la circonférence n’est pour l’instant… nulle part.

**sur la notion d’une industrialisation ad libitum de la copie, Ted Nelson au travers du concept de Versioning avait été une fois de plus, parfaitement visionnaire. Dans ses travaux, le versioning désigne : “l’ensemble des manières de gérer, indépendamment de tout niveau d’échelle, les procédures permettant de rattacher différentes versions d’un même document à un (des) auteur(s), tout en permettant à chacun de s’approprier tout ou partie des documents produits par d’autres ou par eux-mêmes, et en assurant un suivi des différentes modifications apportées.“) Soit le dispositif technique auquel Lessig réfléchit sans le nommer, permettant d’éviter toutes les “insanities” subséquentes à une gestion de la copie dont la finalité serait uniquement de marchandiser l’accès à tout fragment (= à toute copie) généré(e) ou inscrit(e) dans un parcours de lecture ou de navigation. Bon là j’ai pas trop le temps de creuser, mais pour les masochistes souhaitant approfondir la notion de versioning, une (petite) partie de ma thèse lui est consacrée (pp. 203 à 205).

Billet initialement publié sur Affordance.info

]]>
http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/feed/ 2
Les magazines sur Google Books – l’exemple de Popular Science http://owni.fr/2010/02/17/les-magazines-sur-google-books-%e2%80%93-l%e2%80%99exemple-de-popular-science/ http://owni.fr/2010/02/17/les-magazines-sur-google-books-%e2%80%93-l%e2%80%99exemple-de-popular-science/#comments Wed, 17 Feb 2010 11:26:43 +0000 Patrick Peccatte http://owni.fr/?p=8392 Google Books, comme son nom ne l’indique pas, permet aussi d’accéder à des magazines numérisés. Le service a débuté en décembre 2008 et compte actuellement 104 titres : 92 en anglais, 8 en espagnol, 3 en portugais, 1 en français (Mobiles magazine du groupe Oracom). Les titres disponibles les plus connus sont Life (de novembre 1936 à décembre 1972), Ebony (de novembre 1959 à novembre 2008), Popular Mechanics (de janvier 1905 à décembre 2005) et Popular Science (de mai 1872 à mars 2009). Pour Life, rappelons que les photos de la collection sont disponibles sur Google Images.

La recherche à l’aide de Google Books porte par défaut sur les livres et les magazines mais on peut aussi renvoyer uniquement les résultats concernant les magazines en utilisant la fonctionnalité Advanced Book Search. L’outil de navigation et de recherche est très simple ; on se reportera éventuellement à l’aide succincte et au blog de Google dédié à la recherche sur Books. Cet outil est à la fois extrêmement puissant et utile tout en demeurant, à certains égards, frustre et insatisfaisant. Pour illustrer cette dualité, je montrerai dans ce billet comment Google Books permet de reconstituer rapidement l’évolution éditoriale d’un titre de magazine sans pouvoir répondre à certaines questions pourtant simples.

J’ai retenu comme exemple le magazine Popular Science dont plus de 1600 parutions sont intégralement disponibles sur le service de Google. Popular Science est un magazine mensuel américain de vulgarisation scientifique et technique fondé en 1872 par Edward L. Youmas. Les premières parutions reprenaient des articles publiés dans des revues anglaises, et en plus de cent ans, le titre a évidemment beaucoup évolué. En janvier 2007, le groupe Time Warner a vendu Popular Science avec 17 autres magazines au groupe Bonnier.

Son principal concurrent est Popular Mechanics du groupe Hearst, également disponible sur Google Books et qui propose par ailleurs toutes ses couvertures sur son propre site.

October 1920

October 1920 – Illustration de Norman Rockwell

L’historique succinct du titre qui figure sur la version anglaise de Wikipedia mentionne le changement radical de politique éditoriale en 1914-1915. L’analyse qui suit repère d’autres évolutions notables très faciles à observer depuis Google Books. Je ne prétends pas toutefois avoir reconstitué ci-dessous un historique exhaustif des évolutions du magazine durant sa longue histoire. Mon objectif ici consiste uniquement à montrer que l’outil permet de travailler rapidement une masse considérable d’informations éditoriales, d’identifier aisément les changements de maquettes qui sont très souvent accompagnés d’une inflexion de ligne éditoriale, et d’en tirer une assez bonne connaissance de son évolution.

Critères retenus pour cet examen

  • analyse des couvertures (illustration, sous-titre, sommaire)
  • repérage des techniques utilisées (illustrations, photos noir et blanc, photos couleur, etc.)
  • identification de la structure de la parution (pagination, composition, organisation du texte et des illustrations, rubriques)
  • liste des articles

Fonctionnalités utilisées

  • Overview / Browse all issues, présentation des parutions selon une ligne de temps qui permet l’examen rapide des couvertures ; j’ai également utilisé l’excellent site coverbrowser.com
  • section Contents, donne la liste des articles de la parution
  • bouton Thumbnails, permet de prendre connaissance de la structuration d’ensemble du magazine et de sa pagination, des grandes règles de sa composition, de l’articulation entre les masses de texte et d’illustrations, etc.

La méthodologie suivie consiste en « coups de sonde » dans la collection. Je n’ai pas ouvert chacune des parutions une à une ! Quand un changement intervenait dans les critères exposés ci-dessus, j’ai procédé par dichotomie en resserrant successivement l’écart de temps pour déterminer la date précise du changement.

La première livraison en mai 1872 comporte déjà des illustrations dont un portrait de Samuel Morse. Il contient onze articles composés sur une seule colonne. On notera que pour les anciens numéros, Google Books ne donne pas la table des articles dans la section Contents. Chaque numéro suivant s’ouvre avec un portrait gravé de savant. À partir de 1880 environ, le portrait est parfois à la fin (juillet 1880) et par la suite il peut apparaître au milieu de la parution (janvier 1895).

Janvier 1878 marque la première illustration en couverture.

À partir de janvier 1890, l’index des articles figure dans la section Contents ce qui facilite grandement la navigation. Chaque titre d’article dans Contents est accompagné de quelques mots-clés ou d’un bref résumé en quelques mots, suivi de la page du début de l’article. Ce découpage du contenu et cette indexation sont donc visiblement effectués manuellement et le vocabulaire d’indexation n’est pas contrôlé. Plus grave, il ne semble pas possible d’effectuer des recherches sur cette indexation.

À partir de la fin 1891, on relève l’apparition de photos et d’illustrations réalisées à partir de photos (mentions from a photograph., ex. janvier 1896).

Les parutions des trois derniers mois de 1915 ne figurent pas dans la collection en ligne. Le changement est manifeste en janvier 1916 où figurent de nombreux articles et illustrations. La composition passe alors sur deux colonnes. D’après Wikipedia en effet : « En 1914, la Modern Publishing Company a acheté Electrician and Mechanic et au cours des deux années qui suivirent, plusieurs magazines ont fusionné dans un magazine scientifique destiné au grand public. Le magazine a subi une série de changements de nom : Modern Electrics and Mechanics, Popular Electricity and Modern Mechanics, Modern Mechanics puis finalement World’s Advance. Les éditeurs étaient alors à la recherche d’un nouveau nom lorsqu’ils ont acheté Popular Science Monthly. La parution d’octobre 1915 était intitulée Popular Science Monthly and World’s Advance. Le numéro de volume (vol. 87, N ° 4) était bien celui de Popular Science, mais le contenu était celui de World’s Advance. Le changement de Popular Science Monthly a été radical. L’ancienne version était une revue savante ; chaque numéro d’une centaine de pages contenait 8 à 10 articles et 10 à 20 photos ou illustrations. La nouvelle version contenait de multiples articles courts et faciles à lire ainsi qu’une profusion d’illustrations. La diffusion a doublé la première année ».

En juillet 1913 une photo ouvre un article. En janvier 1916 le magazine est composé sur deux colonnes, puis la première photo de couverture apparaît en avril 1916. Chaque numéro est alors structuré en deux parties à peu près égales : la première avec de très nombreuses photos et gravures, l’autre moins illustrée.

On note l’absence de parution après décembre 1916 et la reprise en juillet 1917. Les couvertures illustrées deviennent alors sensationnalistes et la publicité fait son apparition. De 1917 à 1919, seules certaines couvertures sont illustrées. À partir de 1920, pratiquement toutes les couvertures sont illustrées, toujours avec des images spectaculaires dont la plupart sont des fictions ou anticipations dans les arts mécaniques (automobiles, avions, navires, trains, parachutes, ballons, etc.). Certaines couvertures semblent manquer dans la collection de Google Magazine. L’une de ces illustrations, signée Norman Rockwell, est célèbre; elle est parue en octobre 1920 et figure un homme qui s’interroge sur la possibilité du mouvement perpétuel.

La composition est sur deux colonnes jusqu’à septembre 1918 avec de nombreux habillages des images (cf. janvier 1918 p. 80). À partir d’octobre 1918, la composition se fait sur 3 colonnes, toujours avec des habillages sophistiqués et parfois des chevauchements d’images (cf. octobre 1918 p. 60).

En juin et juillet 1925, le journal organise un concours dont l’illustration de couverture est le support (What’s Wrong in this Picture?). On retrouve ce picture contest durant quatre mois, d’octobre 1930 à janvier 1931 ; il s’agit toujours de retrouver des erreurs dans des photos. Un autre type de concours, toujours sur des images mais cette fois sous la forme de puzzles, est proposé de mars à juin 1932.

Février 1926 voit paraître la première image non figurative. Il s’agit de lettres multicolores figurant un « test d’imagination » (expliqué en page 14) et du slogan How fast can you mind work ?.

Février 1930 : le sommaire des articles figure sur la couverture qui n’est donc plus l’espace d’un seul sujet traité par un illustrateur. Cette disposition prend fin en octobre 1930 avec l’annonce du concours (v. ci-dessus).

Les aplats en couleur font leur apparition en février 1935 et les photos colorisées en janvier 1936.

On note la première image d’une fusée, tirée d’un canon, en avril 1936 et d’une fusée autopropulsée en avril 1938. Les fusées avaient fait l’objet d’un article dès août 1928 – mais uniquement en tant que propulseurs d’automobiles – et en décembre 1931 avec un article sur Robert Goddard.

Popular Science incorpore le magazine Mechanics and Handicraft en février 1939. La photo en couleur fait son apparition et la composition revient sur 2 colonnes. Les couvertures présentent souvent des images de matériels militaires divers et futuristes dès juillet 1936.

Le sous-titre change et devient Three magazines in one. Automobiles. Home & Shop. Mechanics en novembre 1940. Ce sous-titre disparaît en décembre 1941.

Les couvertures sont presque très souvent des photos en couleurs à partir de janvier 1941. Durant toute la guerre, les couvertures figurent des matériels ou des personnels militaires en action ; à noter, l’illustration de propagande raciste de janvier 1945.

Le magazine renoue avec les illustrations spectaculaires et prospectives en couverture à partir de janvier 1946. Les fusées deviennent véritablement des vecteurs de l’exploration spatiale en mai 1946. Les couvertures où figurent des réalisations techniques récentes alternent avec les sujets futuristes. Les techniques de pointe susceptibles d’améliorer la vie quotidienne apparaissent, parfois dans une mise en scène familiale.

Un essai d’incrustation de photo intervient en décembre 1949, et cette petite illustration se systématise dans le coin supérieur droit de la couverture à partir de février 1950. Cette maquette où la petite illustration complémentaire est le plus souvent une photo devient la règle durant les années 1950 et durera jusqu’en août 1954. Le sous-titre de couverture change à nouveau en 1951 et 1952, Mechanics and Handicraft d’abord puis à nouveau Automobiles. Home & Shop. Mechanics. Le magazine semble hésiter sur son positionnement. Les sujets liés à l’automobile sont majoritaires à partir de l’année 1954. La conquête de l’espace fait véritablement son apparition en janvier 1956 (Inside the New Midget Moon), plus d’un an avant le lancement du premier Spoutnik. C’est alors le seul sujet qui donne parfois lieu à des images prospectives (décembre 1962), les autres sujets semblent ancrés dans la vie quotidienne.

En novembre 1956, un titre annonce des full color photos d’automobiles à l’intérieur du magazine. Les photos couleurs sont suffisamment rares pour faire l’objet d’annonces en couverture jusqu’en octobre 1970.

Les robots font leur apparition en couverture en novembre 1965 sous la forme des Man Amplifiers.

L’acteur Sean Connery marque l’arrivée d’un people en couverture du magazine en janvier 1966 (illustration), suivi de Steve McQueen en novembre 1966 (mais cette fois, c’est une photo). Il semble que l’expérience n’ait pas été renouvelée.

Le sous-titre The What’s New Magazine apparaît en juillet 1969. Le magazine se recentre sur les nouveautés qui ont ou pourraient avoir un impact sur ses lecteurs. La composition revient sur trois colonnes en février 1970.

Avec les années 70, les couvertures prospectives disparaissent presque complètement – à l’exception de quelques vaisseaux spatiaux futuristes – pour laisser la place aux objets techniques du quotidien (dont l’automobile et l’avion, toujours en première place). Les sujets relatifs à l’énergie font leur apparition en 1975.

À la fin des années 70, la couleur se généralise pour les publicités et devient plus importantes pour les photos rédactionnelles à part égale environ avec le noir et blanc.

À partir de juin 1978, progressivement, on voit à nouveau des illustrations prospectives en couverture. Elles sont très fréquentes au début des années 80.

Les photos en noir et blanc deviennent minoritaires à la fin des années 80.

Le sous-titre The What’s New Magazine disparaît en juin 1989 marquant une nouvelle rupture éditoriale.

Les illustrations prospectives sont à nouveau majoritaires à partir de 1992.

1996-1997 nouvelle rupture : plusieurs articles sont mentionnés sur la couverture, The What’s New Magazine est en sur-titre à partir de janvier 1997, l’illustration occupe toute la page de couverture à partir de juin 1997, et l’infographie fait son apparition.

La seule couverture où figure un dinosaure est celle de septembre 1996 (à comparer avec les innombrables images en rapport avec l’espace, l’aéronautique, l’automobile…).

Un petit raté de Google : la parution d’octobre 1997 est présente deux fois.

1998-1999 marque la montée en puissance de l’infographie et des encadrés à l’intérieur des articles, le retour des habillages complexes du texte autour des images, l’alternance des compositions sur 2 et sur 3 colonnes, les doubles pages. Il s’agit d’une maquette typique de ces années. On relève de nombreuses couvertures sur l’espace.

À partir d’octobre 2001, plusieurs couvertures à fond blanc font leur apparition. Le sur-titre Wat’s new, What’s next revient et disparaît à nouveau en mars 2002.

Janvier 2006 : le cartouche rond The Future Now apparaît en couverture. Il est aussi présent sur le site actuel du magazine. Le mot Future est très souvent mentionné dans les titres. Les contenus mettent l’accent sur les futures réalisations techniques possibles. Le magazine comporte de nombreuses photos pleine page à l’intérieur et la rubrique Megapixels. The Must-see Photos of the Month apparaît. À quelques détails près, c’est la maquette qui est toujours utilisée actuellement.

En résumé : Popular Science était à l’origine un magazine de vulgarisation scientifique de haut niveau. Depuis 1916, c’est un magazine de vulgarisation populaire caractérisé par l’abondante illustration et la multiplicité d’articles brefs faciles à parcourir. Google Books permet de retracer rapidement sa ligne éditoriale qui a plusieurs fois évolué entre prospective à moyen terme et fiction spectaculaire d’une part, prospective à court terme et consumériste des objets techniques du quotidien d’autre part.

De nombreux paramètres supplémentaires devraient être pris en compte pour écrire une véritable histoire de ces variations éditoriales. La comparaison avec l’évolution de son principal concurrent Popular Mechanics serait par ailleurs très intéressante (un beau sujet d’histoire comparée de deux médias, les données et les outils sont là sous nos yeux…).

April 1933

April 1933

Il est possible d’effectuer des recherches sur la parution en cours, sur toute la collection en ligne, ou sur une période spécifique (via la recherche avancée et en utilisant l’ISSN du titre). Cette fonctionnalité permet par exemple de savoir que la première occurrence du mot Dinosaur intervient en décembre 1876 ou que serendipity est mentionné pour la première fois dans ce magazine en juillet 1969. On observe aussi qu’Einstein est cité en août 1910 (la théorie de la relativité date de 1905) ou que le mot pulsar est mentionné en juin 1969 (la découverte de ces objets astronomiques date de 1967). L’étude de la vulgarisation scientifique et technique, de la diffusion du vocabulaire d’une discipline et de ses concepts sont ainsi largement facilitées. La recherche d’illustrations spécifiques est par contre assez difficile et il faut passer en revue beaucoup de « bruit » pour repérer par exemple la gravure des squelettes réalisée par Waterhouse Hawkins pour un ouvrage de Thomas Henry Huxley dans un article intitulé The Proofs of Evolution by E.E. Free en septembre 19231.

Cette dernière difficulté est pénalisante pour les spécialistes des études visuelles, et plus généralement pour toutes les recherches fines qui nécessitent la structuration des contenus indexés (recherches sur légendes ou crédits des images, sur les titres, sur les signatures, voire même sur les entités nommées, etc.). Sur ce point, la technologie déployée par Google n’est pas encore au niveau de certaines réalisations comme ActivePaper Archive (Olive Software), Bondi Digital Publishing ou celles d’autres sociétés, toutes basées néanmoins sur Flash ou Silverlight. Espérons que la montée en puissance du langage HTML5 permettra à la société de Mountain View d’améliorer substantiellement son produit en ce qui concerne l’accès aux magazines numérisés.

February 2010

February 2010

Un dernier point : si vous parcourez trop longtemps une publication, Big Brother Google vous prend pour un automate (« notre système a détecté une requête automatique en provenance de votre adresse IP de réseau »). En punition, vous ne pourrez pas accéder à Google Books pendant quelques heures. À vos outils de masquage d’IP, donc…

PS : l’idée de cet article vient d’une séance récente du séminaire d’André Gunthert intitulée De la photographie à l’illustration, ou du bruit au signal. Je l’en remercie.

1 Métamorphoses de l’évolution. Le récit d’une image, par André Gunthert []

> Article initialement publié sur Culture visuelle

]]>
http://owni.fr/2010/02/17/les-magazines-sur-google-books-%e2%80%93-l%e2%80%99exemple-de-popular-science/feed/ 3
Jugement Google/La Martinière : Alea jacta est ? http://owni.fr/2009/12/20/jugement-googlela-martiniere-alea-jacta-est/ http://owni.fr/2009/12/20/jugement-googlela-martiniere-alea-jacta-est/#comments Sun, 20 Dec 2009 18:10:56 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=6321

” Il n’y a rien de certain, sinon le fait de mourir pour celui qui est né ” (Critias). Pour le reste, l’incertitude est universelle. L’aléatoire est la catégorie de l’incertitude. ” Aléatoire ” se dit de ce qui arrivera ou de ce qui arrive, mais n’est pas encore arrivé. Or, la réalité se réduit à ce qui arrivera, ce qui arrive et ce qui est arrivé. L’aléatoire est donc au cœur de la réalité.”

Citation extraite de l’ouvrage L’aléatoire, par Marcel Conche. PUF, 1999. Trouvée en deux clics grâce à Google Book Search (on verra plus loin que ce détail a son importance…).

Le verdict du procès Google/La Martinière est donc tombé vendredi, mettant fin plusieurs années d’incertitude en condamnant le moteur de recherche pour contrefaçon du droit d’auteur. Je ne vais pas me lancer dans une analyse détaillée de cette décision, déjà largement commentée, mais je voudrais montrer comment, de manière très surprenante, l’aléatoire justement est au cœur du jugement.

Mais cela ne veut pas dire que le juge s’est décidé au hasard, bien au contraire !

Les réactions commencent à affluer à propos de ce jugement (disponible en ligne chez Juriscom.net). Vous pouvez retrouver celles qui me paraissent les plus importantes en cliquant sur la perle ci-dessous :

Procès Google/La Martinière//

Attention : terrain juridique glissant !

Google a perdu pour ne pas avoir réussi à convaincre le juge d’appliquer le droit américain à l’affaire, et notamment la notion de fair use (usage équitable). J’avais essayé dans deux billets précédent (ici et ) de montrer à quel point cette question du droit applicable était centrale… et instable.

Je ne vais pas m’étendre très longuement sur ce point qui a déjà fait l’objet d’analyses très intéressantes chez Jules de Diner’s room et chez Jérôme Le Coeur de Décryptages.

Ce qu’il faut retenir, c’est qu’une grande incertitude régnait en la matière, et que le TGI a fait un choix en optant pour le droit français, à partir d’une certaine interprétation de la notion de “fait générateur du dommage”.

L’avocate de Google a tenté de faire appliquer la jurisprudence de la Cour de Cassation, dite Lamore du 30 janvier 2007, qui avait déjà permis à Google de s’en sortir en 2008 dans procès mettant en cause Google Images, en obtenant le bénéfice du droit américain et du fair use (Affaire SAIF c. Google). Dans ces décisions, la loi applicable était déterminée à partir du lieu où le fait générateur de la contrefaçon a été réalisé et non du lieu où le dommage a été subi. Dans l’affaire SAIF, la troisième chambre du TGI avait estimé que l’acte à l’origine de la contrefaçon résidait dans l’indexation et le stockage, réalisés à partir des serveurs américains de Google.

Une décision du TGI intervenue début octobre, avait cependant commencé à fragiliser cette position. Dans cette affaire, Google Images avait cette fois été condamné, sur la base du fait que le lieu générateur du dommage devait être apprécié par rapport à la diffusion des images qui s’effectue en France à partir d’un site en .fr.

C’est une approche similaire (mais pas tout à fait) qui a prévalu devant la troisième chambre du TGI vendredi. Les mêmes juges qui étaient à l’origine de la décision SAIF ont estimé un an plus tard que :

“[...] la loi applicable à la responsabilité extracontractuelle en matière de délit complexe est celle de l’Etat du lieu où le fait dommageable s’est produit ; que ce lieu s’entend aussi bien de celui du fait générateur du dommage que de celui du lieu de réalisation de ce dernier ;”

Le juge est revenu à une approche mixte qui le conduit à procéder par le biais de collecte d’indices pour déterminer avec quel pays le litige a le plus de point de contacts. Et à ce jeu, les avocats français ont été les plus forts, puisqu’ils avaient relevé à l’audience pas moins de 11 points de contacts différents qui sont repris par le juge dans sa décision.

Un autre élément a pu jouer un rôle important, comme le note très bien Jérôme Le Coeur dans son analyse : les avocats français sont habilement parvenus à mettre en cause Google France, solidairement aux côtés de Google Inc., la maison mère américaine. Ils se sont  notamment appuyés sur une lettre envoyée par Google France aux éditions La Martinière en 2006 pour lui présenter le programme Google Livres (et le fameux mécanisme de l’opt-out). Ce courrier dont il avait beaucoup été question à l’audience (et cela m’avait alors surpris) a visiblement pesé lourd dans la balance et a pu contribuer à faire basculer le fléau du côté du droit français.

Au final, on assiste donc à un véritable glissement de terrain juridique, du droit américain vers la loi française, qui a décidé du sort du litige, mais qui pourrait aussi s’avérer à l’avenir un terrain… glissant.

Tant Jules de Diner’s room que Jérôme de Décryptages (qui va jusqu’à parler d’ “une jurisprudence incertaine“) estiment déjà que le fondement de cette décision est fragile, car elle s’oppose à la jurisprudence Lamore de la Cour de Cassation. Dès lors, la décision de Google de se porter en appel n’est pas une forfanterie et en présence d’une divergence des juridictions, la question du droit applicable reste ouverte

(voyez chez Jules)

“[...] les actes de reproduction reprochés à Google devraient, suivant cette jurisprudence, être soumis au droit américain et pouvoir bénéficier de l’exception de fair use. Et la firme de Moutain View peut raisonnablement espérer de l’appel qu’elle a formé contre le jugement du TGI de Paris.”

Néanmoins, il faudra deux ans de plus pour savoir ce qu’en pense la Cour d’Appel et on peut en ajouter trois si l’affaire va jusqu’en Cassation. A moyen terme, la victoire “tactique” des titulaires français est incontestable et la décision s’est faite sur le terrain du droit français qui leur était hautement favorable.

Mais je ne suis pas certain qu’il s’agisse d’une réelle victoire pour tout le monde et il y a beaucoup à dire sur la manière dont le juge a appliqué le droit français de la propriété intellectuelle.

Une victoire pour les auteurs, voire !

Google avait essayé d’appuyer sur un point qui fait très mal. Il avait tenté d’attaquer la recevabilité même de la requête de La Martinière en montrant que celui-ci ne pouvait pas apporter la preuve d’être détenteur des droits numériques sur les ouvrages en cause. C’était un argument redoutable, car on sait qu’en droit français, il faut que chaque usage fasse l’objet dans le contrat d’édition d’une cession explicite. Or les contrats qui lient les éditeurs et les auteurs ne prévoient que depuis une période relativement récente de manière explicite la question de l’exploitation numérique des oeuvres. Dès lors, il était difficile à La Martinière d’apporter cette preuve et on pouvait estimer que les droits numériques étaient restés aux auteurs, dont aucun n’était partie en tant que tel au procès.

Le TGI a rejeté cet argument par le biais d’une sorte de pirouette qui en dit très long sur sa conception des rapports entre auteurs et éditeurs et qui me paraît assez inquiétante pour l’avenir :

“en l’absence de revendication de ou des auteurs, la personne morale qui exploite sous son nom une oeuvre est présumée, à l’égard des tiers contrefacteurs, être titulaire sur cette oeuvre, quelque soit sa nature et de sa qualification, du droit de propriété incorporelle de l’auteur”

Il faut donc comprendre que le juge présume, du seul fait de l’existence d’un contrat, que les droits numériques appartiennent aux éditeurs et pour ce faire, il s’appuie sur les clauses générales indiquant que “les auteurs ont cédé leurs droits pour toute utilisation et pour tout procédé actuel ou à venir“. Il me semblait qu’il existait un débat très fort sur la validité de telles clauses, dans lequel le juge vient de prendre partie de manière surprenante.

Quand on connait l’enjeu que soulève cette question de la répartition des droits numériques entre auteurs et éditeurs pour les années à venir, avec le problème lancinant des oeuvres épuisées, on ne peut que s’interroger sur la manière dont le juge s’est décidé sur la base d’une simple présomption. Et on frémit à l’idée que la charge de la preuve des droits numériques puissent peser à l’avenir… sur les auteurs !

Il n’est peut-être pas anodin de relever que plusieurs voix d’auteurs se sont déjà élevées pour exprimer une position dubitative quant à cette décision, estimant que la condamnation de Google peut nuire au final à la visibilité de leurs oeuvres en ligne (ici ou ). Je vous recommande en particulier d’aller voir les réactions de François Bon et d’Hubert Guillaud, qui montrent que Google pourrait à présent porter le fer précisément à la charnière entre auteurs et éditeurs. Son nouveau service Google Editions en particulier lui ouvre la possibilité justement de contourner les éditeurs pour atteindre directement les auteurs… comme s’il avait déjà un coup d’avance…

Sur ce dossier, je ne dirais pas que le jugement du TGI apporte de solution ; bien au contraire il frotte le sel sur cette plaie qui divise le monde du Livre.

Google ne joue pas aux dés, mais le juge…

Venons-en maintenant au cœur même de la décision, à savoir la manière dont le juge a appliqué le droit français et voyons comment toute cette affaire s’est jouée… aux dés ! C’est le juge lui-même qui le dit !

Revenu sur le terrain du droit français, il fallait que le juge apprécie si le fonctionnement de Google Book Search mettait en cause les droits exclusifs de reproduction et de représentation des titulaires, ainsi que le droit moral des auteurs, représentés dans cette affaire par la SGDL.

En ce qui concerne le droit de reproduction, Google a tenté de faire valoir une étrange conception “téléologique” que le juge a écarté assez logiquement. Google soutenait qu’il n’y avait pas de reproduction sans intention de communiquer l’oeuvre au public, ce que Google Book Search ne permet pas autrement que sous forme de courts extraits. Mais il faut savoir qu’en droit français, l’acte de reproduction est interdit en lui-même, indépendamment de toute représentation ou communication au public. Le juge le rappelle avec force :

La numérisation d’une oeuvre, technique consistant à scanner l’intégralité des ouvrages dans un format informatique donné, constitue une reproduction de l’oeuvre qui requiert en tant, lorsque celle-ci est protégée, l’autorisation préalable de l’auteur ou de ses ayants-droits.

Là dessus, pas grand chose à dire, si ce n’est que cela ferme la porte à toute forme de traitement des données et de stockage des oeuvres, y compris par exemple à des fins de recherche, de type text mining, analyse computationnelle, linguistique de corpus, etc. Mais le juge n’est pas là pour faire de la science-fiction, voyons !

Et il a visiblement une maîtrise assez limité de ces aspects techniques comme le montre la suite…

C’est à propos de la représentation des oeuvres que cette décision entrera certainement dans les annales judiciaires. Le juge retient deux arguments pour écarter l’exception de courte citation qui aurait pu couvrir encore Google. Il estime en effet que l’exception n’est pas applicable, au motif que :

“les couvertures concernées sont communiquées dans leur intégralité, même en format réduit, et que l’aspect aléatoire du choix des extraits représentés dénie tout but d’information tel que prévu par l’article L. 122-5.3 du Code de Propriété Intellectuelle.”

Nous y sommes : l’affichage des extraits de Google Book est jugé “aléatoire” par le TGI et cela suffirait en soit à faire tomber l’exception de courte citation qui (et on l’oublie trop souvent), nécessite que la citation soit bien courte, mais aussi “justifiée par le caractère critique, polémique, pédagogique, scientifique ou d’information de l’oeuvre à laquelle elle est incorporée“.

En France, on n’a pas le droit de citer pour s’amuser ou de citer pour citer : il faut viser un de ces buts définis par la loi. Or si Google fonctionne au hasard, impossible de revendiquer une quelconque fonction d’information.

L’avocate de Google avait bien pris soin d’argumenter en ce sens à l’audience, en s’appuyant même sur la jurisprudence Microfor c. le Monde qui consacre la notion d’oeuvre d’information. A l’inverse, les avocats français ont tout fait pour présenter Google Book comme une machine à démolir les textes, en dépit de toute logique. C’était habilement joué et cela à même convaincu le juge. Mais qu’en est-il réellement ?

Faisons un petit test en tapant par exemple “aléatoire” dans Google Book : on aboutit à une liste d’ouvrages portant (et le hasard fait bien les choses, vous en conviendrez) dans leur plus grande majorité sur les statistiques ou la science des nombres. Si j’épluche cette liste, je me rends compte qu’il faut arriver aux alentours de la vingtième page pour aboutir à des résultats moins cohérents.

Cette liste n’est pas établie de manière aléatoire, mais par le biais d’un algorithme qui évalue la pertinence des résultats à partir des données fournies par le recherche en plein texte au coeur des ouvrages. Si les algorithmes de Google fonctionnaient uniquement au hasard, on peut dire que leur réussite relève d’un sacré coup de bol, vous ne trouvez pas ?

Allons plus loin et sélectionnons un ouvrage, le premier de la liste : L’aléatoire, par Marcel Conche. PUF, 1999.

Le hasard fait bien les choses sur Google Book…

(Notons au passage que c’est vraiment une chance incroyable que sur les 10 millions de livres que comptent Google Book, le hasard me fasse tomber pile sur un tel livre quand je tape “aléatoire”. Et en plus, j’y retombe à chaque fois que je renouvelle la requête !).

Voilà donc trois extraits, sous forme d’entrefilets qui seraient  générés aléatoirement. Bigre quelle chance ! Ils comportent le mot aléatoire qui apparaît surligné en jaune.

Et tout ça est tellement aléatoire que chaque fois que je reviens sur cette page, ce sont les trois mêmes extraits qui s’affichent !

Nous fera-t-on vraiment croire que Google joue aux dés ? C’est manifestement faux, quand on possède un minimum de connaissance de cet outil.

Je dirais plutôt que le juge a pris pour argent comptant l’argumentation des avocats français qui se sont plu à caricaturer le fonctionnement de Google Book.

Et cela va très loin, car c’est aussi ce caractère aléatoire de l’affichage des extraits que le juge retient pour condamner Google sur le terrain du droit moral :

“l’affichage sur le site Internet incriminé d’extraits d’oeuvres que la société Google Inc reconnaît tronqués de façon aléatoire et sous forme de bandeaux de papier déchirés portent atteinte à l’intégrité des oeuvres”

En fait, ce qui est aléatoire (et Google le reconnaît), ce n’est pas en soi l’affichage des extraits, mais la manière dont les entrefilets sont taillés automatiquement dans le texte (on imagine qu’il doit y avoir un calcul du nombre de mots).

Et vous savez pourquoi il en est ainsi ? Parce que c’est la seule façon pour Google de faire en sorte que ces extraits restent bien courts…

Peut-on assimiler tout système automatique à un mécanisme aléatoire ? Ce n’est pas l’impression que me donne ma montre !

Je passe sur la question des couvertures : oui, notre droit d’auteur n’admet pas la citation graphique et les juges rejettent (en général) l’idée que l’on puisse utiliser l’exception de courte citation à propos des images, même lorsque celles-ci sont reprises en taille réduite. D’autres que moi ont dit à quel point cela pouvait constituer un obstacle pour l’accès à l’information. Profitez bien des derniers moments de Google Images et de toutes les fonctionnalités de recherche d’images du web, car si on va par là, plus rien ne sera bientôt possible…

[Pour en finir avec ce point, je me souviens à quel point j'avais été interloqué lors de l'audience de voir qu'il n'y avait aucun écran dans la salle. L'avocate de Google a expliqué le fonctionnement de Google Book à partir de simples copies d'écran sur papier...]

En faire un principe pour mieux éviter l’essentiel…

Je pense que le paragraphe ci-dessus montre bien ce que cette décision comporte de téléologique (et je dirais même d’idéologique). La fin justifie les moyens… même lorsque ceux-ci prêtent le flanc à la critique. Il s’agissait manifestement moins de satisfaire à la cohérence jurisprudentielle que de réaffirmer avec force les grands principes de notre droit d’auteur. Sur ce point, la décision du TGI est exemplaire, mais va-t-elle vraiment au fond des choses, j’en doute.

Il y a avait en effet d’autres  arguments soulevés par les avocats français qui auraient mérités à mon sens tout autant d’attention, et notamment l’accusation de parasitisme :

“les sociétés demanderesses invoquent par ailleurs des actes de parasitisme à l’encontre de Google en faisant valoir sans distinction que le service recherche de livres incriminé consiste à utiliser, dans un but lucratif, les fruits des travaux des éditeurs sans leur verser de contrepartie, ce qui engendrerait pour eux un trouble commercial important”.

Voilà une vraie question qui interroge le modèle économique de Google : cette fausse gratuité au coeur même de la stratégie du moteur de recherche. C’est cette question qui revient de manière lancinante chaque fois que Google est en conflit avec des producters de contenus que ce soit pour la vidéo avec Youtube ou la presse avec Google News (cf. Affaire Murdoch aux Etats-Unis et ici pour la France). Ce procès aurait pu être l’occasion d’examiner la conformité du modèle publicitaire de Google avec notre droit, mais le juge a écarté le parasitisme sans s’y attarder et il faut bien dire que les avocats français n’avaient que mollement étayé leurs arguments sur ce point.

Mais qu’importe puisque la statue de Beaumarchais est toujours debout ?

Le sort en est-il jeté ?

Je ne vais pas me lancer pour finir dans un exercice de futurologie. Mais je voudrais citer deux réactions qui me paraissent très justes.

Celle d’olivier Ertzscheid tout d’abord qui nous donne sur Affordance une synthèse de sa position sur l’ensemble de l’affaire Google Book Search (à laquelle je souscrits sur tous les points)  :

J’ai dit et je maintiens :
1. que la législation sur le droit d’auteur est, aujourd’hui (de territorialisation massive oblige) un anachronisme contre-productif pour les premiers concernés (les auteurs)
2. qu’il fallait en urgence OUVRIR l’accès aux oeuvres « orphelines » [...], et que cela impliquait une décision législative (et donc politique)

Celle de Jules sur Diner’s room

Le plus satisfaisant, peut-être, serait que le législateur français ou européen s’aligne sur l’exception de “fair use”. Elle n’est certes pas conforme à la tradition absolutiste — et un peu crispée — du droit d’auteur à la française. Mais elle n’en méconnaît pas la nécessité et en respecte l’éminence.

Google Book pose de manière frontale la question de l’adaptation des règles du droit d’auteur au contexte de l’environnement numérique. La décision du TGI vient de les retremper dans la rigueur la plus stricte et conforter les titulaires de droit français dans l’idée que rien ne doit changer au pays des droits d’auteur. On peut s’attendre à ce que l’hiver législatif de la propriété intellectuelle ne prenne pas fin de sitôt.

Nous verrons bien ce qui adviendra au fil de l’appel et de la cassation de cette décision

Le sort n’en est peut-être pas complètement jeté, mais ce jugement pourrait bien nous jeter un mauvais sort.

» Article initialement publié sur S.I.Lex

]]>
http://owni.fr/2009/12/20/jugement-googlela-martiniere-alea-jacta-est/feed/ 5
Contrat Google/Bibliothèque de Lyon : l’ombre d’un doute… http://owni.fr/2009/12/13/contrat-googlebibliotheque-de-lyon-lombre-dun-doute/ http://owni.fr/2009/12/13/contrat-googlebibliotheque-de-lyon-lombre-dun-doute/#comments Sun, 13 Dec 2009 13:06:07 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=6151

Il est étonnant de voir que deux semaines après sa révélation, le contrat liant Google à la Ville de Lyon pour la numérisation du fonds ancien de sa bibliothèque n’a pas réellement fait l’objet d’analyses détaillées d’un point de vue juridique, alors que dans le même temps le débat sur la numérisation du patrimoine continue d’occuper le devant de la scène médiatique.

J’avais commencé à essayer de sortir les points essentiels des clauses il y a quinze jours dans mon tour de veille hebdomadaire, notamment pour cerner ce qui rendait ce contrat différent de ceux que nous connaissons déjà (université de Michigan et université de Californie).

Depuis, on peut lire des choses distrayantes (comme ici chez Télérama) dans ce registre philosophico-polémique qui tient lieu de débat public sur la question de la numérisation dans notre pays, mais des études serrées et argumentées du contrat : je n’en trouve point. On tombe aussi hélas sur des choses très approximatives, voire inexactes comme cet article chez Actualitté, qui titre d’une façon laissant entendre que le contrat n’imposerait aucune exclusivité (ce qui est faux).

Quand on trouve des commentaires plus précis (comme ici chez Archimag), ils se focalisent en général sur l’exclusivité commerciale de 25 ans consentie au profit de Google par la Ville de Lyon, aspect certes important, mais qui est loin d’être le seul méritant vigilance et attention.

Le contrat obtenu par la ville de Lyon est plus ouvert que ceux que nous connaissons déjà, mais l’ombre d’un doute persiste sur certains points essentiels pour l’accès à l’information. (Shadow of a doubt. Par Danièle Y. Go. CC-BY-NC-SA. Source : Flickr)

J’aimerais ici revenir sur deux aspects qui me paraissent essentiels dans ce contrat et qui n’ont pour l’instant pas vraiment fait l’objet d’analyses : la question de l’exclusivité d’indexation et celle des possibilités de réutilisation des fichiers numériques remis à la Ville de Lyon.

Avant d’aller plus loin, je vous conseille d’aller relire le billet publié par Olivier Ertschzeid sur son blog en 2006 lorsque les contrats américains ont été révélés “Contrat californien et eugénisme documentaire“, histoire de bien se remémorer à quel niveau d’enjeu on se situe.

[...] le marché de dupe est le suivant : chacun des 2 partenaires reçoit “sa” copie, une copie à usage interne si l’on veut. Mais le marchand (Google) s’ouvre tous les droits sur la sienne et les copies de la sienne (impression, téléchargement, revente …) et impose au bibliothécaire un usage fermé et stérile de la sienne (pas de revente ni de cession, pas de téléchargement depuis les sites universitaires, etc.). Une forme revendiquée d’eugénisme documentaire [...] Chaque nouvelle bibliothèque contractante, en même temps qu’elle assure une visibilité de ses fonds et à l’impression de contribuer à la dissémination mondiale de la culture, fait faire un irrémédiable pas en arrière de plus à l’ambition d’une bibliothèque universelle.

C’est à cette aune que je veux examiner le contrat lyonnais en essayant de déterminer s’il contient des éléments problématiques du point de vue de l’accès à l’information, à savoir un déséquilibre au niveau des accès et des usages entre ce que l’on pourra faire à partir de Google Book Search et ce qui sera possible à partir des fichiers de la Bibliothèque de Lyon.

La première chose à prendre en considération de ce point de vue est la question centrale de l’exclusivité d’indexation. Il y a deux semaines dans mon rapide commentaire du contrat, j’indiquais que le Cahier des Clauses Techniques Particulières (CCTP) qui a été publié paraissait présenter la particularité de ne pas comporter d’exclusivité d’indexation, tout en ajoutant qu’un certain doute persistait tout de même.

Pour bien comprendre de quoi il retourne, il faut partir des deux contrats américains.

Ces derniers contiennent en effet une clause explicite qui interdit aux bibliothèques partenaires de Google de laisser les robots des moteurs de recherche indexer le contenu des fichiers qu’elle diffuseront à partir de leur propre site. La clause est formulée de manière identique dans le contrat de l’université de Michigan (4.4.1 p. 5) et dans celui de l’université de Californie (4.9 p. 6) :

“University shall implement technological measures (e.g. through use of the robots.txt protocol) to restrict automated access to any portion of the University Digital Copy or the portions of the University Website on wich any portion of the University Digital Copy is available.”

Cette restriction signifie que les moteurs de recherche concurrents de Google (Bing de Microsoft, Yahoo !, Exalead, etc) n’auront pas la possibilité d’accéder à ces contenus. Certes, Google pourra de son côté les indexer (c’est même le but premier de la manœuvre !), mais il sera le seul à pouvoir le faire et c’est dans cette exclusivité que réside une forme d’atteinte  à l’accès à l’information. Un seul chemin pour accéder aux contenus patrimoniaux à partir des recherches en ligne : celui que Google aura décidé de mettre en place. L’exclusivité d’indexation présente une importance économique fondamentale. Dans la bataille du capitalisme cognitif dont l’affaire Google Book est une manifestation éclatante, un des enjeux principaux consiste à savoir qui sera en mesure de mettre en place le “Portique” par lequel les utilisateurs devront passer pour accéder à l’information. De ce point de vue, pouvoir disposer d’une exclusivité d’indexation confère un  avantage décisif à celui qui peut s’en prévaloir.

Lorsqu’on lit le contrat lyonnais, une des premières choses qui frappent, c’est que cette exclusivité d’indexation ne figure pas inscrite en toutes lettres.  Aucune trace de ces deux lignes que ce soit dans le CCTP ou dans l’acte d’engagement du marché. Cela dit, je ne peux pas me départir d’un doute gênant, qui tient à la solution technique prévue  pour permettre l’accès aux copies numériques remises à la Bibliothèque de Lyon.

Le CCTP indique en effet que la mise de ces fichiers se fera “dans le cadre d’une solution hébergée propre à la Ville de Lyon (hosted solution)” à savoir “un service distant via Internet que [Google] hébergera, à ses frais, sur ses serveurs” (art.20 p. 12). Cela signifie que c’est Google qui, dans un premier temps, construira à ses frais une bibliothèque numérique permettant à la Bibliothèque de Lyon de diffuser ses propres copies. Or cette prestation n’est pas consentie sans contrepartie ; c’est le moins que l’on puisse dire.

On lit en effet plus loin dans le CCTP que “les fonctionnalités, le design et le contenu de ce service restent entièrement sous le contrôle du titulaire. Par design du site, il faut entendre : l’ergonomie, la présentation, l’interface et les fonctionnalités techniques de la bibliothèque numérique propre à la ville qui sera hébergée par le titulaire“.

Vous lisez comme moi : les fonctionnalités de ce site restent  “sous le contrôle” de Google. Cela signifie que même si l’exclusivité d’indexation ne figure pas de manière explicite dans le contrat, je ne vois rien d’un point de vue juridique  qui empêche Google de bloquer les robots des moteurs de recherche concurrents afin qu’ils n’indexent pas les contenus de cette Hosted Solution. Et symétriquement, il n’y a pas moyen contractuellement d’imposer à Google qu’il le fasse.

Un peu plus loin encore, le CCTP ajoute : ”la recherche des ouvrages imprimés par l’utilisateur final doit pouvoir se faire, via Internet, aussi bien à partir du contenu des textes (full text) que des métadonnées bibliographiques“. On pourrait voir dans cette clause (les mots “full text“) une forme de garantie, mais Google aura certainement satisfait à ses obligations s’il permet simplement l’accès aux contenus de la Bibliothèque par son propre moteur.

Il existe néanmoins dans le contrat une sorte de soupape qui donne théoriquement à la Ville de Lyon les moyens de conjurer ce risque. A l’article 24 du CCTP, on peut lire : “La Ville de Lyon peut librement constituer avec les ouvrages imprimés numérisés par le titulaire, au fur et à mesure de la réalisation de la prestation, sa propre bibliothèque numérique et la rendre consultable par le public gratuitement, sur place ou via Internet“. Cela signifie qu’en plus de Google Book Search et en plus de la Hosted Solution développée par Google, la Ville de Lyon garde la faculté de monter une autre bibliothèque numérique (une troisième donc…), par ses propres moyens et rien alors dans le contrat n’empêche de l’ouvrir à tous les moteurs.

Garantie importante, j’en conviens…

Mais il faudra voir si concrètement la Ville de Lyon consentira à faire cet effort, alors qu’un accès au fichiers existe déjà par le biais de la Hosted Solution, offerte gratuitement. Et ici encore, je vous recommande de relire ce que disait Olivier Ertzscheid en 2006 dans son billet :

[...] pour parachever le tout, nos chères bibliothèques n’ont d’autre choix que d’accepter le cadeau “empoisonné” de Google qui consiste à opter pour une solution hébergé, le temps de la numérisation : c’est à dire que les oeuvres seront disponibles sur le site de Google uniquement, le temps que les université aient mis en place les capacités de stockage et de bande passante nécessaires … Vous imaginez bien qu’une fois que vous aurez consulté une oeuvre sur Google Books (qui entre temps aura largement communiqué sur l’augmentation de l’offre disponible) vous vous empresserez (si vous êtes au courant que “ça y est, la bibliothèque à récupéré son exemplaire et le propose dans son Opac”), vous vous empresserez, disais-je, d’aller trouver le site de la bibliothèque de l’université qui possède l’ouvrage, puis de trouver sur ce site comment est-ce qu’on fait pour accéder à leur p—–n d’Opac, puis de rechercher de nouveau l’ouvrage en question, puis de vous empresser de mettre ce si beau site de bibliothèque dans votre liste de favoris qui en comporte déjà 250 pour pouvoir y revenir quand bon vous semble. Hein ? Quoi ? Vous ne ferez pas ça ? Vous irez plutôt interroger directement Google Books ? Ooooh, ben oui mais alors si personne ne fait d’efforts …

Vous comprendrez que je puisse avoir l’ombre d’un doute, car si l’exclusivité d’indexation n’est pas inscrite formellement en droit, il existe un risque qu’elle puisse persister dans les faits.

A ce risque de déséquilibre dans l’accès, s’ajoutent des clauses qui vont certainement provoquer un déséquilibre dans les usages.

Tout se joue encore à l’article 24 du CCTP.

On y lit que “La Ville de Lyon peut permettre le téléchargement gratuit des images numérisés d’un ouvrage à partir de sa propre bibliothèque numérique, en tout ou partie, à condition que ce soit à l’unité, pour un usage individuel“.

Images“… “Individuel“… deux mots qui pèsent lourd…

Il faut comprendre en effet que les utilisateurs n’auront accès par le biais du téléchargement qu’au mode image, et non au mode texte. Tout ceux qui ont déjà sérieusement travaillé sur un ouvrage numérisé savent que c’est une restriction très forte, notamment pour les usages d’étude et de recherche. C’est se priver d’une des principales plus-value qu’apporte la numérisation. Du mode image à la bibliothèque, tandis que dans le même temps une grande partie du contenu libre de droits de Google Book Search est déjà récupérable au format ePub… hum…

L’autre restriction drastique découle du fait qu’il ne pourra être fait qu’un “usage individuel” des fichiers téléchargés à partir du site de la Ville de Lyon. Est-il besoin de rappeler par exemple qu’un usage pédagogique, par définition, n’est pas un usage individuel ? Qu’il en est de même pour la plupart des usages de recherche ? L’enseignement, la recherche comportent une dimension collective et publique qui n’est pas compatible avec un usage limité à la dimension individuelle.

De la même manière, l’usage individuel entraîne qu’il ne sera pas possible de réutiliser ces fichiers en ligne sur Internet. Or la réutilisation constitue un enjeu majeur de la numérisation aujourd’hui. Il fût un temps où la consultation en ligne sur le site de la bibliothèque numérique était le but ultime de la numérisation du patrimoine. C’est de moins en moins vrai aujourd’hui. Les utilisateurs ont certes besoin de consulter, mais ils veulent aussi emporter, réafficher, modifier, partager les documents, en accord avec les nouveaux usages du web. La faculté de pouvoir disséminer – et non plus seulement diffuser – les documents devient dès lors essentielle.

Or dissémination et réutilisation ne sont pas compatibles avec l’ “usage individuel”. Tout usage en ligne dépasse ce cadre étroit. L’article 24 du CCTP ajoute même pour que ce soit bien clair : “La Ville de Lyon s’engage également à empêcher tout tiers de : [...] redistribuer toute partie de sa bibliothèque numérique” (je serai d’ailleurs curieux de voir comment on peut satisfaire une telle exigence lorsqu’on permet par ailleurs  le téléchargement).

Google a d’ailleurs bien compris l’importance de permettre aux utilisateurs de s’approprier les documents et de les rediffuser par eux-mêmes. Il a même mis en place une solution technique pour ce faire, sous la forme d’un système de vignette exportable (embed), très bien fait. J’affiche par ce biais  le petit extrait que vous voyez ci-dessous (choisi complètement au hasard) et ce faisant, vous conviendrez que je fais à l’évidence une utilisation du document numérique plus large que l’usage individuel. Je doute que de telles fonctionnalités puissent être mises en place par la BM de Lyon à partir de son propre site.

Ajoutons que si les utilisateurs ne pourront pas disséminer les fichiers, la Bibliothèque ne sera pas plus en mesure de le faire elle-même puisque les partenariats sont limités par le CCTP à “la consultation des fichiers numérisés [par Google] dans le cadre de la bibliothèque numérique propre à la BML et sans transmission des fichiers aux partenaires“. Le contrat “fixe” les documents numériques sur le site de la BM de Lyon.

Ce qui est particulièrement dérangeant avec cette restriction à l’usage, c’est qu’elle est plus forte que celles mises en place par les conditions d’utilisation de … Google Book Search ! On accède à ces conditions lorsque l’on télécharge un ouvrage et elles nous disent que l’on peut réutiliser les documents à condition de ne pas faire un usage commercial des fichiers et de ne pas supprimer l’attribution (c’est-à-dire le filigrane discret “numérisé par Google” qui figure en bas de chaque page).

Or être limité à un usage non commercial n’empêche pas de faire une utilisation pédagogique ou de recherche des fichiers, pas plus que la réutilisation en ligne sur Internet et la dissémination. A la différence de l’usage individuel qui bloque beaucoup plus de choses…

Malgré ces ombres que je discerne dans l’accord entre Google et la Ville de Lyon, je n’irais pas jusqu’à employer le terme “d’eugénisme documentaire” à son sujet. D’abord parce que je n’ai pas envie de marquer un point Godwin et d’autre part parce que ce serait manquer d’objectivité dans l’analyse de  ce document.

Si on le compare avec les contrats de l’université de Michigan et de l’université de Californie, l’accord lyonnais est plus ouvert et il apporte plus de garanties. Il est très important d’insister sur ce point.

Il n’empêche que cet accord comporte toujours un risque de mise en place d’un déséquilibre des accès du point de vue de la liberté d’indexer les contenus. Et qu’il va provoquer un déséquilibre des usages à causes des restrictions imposées à la réutilisation des fichiers.

Ce qui m’étonne le plus dans cette histoire, c’est qu’on ne compte plus le nombre de personnes distinguées qui sont intervenues dans le ” débat” pour se fendre d’un article à la Darnton, en montant sur de grands chevaux théoriques et nous gratifier de grandes envolées de futurologie épistémologique.

Mais pour ce qui est de se confronter directement avec les clauses du contrat… pas grand monde soudainement…

Il ne suffit pas qu’un document soit rendu public pour l’exigence démocratique soit satisfaite. Ce qui importe, c’est que cette publicité soit le point de départ de l’analyse critique.

Dans ces conditions, si j’ai l’ombre d’un doute, c’est  surtout peut-être sur notre capacité à nous saisir d’une question aussi complexe que celle que nous pose Google Book Search.

Un billet publié à l’origine sur le blog S.I.Lex ]]> http://owni.fr/2009/12/13/contrat-googlebibliotheque-de-lyon-lombre-dun-doute/feed/ 2 Google et l’armée des zombies orphelins http://owni.fr/2009/09/03/google-et-larmee-des-zombies-orphelins/ http://owni.fr/2009/09/03/google-et-larmee-des-zombies-orphelins/#comments Thu, 03 Sep 2009 05:46:43 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=3128 Demain vendredi 4 septembre arrive à expiration le délai fixé aux auteurs et éditeurs, partout dans le monde, pour exprimer leur volonté de sortir du Règlement Google Book Search.

A défaut de se manifester, les titulaires de droits sur les livres numérisés par Google seront réputés accepter les dispositions de cet accord, qui est susceptible de bouleverser en profondeur la structure mondiale de l’accès à la connaissance et de la commercialisation des livres sous forme numérique.

Énormément de commentaires et d’analyses ont déjà parus à ce sujet, mais il nous a semblé que le texte de la conférence Google and the Zombie Army of Orphans, prononcée aux Etats-Unis par James Grimmelman le 14 mars dernier méritait d’être traduit et diffusé plus largement en France, tant  il permet d’appréhender clairement les enjeux juridiques et politiques sous-jacents.

James Grimmelman est professeur associé à la New York Law School.

Ce texte a été initialement placé par son auteur sous la licence Creative Commons Attribution 3.0, qui autorise la présente traduction et sa reproduction.

(Traduction libre par calimaq – des liens hypertextes ont été ajoutés pour permettre une meilleure compréhension des termes juridiques et des références)

Par d200 dug No censorship!

Par d200 dug No censorship!

Je voudrais dire quelques mots à propos des tenants et des aboutissements du Règlement Google Book Search. Je vais faire de mon mieux pour rester simple. Mais hélas, lorsque l’on parle d’un accord de 145 pages et 15 annexes, la simplicité n’est pas toujours possible.

A l’origine, cette action en justice avait pour but de contrecarrer le projet conçu par Google de numériser et de rendre interrogeables tous les livres sur lesquels il pourrait mettre la main. Google voulait ajouter les livres à ses résultats de recherche : taper une requête et Google vous dira dans quels livres votre mot apparaît et où il apparaît à l’intérieur des ouvrages. Google ne vous donnera pas accès aux livres eux-mêmes. Mais Google pourra vous renseigner et à partir de là, vous pourrez trouver un moyen de remonter jusqu’au livre lui-même si vous souhaitez le lire. A l’origine du projet, il n’était donc question que d’indexation.

A l’époque, j’estimais qu’il s’agissait sans aucun doute d’un bienfait. Google allait mettre en place un index général à partir de tout ce qui avait été écrit. Un index de ce type pouvait devenir un outil remarquable pour la découverte et la transmission du savoir. En disposer aurait pu accélérer grandement le rythme du partage des idées et de la créativité. Et pour les chercheurs, la différence entre un bon index et un index exhaustif est immense.

Je pensais également que le projet Book Search relevait incontestablement de l’usage équitable (fair use), du fait de la difficulté de négocier un accord de ce genre avec les titulaires de droits de l’ensemble des livres – auteurs et éditeurs – pour obtenir leur consentement. Il ne s’agissait pas seulement de négociations difficiles à conduire avec certains d’entre eux ou de réticences à lever. La difficulté résultait cette fois dans la négociation en elle-même et dans la possibilité de trouver les personnes avec qui négocier.

Un spectre hante le droit d’auteur américain – le spectre des œuvres orphelines. Beaucoup, beaucoup de livres protégés par des droits sont aujourd’hui épuisés et sans titulaire de droits localisable. Dans certains cas peut-être le titulaire n’a-t-il pas exprimé nettement ses volontés avant son décès et ses descendants ne sont pas conscients d’être les détenteurs du droit d’auteur. Dans d’autres cas, l’éditeur a fait faillite, et celui qui a racheté son affaire pensait d’abord aux rotatives et pas aux droits d’auteur. Une part substantielle des livres protégés soulève ce type de problèmes et il est dès lors impossible à un acteur comme Google de recueillir l’ensemble des autorisations explicites qui seraient normalement nécessaires. Dénier à Google la possibilité de se prévaloir de l’usage équitable revenait à empêcher à jamais la création d’un catalogue exhaustif. Et cela me paraissait constituer une grande perte.

Pourtant un débat a bien eu lieu au Congrès pour trouver le moyen d’améliorer l’accès aux œuvres orphelines, mais le projet de loi est resté lettre morte après un passage en commission l’année dernière. Le Règlement accomplit aujourd’hui ce que le Congrès n’a pas pu faire. Parce que ce procès est un recours collectif, les titulaires de droits sont liés par les termes du Règlement à moins qu’ils ne se manifestent pour en sortir. Ainsi, Google n’est pas seulement capable de numériser les ouvrages des auteurs lui disant « Oui, merci », il peut aussi numériser les livres de tous ceux qui ne lui diront pas fermement « Pas question ! ». Le recours collectif va englober automatiquement tous les livres dont les titulaires de droits ne se manifesteront pas. Mes félicitations, titulaires de droits d’œuvres orphelines, où que vous soyez : vous êtes sur le point d’entrer dans cet accord.

Le Règlement cependant va beaucoup plus loin à présent que la simple recherche dans les livres. En plus d’autoriser Google à numériser et à indexer les ouvrages, le règlement lui permettra de vendre un accès au plein texte, soit sous forme d’achat de livres au titre, soit sous la forme d’un abonnement à la base toute entière. Nous pourrions bien assister à l’avènement de la plus grande libraire du monde. L’accord paraît à première vue assez profitable aux auteurs et éditeurs : Google leur allouera 63 % des revenus générés par la vente des livres. Et pour les titulaires d’œuvres orphelines absents, l’accord met en place un Registre des Droits du Livre qui conservera en leur nom les sommes récupérées par Google pour leur reverser dans l’hypothèse où ils viendraient à se manifester. Ce règlement privé né d’un litige paraît en mesure de trouver une issue à un problème si sensible qu’aucune solution politique n’avait pu être dégagée. Et le résultat pourrait procurer de grands avantages aux lecteurs, aux titulaires de droits, et bien sûr aussi, à Google.

Mais le Règlement dans sa forme actuelle soulève aussi des problèmes très sérieux. Il peut nous faire courir le risque de conférer à une entité monolithique le contrôle global sur la distribution des livres et de la connaissance. S’il parvient à s’imposer comme la plateforme dominante, Google pourrait devenir le seul candidat sérieux dans la course à l’accès en ligne aux livres. Le Registre aura aussi un pouvoir déterminant dans la fixation des règles d’accès aux ouvrages et sur les droits d’auteur.

Le règlement ne contient en outre quasiment rien à propos du respect de la vie privée des lecteurs. Google pourrait très bien, si l’on s’en tient aux termes de l’accord, surveiller ce que vous lisez, page à page. Combien lisent Marx ? Combien lisent les Marx Brothers ? Google sera en mesure de faire des choses inquiétantes lorsqu’il sera en possession de telles informations. Le respect de la vie privée est au cœur même de la liberté de conscience.

De la même manière, les droits des consommateurs sont peu protégés par le Règlement. Lorsque j’emprunte un livre à la bibliothèque ou que j’achète un ouvrage à la libraire, la loi sur le droit d’auteur me reconnaît toute une série de droits. L’accès en ligne façon Google pourrait bien tordre le cou à beaucoup de ces libertés. Je me demande également si les consommateurs apprécieront d’acheter un livre pour se rendre compte que plusieurs pages sont illisibles à cause de problèmes de numérisation – et quels recours ils pourront bien exercer si cela se produit.

Peut-on vraiment aborder ces questions d’une manière qui fasse sens dans le cadre du Règlement ? Les principes d’intérêt public que j’ai mentionnés – libre concurrence, respect de la vie privée, droit des consommateurs – trouvent difficilement leur place dans un accord purement privé élaboré par des parties en litige. Les auteurs et les éditeurs n’ont-ils pas après tout intérêt à essayer d’en retirer un maximum d’argent. Et qui aura le droit de se plaindre s’ils parviennent à une entente cordiale avec Google ?

Par katirae

Par katirae

Mais la vraie question réside dans la manière dont la procédure de recours collectif a été employée dans cette affaire. Il n’était pas nécessaire d’intenter un recours collectif pour savoir si la loi autorisait Google à numériser les livres et à les indexer. Les auteurs et éditeurs qui s’opposaient aux agissements de Google auraient pu simplement l’attaquer pour violation de leurs propres droits d’auteur. Ils auraient alors pu gagner ou bien perdre. Mais dans les deux cas, la décision du juge aurait répondu à la question juridique au cœur du problème.

Mais les choses ne se sont pas passées ainsi. A la place, un petit groupe de titulaires de droits a choisi de monter un recours collectif, forçant tous les autres intéressés à se constituer partie au procès à leurs côtés. Et cela comprend beaucoup des personnes qui sont dans cette salle. Et peut-être même vous. Vous étiez-vous déjà rendu compte que vous étiez vous aussi un plaignant ? Je ne sais plus moi-même si je participe à ce recours ou non.

Au sein de ce vaste groupe de plaignants, il existe une sous-catégorie qui ne bénéficiera pas en tout état de cause de cet accord. Je pense aux titulaires d’œuvres réellement orphelines dont l’existence même rendait la situation si problématique pour Google au début de l’affaire. Par définition, il n’est pas possible de retrouver les titulaires d’œuvres orphelines. Il n’était pas possible de les retrouver à l’origine pour négocier avec Google, et on ne peut pas non plus les retrouver maintenant pour qu’ils réapparaissent et viennent réclamer l’argent qui leur est dû selon le Règlement, pas plus qu’ils ne peuvent – et c’est le plus important – être retrouvés pour nous dire si les termes de l’accord ne correspondaient pas à ce qu’ils auraient voulu pour eux-mêmes et pour la société.

Bien sûr, ce mécanisme du recours collectif est indispensable pour qu’un tel accord fonctionne. Il nous donne, à nous le public des lecteurs, accès à tous ces livres. Mais seul le petit nombre de personnes qui ont réellement pris part à l’accord est en train de se remplir les poches, et pas nécessairement d’une manière compatible avec les intérêts de la société.

Google est donc sur le point d’obtenir la possibilité de numériser et de rendre disponible les livres en toute légalité. Aucun de ses concurrents ne pourra se lancer dans la vente du corpus entier des livres sans avoir obtenu le consentement individuel de chaque titulaire de droits. Et bien sûr, ils ne pourront pas le faire, pour les mêmes raisons qui empêchaient Google de le faire à l’origine. Ils devront s’engager dans leur propre recours collectif et il n’est pas certain qu’ils trouveront quelqu’un disposé à négocier avec eux. Google a verrouillé ce marché et personne ne sera en mesure d‘obtenir la même permission légale qu’il est parvenu à s’arroger.

On m’a opposé l’argument que les recours collectifs sont précisément faits pour obtenir ce genre de résultats. N’est-ce pas l’objet des recours collectifs de régler les problèmes une bonne fois pour toutes de cette façon ? Oui et non. Un recours collectif classique s’applique à des affaires de médicaments dangereux ou de produits défectueux. Tous les acheteurs ou tous ceux qui ont eu à en souffrir se regroupent ; la firme verse une grosse somme d’argent et les plaignants se répartissent le montant entre eux. Il s’agit d’un dédommagement pour des actes fautifs commis dans le passé.

Le recours collectif dont nous parlons ici est très spécial. Il ne s’agit pas pour Google de faire amende honorable pour des choses passées. Il s’agit au contraire d’un accord structurel qui va reconfigurer dans l’avenir l’industrie du livre tout entière en donnant à Google – et à lui seul – accès à l’intégralité du stock des œuvres épuisées. Pour ce faire, le Règlement passe outre les droits des personnes qui ne prennent pas part au procès. Et vu le sort réservé aux œuvres orphelines dans la loi sur le droit d’auteur, nous savons qu’il est complètement improbable que ces plaignants absents au procès puissent faire quoi que ce soit pour s’opposer à ce que Google remporte la mise à leur place.

Il s’agit d’une nouvelle version du paradoxe de Russel, appliqué au recours collectif. Ce recours regroupe en fait des personnes qui n’ont pas conscience d’y prendre part. Dans le cadre de ce recours collectif, les plaignants actifs ont pu se servir du vaste ensemble des droits d’auteur sur les œuvres orphelines comme d’une monnaie d’échange. Les plaignants actifs ont négocié au nom de tous, alignant tous ces millions de livres pour le seul bénéfice de Google. Les orphelins sont devenus des zombies, rappelés d’entre les morts par la magie noire du recours collectif et transformés en une armée titubante obéissant à la seule volonté de Google.

Cela, je vous demande d’y réfléchir, ne devrait pas être la manière dont les choses se passent  dans une démocratie. Nous avons un système politique pour trouver des solutions aux grands problèmes de société. Nous avons un Congrès, qui fait passer des auditions et vote des lois. Nous avons des administrations qui peuvent délivrer des avis d’experts et prendre des décisions raisonnées. Le prétoire n’est pas un endroit conçu pour résoudre des problèmes de cette ampleur, impliquant les droits d’auteur de millions de plaignants. Les procès sont faits pour résoudre des conflits entre individus – Vous contre Moi. Ce n’est pas la bonne manière de s’attaquer à des problèmes aussi complexes et aussi vastes, que celui de l’accès à toute l’information contenue dans tous les livres.

Peut-être ce règlement aura-t-il quand même un effet positif pour la société : de bonnes choses sortent parfois des pratiques les plus corrompues. Mais nous devons bien être conscients que ce n’est pas de cette manière que les choses auraient dû se dérouler. Les parties ont atteint un résultat différent de celui que la société était en droit d’attendre. Peut-être notre système politique est-il trop grippé pour régler à la fois le problème de la recherche dans les livres et la question des œuvres orphelines ? Mais nous ne devrions pas pour autant renoncer à exiger mieux que cela ; nous ne pouvons pas nous contenter de baisser les bras en disant : « C’est toujours mieux que rien ».

Cliquer ici pour voir la vidéo.

]]>
http://owni.fr/2009/09/03/google-et-larmee-des-zombies-orphelins/feed/ 8