Produced by Al Haines

LE LIVRE, DE L'IMPRIMÉ AU NUMÉRIQUE

MARIE LEBERT

NEF, Université de Toronto, 2010

Copyright © 2010 Marie Lebert. Tous droits réservés.

—— Ce livre est dédié à toutes les personnes ayant répondu à mes questions pendant dix ans, en Europe, en Afrique, en Asie, en Australie et dans les Amériques, avec tous mes remerciements pour leur temps et pour leur amitié. ——

Le livre imprimé a cinq siècles et demi. Le livre numérique a bientôt quarante ans. On peut désormais lire un livre sur son ordinateur, sur son assistant personnel (PDA), sur son téléphone mobile, sur son smartphone ou sur une tablette de lecture. Ce livre fait le point de la situation en se basant sur quelques milliers d'heures de navigation sur le web pendant dix ans et sur une centaine d'entretiens conduits de par le monde. Il pourrait également s'intituler: «Du Projet Gutenberg à l'iPad», en passant par 00h00, @folio, Adobe, Amazon, Apple, Bookeen, Le Choucas, CyLibris, Europeana, Franklin, Gallica, Google, l'Internet Archive, Microsoft, Mobipocket, Numilog, Palm, Psion, Sony, Ulysse, Unicode, le W3C et bien d'autres.

Marie Lebert, chercheuse et journaliste, s'intéresse aux technologies pour le livre et les langues. Elle est l'auteure de Booknologie: le livre numérique (1971-2010), Une courte histoire de l'ebook (NEF, 2009) et Le Livre 010101 (NEF, 2003). Ses livres sont publiés par le Net des études françaises (NEF) , Université de Toronto, Canada, et sont librement disponibles dans le Projet Gutenberg et dans ManyBooks.net , dans divers formats permettant leur lecture sur tout appareil électronique (ordinateur, PDA, téléphone mobile, smartphone et tablette de lecture).

TABLE

Introduction

Le Projet Gutenberg
* Un pari depuis 1971
* Du passé vers l'avenir

L'Online Books Page
* Un répertoire d'oeuvres en accès libre
* Le durcissement du copyright

La presse se met en ligne
* L'E-zine-list
* La presse imprimée

Amazon.com
* Aux États-Unis
* En Europe
* Dans le monde
* Et les petites librairies?

Les éditeurs sur le réseau
* Deux éditeurs pilotes
* Premiers éditeurs électroniques
* Éditeurs traditionnels et technologies

La convergence multimédia
* Une définition
* Des commentaires

La mue des bibliothèques
* Des bibliothèques numériques
* Un exemple: Gallica
* Du bibliothécaire au cyberthécaire
* Des catalogues en réseau

Une information multilingue
* De l'ASCII à l'Unicode
* De l'anglais au plurilinguisme
* Des dictionnaires de langues en ligne

Le copyright revisité
* Droit d'auteur et internet
* Copyleft et Creative Commons
* Domaine public et copyright

Une vaste encyclopédie
* Vers un savoir numérique
* Quelques projets pilotes

Des best-sellers numériques
* Des logiciels de lecture
* Stephen King ouvre la voie
* D'autres auteurs suivent
* Numilog, librairie numérique

La cyber-littérature
* Poésie
* Fables
* Romans policiers
* Autres oeuvres de fiction
* Romans numériques
* Mails-romans
* Sites hypermédias

Vers une bibliothèque planétaire
* Google Books
* L'Open Content Alliance
* Autres initiatives

PDA, smartphones et tablettes
* Le projet @folio
* PDA (assistants personnels)
* Smartphones
* Tablettes de lecture

Conclusion

Chronologie

Remerciements

INTRODUCTION

Le livre a beaucoup changé depuis 1971.

Le livre imprimé a cinq siècles et demi. Le livre numérique a bientôt quarante ans (le 4 juillet 2011). Il est né en tant que eText #1 du Projet Gutenberg, un projet visionnaire fondé en juillet 1971 par Michael Hart pour distribuer gratuitement les oeuvres littéraires par voie électronique.

D'abord considéré comme complètement irréaliste, ce projet trouve un second souffle et un rayonnement international avec l'apparition du web en 1990, puis la création de Distributed Proofreaders en 2000 pour partager la relecture des livres entre des milliers de volontaires.

Signe des temps, en novembre 2000, la British Library met en ligne la version numérique de la Bible de Gutenberg, premier livre à avoir jamais été imprimé. Datant de 1454 ou 1455, cette Bible aurait été imprimée par Gutenberg en 180 exemplaires dans son atelier de Mayence, en Allemagne. 48 exemplaires, dont certains incomplets, existeraient toujours, dont trois (deux versions complètes et une partielle) à la British Library.

En 2010, des milliers d’oeuvres du domaine public sont en accès libre sur le web. Les libraires et les éditeurs ont pour la plupart un site web. Certains naissent directement sur le web, avec la totalité de leurs transactions réalisées via l’internet. De plus en plus de livres et revues ne sont disponibles qu’en version numérique, pour éviter les coûts d’une publication imprimée. Des auteurs font naître leurs oeuvres sur des sites d'écriture hypertexte ou hypermédia.

L’internet est devenu indispensable pour se documenter, pour communiquer, pour avoir accès aux livres et pour élargir ses connaissances. Nous n'avons plus besoin de courir désespérément après l'information dont nous avons besoin. L'information dont nous avons besoin est à notre portée, y compris pour ceux qui suivent leurs études par correspondance, qui vivent en rase campagne, qui travaillent à domicile ou qui sont cloués sur un lit.

Le web est devenu une gigantesque encyclopédie, une énorme bibliothèque, une immense librairie et un médium des plus complets. De «statique» dans les livres imprimés, l’information est devenue fluide, avec possibilité d’actualisation constante.

On peut désormais lire un livre sur son ordinateur, sur son PDA (assistant personnel), sur son téléphone mobile, sur son smartphone ou sur une tablette de lecture.

Tel est le voyage virtuel que nous allons entreprendre dans ces pages.

Ce livre est issu des multiples liens tissés sur le Net des études françaises (NEF), fondé en mai 2000 par Russon Wooldridge, professeur à l’Université de Toronto (Canada). Sauf indication contraire, les citations sont des extraits des Entretiens du NEF et des entretiens qui ont suivi pour les actualiser et les compléter.

LE PROJET GUTENBERG

[Résumé] Le premier livre numérique date de juillet 1971. Il s'agit de l'eText #1 du Projet Gutenberg, un projet visionnaire lancé par Michael Hart pour créer des versions électroniques d'oeuvres littéraires et les diffuser gratuitement dans le monde entier. Au 16e siècle, Gutenberg avait permis à chacun d'avoir des livres imprimés pour un prix relativement modique. Au 21e siècle, le Projet Gutenberg permettrait à chacun d'avoir une bibliothèque numérique gratuite. Ce projet trouve un second souffle et un rayonnement international avec l'apparition du web en 1990, puis la création de Distributed Proofreaders en 2000 pour partager la relecture des livres entre des milliers de volontaires. En 2010, le Projet Gutenberg compte 33.000 livres numériques, des dizaines de milliers de téléchargements par jour, des sites web aux États-Unis, en Australie, en Europe et au Canada, et 38 sites miroirs répartis sur toute la planète.

= Un pari depuis 1971

# Gestation

Quels furent les tous débuts du projet? Alors étudiant à l’Université de l'Illinois (États-Unis), Michael Hart se voit attribuer quelques millions de dollars de «temps machine» dans le laboratoire informatique (Materials Research Lab) de son université.

Le 4 juillet 1971, jour de la fête nationale, il saisit The United States Declaration of Independence (La Déclaration de l’indépendance des États-Unis, signée le 4 juillet 1776) sur le clavier de son ordinateur. En caractères majuscules, puisque les caractères minuscules n’existent pas encore. Le texte électronique représente 5 Ko (kilo- octets). Mais l’envoi d’un fichier de 5 Ko à la centaine de personnes que représente le réseau de l’époque aurait fait imploser celui-ci, la bande passante étant infime. Michael diffuse donc un message indiquant où le texte est stocké - sans lien hypertexte toutefois, puisque le web ne voit le jour que vingt ans après - suite à quoi le fichier est téléchargé par six personnes.

Dans la foulée, Michael décide de consacrer ce crédit-temps de quelques millions de dollars à la recherche des oeuvres littéraires disponibles en bibliothèque et à la numérisation de celles-ci. Il décide aussi de stocker les textes électroniques de la manière la plus simple possible, au format ASCII (American Standard Code for Information Interchange), pour que ces textes puissent être lus sans problème quels que soient la machine, la plateforme et le logiciel utilisés. Au lieu d’être un ensemble de pages reliées, le livre devient un texte électronique que l’on peut dérouler en continu, avec des lettres capitales pour les termes en italique, en gras et soulignés de la version imprimée.

Peu après, Michael définit la mission du Projet Gutenberg: mettre à la disposition de tous, par voie électronique, le plus grand nombre possible d’oeuvres littéraires. «Nous considérons le texte électronique comme un nouveau médium, sans véritable relation avec le papier», explique-t-il plus tard, en août 1998. «Le seul point commun est que nous diffusons les mêmes oeuvres, mais je ne vois pas comment le papier peut concurrencer le texte électronique une fois que les gens y sont habitués, particulièrement dans les établissements d'enseignement.»

Après avoir saisi The United States Declaration of Independence en 1971, Michael poursuit ses efforts en 1972 en saisissant The United States Bill of Rights (La Déclaration des droits américaine). Cette Déclaration comprend les dix premiers amendements ajoutés en 1789 à la Constitution des États-Unis (qui date elle-même de 1787), et définissant les droits individuels des citoyens et les pouvoirs respectifs du gouvernement fédéral et des États. En 1973, un volontaire saisit The United States Constitution (La Constitution des États-Unis) dans son entier.

D’année en année, la capacité de la disquette augmente régulièrement - le disque dur n’existe pas encore - si bien qu'il est possible d’envisager des fichiers de plus en plus volumineux. Des volontaires entreprennent la numérisation de la Bible, composée elle-même de plusieurs livres qui peuvent être traités séparément et occuper chacun un fichier différent.

Michael Hart débute la saisie des oeuvres complètes de Shakespeare, avec l'aide de volontaires, une pièce de théâtre après l’autre, avec un fichier pour chaque pièce. Cette version n'est d’ailleurs jamais mise en ligne, du fait d’une loi plus contraignante sur le copyright entrée en vigueur dans l’intervalle, et qui vise non pas le texte de Shakespeare, tombé depuis longtemps dans le domaine public, mais les commentaires et notes de l'édition correspondante. D’autres éditions annotées appartenant au domaine public sont mises en ligne quelques années plus tard.

Parallèlement, l’internet, qui était encore embryonnaire en 1971,
débute véritablement en 1974, suite à la création du protocole TCP/IP
(Transmission Control Protocol / Internet Protocol) par Vinton Cerf et
Robert Kahn. En 1983, le réseau est en plein essor.

# De 10 à 1.000 ebooks

En août 1989, le Projet Gutenberg met en ligne son dixième texte, The King James Bible, une bible publiée pour la première fois en 1611 et dont la version la plus connue date de 1769. L'ensemble des fichiers de l'Ancien Testament et du Nouveau Testament représente 5 Mo (méga- octets).

En 1990, les internautes sont au nombre de 250.000, et le standard en vigueur est la disquette de 360 Ko. En janvier 1991, Michael Hart saisit Alice’s Adventures in Wonderland (Alice au pays des merveilles) de Lewis Carroll (paru en 1865). En juillet de la même année, il saisit Peter Pan de James M. Barrie (paru en 1904). Ces deux classiques de la littérature enfantine tiennent chacun sur une disquette standard.

Arrive ensuite le web, opérationnel en 1991. Le premier navigateur, Mosaic, apparaît en novembre 1993. Lorsque l’utilisation du web se généralise, il devient plus facile de faire circuler les textes électroniques et de recruter des volontaires.

Le Projet Gutenberg rode sa méthode de travail, avec la numérisation d’un texte par mois en 1991, deux textes par mois en 1992, quatre textes par mois en 1993 et huit textes par mois en 1994.

En janvier 1994, le Projet Gutenberg fête son centième livre avec la mise en ligne de The Complete Works of William Shakespeare (Les oeuvres complètes de William Shakespeare). Shakespeare écrivit l'essentiel de son oeuvre entre 1590 et 1613.

La production continue ensuite d’augmenter, avec une moyenne de 16 textes par mois en 1995 et 32 textes par mois en 1996.

Comme on le voit, entre 1991 et 1996, la production double chaque année. Tout en continuant de numériser des livres, Michael coordonne désormais le travail de dizaines de volontaires.

À l'époque, le Projet Gutenberg s’articule en trois grands secteurs: (a) Light Literature (littérature de divertissement), qui inclut par exemple Alice’s Adventures in Wonderland, Peter Pan ou Aesop’s Fables (Les Fables d’Ésope); (b) Heavy Literature (littérature «sérieuse»), qui inclut par exemple La Bible, les oeuvres de Shakespeare ou Moby Dick; (c) Reference Literature (littérature de référence), composée d’encyclopédies et de dictionnaires, par exemple le Roget’s Thesaurus. Cette présentation en trois secteurs est abandonnée par la suite pour laisser place à un classement par rubriques plus détaillé.

Le Projet Gutenberg se veut universel, aussi bien pour les oeuvres choisies que pour le public visé, le but étant de mettre la littérature à la disposition de tous, en dépassant largement le public habituel des étudiants et des enseignants. Le secteur consacré à la littérature de divertissement est destiné à amener devant l’écran un public très divers, par exemple des enfants et leurs grands-parents recherchant le texte électronique de Peter Pan après avoir vu le film Hook, ou recherchant la version électronique d’Alice au pays des merveilles après avoir regardé l'adaptation filmée à la télévision, ou recherchant l’origine d’une citation littéraire après avoir vu un épisode de Star Trek. Pratiquement tous les épisodes de Star Trek citent des livres ayant leur correspondant numérique dans le Projet Gutenberg.

L’objectif est donc que le public, qu’il soit familier ou non avec le livre imprimé, puisse facilement retrouver des textes entendus dans des conversations, des films, des musiques, ou alors lus dans d’autres livres, journaux et magazines. Les fichiers électroniques prennent peu de place grâce à l’utilisation du format ASCII. On peut facilement les télécharger par le biais de la ligne téléphonique. La recherche textuelle est tout aussi simple. Il suffit d’utiliser la fonction «rechercher» présente dans n’importe quel logiciel.

En 1997, la production est toujours de 32 titres par mois. En juin 1997, le Projet Gutenberg met en ligne The Merry Adventures of Robin Hood (Les aventures de Robin des Bois) de Howard Pyle (paru en 1883). En août 1997, il met en ligne son millième texte électronique, La Divina Commedia (La Divine Comédie) de Dante Alighieri (parue en 1321), dans sa langue d’origine, en italien.

En août 1998, Michael Hart écrit: «Mon projet est de mettre 10.000 textes électroniques sur l’internet. [NDLR: Ce sera chose faite en octobre 2003.] Si je pouvais avoir des subventions importantes, j’aimerais aller jusqu’à un million et étendre aussi le nombre de nos usagers potentiels de 1,x% à 10% de la population mondiale, ce qui représenterait la diffusion de 1.000 fois un milliard de textes électroniques, au lieu d’un milliard seulement.»

# De 1.000 à 10.000 ebooks

Entre 1998 et 2000, la moyenne est constante, avec 36 textes par mois.
En mai 1999, les collections comptent 2.000 livres. Le 2.000e titre est
Don Quijote (Don Quichotte) de Cervantès (paru en 1605), dans sa langue
d’origine, en espagnol.

Disponible en décembre 2000, le 3.000e titre est le troisième volume de À l’ombre des jeunes filles en fleurs de Marcel Proust (paru en 1919), dans sa langue d'origine, en français. La moyenne passe à 104 livres par mois en 2001.

Mis en ligne en octobre 2001, le 4.000e titre est The French Immortals Series (Collection de textes d'Immortels français), dans sa traduction anglaise. Publié à Paris en 1905 par la Maison Mazarin, ce livre rassemble plusieurs fictions d’écrivains couronnés par l’Académie française, comme Émile Souvestre, Pierre Loti, Hector Malot, Charles de Bernard, Alphonse Daudet, etc.

Disponible en avril 2002, le 5.000e titre est The Notebooks of Leonardo da Vinci (Les Carnets de Léonard de Vinci), des carnets datant du début du 16e siècle et qui se trouvent toujours dans le Top 100 des livres téléchargés en 2010.

En 1988, Michael Hart avait choisi de numériser Alice’s Adventures in Wonderland et Peter Pan parce que, dans l’un et l’autre cas, leur version numérisée tenait sur une disquette de 360 Ko, le standard de l’époque. Quinze ans plus tard, en 2002, on dispose de disquettes de 1,44 Mo et on peut aisément compresser les fichiers en les zippant. Un fichier standard peut désormais comporter trois millions de caractères, plus qu’il n’en faut pour un livre de taille moyenne, puisqu'un roman de 300 pages numérisé au format ASCII représente un méga-octet. Un livre volumineux tient sur deux fichiers ASCII, téléchargeables tels quels ou en version zippée. Cinquante heures environ sont nécessaires pour sélectionner un livre de taille moyenne, vérifier qu’il est bien du domaine public, le scanner, le corriger, le formater et le mettre en page.

Quelques numéros de livres sont réservés pour l’avenir, par exemple le numéro 1984 (eText #1984) pour le roman éponyme de George Orwell, publié en 1949, et qui est donc loin d’être tombé dans le domaine public.

En 2002, les collections s’accroissent de 203 titres par mois. Au printemps 2002, elles représentent le quart des oeuvres du domaine public en accès libre sur le web, recensées de manière pratiquement exhaustive par l’Internet Public Library (IPL), un beau résultat dû au patient travail de milliers de volontaires actifs dans de nombreux pays.

1.000 livres en août 1997, 2.000 livres en mai 1999, 3.000 livres en décembre 2000, 4.000 livres en octobre 2001, 5.000 livres en avril 2002, 10.000 livres en octobre 2003. Le 10.000e livre est The Magna Carta, qui fut le premier texte constitutionnel anglais, signé en 1215.

Entre avril 2002 et octobre 2003, les collections doublent, passant de 5.000 à 10.000 livres en dix-huit mois. La moyenne mensuelle est de 348 livres numérisés en 2003.

Dix mille livres. Un chiffre impressionnant quand on pense à ce que cela représente de pages scannées, relues et corrigées. Cette croissance rapide est due à l’activité de Distributed Proofreaders (DP), un site conçu en 2000 par Charles Franks pour permettre la correction partagée des livres entre de nombreux volontaires. Les volontaires choisissent un livre en cours de traitement pour relire et corriger une page donnée. Chacun travaille à son propre rythme. A titre indicatif, il est conseillé de relire une page par jour. C’est peu de temps sur une journée, et c’est beaucoup pour le projet.

En août 2003, un CD-ROM Best of Gutenberg est disponible avec une sélection de 600 livres. En décembre 2003, date à laquelle le Projet Gutenberg franchit la barre des 10.000 livres, la quasi-totalité des livres (9.400 livres) est gravée sur un DVD. CD-ROM et DVD sont envoyés gratuitement à qui en fait la demande. Libre ensuite à chacun de faire autant de copies que possible et de les distribuer autour de soi.

# De 10.000 à 20.000 ebooks

En décembre 2003, les collections approchent les 11.000 livres. Plusieurs formats sont désormais présents, par exemple les formats HTML, XML et RTF, le format principal - et obligatoire – restant l’ASCII. Le tout représente 46.000 fichiers, soit une capacité totale de 110 Go (giga-octets).

Le 13 février 2004, date de la conférence de Michael Hart au siège de l’UNESCO à Paris, les collections comprennent très exactement 11.340 livres dans 25 langues. En mai 2004, les 12.500 livres disponibles représentent 100.000 fichiers dans vingt formats différents, soit une capacité totale de 135 Go, destinée à doubler chaque année avec l’ajout d'environ 300 livres par mois (338 livres en 2004).

Parallèlement, le Project Gutenberg Consortia Center (PGCC), qui avait été lancé en 1997 pour rassembler des collections de livres numériques déjà existantes et provenant de sources extérieures, est officiellement affilié au Projet Gutenberg en 2003.

Par ailleurs, le Projet Gutenberg Europe est lancé à l’instigation du Projet Rastko, basé à Belgrade, en Serbie. Distributed Proofreaders Europe débute ses activités en janvier 2004, avec cent livres disponibles en avril 2005. Les livres sont en plusieurs langues pour refléter la diversité linguistique prévalant en Europe, avec cent langues prévues sur le long terme.

En janvier 2005, le Projet Gutenberg fête ses 15.000 livres, avec la mise en ligne de The Life of Reason (La vie de raison) de George Santayana (paru en 1906).

En juin 2005, le nombre de livres s’élève à 16.000. Si 25 langues seulement étaient présentes en février 2004, 42 langues sont représentées en juin 2005, dont le sanscrit et les langues mayas. En décembre 2006, on compte 50 langues. A la date du 16 décembre 2006, les langues comprenant plus de cinquante titres sont l’anglais (17.377 titres), le français (966 titres), l’allemand (412 titres), le finnois (344 titres), le hollandais (244 titres), l’espagnol (140 titres), l’italien (102 titres), le chinois (69 titres), le portugais (68 titres) et le tagalog (51 titres).

Lancé en août 2001, le Project Gutenberg Australia fête ses 500 livres en juillet 2005.

En décembre 2006, le Projet Gutenberg franchit la barre des 20.000 livres. Le 20.000e titre est un livre audio, Twenty Thousand Leagues Under the Sea, version anglaise de Vingt mille lieues sous les mers de Jules Verne (publié en 1869). La moyenne est de 345 nouveaux livres par mois en 2006.

S'il a fallu 32 ans, de juillet 1971 à octobre 2003, pour numériser les 10.000 premiers livres, il n’aura fallu que trois ans et deux mois, d’octobre 2003 à décembre 2006, pour numériser les 10.000 livres suivants.

À la même date, le Project Gutenberg Australia approche les 1.500 livres (c'est chose faite en avril 2007) et le Projet Gutenberg Europe compte 400 livres.

La section Project Gutenberg PrePrints est lancée en janvier 2006 pour accueillir de nouveaux documents suffisamment intéressants pour être mis en ligne, mais ne pouvant être intégrés aux collections existantes sans traitement ultérieur par des volontaires, pour diverses raisons: collections incomplètes, qualité insuffisante, conversion souhaitée dans un autre format, etc. Cette section comprend 379 titres en décembre 2006, et plus de 2.000 titres deux ans après.

# De 20.000 à 30.000 ebooks

Project Gutenberg News, le blog officiel du Projet Gutenberg, débute en novembre 2006 à l’instigation de Mike Cook. Ce blog complète les lettres d’information (hebdomadaire et mensuelle) existant depuis nombre d'années. Le blog offre par exemple les statistiques de production hebdomadaires, mensuelles et annuelles depuis 2001.

La production hebdomadaire est de 24 livres en 2001, 47 livres en 2002, 79 livres en 2003, 78 livres en 2004, 58 livres en 2005, 80 livres en 2006, 78 livres en 2007 et 69 livres en 2009. (Le décompte pour 2008 inclut les PrePrints et n'est donc pas pris en compte ici.)

La production mensuelle est de 104 livres en 2001, 203 livres en 2002, 348 livres en 2003, 338 livres en 2004, 252 livres en 2005, 345 livres en 2006, 338 livres en 2007 et 298 livres en 2009.

La production annuelle est de 1.244 livres en 2001, 2.432 livres en 2002, 4.176 livres en 2003, 4.058 livres en 2004, 3.019 livres en 2005, 4.141 livres en 2006, 4.049 livres en 2007 et 2.190 livres en 2009.

Le Projet Gutenberg Canada (PGC) voit le jour le 1er juillet 2007, le jour de la fête nationale, à l'instigation de Michael Shepard et David Jones. Il est suivi de Distributed Proofreaders Canada (DPC), avec une production qui débute en décembre 2007. Les cent premiers livres sont disponibles en mars 2008, avec des livres en anglais, en français et en italien.

Le Projet Gutenberg franchit la barre des 25.000 livres en avril 2008.
Le 25.000e livre est English Book Collectors (Collectionneurs de livres
anglais) de William Younger Fletcher (publié en 1902). Le Projet
Gutenberg Europe atteint les 500 livres en octobre 2008.

Le Projet Gutenberg comptabilise 30.000 livres en octobre 2009. Le 30.000e livre est The Bird Book (Le livre des oiseaux), de Chester Albert Reed (publié en 1915).

Principale source des livres du Projet Gutenberg, Distributed Proofreaders (DP) fête ses dix ans en octobre 2010, avec plus de 18.000 livres numérisés, relus et corrigés par les soins de plusieurs milliers de volontaires.

= Du passé vers l'avenir

Le pari fait par Michael Hart en 1971 est donc réussi. Mais les résultats du Projet Gutenberg ne se mesurent pas seulement à des chiffres. Les résultats se mesurent aussi à l’influence du projet, qui est considérable. Premier site d’information sur l’internet et première bibliothèque numérique, le Projet Gutenberg a inspiré bien d’autres bibliothèques numériques au fil des ans, à commencer par le Projekt Runeberg pour la littérature scandinave ou le Projekt Gutenberg-DE pour la littérature allemande.

Le Projekt Runeberg est la première bibliothèque numérique suédoise de livres du domaine public. Elle est créée en décembre 1992 par Lysator, un club informatique d’étudiants, en collaboration avec la bibliothèque de l'Université de Linköping (Suède), pour produire et organiser des versions électroniques gratuites de la littérature nordique classique. 200 oeuvres sont disponibles en 1998, avec une liste de 6.000 auteurs nordiques en tant qu'outil de développement des collections.

Projekt Gutenberg-DE est la première bibliothèque numérique allemande de livres du domaine public. Plusieurs dizaines de textes peuvent être lus en ligne en 1998, avec une page web pour les textes courts et plusieurs pages – une par chapitre – pour les oeuvres plus longues. Une liste alphabétique d'auteurs et de titres est également disponible, ainsi qu'une courte biographie et bibliographie pour chaque auteur.

La structure administrative et financière du Projet Gutenberg se limite au strict minimum, avec une devise qui tient en trois mots: «Less is more.» Michael Hart insiste régulièrement sur la nécessité d’un cadre aussi souple que possible laissant toute initiative aux volontaires, et la porte grande ouverte aux idées nouvelles. Le but est d’assurer la pérennité du projet indépendamment des crédits, des coupures de crédits et des priorités culturelles, financières et politiques du moment. Pas de pression possible donc par le pouvoir et par l’argent. Et respect à l’égard des volontaires, qui sont assurés de voir leur travail utilisé pendant de nombreuses années, si ce n’est pour plusieurs générations, d’où l’intérêt d’un format numérique qui soit toujours valable dans quelques siècles. Le suivi régulier du projet est assuré grâce à une lettre d’information hebdomadaire et mensuelle, des forums de discussion, des wikis et des blogs.

Les dons servent à financer des ordinateurs et des scanners, et à envoyer des CD-ROM et DVD gratuits à tous ceux qui en font la demande. Suite au CD-ROM Best of Gutenberg disponible en août 2003 avec une sélection de 600 titres et à un premier DVD disponible en décembre 2003 avec 9.400 titres, un deuxième DVD est disponible en juillet 2006 avec 17.000 titres. A partir de 2005, CD-ROM et DVD sont disponibles sous forme d'images ISO sur le site de BitTorrent, ces images pouvant être téléchargées pour graver des CD-ROM et DVD sur place à titre personnel. En 2007, le Projet Gutenberg envoie 15 millions de livres par voie postale sous forme de CD-ROM et DVD.

Chose souvent passée sous silence, Michael Hart est le véritable inventeur de l’ebook. Si on considère l’ebook dans son sens étymologique, à savoir un livre numérisé pour diffusion sous forme de fichier électronique, celui-ci aurait donc quarante ans et serait né avec le Projet Gutenberg en juillet 1971. Une paternité beaucoup plus réconfortante que les divers lancements commerciaux dans un format propriétaire ayant émaillé le début des années 2000. Il n’y a aucune raison pour que la dénomination «ebook» ne désigne que l’ebook commercial et soit réservée aux Amazon, Barnes & Noble, 00h00, Gemstar, Google Books et autres. L’ebook non commercial est un ebook à part entière - et non un parent pauvre - tout comme l’édition électronique non commerciale est une forme d’édition à part entière, et tout aussi valable que l’édition commerciale. En 2003, les etexts du Projet Gutenberg deviennent des ebooks, pour coller à la terminologie ambiante.

En juillet 1971, l’envoi d’un fichier de 5 Ko à cent personnes aurait fait sauter l’embryon de réseau disponible à l’époque. En novembre 2002, le Projet Gutenberg peut mettre en ligne les 75 fichiers du Human Genome Project - à savoir le séquençage du génome humain -, chaque fichier se chiffrant en dizaines sinon en centaines de méga-octets. Ceci peu de temps après la parution initiale du Human Genome Project en février 2001, puisqu’il appartient d’emblée au domaine public.

En 2004, la capacité de stockage des disques durs est telle qu’il serait possible de faire tenir l’intégralité de la Library of Congress au format texte sur un support de stockage coûtant 140 dollars US. Et quelques années seulement nous sépareraient d’une clé USB (Universal Serial Bus) permettant de stocker l’intégralité du patrimoine écrit de l’humanité.

La demande est énorme. En témoigne le nombre de téléchargements, qui se comptent désormais en dizaines de milliers par jour.

A la date du 31 juillet 2005, on compte 37.532 fichiers téléchargés dans la journée, 243.808 fichiers téléchargés dans la semaine et 1.154.765 fichiers téléchargés dans le mois.

A la date du 6 mai 2007, on compte 89.841 fichiers téléchargés dans la journée, 697.818 fichiers téléchargés dans la semaine et 2.995.436 fichiers téléchargés dans le mois. Courant mai, ce nombre atteint les 3 millions.

À la date du 15 mars 2010, on compte 103.422 fichiers téléchargés dans la journée, 751.037 fichiers téléchargés dans la semaine et 3.033.824 fichiers téléchargés dans le mois.

Ceci uniquement pour le principal site de téléchargement, ibiblio.org (basé à l’Université de Caroline du Nord, aux États-Unis), qui héberge aussi le site du Projet Gutenberg. Le deuxième site de téléchargement est l’Internet Archive, qui est le site de sauvegarde et qui met à la disposition du Projet Gutenberg une capacité de stockage illimitée.

Un «Top 100» recense les cent titres et les cent auteurs les plus téléchargés dans la journée, dans la semaine et dans le mois.

Le Projet Gutenberg dispose de 38 sites miroirs répartis dans de nombreux pays, et il en cherche d’autres. La circulation des fichiers se fait aussi en mode P2P (Peer-to-Peer), qui permet d’échanger des fichiers directement d’un utilisateur à l’autre.

Les livres du Projet Gutenberg peuvent aider à combler la fracture numérique. Ils sont aisément téléchargeables sur PDA. Un ordinateur ou un PDA d’occasion ne coûte que quelques dollars ou quelques dizaines de dollars, en fonction du modèle. Certains PDA fonctionnent à l’énergie solaire, permettant la lecture dans les régions pauvres ou reculées.

Plus tard, il sera peut-être possible d'envisager une traduction simultanée dans une centaine de langues, en utilisant un logiciel de traduction automatique qui aurait alors un taux de fiabilité de l’ordre de 99%, un pourcentage dont on est encore loin. Ce logiciel de traduction automatique serait relayé par des traducteurs (non pas des machines, mais des êtres humains), sur un modèle comparable à la technologie OCR actuellement relayée par des correcteurs (non pas des logiciels, mais des êtres humains) pour offrir un contenu de grande qualité.

Quelque 40 ans après les débuts du Projet Gutenberg, Michael Hart se définit toujours comme un fou de travail dédiant toute sa vie à son projet, qu’il voit comme étant à l’origine d’une révolution néo- industrielle. Il se définit aussi comme altruiste, pragmatique et visionnaire. Après avoir été traité de toqué pendant de nombreuses années, il force maintenant le respect.

Au fil des ans, la mission du Projet Gutenberg reste la même, à savoir changer le monde par le biais de l’ebook gratuit indéfiniment utilisable et reproductible, et favoriser ainsi la lecture et la culture pour tous à moindres frais. Cette mission se résume en quelques mots: «encourager la création et la distribution d’ebooks», par autant de personnes que possible, et par tous les moyens de diffusion possibles, tout en prenant les virages nécessaires pour intégrer de nouvelles idées, de nouvelles méthodes et de nouveaux supports.

L'ONLINE BOOKS PAGE

[Résumé] L'Online Books Page est créée en janvier 1993 par John Mark Ockerbloom pour répertorier les textes électroniques anglophones du domaine public en accès libre sur le web. À cette date, John Mark est doctorant à l’Université Carnegie Mellon (Pennsylvanie, États-Unis). En 1999, il rejoint l’Université de Pennsylvanie pour travailler à la R&D (recherche et développement) de la bibliothèque numérique. À la même époque, il y transfère l'Online Books Page tout en gardant la même présentation, très sobre, et tout en poursuivant son travail d’inventaire dans le même esprit. Ce répertoire recense plus de 20.000 titres en 2003 (dont 4.000 textes publiés par des femmes), 25.000 titres en 2006, 30.000 titres en 2007 (dont 7.000 textes du Projet Gutenberg) et 35.000 titres en 2009.

= Un répertoire d'oeuvres en accès libre

Alors que certains numérisent les oeuvres littéraires du domaine public, comme le Projet Gutenberg et des projets connexes, d'autres se donnent pour tâche de répertorier celles qui sont en accès libre sur le web, en offrant au lecteur un point d’accès commun. C’est le cas de John Mark Ockerbloom, doctorant à l’Université Carnegie Mellon (Pittsburgh, Pennsylvanie, États-Unis), qui crée l’Online Books Page pour recenser les oeuvres anglophones.

Cinq ans plus tard, en septembre 1998, John Mark relate: «J’étais webmestre ici pour la section informatique de la CMU (Carnegie Mellon University), et j’ai débuté notre site local en 1993. Il comprenait des pages avec des liens vers des ressources disponibles localement, et à l’origine l’Online Books Page était l’une de ces pages, avec des liens vers des livres mis en ligne par des collègues de notre département (par exemple Robert Stockton, qui a fait des versions web de certains textes du Projet Gutenberg). Ensuite les gens ont commencé à demander des liens vers des livres disponibles sur d’autres sites. J’ai remarqué que de nombreux sites (et pas seulement le Projet Gutenberg ou Wiretap) proposaient des livres en ligne, et qu’il serait utile d’en avoir une liste complète qui permette de télécharger ou de lire des livres où qu’ils soient sur l’internet. C’est ainsi que mon index a débuté.

J’ai quitté mes fonctions de webmestre en 1996, mais j’ai gardé la gestion de l’Online Books Page, parce qu’entre temps je m’étais passionné pour l’énorme potentiel qu’a l’internet de rendre la littérature accessible au plus grand nombre. Maintenant il y a tant de livres mis en ligne que j’ai du mal à rester à jour. Je pense pourtant poursuivre cette activité d’une manière ou d’une autre. Je suis très intéressé par le développement de l’internet en tant que médium de communication de masse dans les prochaines années. J’aimerais aussi rester impliqué dans la mise à disposition gratuite de livres sur l’internet, que ceci fasse partie intégrante de mon activité professionnelle, ou que ceci soit une activité bénévole menée sur mon temps libre.»

Fin 1998, John Mark Ockerbloom obtient son doctorat en informatique. En 1999, il rejoint l’Université de Pennsylvanie, où il travaille à la R&D (recherche et développement) de la bibliothèque numérique. À la même époque, il y transfère l’Online Books Page tout en gardant la même présentation, très sobre, et tout en poursuivant son travail d’inventaire dans le même esprit. Ce répertoire recense 12.000 livres en ligne en 1999, 20.000 livres en 2003 (dont 4.000 textes publiés par des femmes), 25.000 livres en 2006, 30.000 livres en 2007 (dont 7.000 textes du Projet Gutenberg) et 35.000 livres en 2009.

= Le durcissement du copyright

En 1999, le débat fait rage sur le durcissement de la loi sur le copyright (qui date de 1976) suite à un amendement de cette loi daté du 27 octobre 1998. De nombreuses oeuvres censées tomber dans le domaine public restent désormais sous copyright, au grand dam de Michael Hart, fondateur du Projet Gutenberg, de John Mark Ockerbloom et de bien d'autres. La législation de 1998 porte un coup très rude aux bibliothèques numériques, en plein essor avec le développement du web. Mais comment faire le poids vis-à-vis des majors de l’édition? Nombre de titres doivent être retirés des collections.

Michael Hart raconte en juillet 1999: «J’ai été le principal opposant aux extensions du copyright, mais Hollywood et les grands éditeurs ont fait en sorte que le Congrès ne mentionne pas mon action en public. Les débats actuels sont totalement irréalistes. Ils sont menés par “l’aristocratie terrienne de l’âge de l’information” et servent uniquement ses intérêts. Un âge de l’information? Et pour qui?»

Pour ne prendre qu'un exemple, le classique mondial Gone With the Wind (Autant en emporte le vent) de Margaret Mitchell, publié en 1939, aurait dû tomber dans le domaine public au bout de 56 ans, en 1995, conformément à la législation de l'époque, libérant ainsi les droits pour les adaptations en tous genres. Suite aux législations de 1976 et 1998, ce classique ne devrait désormais tomber dans le domaine public qu'en 2035.

John Mark Ockerbloom explique en août 1999: «À mon avis, il est important que les internautes comprennent que le copyright est un contrat social conçu pour le bien public - incluant à la fois les auteurs et les lecteurs. Ceci signifie que les auteurs doivent avoir le droit d'utiliser de manière exclusive et pour un temps limité les oeuvres qu'ils ont créées, comme ceci est spécifié dans la loi actuelle sur le copyright. Mais ceci signifie également que leurs lecteurs ont le droit de copier et de réutiliser ce travail autant qu'ils le veulent à l'expiration de ce copyright.

Aux États-Unis, on voit maintenant diverses tentatives visant à retirer ces droits aux lecteurs, en limitant les règles relatives à l'utilisation de ces oeuvres, en prolongeant la durée du copyright (y compris avec certaines propositions visant à le rendre permanent) et en étendant la propriété intellectuelle à des travaux distincts des oeuvres de création (comme on en trouve dans les propositions de copyright pour les bases de données). Il existe même des propositions visant à entièrement remplacer la loi sur le copyright par une loi instituant un contrat beaucoup plus lourd. Je trouve beaucoup plus difficile de soutenir la requête de Jack Valenti, directeur de la MPAA [Motion Picture Association of America], qui demande d'arrêter de copier les films sous copyright, quand je sais que, si ceci était accepté, aucun film n'entrerait jamais dans le domaine public (…). Si l'on voit les sociétés de médias tenter de bloquer tout ce qu'elles peuvent, je ne trouve pas surprenant que certains usagers réagissent en mettant en ligne tout ce qu'ils peuvent. Malheureusement, cette attitude est à son tour contraire aux droits légitimes des auteurs.»

Comment résoudre cela pratiquement? «Ceux qui ont des enjeux dans ce débat doivent faire face à la réalité, et reconnaître que les producteurs d'oeuvres et leurs usagers ont tous deux des intérêts légitimes dans l'utilisation de celles-ci. Si la propriété intellectuelle était négociée au moyen d'un équilibre des principes plutôt que par le jeu du pouvoir et de l'argent que nous voyons souvent, il serait peut-être possible d'arriver à un compromis raisonnable.»

LA PRESSE SE MET EN LIGNE

[Résumé] Ce qui se passe pour la presse en ligne dans les années 1990 préfigure ce qui se passera pour le livre en ligne dans les années 2000, d'où l'intérêt de ce court chapitre. Au début des années 1990, les premières éditions électroniques de journaux sont disponibles par le biais de services commerciaux tels que America Online ou CompuServe. Avec l'apparition du premier navigateur fin 1993 et la croissance rapide du web qui s'ensuit, nombre de zines non commerciaux proposent une version électronique ou bien naissent directement sous forme électronique. À partir de 1995, les grands titres de la presse en ligne lancent leurs propres sites, très différents selon les titres, et ces sites évoluent ensuite rapidement.

= L'E-zine-list

Les premiers titres purement électroniques sont des oeuvres courtes, répertoriées dans l’E-zine-list, une liste créée en été 1993 par John Labovitz. Abrégé de fanzine ou magazine, un zine est généralement l’oeuvre d’une personne ou d’un petit groupe. Quant au e-zine, abrégé de zine électronique, il est uniquement diffusé par courriel ou sur un site web. Le plus souvent, il ne contient pas de publicité, ne vise pas un profit commercial et n’est pas dirigé vers une audience de masse.

Comment l’E-zine-list débute-t-elle? Dans l’historique présent sur le site, John Labovitz relate qu’à l’origine son intention est de faire connaître Crash, un zine imprimé dont il souhaite faire une version électronique. À la recherche de répertoires, il ne trouve que le groupe de discussion Alt.zines et des archives comme The Well et The Etext Archives. Lui vient alors l’idée d’un répertoire organisé. Il commence avec douze titres classés manuellement sur un traitement de texte. Puis il écrit sa propre base de données.

En quatre ans, de 1993 à 1997, les quelques dizaines d'e-zines deviennent plusieurs centaines, et la signification même d’e-zine s’élargit pour recouvrir tout type de publication publiée par voie électronique, même s’«il subsiste toujours un groupe original et indépendant désormais minoritaire qui continue de publier suivant son coeur ou de repousser les frontières de ce que nous appelons un e-zine» (John Labovitz). En été 1998, l’E-zine-list comprend 3.000 titres.

= La presse imprimée

Au début des années 1990, les premières éditions électroniques de journaux sont disponibles par le biais de services commerciaux tels que America Online ou CompuServe. Suite à l'apparition du premier navigateur fin 1993 et à la croissance rapide du web qui s'ensuit, les organes de presse créent leurs propres sites.

Au Royaume-Uni, le Times et le Sunday Times font web commun sur un site dénommé Times Online, avec possibilité de créer une édition personnalisée.

Aux États-Unis, la version en ligne du Wall Street Journal est payante, avec 100.000 abonnés en 1998. Celle du New York Times est disponible sur abonnement gratuit. Le Washington Post propose l’actualité quotidienne en ligne et de nombreux articles archivés, le tout avec images, sons et vidéos. Pathfinder (rebaptisé ensuite Time) est le site web du groupe Time-Warner, éditeur de Time Magazine, Sports Illustrated, Fortune, People, Southern Living, Money, Sunset, etc. On peut y lire les articles «maison» et les rechercher par date ou par sujet. Lancé en 1992 en Californie, Wired, premier magazine imprimé entièrement consacré à la culture cyber, est bien évidemment présent sur le web.

Mis en ligne en février 1995, le site web du mensuel Le Monde diplomatique est le premier site d’un périodique imprimé français. Monté dans le cadre d’un projet expérimental avec l’Institut national de l’audiovisuel (INA), ce site est inauguré lors du forum des images Imagina. Il donne accès à l’ensemble des articles depuis janvier 1994, par date, par sujet et par pays. L’intégralité du mensuel en cours est consultable gratuitement pendant deux semaines suivant sa parution. Un forum de discussion permet au journal de discuter avec ses lecteurs.

Fin 1995, le quotidien Libération met en ligne son site web, peu après le lancement du Cahier Multimédia, un cahier imprimé hebdomadaire inclus dans l’édition du jeudi. Le site propose la Une du quotidien, la rubrique Multimédia (qui regroupe les articles du Cahier Multimédia et les archives des cahiers précédents), le Cahier Livres complété par Chapitre Un (le premier chapitre des nouveautés retenues par le quotidien) et bien d’autres rubriques. La rubrique Multimédia est ensuite rebaptisée Numériques.

Le site du quotidien Le Monde est lancé en 1996. On y trouve des dossiers en ligne, la Une en version graphique à partir de 13 h, l’intégralité du journal avant 17 h, l’actualité en liaison avec l’AFP (Agence France-Presse), et des rubriques sur la Bourse, les livres, le multimédia et le sport. En 1998, le journal complet en ligne coûte 5 FF (0,76 euros) alors que l’édition papier coûte 7,50 FF (1,15 euros). S’ils concernent le multimédia, les articles du supplément imprimé hebdomadaire Télévision-Radio-Multimédia sont disponibles gratuitement en ligne dans la rubrique Multimédia, rebaptisée ensuite Nouvelles technologies.

L’Humanité est le premier quotidien français à proposer la version intégrale du journal en accès libre. Classés par rubriques, les articles sont disponibles entre 10 h et 11 h du matin, à l’exception de L’Humanité du samedi, disponible en ligne le lundi suivant. Tous les articles sont archivés sur le site.

La presse régionale est tout aussi présente sur le web, par exemple
Dernières nouvelles d’Alsace et Ouest-France.

Lancé en septembre 1995, le site des Dernières nouvelles d’Alsace propose l’intégrale de l’édition du jour ainsi que des informations pratiques: cours de la Bourse, calcul des impôts, etc., avec 5.500 visites quotidiennes en juin 1998. Il offre aussi une édition abrégée en allemand.

Le site web du quotidien Ouest-France est mis en ligne en juillet 1996. D’abord appelé France-Ouest, le site est ensuite renommé Ouest-France, du nom du journal.

Quelles sont les retombées de l’internet pour les journalistes? Selon Bernard Boudic, le responsable éditorial du site, interviewé en juin 1998, «elles sont encore minces. Nous commençons seulement à offrir un accès internet à chacun (rédaction d’Ouest-France: 370 journalistes répartis dans soixante rédactions, sur douze départements… pas simple). Certains utilisent internet pour la messagerie électronique (courrier interne ou externe, réception de textes de correspondants à l’étranger, envoi de fichiers divers) et comme source d’informations. Mais cette pratique demande encore à s’étendre et à se généraliser. Bien sûr, nous réfléchissons aussi à tout ce qui touche à l’écriture multimédia et à sa rétro-action sur l’écriture imprimée, aux changements d’habitudes de nos lecteurs, etc. (…) Internet est à la fois une menace et une chance. Menace sur l’imprimé, très certainement (captation de la pub et des petites annonces, changement de réflexes des lecteurs, perte du goût de l’imprimé, concurrence d’un média gratuit, que chacun peut utiliser pour diffuser sa propre info, etc.). Mais c’est aussi l’occasion de relever tous ces défis, de rajeunir la presse imprimée.»

Tous sujets que l'on retrouve quelques années plus tard dans les débuts du livre numérique: rapport accru de l'auteur avec ses lecteurs, nécessité d'une formation technique, version payante et/ou version gratuite, version numérique et/ou version imprimée, etc.

AMAZON.COM

[Résumé] Amazon.com est lancé en juillet 1995 par Jeff Bezos à Seattle, sur la côte ouest des États-Unis. La librairie en ligne débute avec dix salariés et trois millions d’articles, et devient vite un géant du commerce électronique. Cinq ans plus tard, en novembre 2000, Amazon compte 7.500 salariés, 28 millions d’articles, 23 millions de clients et quatre filiales au Royaume-Uni (filiale ouverte en octobre 1998), en Allemagne (filiale ouverte à la même date), en France (filiale ouverte en août 2000) et au Japon (filiale ouverte en novembre 2000). Une cinquième filiale est ouverte au Canada (en juin 2002), suivie d’une sixième filiale, Joyo, en Chine (en septembre 2004). Présent dans sept pays et devenu une référence mondiale du commerce en ligne (avec eBay), Amazon fête ses dix ans d’existence en juillet 2005, avec 9.000 salariés et 41 millions de clients.

= Aux États-Unis

# Les débuts

Un nouveau type de librairie naît sur le web au milieu des années 1990. Ces librairies n’ont ni murs, ni vitrine, ni enseigne sur la rue, et toutes leurs transactions se font via l'internet. C’est le cas d’Amazon.com qui, sous la houlette de Jeff Bezos, ouvre ses portes «virtuelles» en juillet 1995 avec un catalogue de trois millions de livres et dix salariés basés à Seattle, dans l’État de Washington, sur la côte ouest des États-Unis.

Quinze mois auparavant, au printemps 1994, Jeff Bezos fait une étude de marché pour décider du meilleur «produit» à vendre sur l’internet. Dans sa liste de vingt produits marchands, qui comprennent entre autres les vêtements et les instruments de jardinage, les cinq premiers du classement se trouvent être les livres, les CD, les vidéos, les logiciels et le matériel informatique.

«J’ai utilisé tout un ensemble de critères pour évaluer le potentiel de chaque produit», relate Jeff Bezos en 1997 dans le kit de presse d’Amazon. «Le premier critère a été la taille des marchés existants. J’ai vu que la vente des livres représentait un marché mondial de 82 milliards de dollars US. Le deuxième critère a été la question du prix. Je voulais un produit bon marché. Mon raisonnement était le suivant: puisque c’était le premier achat que les gens allaient faire en ligne, il fallait que la somme à payer soit modique. Le troisième critère a été la variété dans le choix: il y avait trois millions de titres pour les livres alors qu’il n’y avait que 300.000 titres pour les CD, par exemple.»

# L'expansion

Au printemps 1997, Amazon.com – que tout le monde appelle désormais Amazon - décide de s'inspirer du système d'«associés» en ligne lancé quelques mois auparavant par l'Internet Bookshop, grande librairie en ligne britannique. Tout possesseur d'un site web peut vendre des livres appartenant au catalogue d'Amazon et toucher un pourcentage de 15% sur les ventes. L'«associé(e)» sélectionne les titres du catalogue qui l'intéressent, en fonction de ses centres d'intérêt, et rédige ses propres résumés. Amazon reçoit les commandes par son intermédiaire, expédie les livres, rédige les factures et lui envoie un rapport hebdomadaire d'activité avec le règlement correspondant. Au printemps 1998, le réseau d'Amazon compte plus de 30.000 sites affiliés.

À la même date, outre les livres, on trouve aussi des CD, des DVD, des jeux informatiques, etc., avec un catalogue qui serait au moins dix fois supérieur à celui des plus grandes chaînes de supermarchés. On peut consulter le catalogue à l’écran, lire le résumé des livres choisis ou même des extraits, puis passer sa commande en ligne. Très attractif, le contenu éditorial du site change quotidiennement et se veut un magazine littéraire en ligne, avec des conseils de lecture, des articles émanant de journalistes connus (qui travaillaient auparavant dans la presse imprimée), des entretiens avec des auteurs et des commentaires de lecteurs.

L'évolution rapide d'Amazon en tant que pionnier d’un nouveau modèle économique est suivie de près par des analystes de tous bords, tout comme sa popularité auprès d'un public qui s'habitue aux achats en ligne. En 1998, avec 1,5 million de clients dans 160 pays et une très bonne image de marque, Amazon est régulièrement cité comme un symbole de réussite dans le cybercommerce. Si la librairie en ligne est toujours déficitaire, sa cotation boursière est excellente suite à une introduction à la Bourse de New York en mai 1997.

Avant qu'Amazon n'assoie définitivement sa suprématie nationale, la librairie en ligne se lance dans une guerre des prix avec son principal concurrent aux États-Unis, Barnes & Noble.com, à la grande joie des clients qui profitent de cette course aux rabais pour faire une économie de 20 à 40% sur certains titres.

Contrairement à Amazon, librairie uniquement «virtuelle», Barnes & Noble.com s'appuie sur sa chaîne de librairies traditionnelles Barnes & Noble (B&N) qui, en 1997, comprend 480 librairies «en dur» réparties dans tout le pays. Barnes & Noble crée sa librairie en ligne en mai 1997, en partenariat avec le géant des médias allemand Bertelsmann, mais rachètera la part détenue par Bertelsmann (36,8%) en juillet 2003 pour 164 millions de dollars US.

= En Europe

La présence européenne d’Amazon débute en octobre 1998, avec les deux premières filiales implantées simultanément en Allemagne et au Royaume- Uni.

En août 2000, Amazon compte 1,8 million de clients au Royaume-Uni, 1,2 million de clients en Allemagne et quelques centaines de milliers de clients en France. La librairie en ligne ouvre sa troisième filiale européenne, Amazon France, avec livres, musique, DVD et vidéos (auxquels viennent s'ajouter logiciels et jeux vidéos en juin 2001), et livraison en 48 heures. À cette date, la vente de livres en ligne en France ne représente que 0,5% du marché du livre, contre 5,4% aux États-Unis.

Préparée dans le plus grand secret, l'ouverture d'Amazon France n'est rendue publique que le 23 août 2000. Avec une centaine de salariés, dont certains ont été envoyés en formation au siège du groupe à Seattle, la filiale française s'installe à Guyancourt, en région parisienne, pour l'administration, les services techniques et le marketing. Son service de distribution est basé à Boigny-sur-Bionne, dans la banlieue d'Orléans. Son service clients est basé à La Haye, aux Pays-Bas, dans l'optique d'une expansion future d'Amazon en Europe.

Amazon France compte au moins quatre rivaux de taille dans l'hexagone:
Fnac.com, Alapage, Chapitre.com et BOL.fr.

Le service en ligne Fnac.com s'appuie sur le réseau des librairies Fnac, réparti sur toute la France et dans quelques autres pays européens, et qui appartient au groupe Pinault-Printemps-Redoute.

Alapage, librairie en ligne fondée en 1996 par Patrice Magnard, rejoint le groupe France Télécom en septembre 1999 puis devient en juillet 2000 une filiale à part entière de Wanadoo, le fournisseur d’accès internet de France Télécom.

Chapitre.com est une librairie en ligne indépendante créée en 1997 par
Juan Pirlot de Corbion.

BOL.fr est la succursale française de BOL.com (BOL signifiant:
Bertelsmann On Line), lancée en août 1999 par Bertelsmann, géant
allemand des médias, en partenariat avec la multinationale française
Vivendi.

Un mois après son lancement en août 2000, Amazon.fr est à la seconde place des sites de biens culturels français. Selon les chiffres publiés le 24 octobre 2000 par Media Metrix Europe, société d'étude d'audience de l'internet, le site reçoit 217.000 visites uniques en septembre 2000, juste devant Alapage (209.000 visites) mais loin derrière Fnac.com (401.000 visites). Suivent Cdiscount.com (115.000 visites) et BOL.fr (74.000 visites).

Contrairement à leurs homologues anglophones, les librairies en ligne françaises ne peuvent se permettre les réductions substantielles proposées par celles des États-Unis ou du Royaume-Uni, pays dans lesquels le prix du livre est libre. Si la loi française sur le prix unique du livre (dénommée loi Lang, du nom du ministre à l'origine de cette loi) leur laisse peu de latitude, à savoir un rabais de 5% seulement sur ce prix, les librairies en ligne sont toutefois optimistes sur les perspectives d’un marché francophone international. Dès 1997, un nombre significatif de commandes provient de l’étranger, par exemple 10% des commandes pour le service en ligne de la Fnac.

Interrogé par l'AFP (Agence France-Presse) au sujet de la loi Lang, Denis Terrien, président d'Amazon France (jusqu'en mai 2001), répond en août 2000: «L'expérience que nous avons en Allemagne, où le prix du livre est fixe, nous montre que le prix n'est pas l'élément essentiel dans la décision d'achat. C'est tout le service qui est ajouté qui compte. Chez Amazon, nous avons tout un tas de services en plus, d'abord le choix - nous vendons tous les produits culturels français. On a un moteur de recherche très performant. En matière de choix de musique, on est ainsi le seul site qui peut faire une recherche par titre de chanson. Outre le contenu éditorial, qui nous situe entre un magasin et un magazine, nous avons un service client 24 heures/24 7 jours/7, ce qui est unique sur le marché français. Enfin une autre spécificité d'Amazon, c'est le respect de nos engagements de livraison. On s'est fixé pour objectif d'avoir plus de 90% de nos ventes en stock.»

Admiré par beaucoup, le modèle économique d’Amazon a toutefois de nombreux revers en matière de gestion du personnel, avec des contrats de travail précaires, de bas salaires et des conditions de travail laissant à désirer.

Malgré la discrétion d'Amazon à ce sujet, les problèmes commencent à filtrer. En novembre 2000, le Prewitt Organizing Fund et le syndicat SUD-PTT Loire Atlantique débutent une action de sensibilisation auprès des salariés d'Amazon France pour de meilleures conditions de travail et des salaires plus élevés. Ils rencontrent une cinquantaine de salariés travaillant dans le centre de distribution de Boigny-sur- Bionne. SUD-PTT dénonce dans un communiqué «des conditions de travail dégradées, la flexibilité des horaires, le recours aux contrats précaires dans les périodes de flux, des salaires au rabais, et des garanties sociales minimales». Une action similaire est menée dans les succursales d'Amazon en Allemagne et en Grande-Bretagne. Patrick Moran, responsable du Prewitt Organizing Fund, entend constituer une alliance des salariés de la nouvelle économie sous le nom d'Alliance of New Economy Workers (Alliance des travailleurs de la nouvelle économie). De son côté, Amazon riposte en diffusant des documents internes sur l'inutilité de syndicats au sein de l'entreprise.

Fin janvier 2001, la société, qui emploie 1.800 personnes en Europe, annonce une réduction de 15% des effectifs et la fermeture du service clientèle de La Hague (Pays-Bas). Les 240 personnes qu'emploie ce service sont transférées dans les centres de Slough (Royaume-Uni) et Regensberg (Allemagne).

= Dans le monde

Le deuxième groupe de clients étrangers (après les clients européens) est la clientèle japonaise. Lors d'un colloque international sur les technologies de l'information à Tokyo en juillet 2000, Jeff Bezos annonce son intention prochaine d'implanter Amazon au Japon. Il insiste aussi sur le marché à fort potentiel représenté par ce pays, avec des prix immobiliers élevés se répercutant sur ceux des biens et services, si bien que le shopping en ligne est plus avantageux que le shopping traditionnel. La densité de la population entraîne des livraisons à domicile faciles et peu coûteuses.

Un centre d'appels est ouvert en août 2000 dans la ville de Sapporo, sur l'île d'Hokkaido. La filiale japonaise débute ses activités trois mois plus tard, en novembre 2000. Amazon Japon, quatrième filiale du géant américain et première filiale non européenne, ouvre ses portes avec un catalogue de 1,1 million de titres en japonais et 600.000 titres en anglais. Pour réduire les délais de livraison et proposer des délais de 24 à 48 heures au lieu des six semaines nécessaires à l'acheminement des livres depuis les États-Unis, un centre de distribution de 15.800 m2 est créé dans la ville d'Ichikawa, située à l'est de Tokyo.

En novembre 2000, entre la maison-mère et les quatre filiales, la société compte 7.500 salariés, 28 millions d’articles et 23 millions de clients.

À la même date, Amazon débute l'embauche de personnel francophone connaissant le marché canadien, dans le but de lancer une antenne canadienne française avec vente de livres, musique et films (VHS et DVD). Amazon Canada, cinquième filiale de la société, verra le jour en juin 2002, avec un site bilingue anglais-français.

Toujours en novembre 2000, Amazon ouvre sa librairie numérique, avec 1.000 titres disponibles au départ, et une augmentation rapide des collections prévue les mois suivants.

Même pour le marketing d'une grande librairie en ligne, le papier n'est pas mort, loin s'en faut. Pour la deuxième année consécutive, en prévision des fêtes de l'année 2000, Amazon envoie un catalogue imprimé à 10 millions de clients.

L'année 2001 marque un tournant dans les activités d'Amazon, qui doit faire face aux secousses de la «nouvelle» économie affectant les entreprises internet.

Suite à un quatrième trimestre déficitaire en 2000, un plan de réduction de 15% des effectifs entraîne 1.300 licenciements aux États- Unis et 270 licenciements en Europe fin janvier 2001.

Amazon opte aussi pour une plus grande diversification de ses produits et décide de vendre non seulement des livres, des vidéos, des CD et des logiciels, mais aussi des produits de santé, des jouets, des appareils électroniques, des ustensiles de cuisine et des outils de jardinage. En novembre 2001, la vente des livres, disques et vidéos ne représente plus que 58% du chiffre d’affaires global, qui est de 4 milliards de dollars US, avec 29 millions de clients.

La société devient bénéficiaire au troisième trimestre 2003, pour la première fois depuis sa création.

En octobre de la même année, Amazon lance un service de recherche plein texte (Search Inside the Book) après avoir scanné le texte intégral de 120.000 titres, un nombre promis à une croissance rapide. Amazon lance aussi son propre moteur de recherche A9.com.

Une sixième filiale est ouverte en Chine sous le nom de Joyo en septembre 2004.

En 2004, le bénéfice net d’Amazon est de 588 millions de dollars US, dont 45% généré par ses six filiales, avec un chiffre d’affaires de 6,9 milliards de dollars.

Présent dans sept pays (États-Unis, Canada, Royaume-Uni, Allemagne, France, Japon, Chine) et devenu une référence mondiale du commerce en ligne, Amazon fête ses dix ans d’existence en juillet 2005, avec 9.000 salariés et 41 millions de clients attirés par des produits culturels, high-tech et autres à des prix attractifs et une livraison en 48 heures maximum dans les pays hébergeant une plateforme Amazon.

Amazon poursuit ensuite sa croissance, vend de plus en plus de livres numériques après avoir racheté la société Mobipocket en avril 2005, et lance sa tablette de lecture, le Kindle, en novembre 2007, avec un catalogue de 80.000 ebooks. 538.000 tablettes sont vendues en 2008. Deux autres modèles, le Kindle 2 et le Kindle DX (avec un écran plus grand), sont lancés respectivement en février et mai 2009.

En janvier 2009, Amazon rachète la société Audible.com et sa collection de livres, journaux et magazines audio, à savoir 80.000 titres téléchargeables sur baladeur, téléphone mobile et smartphone. Le catalogue d'Amazon comptabiliserait 450.000 ebooks en mars 2010.

= Et les petites librairies?

Qu'en est-il des petites librairies, générales et spécialisées? Ces librairies se débrouillent au mieux avec des moyens limités, comme la librairie Ulysse, sise au coeur de Paris, dans l’île Saint-Louis, tout en se faisant peu d'illusions sur le raz-de-marée qui est en train de les emporter.

Créée en 1971 par Catherine Domain, la librairie Ulysse est la première librairie au monde uniquement consacrée au voyage. Ses 20.000 livres, cartes et revues neufs et d’occasion recèlent des documents introuvables ailleurs. À la fois libraire et grande voyageuse, Catherine Domain est membre du Syndicat national de la librairie ancienne et moderne (SLAM), du Club des explorateurs et du Club international des grands voyageurs.

En 1999, elle décide de se lancer dans un voyage autrement plus ingrat, virtuel cette fois-ci, à savoir la réalisation d’un site web en autodidacte. «Mon site est embryonnaire et en construction», raconte-t- elle en novembre 2000. «Il se veut à l’image de ma librairie, un lieu de rencontre avant d’être un lieu commercial. Il sera toujours en perpétuel devenir! Internet me prend la tête, me bouffe mon temps et ne me rapporte presque rien, mais cela ne m’ennuie pas…»

Elle est toutefois pessimiste sur l’avenir des librairies comme la sienne. «Internet tue les librairies spécialisées. En attendant d’être dévorée, je l’utilise comme un moyen d’attirer les clients chez moi, et aussi de trouver des livres pour ceux qui n’ont pas encore internet chez eux! Mais j’ai peu d’espoir…»

Dix ans plus tard, Catherine voit l'internet d'un autre oeil. Elle écrit en avril 2010: «Internet a pris de plus en plus de place dans ma vie! Il me permet depuis le 1er avril d'être éditeur grâce à de laborieuses formations Photoshop, InDesign et autres. (…) Quand j'ai commencé à utiliser l'internet, je ne m'attendais vraiment pas à devenir éditeur.» Catherine publie bien entendu des livres de voyage.

LES ÉDITEURS SUR LE RÉSEAU

[Résumé] À partir de 1996, l’édition électronique creuse son sillon à côté de l’édition traditionnelle, du fait des avantages qu’elle procure: pas de stock, coût de fonctionnement moins élevé, diffusion plus facile. Elle amène aussi un souffle nouveau dans le monde de l’édition, et même une certaine zizanie. On voit des éditeurs traditionnels vendre directement leurs titres en ligne, des éditeurs électroniques commercialiser les versions numérisées de livres publiés par des éditeurs traditionnels, des libraires numériques vendre les versions numérisées de livres publiés par des éditeurs partenaires, sans parler des auteurs qui choisissent de s’auto-éditer sur le web ou de promouvoir eux-mêmes leurs oeuvres publiées, ou encore de nouvelles plateformes d'édition littéraire pour découvrir de nouveaux talents.

= Deux éditeurs pilotes

La publication en ligne d’un livre à titre gratuit nuit-elle aux ventes de la version imprimée ou non? La National Academy Press (NAP) est la première à prendre un tel risque, dès 1994, avec un pari gagné.

«A première vue, cela paraît illogique», écrit Beth Berselli, journaliste au Washington Post, dans un article repris par le Courrier international de novembre 1997. «Un éditeur de Washington, la National Academy Press (NAP), qui a publié sur internet 700 titres de son catalogue actuel, permettant ainsi à tout un chacun de lire gratuitement ses livres, a vu ses ventes augmenter de 17% l’année suivante. Qui a dit que personne n’achèterait la vache si on pouvait avoir le lait gratuitement?»

Une politique atypique porte donc ses fruits. Éditeur universitaire, la National Academy Press (qui devient ensuite la National Academies Press) publie environ 200 livres par an, essentiellement des ouvrages scientifiques et techniques et des ouvrages médicaux. En 1994, l'éditeur choisit de mettre en accès libre sur le web le texte intégral de plusieurs centaines de livres, afin que les lecteurs puissent les «feuilleter» à l’écran, comme ils l’auraient fait dans une librairie, avant de les acheter ensuite si utile.

La NAP est le premier éditeur à se lancer dans un tel pari, une initiative saluée par les autres maisons d’édition, qui hésitent cependant à se lancer elles aussi dans l’aventure, et ce pour trois raisons: le coût excessif qu’entraîne la mise en ligne de milliers de pages, les problèmes liés au droit d’auteur, et enfin une «concurrence» entre versions numériques et imprimées, qu’ils estiment nuisible à la vente de ces dernières.

Dans le cas de la NAP, ce sont les auteurs eux-mêmes qui, pour mieux faire connaître leurs livres, demandent que ceux-ci soient mis en ligne sur le site. Pour l’éditeur, le web est un nouvel outil de marketing face aux 50.000 ouvrages publiés chaque année aux États-Unis. Une réduction de 20% est accordée pour toute commande effectuée en ligne. La présence de ces livres sur le web entraîne aussi une augmentation des ventes par téléphone. En 1998, le site de la NAP propose le texte intégral d’un millier de titres.

La solution choisie par la NAP est également adoptée dès 1995 par la MIT Press (MIT: Massachusetts Institute of Technology), qui voit rapidement ses ventes doubler pour les livres disponibles en version intégrale sur le web.

= Premiers éditeurs électroniques

# Éditel

En avril 1995, Pierre François Gagnon, poète et essayiste québécois, décide d’utiliser le numérique pour la réception des textes, leur archivage et leur diffusion. Il crée Éditel, premier site d’auto- édition collective de langue française.

En juillet 2000, il relate: «En fait, tout le monde et son père savent ou devraient savoir que le premier site d’édition en ligne commercial fut CyLibris [NDLR: créé en août 1996], précédé de loin lui-même, au printemps de 1995, par nul autre qu’Éditel, le pionnier d’entre les pionniers du domaine, bien que nous fûmes confinés à l’action symbolique collective, faute d’avoir les moyens de déboucher jusqu’ici sur une formule de commerce en ligne vraiment viable et abordable (…). Nous sommes actuellement trois mousquetaires [NDLR: Pierre François Gagnon, Jacques Massacrier et Mostafa Benhamza] à développer le contenu original et inédit du webzine littéraire qui continuera de servir de façade d’animation gratuite, offerte personnellement par les auteurs maison à leur lectorat, à d’éventuelles activités d’édition en ligne payantes, dès que possible au point de vue technico-financier. Est-il encore réaliste de rêver à la démocratie économique?» Beaucoup plus tard, Éditel devient un blog littéraire.

# CyLibris

Fondé à Paris en août 1996 par Olivier Gainon, CyLibris (de Cy, cyber et Libris, livre) est le pionnier francophone de l’édition électronique commerciale. CyLibris est en effet la première maison d’édition à utiliser l’internet et le numérique pour publier de nouveaux auteurs littéraires et quelques auteurs confirmés, dans divers genres: littérature générale, policiers, science-fiction, théâtre et poésie. Vendus uniquement sur le web, les livres sont imprimés à la commande et envoyés directement au client, ce qui permet d’éviter le stock et les intermédiaires. Des extraits sont disponibles en téléchargement libre.

Pendant son premier trimestre d’activité, CyLibris signe des contrats avec treize auteurs. Fin 1999, le site compte 15.000 visites individuelles et 3.500 livres vendus tous exemplaires confondus, avec une année financièrement équilibrée. En 2001, certains titres sont également vendus en version imprimée par un réseau de librairies partenaires, notamment la Fnac, et en version numérique par Mobipocket et Numilog, pour lecture sur ordinateur ou PDA. En 2003, le catalogue de CyLibris comprend une cinquantaine de titres.

Olivier Gainon explique en décembre 2000: «CyLibris a été créé d’abord comme une maison d’édition spécialisée sur un créneau particulier de l’édition et mal couvert à notre sens par les autres éditeurs: la publication de premières oeuvres, donc d’auteurs débutants. Nous nous intéressons finalement à la littérature qui ne peut trouver sa place dans le circuit traditionnel: non seulement les premières oeuvres, mais les textes atypiques, inclassables ou en décalage avec la mouvance et les modes littéraires dominantes. Ce qui est rassurant, c’est que nous avons déjà eu quelques succès éditoriaux: le grand prix de la SGDL [Société des gens de lettres] en 1999 pour La Toile de Jean-Pierre Balpe, le prix de la litote pour Willer ou la trahison de Jérôme Olinon en 2000, etc. Ce positionnement de "défricheur" est en soi original dans le monde de l’édition, mais c’est surtout son mode de fonctionnement qui fait de CyLibris un éditeur atypique.

Créé dès 1996 autour de l’internet, CyLibris a voulu contourner les contraintes de l’édition traditionnelle grâce à deux innovations: la vente directe par l’intermédiaire d’un site de commerce sur internet, et le couplage de cette vente avec une impression numérique en "flux tendu". Cela permettait de contourner les deux barrières traditionnelles dans l’édition: les coûts d’impression (et de stockage) et les contraintes de distribution. Notre système gérait donc des flux physiques: commande reçue par internet, impression du livre commandé, envoi par la poste. Je précise que nous sous-traitons l’impression à des imprimeurs numériques, ce qui nous permet de vendre des livres de qualité équivalente à celle de l’offset, et à un prix comparable. Notre système n’est ni plus cher, ni de moindre qualité, il obéit à une économie différente qui, à notre sens, devrait se généraliser à terme.»

En quoi consiste l’activité d’un éditeur électronique? «Je décrirais mon activité comme double», explique Olivier Gainon. «D’une part celle d’un éditeur traditionnel dans la sélection des manuscrits et leur re- travail (je m’occupe directement de la collection science-fiction), mais également le choix des maquettes, les relations avec les prestataires, etc. D’autre part, une activité internet très forte qui vise à optimiser le site de CyLibris et mettre en oeuvre une stratégie de partenariat permettant à CyLibris d’obtenir la visibilité qui lui fait parfois défaut. Enfin, je représente CyLibris au sein du SNE [NDLR: Syndicat national de l’édition, dont CyLibris fait partie depuis le printemps 2000]. CyLibris est aujourd’hui une petite structure. Elle a trouvé sa place dans l’édition, mais est encore d’une économie fragile sur internet. Notre objectif est de la rendre pérenne et rentable et nous nous y employons.»

Le site web se veut aussi un carrefour de la petite édition. Il procure des informations pratiques aux auteurs en herbe: comment envoyer un manuscrit à un éditeur, ce que doit comporter un contrat d’édition, comment protéger ses manuscrits, comment tenter sa chance dans des revues ou concours littéraires, etc.

Par ailleurs, l’équipe de CyLibris lance en mai 1999 CyLibris Infos, une lettre d’information électronique gratuite dont l’objectif n’est pas tant de promouvoir les livres de l’éditeur que de présenter l’actualité de l’édition francophone. Volontairement décalée et souvent humoristique sinon décapante, la lettre, d’abord mensuelle, paraît deux fois par mois à compter de février 2000, avec 565 abonnés en octobre 2000. Elle change de nom en février 2001 pour devenir Édition-actu, qui compte 1.500 abonnés en 2003 avant de laisser place au blog de CyLibris. CyLibris (à ne pas confondre avec CyberLibris, une autre société) cesse ses activités éditoriales en 2007.

# 00h00

Lui aussi pionnier de l’édition électronique commerciale, 00h00 (qui se prononce «zéro heure») fait son apparition en mai 1998, un peu moins de deux ans après CyLibris. Mais le champ d’investigation de 00h00 est quelque peu différent, en tant que premier éditeur en ligne. Son activité est en effet de vendre des livres numériques via l'internet, et non des livres imprimés comme CyLibris. En 2000, les versions numériques (au format PDF) représentent 85% des ventes, les 15% restants étant des versions imprimées à la demande du client, un service que l'éditeur procure en complément.

00h00 est fondé par Jean-Pierre Arbon et Bruno de Sa Moreira, respectivement ancien directeur général de Flammarion et ancien directeur de Flammarion Multimédia. Bruno de Sa Moreira explique en juillet 1998: «Aujourd’hui mon activité professionnelle est 100% basée sur internet. Le changement ne s’est pas fait radicalement, lui, mais progressivement (audiovisuel puis multimédia puis internet). (…) La gestation du projet a duré un an: brainstorming, faisabilité, création de la société et montage financier, développement technique du site et informatique éditoriale, mise au point et production des textes et préparation du catalogue à l’ouverture. (…) Nous faisons un pari, mais l’internet me semble un média capable d’une très large popularisation, sans doute grâce à des terminaux plus faciles d’accès que le seul micro-ordinateur.»

«La création de 00h00 marque la véritable naissance de l’édition en ligne», lit-on sur le site web en 1999. «C’est en effet la première fois au monde que la publication sur internet de textes au format numérique est envisagée dans le contexte d’un site commercial, et qu’une entreprise propose aux acteurs traditionnels de l’édition (auteurs et éditeurs) d’ouvrir avec elle sur le réseau une nouvelle fenêtre d’exploitation des droits. Les textes offerts par 00h00 sont soit des inédits, soit des textes du domaine public, soit des textes sous copyright dont les droits en ligne ont fait l’objet d’un accord avec leurs ayants droit. (…) Avec l’édition en ligne émerge probablement une première vision de l’édition au 21e siècle. C’est cette idée d’origine, de nouveau départ qui s’exprime dans le nom de marque, 00h00. (…)

Internet est un lieu sans passé, où ce que l’on fait ne s’évalue pas par rapport à une tradition. Il y faut inventer de nouvelles manières de faire les choses. (…) Le succès de l’édition en ligne ne dépendra pas seulement des choix éditoriaux: il dépendra aussi de la capacité à structurer des approches neuves, fondées sur les lecteurs autant que sur les textes, sur les lectures autant que sur l’écriture, et à rendre immédiatement perceptible qu’une aventure nouvelle a commencé.»

Les collections sont très diverses: inédits, théâtre classique français, contes et récits fantastiques, contes et récits philosophiques, souvenirs et mémoires, philosophie classique, réalisme et naturalisme, cyberculture, romans d’enfance, romans d’amour, nouvelles et romans d’aventure. Le recherche est possible par auteur, par titre et par genre. Pour chaque livre, on a un descriptif court, un descriptif détaillé, la table des matières et une courte présentation de l’auteur. S’y ajoutent ensuite les commentaires des lecteurs. Pas de stock, pas de contrainte physique de distribution, mais un lien direct avec le lecteur et entre les lecteurs. Sur le site, les internautes/lecteurs peuvent créer leur espace personnel pour y rédiger leurs commentaires, participer à des forums ou recommander des liens vers d’autres sites. Ils peuvent s’abonner à la lettre d’information de 00h00 pour être tenus au courant des nouveautés. L'éditeur produit aussi des clips littéraires pour présenter certains des ouvrages publiés.

En 2000, le catalogue comprend 600 titres, qui comprennent une centaine d’oeuvres originales et des rééditions électroniques de livres publiés par d’autres éditeurs. Les oeuvres originales sont réparties en plusieurs collections: nouvelles écritures interactives et hypertextuelles, premiers romans, documents d’actualité, études sur les NTIC (nouvelles technologies de l’information et de la communication), co-éditions avec des éditeurs traditionnels ou de grandes institutions. Le paiement est effectué en ligne grâce à un système sécurisé mis en place par la Banque populaire. Ceux que le paiement en ligne rebute peuvent régler leur commande par carte bancaire (envoi par fax) ou par chèque (envoi par courrier postal).

En septembre 2000, 00h00 est racheté par Gemstar-TV Guide International, société américaine spécialisée dans les produits et services numériques pour les médias. Quelques mois auparavant, en janvier 2000, Gemstar rachète les deux sociétés californiennes ayant lancé les premières tablettes de lecture, NuvoMedia, créatrice du Rocket eBook, et SoftBook Press, créatrice du SoftBook Reader. Selon un communiqué de Henry Yuen, président de Gemstar, «les compétences éditoriales dont dispose 00h00 et ses capacités d’innovation et de créativité sont les atouts nécessaires pour faire de Gemstar un acteur majeur du nouvel âge de l’édition numérique qui s’ouvre en Europe.» La communauté francophone ne voit pas ce rachat d’un très bon oeil, la mondialisation de l’édition semblant justement peu compatible avec l’innovation et la créativité. Moins de trois ans plus tard, en juin 2003, 00h00 cesse définitivement ses activités, tout comme la branche eBook de Gemstar et les tablettes lancées depuis.

Il reste le souvenir d’une belle aventure. En octobre 2006, Jean-Pierre Arbon, devenu chanteur, raconte sur son site: «J’avais fondé, avec Bruno de Sa Moreira, une maison d’édition d’un genre nouveau, la première au monde à tenter à grande échelle l’aventure de l’édition en ligne. Tout était à faire, à inventer. L’édition numérique était terra incognita: on explorait, on défrichait.»

= Éditeurs traditionnels et technologies

# L'exemple du Choucas, éditeur indépendant

Fondé en 1992 par Nicolas et Suzanne Pewny, alors libraires en Haute- Savoie, Le Choucas est une petite maison d’édition spécialisée dans les romans policiers, la littérature, la photographie et les livres d’art.

En juin 1998, Nicolas Pewny raconte: «Le site des éditions du Choucas a été créé fin novembre 1996. Lorsque je me suis rendu compte des possibilités qu’internet pouvait nous offrir, je me suis juré que nous aurions un site le plus vite possible. Un petit problème: nous n’avions pas de budget pour le faire réaliser. Alors, au prix d’un grand nombre de nuits sans sommeil, j’ai créé ce site moi-même et l’ai fait référencer (ce n’est pas le plus mince travail). Le site a alors évolué en même temps que mes connaissances (encore relativement modestes) en la matière et s’est agrandi, et a commencé à être un peu connu même hors France et Europe.

Le changement qu’internet a apporté dans notre vie professionnelle est considérable. Nous sommes une petite maison d’édition installée en province. Internet nous a fait connaître rapidement sur une échelle que je ne soupçonnais pas. Même les médias "classiques" nous ont ouvert un peu leur portes grâce à notre site. Les manuscrits affluent par le courrier électronique. Ainsi nous avons édité deux auteurs québécois [NDLR: Fernand Héroux et Liz Morency, auteurs de Affaire de coeurs, paru en septembre 1997]. Beaucoup de livres se réalisent (corrections, illustrations, envoi des documents à l’imprimeur) par ce moyen. Dès le début du site nous avons reçu des demandes de pays où nous ne sommes pas (encore) représentés: États-Unis, Japon, Amérique latine, Mexique, malgré notre volonté de ne pas devenir un site "commercial" mais d’information et à "connotation culturelle". (Nous n’avons pas de système de paiement sécurisé, nous avons juste référencé sur une page les libraires qui vendent en ligne.)»

Comment Nicolas voit-il l'avenir? «J’aurais tendance à répondre par deux questions: Pouvez vous me dire comment va évoluer internet? Comment vont évoluer les utilisateurs? Nous voudrions bien rester aussi peu "commercial" que possible et augmenter l’interactivité et le contact avec les visiteurs du site. Y réussirons-nous? Nous avons déjà reçu des propositions qui vont dans un sens opposé. Nous les avons mises "en veille". Mais si l’évolution va dans ce sens, pourrons-nous résister, ou trouver une "voie moyenne"? Honnêtement, je n’en sais rien.»

Le Choucas cesse malheureusement ses activités en mars 2001, une disparition de plus à déplorer chez les petits éditeurs indépendants. «Comme je le prévoyais, notre distributeur a déposé son bilan», raconte Nicolas en juin 2001. «Et malheureusement les éditions du Choucas (ainsi que d’autres éditeurs) ont cessé leur activité éditoriale. Je maintiens gracieusement le site web pour témoignage de mon savoir-faire d’éditeur on- et off-line. (…) Je ne regrette pas ces dix années de lutte, de satisfactions et de malheurs passés aux éditions du Choucas. J’ai connu des auteurs intéressants dont certains sont devenus des amis… Maintenant je fais des publications et des sites internet pour d’autres. En ce moment pour une ONG [organisation non gouvernementale] internationale caritative; je suis ravi de participer (modestement) à leur activité à but non lucratif. Enfin on ne parle plus de profit ou de manque à gagner, c’est reposant.»

Fort de son expérience dans le domaine de la librairie, de l'édition, de l'internet et du numérique, Nicolas Pewny est maintenant consultant en édition électronique et met ses compétences au service d'autres organismes.

# Technologies numériques et éditeurs

Les technologies numériques conduisent les éditeurs scientifiques et techniques à repenser leur travail et, pour certains, à s’orienter vers une diffusion en ligne, les tirages imprimés restant toujours possibles à titre ponctuel. Certaines universités diffusent désormais des manuels «sur mesure» composés d’un choix de chapitres et d’articles sélectionnés dans une base de données, auxquels s’ajoutent les commentaires des professeurs. Pour un séminaire, un très petit tirage peut être fait à la demande, à partir de documents transmis par voie électronique à un imprimeur. Quant aux revues spécialisées, certaines optent pour une publication en ligne complétée par un partenariat avec une société spécialisée se chargeant des impressions à la demande.

Enseignante-chercheuse à l’École pratique des hautes études (EPHE, Paris-Sorbonne), Marie-Joseph Pierre écrit en février 2003: «Il me paraît évident que la publication des articles et ouvrages au moins scientifiques se fera de plus en plus sous forme numérique, ce qui permettra aux chercheurs d’avoir accès à d’énormes banques de données, constamment et immédiatement évolutives, permettant en outre le contact direct et le dialogue entre les auteurs. Nos organismes de tutelle, comme le CNRS [Centre national de la recherche scientifique] par exemple, ont déjà commencé à contraindre les chercheurs à publier sous ce mode, et incitent fortement les laboratoires à diffuser ainsi leurs recherches pour qu’elles soient rapidement disponibles. Nos rapports d’activité à deux et à quatre ans – ces énormes dossiers peineux résumant nos labeurs – devraient prochainement se faire sous cette forme. Le papier ne disparaîtra pas pour autant, et je crois même que la consommation ne diminuera pas… Car lorsqu'on veut travailler sur un texte, le livre est beaucoup plus maniable. Je m’aperçois dans mon domaine que les revues qui ont commencé récemment sous forme numérique commencent à être aussi imprimées et diffusées sur papier dignement relié. Le passage de l’un à l’autre peut permettre des révisions et du recul, et cela me paraît très intéressant.»

Infographiste, Marc Autret a derrière lui dix ans de journalisme multi- tâches et d’hyperformation dans le domaine de l’édition, du multimédia et du droit d’auteur. Il explique en décembre 2006: «C’est un "socle" irremplaçable pour mes activités d’aujourd’hui, qui en sont le prolongement technique. Je suis un "artisan" de l’information et je travaille essentiellement avec des éditeurs. Ils sont tellement en retard, tellement étrangers à la révolution numérique, que j’ai du pain sur la planche pour pas mal d’années. Aujourd’hui je me concentre sur le conseil, l’infographie, la typographie, le pré-presse et le webdesign, mais je sens que la part du logiciel va grandir. Des secteurs comme l’animation 3D, l’automatisation des tâches de production, l’intégration multi-supports, la base de données et toutes les technologies issues de XML [eXtensible Markup Language] vont s’ouvrir naturellement. Les éditeurs ont besoin de ces outils, soit pour mieux produire, soit pour mieux communiquer. C’est là que je vois l’évolution, ou plutôt l’intensification, de mon travail.»

Comment Marc voit-il l'avenir de l'ebook? «Sans vouloir faire dans la divination, je suis convaincu que l’e-book (ou "ebook": impossible de trancher!) a un grand avenir dans tous les secteurs de la non-fiction. Je parle ici de livre numérique en termes de "logiciel", pas en terme de support physique dédié (les conjectures étant plus incertaines sur ce dernier point). Les éditeurs de guides, d’encyclopédies et d’ouvrages informatifs en général considèrent encore l’e-book comme une déclinaison très secondaire du livre imprimé, sans doute parce que le modèle commercial et la sécurité de cette exploitation ne leur semblent pas tout à fait stabilisés aujourd’hui. Mais c’est une question de temps. Les e-books non commerciaux émergent déjà un peu partout et opèrent d’une certaine façon un défrichage des possibles. Il y a au moins deux axes qui émergent: (a) une interface de lecture/consultation de plus en plus attractive et fonctionnelle (navigation, recherche, restructuration à la volée, annotations de l’utilisateur, quizz interactif…); (b) une intégration multimédia (vidéo, son, infographie animée, base de données, etc.) désormais fortement couplée au web. Aucun livre physique n’offre de telles fonctionnalités. J’imagine donc l’e-book de demain comme une sorte de wiki cristallisé, empaqueté dans un format. Quelle sera alors sa valeur propre? Celle d’un livre: l’unité et la qualité du travail éditorial!»

Concepteur du projet @folio, un projet de tablette de lecture nomade, Pierre Schweitzer explique en décembre 2006: «La lecture numérique dépasse de loin, de très loin même, la seule question du "livre" ou de la presse. Le livre et le journal restent et resteront encore, pour longtemps, des supports de lecture techniquement indépassables pour les contenus de valeur ou pour ceux dépassant un seuil critique de diffusion. Bien que leur modèle économique puisse encore évoluer (comme pour les "gratuits" la presse grand public), je ne vois pas de bouleversement radical à l’échelle d’une seule génération. Au-delà de cette génération, l’avenir nous le dira. On verra bien. Pour autant, d’autres types de contenus se développent sur les réseaux. Internet défie l’imprimé sur ce terrain-là: celui de la diffusion en réseau (dématérialisée = coût marginal nul) des oeuvres et des savoirs. Là où l’imprimé ne parvient pas à équilibrer ses coûts. Là où de nouveaux acteurs peuvent venir prendre leur place.

Or, dans ce domaine nouveau, les équilibres économiques et les logiques d’adoption sont radicalement différents de ceux que l’on connaît dans l’empire du papier - voir par exemple l’évolution des systèmes de validation pour les archives ouvertes dans la publication scientifique ou les modèles économiques émergents de la presse en ligne. Il est donc vain, dangereux même, de vouloir transformer au forceps l’écologie du papier - on la ruinerait à vouloir le faire! À la marge, certains contenus très spécifiques, certaines niches éditoriales, pourraient être transformées - l’encyclopédie ou la publication scientifique le sont déjà: de la même façon, les guides pratiques, les livres d’actualité quasi-jetables et quelques autres segments qui envahissent les tables des librairies pourraient l’être, pour le plus grand bonheur des libraires. Mais il n’y a là rien de massif ou brutal selon moi: nos habitudes de lecture ne seront pas bouleversées du jour au lendemain, elles font partie de nos habitudes culturelles, elles évoluent lentement, au fur et à mesure de leur adoption (= acceptation) par les générations nouvelles.»

LA CONVERGENCE MULTIMÉDIA

[Résumé] La convergence multimédia entraîne l’unification progressive des secteurs liés à l’information (imprimerie, édition, presse, conception graphique, enregistrements sonores, films, etc.) suite à l’utilisation des techniques de numérisation, avec un processus matériel de production qui s’en trouve considérablement accéléré. Si certains secteurs créent de nouveaux emplois, par exemple ceux liés à la production audio-visuelle, d’autres secteurs sont soumis à des restructurations drastiques. La convergence multimédia a de nombreux revers, par exemple des contrats précaires pour les salariés, l’absence de syndicats pour les télétravailleurs ou le droit d’auteur mis à mal pour les auteurs, tous sujets débattus lors du Colloque sur la convergence multimédia organisé en janvier 1997 à Genève (Suisse) par l'Organisation internationale du travail (OIT).

= Une définition

On peut définir la convergence multimédia comme la convergence de l’informatique, du téléphone, de la radio et de la télévision dans une industrie de la communication et de la distribution utilisant les mêmes inforoutes (appelées aussi autoroutes de l'information).

Plus précisément, de quoi s'agit-il? La numérisation permet de créer, d’enregistrer, de combiner, de stocker, de rechercher et de transmettre des textes, des sons et des images par des moyens simples et rapides. Des procédés similaires permettent le traitement de l’écriture, de la musique et du cinéma alors que, par le passé, ce traitement était assuré par des procédés différents sur des supports différents (papier pour l’écriture, bande magnétique pour la musique, celluloïd pour le cinéma). De plus, des secteurs distincts comme l’édition (qui produit des livres) et l’industrie musicale (qui produit des disques) travaillent ensuite de concert pour produire des CD-ROM.

Ceci n'est pas le premier bouleversement affectant la chaîne de l’édition. Dans les années 1970, l’imprimerie traditionnelle est d’abord ébranlée par les machines de photocomposition. Le coût de l’impression continue ensuite de baisser avec les photocopieurs, les photocopieurs couleur, les procédés d’impression assistée par ordinateur et le matériel d’impression numérique. Dans les années 1990, l’impression est souvent assurée à bas prix par des ateliers de PAO (publication assistée par ordinateur). Tout contenu est désormais systématiquement numérisé pour permettre son transfert par voie électronique.

La numérisation accélère le processus matériel de production. Dans la presse, alors qu’auparavant le personnel de production devait dactylographier les textes du personnel de rédaction, les journalistes envoient désormais directement leurs textes pour mise en page. Dans l’édition, le rédacteur, le concepteur artistique et l'infographiste travaillent souvent simultanément au même ouvrage.

On assiste progressivement à la convergence de tous les secteurs liés à l’information: imprimerie, édition, presse, conception graphique, enregistrements sonores, films, radiodiffusion, etc.

Si, dans certains secteurs, ce phénomène entraîne de nouveaux emplois, par exemple ceux liés à la production de films ou de produits audio- visuels, d'autres secteurs sont soumis à d'inquiétantes restructurations. Ces problèmes sont suffisamment préoccupants pour être débattus lors du Colloque sur la convergence multimédia organisé en janvier 1997 par l'Organisation internationale du travail (OIT) à Genève.

= Des commentaires

Plusieurs interventions faites au cours de ce colloque soulèvent des problèmes de fond, dont certains sont toujours d'actualité en 2010.

Bernie Lunzer, secrétaire-trésorier de la Newspaper Guild (États-Unis), insiste sur les batailles juridiques faisant rage autour des problèmes de propriété intellectuelle. Ces batailles visent notamment l'attitude des directeurs de publication, qui amènent les écrivains indépendants à signer des contrats particulièrement choquants cédant tous leurs droits au directeur de publication, avec une contrepartie financière ridicule.

Heinz-Uwe Rübenach, de l'Association allemande de directeurs de journaux (Bundesverband Deutscher Zeitungsverleger), insiste lui aussi sur la nécessité pour les entreprises de presse de gérer et de contrôler l'utilisation sur le web des articles de leurs journalistes, et d'obtenir une contrepartie financière leur permettant de continuer à investir dans les nouvelles technologies.

Un problème tout aussi préoccupant est celui de la pression constante exercée sur les journalistes des salles de rédaction, dont le travail doit être disponible à longueur de journée et non plus seulement en fin de journée. Ces tensions à répétition sont encore aggravées par un travail à l'écran pendant huit à dix heures d'affilée. Le rythme de travail et l'utilisation intensive de l'ordinateur entraînent des problèmes de sécurité au travail. Après quelques années de ce régime, des journalistes «craquent» à l'âge de 35 ou 40 ans.

Selon Carlos Alberto de Almeida, président de la Fédération nationale des journalistes au Brésil (FENAJ: Federação Nacional dos Jornalistas), les nouvelles technologies étaient censées rationaliser le travail et réduire sa durée afin de favoriser l'enrichissement intellectuel et les loisirs. En pratique, les professionnels des médias sont obligés d'effectuer un nombre d'heures de travail en constante augmentation. La journée légale de cinq heures est en fait une journée de dix à douze heures. Les heures supplémentaires ne sont pas payées, comme ne sont pas payées non plus celles effectuées le week-end par les journalistes censés être en période de repos.

La numérisation des documents et l'automatisation des méthodes de travail accélèrent le processus de production mais elles entraînent aussi une diminution de l'intervention humaine et donc un accroissement du chômage. Alors qu'auparavant le personnel de production devait retaper les textes du personnel de rédaction, la mise en page automatique permet de combiner les deux tâches de rédaction et de composition.

Etienne Reichel, directeur suppléant de Viscom (Visual Communication), association suisse pour la communication visuelle, démontre que le transfert de données via l'internet et la suppression de certaines phases de production réduisent le nombre d'emplois. Le travail de vingt typographes est maintenant assuré par six travailleurs qualifiés, alors que les entreprises de communication visuelle étaient auparavant génératrices d'emplois. Par contre, l'informatique permet à certains professionnels de s'installer à leur compte, comme c'est le cas pour 30% des salariés ayant perdu leur emploi suite à la restructuration de leur entreprise.

Professeur associé en sciences sociales à l’Université d’Utrecht (Pays- Bas), Peter Leisink précise lui aussi que la rédaction des textes et la correction des épreuves se font désormais à domicile, le plus souvent par des travailleurs ayant pris le statut d’indépendants à la suite de licenciements et de délocalisations ou fusions d’entreprises. «Or cette forme d’emploi tient plus du travail précaire que du travail indépendant», explique-t-il, «car ces personnes n’ont que peu d’autonomie et sont généralement tributaires d’une seule maison d’édition.»

A part quelques cas particuliers mis en avant par les organisations d’employeurs, la convergence multimédia entraîne des suppressions massives d’emplois.

Selon Michel Muller, secrétaire général de la FILPAC (Fédération des industries du livre, du papier et de la communication) en France, les industries graphiques françaises ont perdu 20.000 emplois en dix ans. Entre 1987 et 1996, les effectifs sont passés de de 110.000 à 90.000 salariés. Les entreprises mettent en place des plans sociaux coûteux pour favoriser le reclassement des personnes licenciées, en créant des emplois souvent artificiels, alors qu’il aurait été préférable de financer des études fiables sur la manière d’équilibrer créations et suppressions d’emplois lorsqu'il était encore temps.

Partout dans le monde, de nombreux postes à faible qualification technique sont remplacés par des postes exigeant des qualifications techniques élevées. Les personnes peu qualifiées sont licenciées. D’autres suivent une formation professionnelle complémentaire, parfois auto-financée et prise sur leur temps libre, et cette formation professionnelle ne garantit pas pour autant le réemploi.

Directeur de AT&T, géant des télécommunications aux États-Unis, Walter Durling insiste sur le fait que les nouvelles technologies ne changeront pas fondamentalement la situation des salariés au sein de l'entreprise. L’invention du film n’a pas tué le théâtre et celle de la télévision n’a pas fait disparaître le cinéma. Les entreprises devraient créer des emplois liés aux nouvelles technologies et les proposer à ceux qui sont obligés de quitter d’autres postes devenus obsolètes.

Des arguments bien théoriques alors que le problème est plutôt celui du pourcentage. Combien de créations de postes pour combien de licenciements?

De leur côté, les syndicats préconisent la création d’emplois par l’investissement, l’innovation, la formation aux nouvelles technologies, la reconversion des travailleurs dont les emplois sont supprimés, des conventions collectives équitables, la défense du droit d’auteur, une meilleure protection des travailleurs dans le secteur artistique, et enfin la défense des télétravailleurs en tant que travailleurs à part entière.

LA MUE DES BIBLIOTHÈQUES

[Résumé] «Qu’il me suffise, pour le moment, de redire la sentence classique: "La bibliothèque est une sphère dont le centre véritable est un hexagone quelconque, et dont la circonférence est inaccessible".» Cette citation de Jorge Luis Borges – issue de La bibliothèque de Babel (1941) - pourrait tout aussi bien définir la bibliothèque numérique. La numérisation du patrimoine mondial est en cours, d'abord pour le texte, et ensuite pour l’image et le son, avec la mise en ligne de centaines puis de milliers d’oeuvres du domaine public, de publications littéraires et scientifiques, d’articles, d’images, de bandes sonores et de films, gratuits ou payants selon les documents. De plus, certaines bibliothèques utilisent le web pour faire connaître les joyaux de leurs collections, pendant que d'autres créent des «cyberespaces» pour leurs usagers, avec des bibliothécaires devenus cyberthécaires pour les piloter dans leurs recherches et les orienter sur la toile.

= Des bibliothèques numériques

# De l'imprimé au numérique

La première bibliothèque traditionnelle présente sur le web est la bibliothèque municipale d’Helsinki (Finlande), qui inaugure son site en février 1994. Objectif poursuivi par des générations de bibliothécaires, la diffusion du livre devient enfin possible à vaste échelle.

Fondateur de la bibliothèque numérique Athena, Pierre Perroud insiste en février 1997 sur la complémentarité du texte électronique et du livre imprimé, dans un article de la revue Informatique-Informations (Genève). Selon lui, «les textes électroniques représentent un encouragement à la lecture et une participation conviviale à la diffusion de la culture», notamment pour l’étude de ces textes et la recherche textuelle. Ces textes électroniques «sont un bon complément du livre imprimé - celui-ci restant irremplaçable lorsqu’il s’agit de lire». Mais le livre imprimé reste «un compagnon mystérieusement sacré vers lequel convergent de profonds symboles: on le serre dans la main, on le porte contre soi, on le regarde avec admiration; sa petitesse nous rassure autant que son contenu nous impressionne; sa fragilité renferme une densité qui nous fascine; comme l’homme il craint l’eau et le feu, mais il a le pouvoir de mettre la pensée de celui-là à l’abri du Temps.»

Si certaines bibliothèques numériques naissent directement sur le web, la plupart émanent de bibliothèques traditionnelles. En 1996, la bibliothèque municipale de Lisieux (Normandie, France) lance la Bibliothèque électronique de Lisieux, qui offre les versions numériques d'oeuvres littéraires courtes choisies dans les collections municipales. En 1997, la Bibliothèque nationale de France (BnF) crée Gallica qui, dans un premier temps, propose des images et textes du 19e siècle francophone, à savoir une sélection de 3.000 livres complétée par un échantillon de la future iconothèque numérique. En 1998, la Bibliothèque municipale de Lyon met les enluminures de 200 manuscrits et incunables à la disposition de tous sur son site web. Trois exemples parmi tant d’autres.

# La numérisation des livres

Qui dit bibliothèque numérique dit numérisation, au moins les premiers temps, puisque les livres numériques émanent de livres imprimés. Pour pouvoir être consulté à l’écran, un livre peut être numérisé soit en mode texte soit en mode image.

La numérisation en mode texte consiste d'abord à patiemment saisir le livre sur un clavier, page après page, solution souvent adoptée lors de la constitution des premières bibliothèques numériques, ou alors quand les documents originaux manquent de clarté, pour les livres anciens par exemple. Les années passant, la numérisation en mode texte consiste surtout à scanner le livre en mode image, puis à le convertir en texte grâce à un logiciel OCR (Optical Character Recognition), avec relecture éventuelle à l’écran pour corriger le texte obtenu puisqu'un bon logiciel OCR serait fiable à 99%.

La version informatique du livre ne conserve pas la présentation originale du livre ou de la page. Le livre devient texte, à savoir un ensemble de caractères apparaissant en continu à l’écran. A cause du temps passé au traitement de chaque livre, ce mode de numérisation est assez long, et donc nettement plus coûteux que la numérisation en mode image. Dans de nombreux cas, il est toutefois très préférable, puisqu’il permet l’indexation, la recherche textuelle, l’analyse textuelle, une étude comparative entre plusieurs textes ou plusieurs versions du même texte, etc. C’est la méthode utilisée par exemple par le Projet Gutenberg, fondé dès 1971 et qui propose aujourd'hui la plus grande bibliothèque numérique au format texte, avec des livres relus et corrigés deux fois pour être fiables à 99,9% par rapport à la version imprimée.

La numérisation en mode image consiste à scanner le livre, et correspond donc à la photographie du livre page après page. La présentation originale étant conservée, on peut «feuilleter» le livre à l’écran. La version informatique est en quelque sorte le fac-similé numérique de la version imprimée. C’est la méthode employée pour les numérisations à grande échelle, par exemple pour le programme de numérisation de la Bibliothèque nationale de France (BnF) et la constitution de sa bibliothèque numérique Gallica. La numérisation en mode texte est utilisée en complément pour les tables des matières, les sommaires et les corpus de documents iconographiques, afin de faciliter la recherche textuelle.

Pourquoi ne pas tout numériser en mode texte? La BnF répond en 2000 sur le site de Gallica: «Le mode image conserve l’aspect initial de l’original y compris ses éléments non textuels. Si le mode texte autorise des recherches riches et précises dans un document et permet une réduction significative du volume des fichiers manipulés, sa réalisation, soit par saisie soit par OCR, implique des coûts de traitement environ dix fois supérieurs à la simple numérisation. Ces techniques, parfaitement envisageables pour des volumes limités, ne pouvaient ici être économiquement justifiables au vu des 50.000 documents (représentant presque 15 millions de pages) mis en ligne.» Dans les années qui suivent, Gallica convertit toutefois nombre de ses livres du mode image au mode texte pour permettre les recherches textuelles.

Concepteur de Mot@mot, logiciel de remise en page de fac-similés numériques, Pierre Schweitzer insiste sur l’utilité des deux modes de numérisation. «Le mode image permet d’avancer vite et à très faible coût», explique-t-il en janvier 2001. «C’est important car la tâche de numérisation du domaine public est immense. Il faut tenir compte aussi des différentes éditions: la numérisation du patrimoine a pour but de faciliter l’accès aux oeuvres, il serait paradoxal qu’elle aboutisse à se focaliser sur une édition et à abandonner l’accès aux autres. Chacun des deux modes de numérisation s’applique de préférence à un type de document, ancien et fragile ou plus récent, libre de droit ou non (pour l’auteur ou pour l’édition), abondamment illustré ou pas. Les deux modes ont aussi des statuts assez différents: en mode texte ça peut être une nouvelle édition d’une oeuvre, en mode image c’est une sorte d’"édition d’édition", grâce à un de ses exemplaires (qui fonctionne alors comme une fonte d’imprimerie pour du papier). En pratique, le choix dépend bien sûr de la nature du fonds à numériser, des moyens et des buts à atteindre. Difficile de se passer d’une des deux façons de faire.»

= Un exemple: Gallica

# Un laboratoire en ligne

Gallica – bibliothèque numérique de la BnF (Bibliothèque nationale de France) - est inauguré en octobre 1997 avec des textes et des images du 19e siècle francophone, «siècle de l’édition et de la presse moderne, siècle du roman mais aussi des grandes synthèses historiques et philosophiques, siècle scientifique et technique».

À l’époque, le serveur stocke 2.500 livres numérisés en mode image complétés par les 250 livres numérisés en mode texte de la base Frantext de l’INaLF (Institut national de la langue française, qui deviendra plus tard le laboratoire ATILF – Analyse et traitement informatique de la langue française).

Classés par discipline, ces livres sont complétés par une chronologie du 19e siècle et des synthèses sur les grands courants en histoire, sciences politiques, droit, économie, littérature, philosophie, sciences et histoire des sciences.

Le site propose aussi un échantillon de la future iconothèque numérique, à savoir le fonds du photographe Eugène Atget, une sélection de documents sur l’écrivain Pierre Loti, une collection d’images de l’École nationale des ponts et chaussées - ces images ayant trait aux grands travaux de la révolution industrielle en France -, et enfin un choix de livres illustrés de la bibliothèque du Musée de l’Homme.

Fin 1997, Gallica se considère moins comme une banque de données numérisées que comme un «laboratoire dont l’objet est d’évaluer les conditions d’accès et de consultation à distance des documents numériques». Le but est d’expérimenter la navigation dans ces collections, en permettant le libre parcours du chercheur ou du lecteur curieux.

Début 1998, Gallica annonce 100.000 volumes et 300.000 images pour la fin 1999, avec un accroissement rapide des collections ensuite. Sur les 100.000 volumes prévus, qui représenteraient 30 millions de pages numérisées, plus du tiers concernerait le 19e siècle. Quant aux 300.000 images fixes, la moitié viendrait des départements spécialisés de la BnF (Estampes et photographie, Manuscrits, Arts du spectacle, Monnaies et médailles, etc.), et l'autre moitié de collections d’établissements publics (musées et bibliothèques, Documentation française, École nationale des ponts et chaussées, Institut Pasteur, Observatoire de Paris, etc.) ou privés (agences de presse dont Magnum, l’Agence France- Presse, Sygma, Rapho, etc.).

En mai 1998, la BnF revoit ses espérances à la baisse et modifie quelque peu ses orientations premières. Jérôme Strazzulla, journaliste au quotidien Le Figaro, explique dans un article du 3 juin 1998 que la BnF est «passée d’une espérance universaliste, encyclopédique, à la nécessité de choix éditoriaux pointus».

Dans le même article, le président de la BnF, Jean-Pierre Angremy, rapporte la décision du comité éditorial de Gallica: «Nous avons décidé d’abandonner l’idée d’un vaste corpus encyclopédique de cent mille livres, auquel on pourrait sans cesse reprocher des trous. Nous nous orientons aujourd’hui vers des corpus thématiques, aussi complets que possibles, mais plus restreints. (…) Nous cherchons à répondre, en priorité, aux demandes des chercheurs et des lecteurs.»

Le premier corpus aura trait aux voyages en France, à savoir des textes, estampes et photographies du 16e siècle à 1920, avec mise en ligne prévue en 2000. Les corpus envisagés ensuite concerneront Paris, les voyages en Afrique des origines à 1920, les utopies et enfin les mémoires des Académies des sciences de province.

# Une consultation plus aisée

Professeur à l’École pratique des hautes études (EPHE, Paris-Sorbonne) et adepte depuis toujours de la lecture sur PDA (puis sur smartphone), Marie-Joseph Pierre raconte en novembre 2002: «Cela m’a pas mal servi pour mon travail, ou pour mes activités associatives. Je fais par exemple partie d’une petite société poétique locale, et nous faisons prochainement un récital poétique. J’ai voulu rechercher des textes de Victor Hugo, que j’ai maintenant pu lire et même charger à partir du site de la Bibliothèque nationale de France: c’est vraiment extra.»

En 2003, Gallica rassemble 70.000 ouvrages et 80.000 images allant du Moyen-Âge au début du 20e siècle, tous documents libres de droits. Mais, de l’avis de nombreux usagers, les fichiers des livres sont très lourds puisqu'ils sont numérisés en mode image, et l’accès en est très long.

Chose tout aussi problématique, la numérisation en mode image n’autorise pas la recherche textuelle alors que Gallica se trouve être la plus grande bibliothèque numérique francophone en nombre de titres disponibles en ligne. La recherche textuelle est toutefois possible dans les tables des matières, les sommaires et les légendes des corpus iconographiques, qui sont numérisés en mode texte. Mais seule une petite collection de livres (1.117 livres en février 2004) est intégralement numérisée en mode texte, celle de la base Frantext, intégrée à Gallica.

Tous problèmes auxquels la BnF remédie au fil des mois, avec une navigation plus aisée et la conversion progressive des livres du mode image au mode texte grâce à un logiciel OCR, avec possibilité donc de recherche textuelle.

En février 2005, Gallica compte 76.000 ouvrages. À la même date, la BnF annonce la mise en ligne prochaine (entre 2006 et 2009) de la presse française parue entre 1826 et 1944, à savoir 22 titres représentant 3,5 millions de pages.