Produced by Al Haines

L’EBOOK A 40 ANS (1971-2011)

Marie Lebert

Project Gutenberg News, 2011

INTRODUCTION

L’ebook - appelé aussi livre numérique - a tout juste quarante ans. Après des débuts timides, il est maintenant solidement implanté à côté du livre imprimé. On peut désormais lire un livre sur son ordinateur, son PDA, son téléphone mobile, son smartphone ou sa tablette de lecture.

«L’ebook a 40 ans» se présente sous la forme d’une chronologie en 60 épisodes de 1971 à 2011. Sauf mention contraire, les citations sont des extraits des Entretiens du NEF , Université de Toronto, et des entretiens qui ont suivi pour les compléter. Merci à tous ceux qui sont cités ici, pour leur temps et pour leur amitié.

Une partie de ce livre a été publié dans le magazine en ligne ActuaLitté en mai et juin 2011, sous la forme d’une série d’articles, pour célébrer le 40e anniversaire du Projet Gutenberg le 4 juillet 2011. Une autre partie de ce livre émane d’une série d’articles en anglais publiée dans Project Gutenberg News en juillet 2011, ces articles ayant ensuite été traduits en français.

Ce livre marque la fin d'un projet de recherche ayant duré douze ans, avec une centaine de participants de par le monde.

Marie Lebert, chercheuse et journaliste, s'intéresse aux technologies pour le livre et les langues. Ses livres sont librement disponibles dans le Projet Gutenberg , dans divers formats permettant leur lecture sur tout appareil électronique.

Copyright © 2011 Marie Lebert

TABLE DES MATIÈRES

1971 > Le Projet Gutenberg, un projet visionnaire 1974 > Les débuts de l’internet 1986 > Des extensions pour l’ASCII 1990 > Le web booste l’internet 1991 > L’Unicode, système d’encodage universel 1992 > Des répertoires de textes électroniques 1993 > L’Online Books Page, liste de livres en ligne 1993 > Le format PDF, lancé par Adobe 1994 > L’internet comme outil de marketing 1994 > Athena, bibliothèque numérique 1995 > Éditel, éditeur littéraire né sur la toile 1995 > La presse imprimée se met en ligne 1995 > Amazon, pionnier du cybercommerce 1996 > L’Internet Archive, pour les générations futures 1996 > CyLibris, éditeur électronique 1996 > Vers un savoir numérique 1996 > Le projet @folio, baladeur de textes 1996 > Les éditions du Choucas sur la toile 1997 > La convergence multimédia 1997 > Un portail pour les bibliothèques nationales européennes 1997 > E Ink, technologie d’encre électronique 1997 > oVosite, espace d’écriture hypermédia 1997 > NON, roman multimédia 1997 > Gallica, bibliothèque numérique 1998 > Des livres numérisés en quantité 1998 > L’Encyclopédie de Diderot en ligne 1998 > 00h00, éditeur en ligne 1998 > Un prolongement sur le web pour les livres 1998 > Un durcissement du copyright 1998 > Les premières tablettes de lecture 1999 > Du bibliothécaire au cyberthécaire 1999 > La librairie Ulysse sur le web 1999 > L’internet, personnage de roman 2000 > Encyclopédies et dictionnaires en ligne 2000 > Les aventures de Stephen King 2000 > Des auteurs de best-sellers 2000 > Cotres.net, site de littérature hypermédia 2000 > Un format standard pour le livre numérique 2000 > Numilog, librairie numérique 2000 > La Bible de Gutenberg en ligne 2001 > Le web au service des auteurs 2001 > De nouveaux genres littéraires 2001 > Wikipédia, encyclopédie collaborative 2001 > D’autres tablettes de lecture 2001 > Une meilleure bande passante 2001 > Creative Commons, le copyright revisité 2003 > La Public Library of Science 2003 > Handicapzéro, l’internet pour tous 2003 > Le matériel d’enseignement du MIT 2004 > Le web 2.0, communauté et partage 2005 > Du PDA au smartphone 2005 > De Google Print à Google Books 2005 > L’Open Content Alliance, bibliothèque planétaire 2006 > Le catalogue collectif WorldCat en ligne 2007 > Quel avenir pour l’ebook? 2007 > Citizendium, encyclopédie expérimentale 2007 > L’Encyclopedia of Life, projet global 2009 > Indiscripts, laboratoire de scripts InDesign 2010 > Du Librié à l’iPad 2011 > L’ebook en dix points

1971 > LE PROJET GUTENBERG, UN PROJET VISIONNAIRE

[Résumé] Le premier livre numérique est l’eText #1 du Projet Gutenberg, un projet visionnaire fondé en juillet 1971 par Michael Hart pour créer des versions électroniques gratuites d'oeuvres littéraires et les diffuser dans le monde entier. Au 16e siècle, Gutenberg avait permis à chacun d'avoir des livres imprimés pour un prix relativement modique. Au 21e siècle, le Projet Gutenberg permettrait à chacun d'avoir une bibliothèque numérique gratuite. D'abord considéré comme complètement irréaliste, ce projet trouve un nouveau souffle et un rayonnement international avec l'apparition du web en 1990, ce qui facilite la circulation des livres, puis la création de Distributed Proofreaders en 2000, pour partager la relecture des livres entre des milliers de volontaires. En juillet 2011, pour son 40e anniversaire, le Projet Gutenberg compte 36.000 livres numériques, des dizaines de milliers de téléchargements par jour, des sites web aux États-Unis, en Australie, en Europe et au Canada et 40 sites miroirs répartis sur toute la planète.

***

Le premier livre numérique est l’eText #1 du Projet Gutenberg, fondé en juillet 1971 par Michael Hart pour créer des versions électroniques d'oeuvres littéraires et les diffuser gratuitement dans le monde entier.

Au 16e siècle, Gutenberg avait permis à chacun d'avoir des livres imprimés pour un prix relativement modique. Au 21e siècle, le Projet Gutenberg permettrait à chacun d'avoir une bibliothèque numérique gratuite.

# Les débuts du projet

Comment le projet débute-t-il? Alors étudiant à l’Université de l'Illinois (États-Unis), Michael Hart se voit attribuer quelques millions de dollars de «temps machine» dans le laboratoire informatique (Materials Research Lab) de son université.

Le 4 juillet 1971, jour de la fête nationale, il saisit «The United States Declaration of Independence» (La Déclaration de l’indépendance des États-Unis, signée le 4 juillet 1776) sur le clavier de son ordinateur. En caractères majuscules, puisque les caractères minuscules n’existent pas encore. Le texte électronique représente 5 Ko (kilo- octets).

Michael diffuse un message à la centaine de personnes que représente le réseau de l’époque pour indiquer où le texte est stocké - sans lien hypertexte toutefois, puisque le web ne voit le jour que vingt ans après - suite à quoi le fichier est téléchargé par six personnes.

Dans la foulée, Michael décide de consacrer ce crédit-temps de quelques millions de dollars à la recherche d’oeuvres littéraires disponibles en bibliothèque, à la numérisation de celles-ci et au stockage des textes électroniques.

Peu après, il définit la mission du Projet Gutenberg, à savoir mettre à la disposition de tous, par voie électronique, le plus grand nombre possible d’oeuvres littéraires.

Ce projet trouve un rayonnement international avec l’apparition du web en 1990, ce qui facilite la circulation des textes électroniques et les échanges avec les volontaires.

Michael explique plus tard, en août 1998 : «Nous considérons le texte électronique comme un nouveau médium, sans véritable relation avec le papier. Le seul point commun est que nous diffusons les mêmes oeuvres, mais je ne vois pas comment le papier peut concurrencer le texte électronique une fois que les gens y sont habitués, particulièrement dans les établissements d'enseignement.»

Au lieu d’être un ensemble de pages reliées, le livre devient un texte électronique que l’on peut dérouler en continu, au format ASCII (American Standard Code for Information Interchange), à savoir le format le plus simple et le plus répandu, avec des lettres capitales pour les termes en italique, en gras et soulignés de la version imprimée, pour que le texte du livre puisse être lu sans problème quels que soient la machine, la plateforme et le logiciel utilisés.

# Distributed Proofreaders

Le Projet Gutenberg trouve un nouveau souffle avec la création de Distributed Proofreaders en 2000, pour partager la relecture des livres entre des milliers de volontaires.

Conçu en octobre 2000 par Charles Franks pour aider à la numérisation des livres du domaine public, Distributed Proofreaders (DP) devient rapidement la principale source du Projet Gutenberg. Le concept est de permettre la correction partagée de livres du domaine public scannés à partir d'une version imprimée puis convertis au format texte par un logiciel OCR (fiable à 99% dans le meilleur des cas, ce qui représente donc quelques erreurs par page), en fragmentant ces livres en pages pouvant être relues par des correcteurs différents. Les volontaires n'ont aucun quota à respecter. À titre indicatif, il est suggéré de relire une page par jour.

Distributed Proofreaders est officiellement affilié au Projet Gutenberg en 2002, puis devient une entité séparée en mai 2006 tout en conservant des liens étroits avec le projet. Distributed Proofreaders comptabilise 10.000 livres numérisés et relus par ses volontaires en décembre 2006 et 20.000 livres en avril 2011. Distributed Proofreaders Europe (DP Europe) voit le jour début 2004, et Distributed Proofreaders Canada (DP Canada) en décembre 2007.

# La philosophie du projet

La structure administrative et financière du Projet Gutenberg se limite au strict minimum, avec une devise qui tient en trois mots: «Less is more.» Le but est d’assurer la pérennité du projet indépendamment des crédits, des coupures de crédits et des priorités culturelles, financières et politiques du moment. Pas de pression possible donc par le pouvoir et par l’argent. Et respect à l’égard des volontaires, qui sont assurés de voir leur travail utilisé pendant de nombreuses années, si ce n’est pour plusieurs générations. Le suivi régulier du projet est assuré grâce à une lettre d’information hebdomadaire et mensuelle, des forums de discussion, des wikis et des blogs.

En juillet 2011, pour son quarantième anniversaire, le Projet Gutenberg compte 36.000 livres numériques, des dizaines de milliers de téléchargements par jour, des sites web aux États-Unis, en Australie, en Europe et au Canada et 40 sites miroirs répartis sur toute la planète.

Quarante ans après les débuts du Projet Gutenberg, Michael Hart se définit toujours comme un fou de travail dédiant toute sa vie à son projet, qu’il voit comme étant à l’origine d’une révolution néo- industrielle. Il se définit aussi comme altruiste, pragmatique et visionnaire. Après avoir été traité de toqué pendant de nombreuses années, il force maintenant le respect.

Michael précise souvent dans ses écrits que, si Gutenberg a permis à chacun d'avoir ses propres livres - jusque-là réservés à une élite - pour un coût relativement modique, le Projet Gutenberg permet à chacun d'avoir une bibliothèque complète gratuite - jusque-là réservée à une collectivité -, sur un support qu'on peut glisser dans sa poche (ou porter en pendentif autour du cou). Les collections du Projet Gutenberg ont la taille d'une bibliothèque publique de quartier, mais cette fois disponible sur le web et téléchargeable par tous.

Au fil des ans, la mission du Projet Gutenberg reste la même, à savoir changer le monde par le biais de l’ebook gratuit indéfiniment reproductible, et favoriser ainsi la lecture et la culture pour tous à moindres frais.

1974 > LES DÉBUTS DE L'INTERNET

[Résumé] L'internet, embryonnaire en 1971, naît en 1974, quinze ans avant le web. Vinton Cerf est souvent appelé le père de l'internet parce qu'il est le co-auteur en 1974 avec Bob Kahn du protocole TCP/IP (Transmission Control Protocol / Internet Protocol) nécessaire au bon fonctionnement du réseau. L’internet est d’abord mis en place aux États-Unis pour relier les agences gouvernementales, les universités et les centres de recherche, avant de débuter sa progression mondiale en 1983. L’internet trouve ensuite un nouveau souffle avec l'invention du web par Tim Berners-Lee en 1990 puis le lancement du premier navigateur Mosaic en 1993. Vinton Cerf fonde l'Internet Society (ISOC) en 1992 pour promouvoir le développement du réseau. Il explique en janvier 1998 lors d’un entretien avec le quotidien Libération: «Le réseau fait deux choses (…): comme les livres, il permet d'accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d'autres informations. Alors que, dans un livre, l'information est maintenue isolée.»

***

L'internet, embryonnaire en 1971, naît en 1974 suite à l’invention du protocole TCP/IP (Transmission Control Protocol / Internet Protocol) par Vinton Cerf et Bob Kahn pour les échanges de données, quinze ans avant l’invention du web.

# Les premiers pas

Vinton Cerf est souvent appelé le père de l'internet parce qu'il est le co-auteur en 1974 (avec Bob Kahn) du protocole TCP/IP (Transmission Control Protocol / Internet Protocol) nécessaire au bon fonctionnement du réseau. L’internet est d’abord mis en place aux États-Unis pour relier les agences gouvernementales, les universités et les centre de recherche, avant de débuter sa progression mondiale en 1983. Il trouve ensuite un nouveau souffle avec l'invention du web par Tim Berners-Lee en 1990 puis le lancement du premier navigateur Mosaic en 1993.

Vinton Cerf fonde l'Internet Society (ISOC) en 1992 pour promouvoir le développement du réseau. Il explique en janvier 1998 lors d’un entretien avec le quotidien Libération: «Le réseau fait deux choses (…): comme les livres, il permet d'accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d'autres informations. Alors que, dans un livre, l'information est maintenue isolée.»

Le web étant facile d’utilisation grâce aux liens hypertextes reliant les documents entre eux, l’internet peut enfin être utilisé par le grand public dans les années 1990, et pas seulement par les usagers versés dans l’informatique. On compte 100 millions d’usagers en décembre 1997, avec un million de nouveaux usagers par mois, et 300 millions d’usagers en décembre 2000.

# La situation en Europe

En ce qui concerne la connexion à l’internet, les choses sont moins faciles en Europe qu’en Amérique du Nord. La connexion est d'abord tarifée à la durée, avec un tarif de jour très élevé et un tarif de nuit plus intéressant, d’où l’obligation de travailler la nuit pour éviter les factures trop élevées. Des mouvements de grève sont lancés fin 1998 et début 1999 en France, en Italie et en Allemagne dans le but de faire pression sur les sociétés prestataires pour qu'elles baissent leurs prix et qu'elles proposent des forfaits internet, avec gain de cause les mois suivants.

Quelques années plus tard, le haut débit se généralise. Jean-Paul, webmestre du site hypermédia cotres.net, résume la situation en janvier 2007: «J’ai l’impression que nous vivons une période "flottante", entre les temps héroïques, où il s’agissait d’avancer en attendant que la technologie nous rattrape, et le futur, où le très haut débit va libérer les forces qui commencent à bouger, pour l’instant dans les seuls jeux.»

# L’internet du futur

L’internet du futur pourrait être un réseau pervasif permettant de se connecter en tout lieu et à tout moment sur tout type d’appareil à travers un réseau unique et omniprésent.

Le concept de réseau pervasif est développé par Rafi Haladjian, fondateur de la société Ozone. Comme expliqué sur le site web en 2007, «la nouvelle vague touchera notre monde physique, notre environnement réel, notre vie quotidienne dans tous les instants. Nous n’accéderons plus au réseau, nous l’habiterons. Les composantes futures de ce réseau (parties filiaires, parties non filiaires, opérateurs) seront transparentes à l’utilisateur final. Il sera toujours ouvert, assurant une permanence de la connexion en tout lieu. Il sera également agnostique en terme d’application(s), puisque fondé sur les protocoles mêmes de l’internet.» Nous attendons cela avec impatience.

Quant au contenu de l’internet, Timothy Leary, philosophe visionnaire, le décrit ainsi dans son livre «Chaos et cyberculture?», publié en 1994: «Toute l’information du monde est à l’intérieur. Et grâce au cyberespace, tout le monde peut y avoir accès. Tous les signaux humains contenus jusque-là dans les livres ont été numérisés. Ils sont enregistrés et disponibles dans ces banques de données, sans compter tous les tableaux, tous les films, toutes les émissions de télé, tout, absolument tout.» En 2011, nous n’en sommes pas encore là, mais les choses sont en bonne voie.

1986 > DES EXTENSIONS POUR L'ASCII

[Résumé] Avec le développement de l’internet hors de la sphère anglophone, communiquer uniquement en anglais devient insuffisant, d’où la nécessité de prendre en compte les caractères accentués d’autres langues européennes. Publié par l'American National Standards Institute (ANSI) en 1963, l'ASCII (American Standard Code for Information Interchange) est le premier système d'encodage. Il s'agit d'un code standard de 128 caractères traduits en langage binaire sur sept bits (A est traduit par «1000001», B est traduit par «1000010», etc.). L'ASCII permet uniquement la lecture de l'anglais (et du latin). Des variantes de l'ASCII sur huit bits sont publiées à partir de 1986 pour prendre en compte les caractères accentués de quelques langues européennes. La variante pour le français, l’espagnol et l’allemand (entre autres) est la norme ISO 8859-1 (Latin-1). Mais les problèmes sont loin d’être résolus. Pour cela, il faudra attendre l’Unicode, nouveau système d’encodage universel dont la première version est publiée en janvier 1991.

***

Avec le développement de l’internet hors de la sphère anglophone, communiquer uniquement en anglais devient insuffisant, d’où la nécessité de prendre en compte les caractères accentués de plusieurs langues européennes.

# L’ASCII sur 7 bits

Le premier système d'encodage informatique est l’ASCII (American Standard Code for Information Interchange). Publié en 1963 aux États- Unis par l’American National Standards Institute (ANSI), l'ASCII est un code standard de 128 caractères traduits en langage binaire sur sept bits (A est traduit par «1000001», B est traduit par «1000010», etc.). Les 128 caractères comprennent 33 caractères de contrôle (qui ne représentent donc pas de symbole écrit) et 95 caractères imprimables: les 26 lettres sans accent en majuscules (A-Z) et minuscules (a-z), les chiffres, les signes de ponctuation et quelques caractères spéciaux, le tout correspondant aux touches du clavier anglophone.

# L’ASCII sur 8 bits

L'ASCII permet uniquement la lecture de l’anglais (et du latin). L’ASCII ne permet donc pas de prendre en compte les lettres accentuées présentes dans bon nombre de langues européennes (français, espagnol, allemand, etc.), tout comme les langues disposant d’autres alphabets (arabe, grec, russe, etc.) et à plus forte raison les langues non alphabétiques (chinois, coréen, japonais, etc.). Ceci ne pose pas de problème majeur les premières années, tant que l’échange de fichiers électroniques se limite surtout à l’Amérique du Nord. Mais le multilinguisme devient bientôt une nécessité vitale. Des variantes de l’ASCII sur huit bits sont publiées à partir de 1986 pour prendre en compte les caractères accentués de quelques langues européennes. La variante pour le français, l’espagnol et l’allemand (entre autres) est la norme ISO 8859-1 (ISO Latin-1).

# Un casse-tête

Avec le développement de l’internet, l’échange des données s’internationalise encore davantage. Même avec des variantes de l’ASCII, on ne peut décidément plus se limiter à l’utilisation d’un système d’encodage datant des débuts de l’informatique. De plus, le passage de l’ASCII original à ses différentes variantes devient vite un véritable casse-tête, y compris au sein de l’Union européenne, les problèmes étant entre autres la multiplication des variantes, la corruption des données dans les échanges informatiques ou encore l’incompatibilité des systèmes, les pages ne pouvant être affichées que dans une seule langue à la fois.

Olivier Gainon, fondateur de CyLibris et pionnier de l’édition électronique littéraire, écrit à ce sujet en décembre 2000: «Il faut que le réseau respecte les lettres accentuées, les lettres spécifiques, etc. Je crois très important que les futurs protocoles permettent une transmission parfaite de ces aspects - ce qui n’est pas forcément simple (dans les futures évolutions de l’HTML ou des protocoles IP, etc.). Donc il faut que chacun puisse se sentir à l’aise avec l’internet et que ce ne soit pas simplement réservé à des (plus ou moins) anglophones. Il est anormal aujourd’hui que la transmission d’accents puisse poser problème dans les courriers électroniques. La première démarche me semble donc une démarche technique. Si on arrive à faire cela, le reste en découle: la représentation des langues se fera en fonction du nombre de connectés, et il faudra envisager à terme des moteurs de recherche multilingues.»

# L’Unicode

Publié pour la première fois en janvier 1991, l’Unicode est un système d'encodage universel sur 16 bits spécifiant un nombre unique pour chaque caractère. Ce nombre est lisible quels que soient la plateforme, le logiciel et la langue utilisés. L’Unicode peut traiter 65.000 caractères uniques et prendre en compte tous les systèmes d’écriture de la planète. L’Unicode est progressivement adopté à partir de 1998. Un énorme travail est en effet nécessaire pour sa prise en compte par tous les logiciels et navigateurs web. Il faudra attendre décembre 2007 pour que l’Unicode supplante l’ASCII sur l’internet.

1990 > LE WEB BOOSTE L’INTERNET

[Résumé] Le World Wide Web est inventé en 1990 par Tim Berners-Lee, alors chercheur au CERN (Centre européen pour la recherche nucléaire) à Genève, en Suisse. En 1989, il met au point l'hypertexte pour relier des documents entre eux. En 1990, il met au point le premier serveur HTTP (HyperText Transfer Protocol) et le premier navigateur web. En 1991, le web est opérationnel et rend l'internet (qui existe depuis 1974) accessible à tous et pas seulement aux usagers versés dans l’informatique. Des liens hypertextes permettent désormais de passer d'un document textuel ou visuel à un autre au moyen d'un simple clic de souris. Plus tard, cette interactivité est encore accrue avec la possibilité de liens hypermédias permettant de lier des textes et des images à des vidéos ou bandes sonores. Le World Wide Web Consortium (W3C) est fondé en octobre 1994 pour développer les protocoles communs du web.

***

Le World Wide Web est inventé en 1990 par Tim Berners-Lee, chercheur au
CERN (Centre européen pour la recherche nucléaire) à Genève, en Suisse.
Le web rend l’internet accessible à tous et lui permet une progression
exponentielle.

# Les débuts du web

En 1989, Tim Berners-Lee met au point l’hypertexte pour relier des documents entre eux. En 1990, il met au point le premier serveur HTTP (HyperText Transfer Protocol) et le premier navigateur web. En 1991, le World Wide Web est opérationnel et rend l'internet (qui existe depuis 1974) accessible à tous et pas seulement aux usagers versés dans l’informatique. Des liens hypertextes permettent désormais de passer d'un document textuel à un autre au moyen d'un clic de souris. Plus tard, cette interactivité est encore accrue avec la possibilité de liens hypermédias permettant de lier textes et images fixes à des vidéos ou bandes sonores.

Mosaic est le premier navigateur destiné au grand public. Développé par le NSCA (National Center for Supercomputing Applications) à l'Université de l'Illinois (États-Unis) et distribué gratuitement en novembre 1993, il contribue largement au développement rapide du web. Début 1994, une partie de l'équipe de Mosaic émigre dans la Netscape Communications Corporation pour développer un nouveau logiciel sous le nom de Netscape Navigator. En 1995, Microsoft lance son propre navigateur, l'Internet Explorer. Viennent ensuite d'autres navigateurs, comme Opera ou Safari, le navigateur d'Apple.

Un consortium industriel international est fondé en octobre 1994 pour développer les protocoles communs du web, sous le nom de World Wide Consortium (W3C) et sous l’égide de Tim Berners-Lee. En 1997, une section Internationalization / Localization regroupe les protocoles utilisés pour créer un site web multilingue: HTML (HyperText Markup Language), jeux (de base) de caractères, nouveaux attributs, HTTP (HyperText Transfer Protocol), négociation de la langue, URL (Uniform Resource Locator) et autres identificateurs incluant des caractères non ASCII, conseils divers.

# Le rêve de Tim Berners-Lee

À la question de Pierre Ruetschi, journaliste à la Tribune de Genève, quotidien suisse: «Sept ans plus tard, êtes-vous satisfait de la façon dont le web a évolué?», Tim Berners-Lee répond en décembre 1997 que, s’il est heureux de la richesse et de la variété de l’information disponible, le web n’a pas encore la puissance prévue dans sa conception d’origine. Il aimerait «que le web soit plus interactif, que les gens puissent créer de l’information ensemble», et pas seulement consommer celle qui leur est proposée. Le web doit devenir «un média de collaboration, un monde de connaissance que nous partageons».

Dans un essai publié en avril 1998 sur sa propre page web (sur le site du World Wide Web Consortium), Tim Berners-Lee explique que «le rêve derrière le web est un espace d'information commun dans lequel nous communiquons en partageant l'information. Son universalité est essentielle, à savoir le fait qu'un lien hypertexte puisse pointer sur quoi que ce soit, quelque chose de personnel, de local ou de global, aussi bien une ébauche qu'une réalisation très sophistiquée. Deuxième partie de ce rêve, le web deviendrait d'une utilisation tellement courante qu'il serait un miroir réaliste (sinon la principale incarnation) de la manière dont nous travaillons, jouons et nouons des relations sociales. Une fois que ces interactions seraient en ligne, nous pourrions utiliser nos ordinateurs pour nous aider à les analyser, donner un sens à ce que nous faisons, et voir comment chacun trouve sa place et comment nous pouvons mieux travailler ensemble.» (extrait de «The World Wide Web: a very short personal history»)

# Le web 2.0

Selon Netcraft, société spécialisée dans les mesures d’audience, le nombre de sites web passe d’un million de sites en avril 1997 à dix millions de sites en février 2000, 20 millions de sites en septembre 2000, 30 millions de sites en juillet 2001, 40 millions de sites en avril 2003, 50 millions de sites en mai 2004, 60 millions de sites en mars 2005, 70 millions de sites en août 2005, 80 millions de sites en avril 2006, 90 millions de sites en août 2006 et 100 millions de sites en novembre 2006, une augmentation rapide qui s’explique par l’explosion des sites personnels et des blogs.

Le web 2.0, termé lancé en 2004 par Tim O’Reilly, éditeur de livres informatiques, apporte peut-être un début de réponse au rêve de Tim Berners-Lee puisqu’il est basé sur les notions de communauté et de partage.

Quinze ans après la création du web, le magazine Wired constate dans son numéro d'août 2005 que «moins de la moitié du web est commercial, le reste fonctionne avec la passion». Quant à l'internet, d'après le quotidien Le Monde du 19 août 2005, «ses trois pouvoirs - l'ubiquité, la variété et l'interactivité - rendent son potentiel d'usages quasi infini».

Robert Beard, professeur de langues et créateur du site A Web of Online Dictionaries en 1995, écrivait de manière prémonitoire dès septembre 1998: «Le web sera une encyclopédie du monde faite par le monde pour le monde. Il n'y aura plus d'informations ni de connaissances utiles qui ne soient pas disponibles, si bien que l'obstacle principal à la compréhension internationale et interpersonnelle et au développement personnel et institutionnel sera levé. Il faudrait une imagination plus débordante que la mienne pour prédire l'effet de ce développement sur l'humanité.»

1991 > L'UNICODE, SYSTÈME D'ENCODAGE UNIVERSEL

[Résumé] L’ASCII, premier système d’encodage datant des débuts de l’informatique, n’est plus suffisant avec l’internationalisation de l’internet, d’où l’intérêt de l’Unicode, nouveau système d’encodage universel, dont la première version est publiée en janvier 1991. L'Unicode spécifie un nombre sur 16 bits unique à chaque caractère (ou idéogramme) et lisible quels que soient la plateforme, le logiciel et la langue utilisés. L'Unicode peut traiter 65.000 caractères et prendre en compte tous les systèmes d'écriture de la planète. Il devient une composante des spécifications du World Wide Web Consortium (W3C), l'organisme international chargé du développement du web. L’utilisation de l’Unicode se généralise à partir de 1998, par exemple pour les fichiers texte sous plateforme Windows (Windows NT, Windows 2000, Windows XP et versions suivantes), qui étaient jusque-là en ASCII. L’Unicode supplante définitivement l’ASCII en décembre 2007.

***

L’ASCII n’est plus suffisant avec l’internationalisation de l’internet, d’où l’intérêt de l’Unicode, nouveau système d’encodage universel, dont la première version est publiée en janvier 1991.

Contrairement à l’ASCII conçu pour l’anglais (et le latin), avec des variantes pour quelques langues supplémentaires, l’Unicode prend en compte toutes les langues de la planète.

# De l’ASCII à l’Unicode

Pour mémoire, le premier système d'encodage informatique est l’ASCII (American Standard Code for Information Interchange), publié en 1963 aux États-Unis par l’American National Standards Institute (ANSI) pour encoder des informations en anglais.

Mais le multilinguisme devient bientôt une nécessité vitale. Des variantes de l’ASCII prennent en compte d’autres langues à partir de 1986. Avec le développement de l’internet, l’échange des données s’internationalise de plus en plus, si bien qu’il n’est plus possible de se limiter à un système d’encodage datant des débuts de l’informatique, même avec ses variantes.

Publié pour la première fois en janvier 1991, l’Unicode est un système d'encodage universel sur 16 bits spécifiant un nombre unique pour chaque caractère (ou idéogramme). Ce nombre est lisible quels que soient la plateforme, le logiciel et la langue utilisés. L’Unicode peut traiter 65.000 caractères uniques et prendre en compte tous les systèmes d’écriture de la planète. À la grande satisfaction des linguistes, il remplace progressivement l’ASCII, avec des variantes UTF-8, UTF-16 et UTF-32 (UTF: Unicode Transformation Format) selon le nombre de bits utilisés pour l’encodage.

L'Unicode est maintenu par l'Unicode Consortium. Il devient une composante des spécifications du World Wide Web Consortium (W3C), fondé en octobre 1994 pour promouvoir le développement du web. L’utilisation de l’Unicode se généralise à partir de 1998, par exemple pour les fichiers texte sous plateforme Windows (Windows NT, Windows 2000, Windows XP et versions suivantes), qui étaient jusque-là en ASCII.

# Une tâche énorme

Mais la tâche s’annonce rude. Patrick Rebollar, professeur de français et de littérature française au Japon et modérateur de la liste de diffusion LITOR (Littérature et ordinateur), précise en janvier 2000: «Il s'agit d'abord d'un problème logiciel. Comme on le voit avec Netscape ou Internet Explorer, la possibilité d'affichage multilingue existe. La compatibilité entre ces logiciels et les autres (de la suite Office de Microsoft, par exemple) n'est cependant pas acquise. L'adoption de la table Unicode devrait résoudre une grande partie des problèmes, mais il faut pour cela réécrire la plupart des logiciels, ce à quoi les producteurs de logiciels rechignent du fait de la dépense, pour une rentabilité qui n'est pas évidente car ces logiciels entièrement multilingues intéressent moins de clients que les logiciels de navigation.»

Luc Dall’Armellina, co-auteur et webmestre d’oVosite, un espace d’écriture hypermédia, écrit en juin 2000: «Les systèmes d’exploitation se dotent peu à peu des kits de langues et bientôt peut-être de polices de caractères Unicode à même de représenter toutes les langues du monde; reste que chaque application, du traitement de texte au navigateur web, emboîte ce pas. Les difficultés sont immenses: notre clavier avec ses ± 250 touches avoue ses manques dès lors qu’il faille saisir des Katakana ou Hiragana japonais, pire encore avec la langue chinoise. La grande variété des systèmes d’écriture de par le monde et le nombre de leurs signes font barrage. Mais les écueils culturels ne sont pas moins importants, liés aux codes et modalités de représentation propres à chaque culture ou ethnie.» Un sentiment prémonitoire puisque l’Unicode ne supplantera l’ASCII qu’en décembre 2007.

1992 > DES RÉPERTOIRES DE TEXTES ÉLECTRONIQUES

[Résumé] Les premiers textes électroniques sont recensés dans les Etext Archives, répertoire créé en 1992 par Paul Southworth, et dans l’E- Zine-List, liste créée en 1993 par John Labovitz. Les premiers titres purement électroniques sont des textes courts de tous ordres, souvent politiques au début, auxquels succèdent les e-zines (electronic zines), rédigés par une personne ou un petit groupe sur des sujets souvent culturels, sans publicité ni profit commercial. Les Etext Archives sont créées en 1992 par Paul Southworth, et hébergées sur le site web de l’Université du Michigan (États-Unis). Elles sont “un lieu d’accueil pour les textes électroniques de tout genre”, sans juger de leur contenu. L’E-Zine-List est créée en été 1993 par John Labovitz. En cinq ans, de 1993 à 1998, les quelques dizaines d'e-zines deviennent plusieurs centaines (3.045 e-zines recensés en novembre 1998). Le champ de l’e-zine s'élargit pour recouvrir tout type de publication publiée par voie électronique.

***

Les premiers textes électroniques sont recensés dans les Etext
Archives, répertoire créé en 1992 par Paul Southworth, et dans l’E-
Zine-List, liste créée en 1993 par John Labovitz.

Les premiers titres purement électroniques sont des textes courts de tous ordres, souvent politiques au début. Viennent ensuite les e-zines (zines électroniques), rédigés par une personne ou un petit groupe sur des sujets souvent culturels.

Qu’est-ce exactement qu’un zine? John explique sur le site: «Pour ceux d’entre vous qui ne connaissent pas le monde du zine, “zine" est l’abrégé de "fanzine" ou "magazine" selon votre point de vue. Les zines sont en général l’oeuvre d’une personne ou d’un petit groupe, souvent rédigée pour le plaisir ou pour des raisons personnelles, et sont le plus souvent irrévérencieux, bizarres et/ou ésotériques. Les zines ne sont pas des publications grand public - le plus souvent ils ne contiennent pas de publicité (sauf parfois des publicités pour d’autres zines), ils ne sont pas dirigés vers une audience de masse et ils ne visent pas un profit commercial. Un "e-zine" est un zine qui est distribué en partie ou uniquement sur des réseaux électroniques tels que l’internet.»

# Les Etext Archives

Les Etext Archives sont créées en 1992 par Paul Southworth, et hébergées par le site web de l’Université du Michigan (États-Unis). Elles sont «un lieu d’accueil pour les textes électroniques de tout genre, du sacré au profane, et du politique au personnel», sans juger de leur contenu.

Cinq ans plus tard, elles comportent six sections: (a) une section «E- zines», qui regroupe des textes électroniques périodiques qui vont du professionnel au personnel; (b) une section «Politics», qui regroupe des zines politiques, des essais et des pages de groupes politiques; (c) une section «Fiction», qui regroupe des publications d’auteurs amateurs; (d) une section «Religion», qui regroupe des textes religieux grand public ou non; (e) une section «Poetry», qui est un mélange éclectique de poésie surtout amateur; et enfin (f) une section «Quartz», qui comprend les archives auparavant hébergées à quartz.rutgers.edu.

Comme indiqué à l’époque sur le site, “le web venait de débuter [en 1992], le gopher était la nouvelle technologie de pointe et le FTP était encore le protocole standard d’extraction de l’information pour la grande majorité des utilisateurs. L’origine du projet a incité de nombreuses personnes à l’associer avec l’Université du Michigan, bien qu’il n’ait existé aucune relation officielle et que le projet soit entièrement le fait du travail des volontaires et de dons personnels. Le matériel est la propriété exclusive des responsables du projet. Le projet a été lancé en réponse à l’absence d’archivage organisé de documents politiques, de périodiques et de discussions diffusées par le biais de Usenet sur des newsgroups tels que alt.activism, misc.activism.progressive et alt.society.anarchy. Le groupe alt.politics.radical-left a rejoint le projet plus tard et il était aussi une source importante de documents et de contributeurs réguliers. Peu de temps après, les zines électroniques (e-zines) ont débuté leur prolifération rapide sur l’internet, et il était clair que ces publications souffraient de la même absence de collecte coordonnée et de préservation, sans parler du fait que la frontière était floue entre les e-zines (qui à l’époque était surtout liés au hacking, au phreaking et à l’anarchisme internet) et les documents politiques présents sur l’internet, si bien que la plupart des e-zines étaient en phase avec l’objectif original des Etext Archives. Une chose en amenant une autre, des e-zines de toutes sortes - dont de nombreux titres sur divers sujets culturels non liés à la politique - ont fini par envahir nos archives en volume significatif.”

# L’E-Zine-List

L’E-Zine-List est créée en été 1993 par John Labovitz pour recenser les e-zines circulant dans le monde entier et accessibles par FTP (File Transfer Protocol), gopher (système d’information à base de menus textuels à plusieurs niveaux), courriel, le web ou d’autres services. La liste est actualisée une fois par mois.

Comment l’E-Zine-List débute-t-elle? Dans l’historique présent sur le site, John relate qu’à l’origine son intention est de faire connaître Crash, un zine imprimé dont il souhaite proposer une version électronique. À la recherche de répertoires, il ne trouve que le groupe de discussion alt.zines et des archives comme The Well et les Etext Archives. Lui vient alors l’idée d’un répertoire organisé. Il débute avec douze titres classés manuellement sur un traitement de texte. Puis il écrit sa propre base de données.

En cinq ans, de 1993 à 1998, les quelques dizaines d'e-zines deviennent plusieurs centaines, et la signification même d’e-zine s’élargit pour recouvrir tout type de publication publiée par voie électronique, même si, selon John, «il subsiste toujours un groupe original et indépendant désormais minoritaire qui continue de publier suivant son coeur ou de repousser les frontières de ce que nous appelons un zine.» L’E-Zine- List recense 3.045 titres en novembre 1998. John poursuit encore la liste pendant quelques années avant de passer le relais à d’autres.

1993 > L'ONLINE BOOKS PAGE, LISTE DE LIVRES EN LIGNE

[Résumé] Alors que certains numérisent les oeuvres littéraires du domaine public, comme le Projet Gutenberg et des projets connexes, d'autres se donnent pour tâche de répertorier celles qui sont en accès libre sur le web, en offrant au lecteur un point d’accès commun. C’est le cas de John Mark Ockerbloom, doctorant à l’Université Carnegie Mellon (Pittsburgh, Pennsylvanie, États-Unis), qui crée l’Online Books Page en janvier 1993 afin de recenser les livres anglophones du domaine public en accès libre sur le web. En 1999, il rejoint l’Université de Pennsylvanie pour travailler à la R&D (recherche et développement) de la bibliothèque numérique. À la même époque, il y transfère l'Online Books Page tout en gardant la même présentation, très sobre, et tout en poursuivant son travail d’inventaire dans le même esprit. Ce répertoire recense 12.000 titres en 1999, 20.000 titres en 2003 (dont 4.000 titres publiés par des femmes), 25.000 titres en 2006, 30.000 titres en 2007 (dont 7.000 titres du Projet Gutenberg) et 35.000 titres en 2010.

***

L’Online Books Page est une page web créée en janvier 1993 pour recenser les livres anglophones du domaine public en accès libre sur le web.

Alors que certains numérisent les oeuvres littéraires du domaine public, comme le Projet Gutenberg et des projets connexes, d'autres se donnent pour tâche de répertorier celles qui sont en accès libre sur le web, en offrant au lecteur un point d’accès commun. C’est le cas de John Mark Ockerbloom, doctorant à l’Université Carnegie Mellon (Pittsburgh, Pennsylvanie, États-Unis), auteur de l’Online Books Page.

Cinq ans plus tard, en septembre 1998, John Mark relate: «J’étais webmestre ici pour la section informatique de la CMU [Carnegie Mellon University], et j’ai débuté notre site local en 1993. Il comprenait des pages avec des liens vers des ressources disponibles localement, et à l’origine l’Online Books Page était l’une de ces pages, avec des liens vers des livres mis en ligne par des collègues de notre département (par exemple Robert Stockton, qui a fait des versions web de certains textes du Projet Gutenberg). Ensuite les gens ont commencé à demander des liens vers des livres disponibles sur d’autres sites. J’ai remarqué que de nombreux sites (et pas seulement le Projet Gutenberg ou Wiretap) proposaient des livres en ligne, et qu’il serait utile d’en avoir une liste complète qui permette de télécharger ou de lire des livres où qu’ils soient sur l’internet. C’est ainsi que mon index a débuté.

J’ai quitté mes fonctions de webmestre en 1996, mais j’ai gardé la gestion de l’Online Books Page, parce qu’entre temps je m’étais passionné pour l’énorme potentiel qu’a l’internet de rendre la littérature accessible au plus grand nombre. Maintenant il y a tant de livres mis en ligne que j’ai du mal à rester à jour. Je pense pourtant poursuivre cette activité d’une manière ou d’une autre. Je suis très intéressé par le développement de l’internet en tant que médium de communication de masse dans les prochaines années. J’aimerais aussi rester impliqué dans la mise à disposition gratuite de livres sur l’internet, que ceci fasse partie intégrante de mon activité professionnelle, ou que ceci soit une activité bénévole menée sur mon temps libre.»

En 1998, un index de 7.000 livres en ligne est disponible par auteur, par titre et par sujet. On trouve aussi une liste de répertoires et d’archives de textes en ligne, tout comme une liste de répertoires de publications périodiques (magazines, journaux, revues, périodiques scientifiques).

Fin 1998, John Mark obtient son doctorat en informatique. En 1999, il rejoint l’Université de Pennsylvanie, où il travaille à la R&D (recherche et développement) de la bibliothèque numérique. À la même époque, il y transfère l’Online Books Page tout en gardant la même présentation, très sobre, et tout en poursuivant son travail d’inventaire dans le même esprit. Ce répertoire recense 12.000 titres en 1999, 20.000 titres en 2003 (dont 4.000 titres publiés par des femmes), 25.000 titres en 2006, 30.000 titres en 2007 (dont 7.000 titres du Projet Gutenberg) et 35.000 titres en 2010.

1993 > LE FORMAT PDF, LANCÉ PAR ADOBE

[Résumé] La société Adobe lance en juin 1993 le format PDF (Portable Document Format), l’Acrobat Reader (gratuit, pour lire les PDF) et l’Adobe Acrobat (payant, pour créer des PDF). Le but du format PDF est de figer les documents numériques dans une présentation donnée, pour conserver la présentation originale du document source, quelle que soit la plateforme utilisée pour le créer et pour le lire. Au fil des ans, le format PDF devient un standard de diffusion des documents électroniques. L'Acrobat Reader est progressivement disponible dans plusieurs langues, pour diverses plateformes (Windows, Mac, Linux) et pour divers supports (ordinateur, PDA, smartphone). En mai 2003, l'Acrobat Reader (5e version) fusionne avec l'Acrobat eBook Reader (2e version) pour devenir l'Adobe Reader, qui débute à la version 6 et qui permet de lire aussi bien les fichiers PDF standard que les fichiers PDF sécurisés des livres numériques sous droits. De format propriétaire, le format PDF devient un standard ouvert en juillet 2008, tout comme une norme ISO (ISO 32000-1:2008).

***

De la côte californienne, la société Adobe lance en juin 1993 le format PDF (Portable Document Format), tout comme l’Acrobat Reader (gratuit, pour lire les PDF) et l’Adobe Acrobat (payant, pour créer des PDF).

# Un standard de diffusion

Le but du format PDF est de figer les documents numériques dans une présentation donnée, pour conserver la présentation originale du document source, quelle que soit la plateforme utilisée pour le créer et pour le lire. Au fil des ans, le format PDF devient un standard de diffusion des documents électroniques. L’Acrobat Reader est progressivement disponible dans plusieurs langues et pour diverses plateformes (Windows, Mac, Linux).

Adobe annonce en août 2000 l’acquisition de la société Glassbook, spécialisée dans les logiciels de distribution de livres numériques à l'intention des éditeurs, libraires, diffuseurs et bibliothèques. À la même date, Adobe passe un partenariat avec les grandes librairies en ligne Amazon.com et Barnes & Noble.com pour que celles-ci proposent des titres lisibles sur l’Acrobat Reader et le Glassbook Reader dans leur eBookStore, lancé en août 2000 par Barnes & Noble et en novembre 2000 par Amazon.

# Deux nouveaux logiciels

En janvier 2001, Adobe lance deux nouveaux logiciels.

Le premier logiciel, gratuit, est l’Acrobat eBook Reader, qui permet de lire les fichiers PDF de livres numériques sous droits, avec gestion des droits par l’Adobe Content Server. Le logiciel permet d’ajouter des notes et des signets, de choisir l’orientation de lecture des livres (paysage ou portrait), ou encore de visualiser leur couverture dans une bibliothèque personnelle. Il utilise la technique d’affichage CoolType et comporte un dictionnaire intégré.

Le deuxième logiciel, payant, est l’Adobe Content Server, destiné aux éditeurs et distributeurs. Il s’agit d’un logiciel serveur de contenu assurant le conditionnement, la protection, la distribution et la vente sécurisée de livres numériques au format PDF. Ce système de gestion des droits numériques (ou système DRM: Digital Rights Management) permet de contrôler l’accès aux livres numériques sous droits, et donc de gérer les droits d’un livre selon les consignes données par le gestionnaire des droits, qui est souvent l’éditeur, par exemple en autorisant ou non l’impression ou le prêt. L’Adobe Content Server sera remplacé par l’Adobe LiveCycle Policy Server en novembre 2004.

En avril 2001, Adobe passe un deuxième partenariat avec Amazon, qui met en vente 2.000 livres numériques lisibles sur l’Acrobat eBook Reader: titres de grands éditeurs, guides de voyages, livres pour enfants, etc.

L'Acrobat Reader s'enrichit d'une version PDA, disponible pour le Palm Pilot en mai 2001 puis pour le Pocket PC en décembre 2001, puisque le public commence à lire sur PDA, suscitant l’inquiétude de certains professionnels du livre (et de certains ophtalmologues) qui trouvent que l’écran est vraiment trop petit, alors que les adeptes de la lecture sur PDA tentent de les convaincre du contraire.

# L’Adobe Reader

En dix ans, entre 1993 et 2003, l’Acrobat Reader aurait été téléchargé 500 millions de fois. En 2003, ce logiciel est désormais disponible dans de nombreuses langues et pour toute plateforme (Windows, Mac, Linux, Palm OS, Pocket PC, Symbian OS, etc.). 10% des documents présents sur l'internet seraient au format PDF. Des millions de fichiers PDF sont présents sur le web pour lecture et téléchargement ou bien transitent par courriel. Le format PDF est également le format de livre numérique le plus répandu.

En mai 2003, l’Acrobat Reader (version 5) fusionne avec l’Acrobat eBook Reader (version 2) pour devenir l’Adobe Reader, qui débute à la version 6 et permet de lire aussi bien les fichiers PDF standard que les fichiers PDF sécurisés des livres numériques sous droits.

Fin 2003, Adobe ouvre sa librairie en ligne, le Digital Media Store, avec les titres au format PDF de grands éditeurs tels que HarperCollins Publishers, Random House et Simon & Schuster, ainsi que les versions électroniques de journaux et magazines comme le New York Times et Popular Science. Adobe lance aussi Adobe eBooks Central, un service permettant de lire, publier, vendre et prêter des livres numériques, et l’Adobe eBook Library, qui se veut un prototype de bibliothèque de livres numériques.

Après avoir été un format propriétaire, le format PDF devient un standard ouvert en juillet 2008. Il est publié en tant que norme ISO (Organisation internationale de normalisation) sous l’appellation ISO 32000-1:2008.

1994 > L’INTERNET COMME OUTIL DE MARKETING

[Résumé] Aussi bizarre que cela puisse paraître, des livres numériques en accès libre favorisent la vente des mêmes livres imprimés. La National Academy Press (NAP) décide en 1994 de mettre en accès libre sur le web le texte intégral de plusieurs centaines de livres, avec l'accord de leurs auteurs, afin que les lecteurs puissent les «feuilleter» à l'écran, comme ils l'auraient fait dans une librairie. L'éditeur utilise l’internet comme nouvel outil de marketing, avec un pari gagné, puisque la présence de ces livres sur le web entraîne une augmentation de la vente des mêmes livres imprimés. La solution choisie par la NAP est adoptée dès 1995 par la MIT Press (MIT: Massachusetts Institute of Technology), avec un succès similaire. Les autres maisons d'édition hésitent à se lancer dans l'aventure, pour trois raisons: le coût excessif qu'entraîne la mise en ligne de milliers de pages, les problèmes liés au droit d'auteur, et enfin la peur d'une «concurrence» entre les versions numériques gratuites et les versions imprimées payantes, qu'ils estiment nuisible aux ventes.

***

Aussi bizarre que cela puisse paraître, des livres numériques en accès libre favorisent la vente des mêmes livres imprimés. La National Academy Press (NAP) est la première à tenter l’expérience, dès 1994, avec un pari gagné.

La publication en ligne d’un livre à titre gratuit nuit-elle aux ventes de la version imprimée ou non? «À première vue, cela paraît illogique», écrit Beth Berselli, journaliste au Washington Post, dans un article repris par le Courrier international de novembre 1997. «Un éditeur de Washington, la National Academy Press (NAP), qui a publié sur internet 700 titres de son catalogue actuel, permettant ainsi à tout un chacun de lire gratuitement ses livres, a vu ses ventes augmenter de 17% l’année suivante. Qui a dit que personne n’achèterait la vache si on pouvait avoir le lait gratuitement?»

# La politique atypique de la NAP

Une politique atypique porte donc ses fruits. Éditeur universitaire, la National Academy Press (qui devient ensuite la National Academies Press) publie environ 200 livres par an, surtout des ouvrages scientifiques et techniques et des ouvrages médicaux. En 1994, l'éditeur choisit de mettre en accès libre sur le web le texte intégral de plusieurs centaines de livres, afin que les lecteurs puissent les «feuilleter» à l’écran, comme ils l’auraient fait dans une librairie, avant de les acheter ensuite si utile.

Ce sont les auteurs eux-mêmes qui, pour mieux faire connaître leurs livres, demandent que ceux-ci soient mis en ligne sur le site, avec succès, puisque les ventes augmentent pour leurs correspondants imprimés.

Pour l’éditeur, l’internet est un nouvel outil de marketing face aux 50.000 ouvrages publiés chaque année aux États-Unis. Une réduction de 20% est accordée pour toute commande effectuée en ligne. La présence de ces livres sur le web entraîne aussi une augmentation des ventes par téléphone. En 1998, le site de la NAP propose le texte intégral d’un millier de titres.

# La MIT Press lui emboîte le pas

La solution choisie par la NAP est adoptée en 1995 par la MIT Press (MIT: Massachusetts Institute of Technology). À cette date, la MIT Press publie 200 livres par an et 40 périodiques, dans divers domaines: sciences et technologies, architecture, sciences sociales, économie, sciences cognitives et informatique. Nombre de livres sont mis en ligne gratuitement sur le site, afin de marquer «un engagement à long terme pour une utilisation efficace et créative des nouvelles technologies». La MIT Press voit rapidement les ventes de livres imprimés augmenter pour les titres disponibles gratuitement en version intégrale sur le web.

Ces initiatives sont saluées par d'autres maisons d'édition, qui hésitent cependant à se lancer dans l'aventure, pour trois raisons: le coût excessif qu'entraîne la mise en ligne de milliers de pages, les problèmes liés au droit d'auteur, et enfin la peur d'une «concurrence» entre les versions numériques gratuites et les versions imprimées payantes, concurrence qu'ils estiment nuisible aux ventes, même si les expériences menées par la NAP et la MIT Press démontrent le contraire.

1994 > ATHENA, BIBLIOTHÈQUE NUMÉRIQUE

[Résumé] Les premières bibliothèques numériques francophones débutent avec la saisie patiente de livres imprimés ligne après ligne sur le clavier d’un ordinateur. C’est le cas d’Athena (Genève), précédée par ABU (Paris) et suivie de la Bibliothèque électronique de Lisieux (Normandie), entre autres. ABU: la bibliothèque universelle (ABU: Association des bibliophiles universels) voit le jour en avril 1993, à l'initiative de l'association du même nom. Ses membres bénévoles dactylographient eux-mêmes des oeuvres francophones du domaine public ou bien les scannent. Athena est une bibliothèque numérique à la fois francophone et multilingue créée en 1994 par Pierre Perroud, professeur à Genève. La Bibliothèque électronique de Lisieux est créée en juin 1996 par Olivier Bogros, directeur de la médiathèque municipale de Lisieux, avec 370 textes courts numérisés en juillet 1999.

***

Les premières bibliothèques numériques francophones débutent avec la saisie patiente de livres imprimés ligne après ligne sur le clavier d’un ordinateur.

C’est le cas d’Athena (Genève), précédée par ABU (Paris) et suivie de la Bibliothèque électronique de Lisieux (Normandie), entre autres.

# ABU: la bibliothèque universelle

La toute première bibliothèque numérique française à voir le jour est ABU: la bibliothèque universelle. Elle est créée en juin 1993 à l'initiative de l’Association des bibliophiles universels (ABU) et hébergée sur le site du CNAM (Conservatoire national des arts et métiers) à Paris. Ses membres bénévoles dactylographient eux-mêmes des oeuvres francophones du domaine public ou bien les scannent. En janvier 2002, les collections comprennent 288 textes de 101 auteurs. Il ne semble pas que d'autres textes aient été ajoutés depuis.

# Athena, francophone et plurilingue

Athena est une bibliothèque numérique fondée en 1994 par Pierre Perroud, professeur au collège Voltaire à Genève (Suisse), et hébergée sur le site de l'Université de Genève. Elle propose à la fois des oeuvres numérisées par Athena (200 oeuvres depuis 1994) et des liens vers des oeuvres en accès libre sur le web.

En 1997, le site bilingue français-anglais donne accès à 3.500 textes électroniques dans des domaines aussi variés que la philosophie, les sciences, la période classique, la littérature, l'histoire, l'économie, etc. En décembre 1998, la bibliothèque offre des liens vers 8.000 textes électroniques en plusieurs langues.

Un des objectifs d'Athena est de mettre en ligne des textes de langue française (French Authors and Texts) puisque Genève est la capitale de la Suisse francophone. Une section spécifique regroupe les auteurs et textes suisses (Swiss Authors and Texts). On trouve aussi un répertoire mondial de ressources littéraires en ligne (Athena Literature Resources). Par ailleurs, Athena propose une table de minéralogie qui est l'oeuvre de Pierre Perroud et qui est consultée dans le monde entier.

Dans un article de la revue Informatique-Informations (Genève) daté de février 1997, Pierre Perroud insiste sur la complémentarité du texte électronique et du livre imprimé. Selon lui, «les textes électroniques représentent un encouragement à la lecture et une participation conviviale à la diffusion de la culture», notamment pour l’étude de ces textes et la recherche textuelle. Ces textes électroniques «sont un bon complément du livre imprimé - celui-ci restant irremplaçable lorsqu’il s’agit de lire.» Mais le livre imprimé reste «un compagnon mystérieusement sacré vers lequel convergent de profonds symboles: on le serre dans la main, on le porte contre soi, on le regarde avec admiration; sa petitesse nous rassure autant que son contenu nous impressionne; sa fragilité renferme une densité qui nous fascine; comme l’homme il craint l’eau et le feu, mais il a le pouvoir de mettre la pensée de celui-là à l’abri du Temps.»

# La Bibliothèque électronique de Lisieux

La Bibliothèque électronique de Lisieux est créée en juin 1996 par Olivier Bogros, directeur de la médiathèque municipale de Lisieux (Normandie), qui l'héberge pendant deux ans sur les pages de son compte personnel CompuServe avant d'enregistrer un nom de domaine en juin 1998.

En juillet 1999, la bibliothèque électronique comprend 370 textes courts, numérisés en mode texte à partir des collections de la médiathèque. On y trouve des oeuvres littéraires, des brochures et des opuscules documentaires, ainsi que des manuscrits, livres et brochures sur la Normandie.

Lancé en août 2000, LexoTor est une base de données fonctionnant avec le logiciel TACTweb (TACT: Text Analysis Computing Tools) et permettant l'interrogation en ligne des oeuvres de la bibliothèque, ainsi que des analyses et comparaisons textuelles. Les collections comprennent 930 oeuvres et 20 galeries d'images en décembre 2006.

1995 > ÉDITEL, ÉDITEUR LITTÉRAIRE NÉ SUR LA TOILE

[Résumé] Éditel est le premier éditeur électronique francophone non commercial. Le site est lancé en avril 1995 sous la houlette de Pierre François Gagnon, poète et essayiste québécois. Pierre François relate en juillet 2000: «En fait, tout le monde et son père savent ou devraient savoir que le premier site d’édition en ligne commercial fut CyLibris [créé en août 1996 à Paris par Olivier Gainon, ndlr], précédé de loin lui-même, au printemps de 1995, par nul autre qu’Éditel, le pionnier d’entre les pionniers du domaine, bien que nous fûmes confinés à l’action symbolique collective, faute d’avoir les moyens de déboucher jusqu’ici sur une formule de commerce en ligne vraiment viable et abordable.» D’abord site pionnier de l'édition littéraire francophone, puis premier site web d'auto-édition collective de langue française, Éditel devient au fil des ans un site de cyberédition non commerciale, en partenariat avec quelques auteurs «maison», ainsi qu'un webzine littéraire. Un blog lui succède quelques années plus tard.

***

Éditel, premier éditeur électronique francophone non commercial, apparaît sur la toile en avril 1995 sous la houlette de Pierre François Gagnon, poète et essayiste québécois.

Pierre François décide d’utiliser le numérique pour la réception des textes, leur archivage et leur diffusion. Il relate en juillet 2000: «En fait, tout le monde et son père savent ou devraient savoir que le premier site d’édition en ligne commercial fut CyLibris [créé en août 1996 à Paris par Olivier Gainon, ndlr], précédé de loin lui-même, au printemps de 1995, par nul autre qu’Éditel, le pionnier d’entre les pionniers du domaine, bien que nous fûmes confinés à l’action symbolique collective, faute d’avoir les moyens de déboucher jusqu’ici sur une formule de commerce en ligne vraiment viable et abordable (…). Nous sommes actuellement trois mousquetaires [Pierre François Gagnon, Jacques Massacrier et Mostafa Benhamza, ndlr] à développer le contenu original et inédit du webzine littéraire qui continuera de servir de façade d’animation gratuite, offerte personnellement par les auteurs maison à leur lectorat, à d’éventuelles activités d’édition en ligne payantes, dès que possible au point de vue technico-financier. Est-il encore réaliste de rêver à la démocratie économique?»

Quant à l’avenir, «tout ce que j'espère de mieux pour le petit éditeur indépendant issu, comme Éditel, directement du net et qui cherche à y émerger enfin, c'est que les nouveaux supports de lecture, ouverts et compatibles grâce au standard OeB (Open eBook), s'imposeront d'emblée comme des objets usuels indispensables, c'est-à-dire multifonctionnels et ultramobiles, intégrant à la fois l'informatique, l'électronique grand public et les télécommunications, et pas plus dispendieux qu'une console de jeux vidéo.»

Quel est son meilleur souvenir lié à l'internet? «La découverte de quelques amitiés affinitaires, indéfectibles, m'enchante encore, tandis que l'étroitesse de vision, le scepticisme négatif qu'affichait la vaste majorité des auteurs de science-fiction et de fantastique vis-à- vis du caractère pourtant immanent et inéluctable de ce qui n'est après tout qu'un fantasme à la Star Trek, qui hante depuis longtemps l'imaginaire collectif, soit l'e-book tout communicant qui tienne dans le creux de la paume, ne cesse pas de m'étonner et de me laisser pantois rétrospectivement.»

Une conclusion? «Je dirai, pour conclure, que je me trouve vraiment fait pour être "éditeur en ligne, poète et essayiste, et peut-être même un jour, romancier"! Fait à noter, c'est curieusement de la part des poètes, toujours visionnaires quand ils sont authentiques, que le concept de livre numérique a reçu le meilleur accueil!»

Après avoir été le premier site web d'auto-édition collective de langue française, Éditel devient un site de cyberédition non commerciale, en partenariat avec quelques auteurs «maison», ainsi qu'un webzine littéraire. Un blog lui succède quelques années plus tard. Le blog prend ensuite la forme d’une vitrine de diffusion web pour quelques livres.

1995 > LA PRESSE IMPRIMÉE SE MET EN LIGNE

[Résumé] La mise en ligne de la presse imprimée à partir de 1995 préfigure la mise en ligne des livres imprimés quelques années plus tard, d'où l'intérêt de ce chapitre. Au début des années 1990, les premières éditions électroniques de journaux sont d’abord disponibles par le biais de services commerciaux tels que America OnLine (AOL) ou CompuServe. Les grands titres de la presse imprimée lancent ensuite leurs propres sites web. En février 1995 est mis en ligne le site web du mensuel Le Monde diplomatique, premier site d'un périodique imprimé français, suivi des sites web de Libération fin 1995 et du Monde et de L'Humanité en 1996. Au Royaume-Uni, le Times et le Sunday Times font web commun sur un site dénommé Times Online. Aux États-Unis, la version en ligne du Wall Street Journal est payante tandis que celle du New York Times est disponible sur abonnement gratuit. Le Washington Post est librement disponible en ligne, tout comme le mensuel Wired.

***

La mise en ligne de la presse imprimée à partir de 1995 préfigure la mise en ligne des livres imprimés quelques années plus tard, d'où l'intérêt de ce chapitre.

Au début des années 1990, les premières éditions électroniques de journaux sont disponibles par le biais de services commerciaux tels que America OnLine (AOL) ou CompuServe. Suite à l'apparition du premier navigateur fin 1993 et à la croissance rapide du web qui s'ensuit, les grands titres de la presse imprimée lancent leurs propres sites web en 1995 et 1996.

# Aux États-Unis

Aux États-Unis, la version en ligne du Wall Street Journal est payante, avec 100.000 abonnés en 1998. Celle du New York Times est disponible sur abonnement gratuit. Le Washington Post propose l’actualité quotidienne en accès libre ainsi que de nombreux articles archivés, le tout avec images, sons et vidéos. Pathfinder (rebaptisé ensuite Time) est le site web du groupe Time-Warner, éditeur de Time Magazine, Sports Illustrated, Fortune, People, Southern Living, Money, Sunset, etc. On peut y lire les articles de ces magazines et les rechercher par date ou par sujet. Lancé en 1992 en Californie, Wired, premier magazine imprimé entièrement consacré à la culture cyber, est bien évidemment présent sur le web.

Au Royaume-Uni, le Times et le Sunday Times font web commun sur un site dénommé Times Online, avec possibilité de créer une édition personnalisée.

# En France

Mis en ligne en février 1995, le site web du mensuel Le Monde diplomatique est le premier site d’un périodique imprimé français. Monté dans le cadre d’un projet expérimental avec l’Institut national de l’audiovisuel (INA), ce site est inauguré lors du forum des images Imagina. Il donne accès à l’ensemble des articles depuis janvier 1994, par date, par sujet et par pays. L’intégralité du mensuel en cours est consultable gratuitement pendant deux semaines suivant sa parution. Un forum de discussion permet au journal de discuter avec ses lecteurs.

Fin 1995, le quotidien Libération met en ligne son site web, peu après le lancement du Cahier Multimédia, un cahier imprimé hebdomadaire inclus dans l’édition du jeudi. Le site propose la Une du quotidien, la rubrique Multimédia (qui regroupe les articles du Cahier Multimédia et les archives des cahiers précédents), le Cahier Livres complété par Chapitre Un (le premier chapitre des nouveautés retenues par le quotidien) et bien d’autres rubriques. La rubrique Multimédia est ensuite rebaptisée Numériques.

Le site du quotidien Le Monde est lancé en 1996. On y trouve des dossiers en ligne, la Une en version graphique à partir de 13 heures, l’intégralité du journal avant 17 heures, l’actualité en liaison avec l’AFP (Agence France-Presse) et des rubriques sur la Bourse, les livres, le multimédia et le sport. En 1998, le journal complet en ligne coûte 5 FF (0,76 euros) alors que le journal imprimé coûte 7,50 FF (1,15 euros). S’ils concernent le multimédia, les articles du supplément imprimé hebdomadaire Télévision-Radio-Multimédia sont disponibles gratuitement en ligne dans la rubrique Multimédia, rebaptisée ensuite Nouvelles technologies.

L’Humanité est le premier quotidien français à proposer la version intégrale du journal en accès libre. Classés par rubriques, les articles sont disponibles entre 10 heures et 11 heures du matin, à l’exception de L’Humanité du samedi, disponible en ligne le lundi suivant. Tous les articles sont archivés sur le site.

# L’internet, «à la fois une menace et une chance»

Quelles sont les retombées de l’internet pour les journalistes? Bernard Boudic, le responsable éditorial du site web du quotidien Ouest-France (site lancé en juillet 1996), explique en juin 1998: «Elles sont encore minces. Nous commençons seulement à offrir un accès internet à chacun (rédaction d’Ouest-France: 370 journalistes répartis dans soixante rédactions, sur douze départements… pas simple). Certains utilisent internet pour la messagerie électronique (courrier interne ou externe, réception de textes de correspondants à l’étranger, envoi de fichiers divers) et comme source d’informations. Mais cette pratique demande encore à s’étendre et à se généraliser. Bien sûr, nous réfléchissons aussi à tout ce qui touche à l’écriture multimédia et à sa rétro-action sur l’écriture imprimée, aux changements d’habitudes de nos lecteurs, etc. (…)

Internet est à la fois une menace et une chance. Menace sur l’imprimé, très certainement (captation de la pub et des petites annonces, changement de réflexes des lecteurs, perte du goût de l’imprimé, concurrence d’un média gratuit, que chacun peut utiliser pour diffuser sa propre info, etc.). Mais c’est aussi l’occasion de relever tous ces défis, de rajeunir la presse imprimée.»

Tous sujets que l'on retrouve quelques années plus tard dans les débuts du livre numérique: rapport accru de l'auteur avec ses lecteurs, version payante et/ou version gratuite, version numérique et/ou version imprimée, etc.

1995 > AMAZON, PIONNIER DU CYBERCOMMERCE

[Résumé] Un nouveau type de librairie naît sur l’internet, avec un site web comme vitrine et des transactions uniquement en ligne, la plus connue étant Amazon. Amazon.com est lancé en juillet 1995 par Jeff Bezos à Seattle, sur la côte ouest des États-Unis. La librairie en ligne débute avec dix salariés et trois millions d'articles. Les vitrines de la librairie sont ses pages web, et toutes les transactions se font via l’internet. Les livres sont stockés dans de gigantesques hangars avant d’être directement envoyés aux clients par courrier postal. En novembre 2000, Amazon compte 7.500 salariés, 28 millions d'articles, 23 millions de clients et quatre filiales au Royaume-Uni (filiale ouverte en octobre 1998), en Allemagne (octobre 1998), en France (août 2000) et au Japon (novembre 2000). Une cinquième filiale est ouverte au Canada (juin 2002), suivie d'une sixième filiale, Joyo, en Chine (septembre 2004). Présent dans sept pays et devenu une référence mondiale du commerce en ligne (avec eBay), Amazon compte 9.000 salariés et 41 millions de clients en juillet 2005.

***

Un nouveau type de librairie naît sur l’internet, avec un site web comme vitrine et des transactions uniquement en ligne, la plus connue étant Amazon.

Sous la houlette de Jeff Bezos, Amazon.com ouvre ses portes «virtuelles» en juillet 1995 avec un catalogue de trois millions de livres - à savoir l’ensemble de la production imprimée disponible à la vente aux États-Unis - et dix salariés basés à Seattle, sur la côte ouest. Les livres sont stockés dans de gigantesques hangars avant d’être directement envoyés aux clients par courrier postal.

# Les débuts

Quinze mois auparavant, au printemps 1994, Jeff Bezos fait une étude de marché pour décider du meilleur produit à vendre sur l’internet. Dans sa liste de vingt produits marchands, qui comprennent entre autres les vêtements et les instruments de jardinage, les cinq premiers du classement se trouvent être les livres, les CD, les vidéos, les logiciels et le matériel informatique.

Jeff Bezos relate en 1997 dans le kit de presse d’Amazon: «J’ai utilisé tout un ensemble de critères pour évaluer le potentiel de chaque produit. Le premier critère a été la taille des marchés existants. J’ai vu que la vente des livres représentait un marché mondial de 82 milliards de dollars US. Le deuxième critère a été la question du prix. Je voulais un produit bon marché. Mon raisonnement était le suivant: puisque c’était le premier achat que les gens allaient faire en ligne, il fallait que la somme à payer soit modique. Le troisième critère a été la variété dans le choix. Il y avait trois millions de titres pour les livres alors qu’il n’y avait que 300.000 titres pour les CD, par exemple.»

# Les «associés»

Au printemps 1997, Amazon.com - que tout le monde appelle désormais Amazon - décide de s'inspirer du système d'«associés» en ligne lancé quelques mois plus tôt par l'Internet Bookshop (Royaume-Uni), qui est la plus grande librairie en ligne européenne.

Tout détenteur d'un site web peut vendre des livres appartenant au catalogue d'Amazon et toucher un pourcentage de 15% sur les ventes. L'«associé(e)» sélectionne les titres du catalogue qui l'intéressent, en fonction de ses centres d'intérêt, et rédige ses propres résumés. Amazon reçoit les commandes par son intermédiaire, expédie les livres, rédige les factures et lui envoie un rapport hebdomadaire d'activité avec le règlement correspondant.

Le réseau d'Amazon compte 30.000 sites affiliés au printemps 1998 et 60.000 sites en juin 1998, qui sont autant de vitrines supplémentaires pour la librairie en ligne. Les affiliés sont aussi des sociétés telles que Adobe, InfoBeat, Kemper Funds, PR Newswire, Travelocity, Virtual Vineyards et Xoom.

# L’expansion

Outre les livres, Amazon propose également des CD, des DVD, des jeux informatiques, etc. On peut consulter le catalogue à l’écran, lire le résumé des livres choisis ou même des extraits, puis passer sa commande en ligne. Le contenu éditorial du site change quotidiennement et se veut un magazine littéraire en ligne, avec des conseils de lecture, des articles émanant de journalistes connus (qui travaillaient auparavant dans la presse imprimée), des entretiens avec des auteurs et des commentaires de lecteurs. En juillet 1998, Amazon compte 1,5 million de clients dans 160 pays, le public s’habituant peu à peu aux achats en ligne.

En novembre 2000, Amazon compte 7.500 salariés, 28 millions d'articles, 23 millions de clients et quatre filiales au Royaume-Uni (filiale ouverte en octobre 1998), en Allemagne (octobre 1998), en France (août 2000) et au Japon (novembre 2000). Amazon ouvre plus tard une cinquième filiale en juin 2002, cette fois au Canada, puis une sixième filiale (dénommée Joyo) en Chine en septembre 2004.

# L’eBookStore

Amazon ouvre son eBookStore en novembre 2000 avec un catalogue de 1.000 livres numériques. Avant ce lancement, la librairie en ligne signe deux partenariats en août 2000, l’un avec Microsoft pour proposer des livres lisibles sur le Microsoft Reader, et l’autre avec Adobe pour proposer des titres lisibles sur l'Acrobat Reader.

Amazon conclut ensuite un deuxième partenariat avec Adobe en avril 2001 pour la mise en vente de 2.000 livres numériques lisibles sur l'Acrobat eBook Reader (le nouveau logiciel d’Adobe gérant les livres sous droits). Ces livres sont notamment des titres de grands éditeurs, des guides de voyages et des livres pour enfants.

Présent dans sept pays et devenu une référence mondiale du commerce en ligne (avec eBay), Amazon fête ses dix ans d'existence en juillet 2005, avec 41 millions de clients et 9.000 salariés.

# Barnes & Noble

Le principal concurrent d’Amazon est Barnes & Noble, qui lance sa librairie en ligne en mai 1997. Celle-ci est financée en partenariat avec le géant des médias Bertelsmann pendant six ans, avant que Barnes & Noble ne rachète la part détenue par Bertelsmann (36,8%) en juillet 2003 pour 164 millions de dollars US.

Contrairement à Amazon, librairie uniquement «virtuelle», le site Barnes & Noble.com s'appuie sur une chaîne de librairies qui, en 1997, comprend 480 librairies réparties dans 48 des 50 États que compte le pays. Dès les débuts du site, Barnes & Noble se livre à une guerre des prix avec Amazon, à la plus grande joie des clients qui profitent de cette course aux rabais pour faire une économie de 20 à 40% sur certains titres.

Barnes & Noble.com ouvre ensuite son eBookStore en août 2000, trois mois avant Amazon, pour y proposer des livres numériques, suite à un partenariat avec Microsoft en janvier 2000 pour la vente de livres lisibles sur le Microsoft Reader puis un partenariat avec Adobe en août 2000 pour la vente de livres lisibles sur l'Acrobat Reader et le Glassbook Reader, Adobe ayant racheté la société Glassbook à la même date.

1996 > L'INTERNET ARCHIVE, POUR LES GÉNÉRATIONS FUTURES

[Résumé] Fondée en avril 1996 par Brewster Kahle à San Francisco (Californie), l'Internet Archive a pour but de constituer, stocker, préserver et gérer une archive de l'internet en sauvegardant et stockant la totalité du web tous les deux mois. L'objectif est d'offrir un outil de travail aux universitaires, chercheurs et historiens, et de préserver un historique de l'internet pour les générations futures. L’Internet Archive se présente donc comme «une bibliothèque de l’internet» puis, dans un deuxième temps, comme «une bibliothèque numérique à but non lucratif destinée à procurer un accès universel au savoir humain». En octobre 2001, avec 30 milliards de pages archivées, l'Internet Archive met ses archives en accès libre sur le web grâce à la Wayback Machine, qui permet à tout un chacun d’avoir accès à l’historique d’un site. Les archives du web représentent 65 milliards de pages web (provenant de 50 millions de sites web) en décembre 2006, 85 milliards de pages web en mai 2007 et 150 milliards de pages web en mars 2010.

***

L’Internet Archive est fondée en avril 1996 par Brewster Kahle à San
Francisco (Californie) pour préserver un historique de l’internet.

L’Internet Archive a pour but de constituer, stocker, préserver et gérer une archive de l’internet, en sauvegardant et stockant la totalité du web tous les deux mois, afin d’offrir un outil de travail aux universitaires, chercheurs et historiens, et de préserver un historique de l’internet pour les générations présentes et futures.

L’Internet Archive se présente donc comme «une bibliothèque de l’internet» puis, dans un deuxième temps, comme «une bibliothèque numérique à but non lucratif destinée à procurer un accès universel au savoir humain».

# L’importance d’un archivage du web

Comme expliqué à l’époque sur le site, de tout temps les sociétés ont voulu préserver leur culture et leur héritage pour les générations présentes et futures. Les bibliothèques ont donc eu pour vocation de conserver les traces écrites de ces cultures et de ces héritages, et d’en procurer l’accès au grand public et aux chercheurs. Il paraît donc essentiel qu’elles étendent leur mission aux nouvelles technologies. Paradoxalement, le travail de sauvegarde a souvent été mal fait au début du 20e siècle. Nombreux ont été les premiers films qui ont été recyclés - et donc définitivement perdus - pour récupérer la couche d’argent présente sur la pellicule. Nombre d’émissions de radio et de télévision n’ont pas été conservées. Il importe donc de ne pas reproduire la même erreur pour l’internet, et particulièrement pour le web, un nouveau médium dont la portée, immense, est encore méconnue en 1996. C’est la raison d’être de l’Internet Archive.

# La Wayback Machine

En octobre 2001, avec 30 milliards de pages archivées, l'Internet Archive met ses archives en accès libre grâce à la Wayback Machine, qui permet à tout un chacun de voir l'historique d'un site web - à savoir la présentation et le contenu d'un site web donné - théoriquement tous les deux mois depuis avril 1996, date de la création de l'Internet Archive.

En 2004, les archives du web représentent plus de 300 To (téraoctets) de données, avec une croissance de 12 To par mois. Le nombre de pages web visibles avec la Wayback Machine est de 65 milliards (provenant de 50 millions de sites web) en décembre 2006, 85 milliards de pages web en mai 2007 et 150 milliards de pages web en mars 2010.

# Des collections numériques

En 2000, l’Internet Archive débute la constitution de collections numériques, en hébergeant notamment une partie du Million Book Project (10.520 livres en avril 2005), tout comme des archives de films de la période 1903-1973, des archives de concerts live récents, des archives de logiciels, des archives d’images et de vidéos, les sites relatifs au 11 septembre (2001), les sites relatifs aux élections de 2000 (présidentielles) et 2002 (élection du Congrès et des gouverneurs des États), les sites relatifs aux pionniers du web, etc. Toutes ces collections sont en consultation libre.

Qu’est-ce exactement que le Million Book Project? Lancé en janvier 2000 par la Carnegie Mellon University (Pennsylvanie, États-Unis), le Million Book Project - appelé aussi Universal Library ou Universal Digital Library (UDL) - a pour but de numériser un million de livres dans un grand nombre de langues, en axant ses efforts sur les livres disponibles en Inde et en Chine. En 2007, un million de livres sont disponibles sur le site de l'université, sous forme de fichiers image aux formats DjVu et TIFF, avec trois sites miroirs (Inde, Chine du Nord, Chine du Sud).

Par ailleurs, en réaction au projet Google Books, l’Internet Archive pense qu'une bibliothèque numérique à vocation mondiale ne doit pas être liée à des enjeux commerciaux. En octobre 2005, elle lance l’Open Content Alliance (OCA) dans l'optique de fédérer un grand nombre de partenaires pour créer une bibliothèque planétaire publique respectueuse du copyright et sur un modèle ouvert, avec des collections consultables sur tout moteur de recherche.

1996 > CYLIBRIS, ÉDITEUR ÉLECTRONIQUE

[Résumé] Fondé en août 1996 à Paris par Olivier Gainon, CyLibris (de Cy, cyber et Libris, livre) est la première maison d'édition à utiliser l'internet et le numérique pour publier de nouveaux auteurs littéraires. Vendus uniquement sur le web, les livres sont imprimés à la commande et envoyés directement au client, ce qui permet d'éviter le stock et les intermédiaires. Au printemps 2000, CyLibris devient membre du Syndicat national de l'édition (SNE). En 2001, certains titres sont également vendus en version imprimée par un réseau de librairies partenaires, notamment la Fnac, et en version numérique par Mobipocket et Numilog. En 2003, le catalogue de CyLibris comprend une cinquantaine de titres. CyLibris met fin à cette belle aventure en 2007.

***

Fondé à Paris en août 1996 par Olivier Gainon, CyLibris (de Cy, cyber et Libris, livre) est le pionnier francophone de l’édition électronique commerciale.

CyLibris est en effet la première maison d’édition à utiliser l’internet et le numérique pour publier de nouveaux auteurs littéraires et quelques auteurs confirmés, dans divers genres: littérature générale, policiers, science-fiction, théâtre et poésie.

Vendus uniquement sur le web, les livres sont imprimés à la commande et envoyés directement au client, ce qui permet d’éviter le stock et les intermédiaires. Des extraits sont disponibles en téléchargement libre.

# Une maison d’édition spécialisée

Pendant son premier trimestre d’activité, CyLibris signe des contrats avec treize auteurs. Fin 1999, le site compte 15.000 visites individuelles et 3.500 livres vendus tous exemplaires confondus, avec une année financièrement équilibrée.

Olivier Gainon explique en décembre 2000: «CyLibris a été créé d’abord comme une maison d’édition spécialisée sur un créneau particulier de l’édition et mal couvert à notre sens par les autres éditeurs: la publication de premières oeuvres, donc d’auteurs débutants. Nous nous intéressons finalement à la littérature qui ne peut trouver sa place dans le circuit traditionnel: non seulement les premières oeuvres, mais les textes atypiques, inclassables ou en décalage avec la mouvance et les modes littéraires dominantes. Ce qui est rassurant, c’est que nous avons déjà eu quelques succès éditoriaux: le grand prix de la SGDL [Société des gens de lettres] en 1999 pour "La Toile" de Jean-Pierre Balpe, le prix de la litote pour "Willer ou la trahison" de Jérôme Olinon en 2000, etc. Ce positionnement de "défricheur" est en soi original dans le monde de l’édition, mais c’est surtout son mode de fonctionnement qui fait de CyLibris un éditeur atypique.

Créé dès 1996 autour de l’internet, CyLibris a voulu contourner les contraintes de l’édition traditionnelle grâce à deux innovations: la vente directe par l’intermédiaire d’un site de commerce sur internet, et le couplage de cette vente avec une impression numérique en "flux tendu". Cela permettait de contourner les deux barrières traditionnelles dans l’édition: les coûts d’impression (et de stockage) et les contraintes de distribution. Notre système gérait donc des flux physiques: commande reçue par internet, impression du livre commandé, envoi par la poste. Je précise que nous sous-traitons l’impression à des imprimeurs numériques, ce qui nous permet de vendre des livres de qualité équivalente à celle de l’offset, et à un prix comparable. Notre système n’est ni plus cher, ni de moindre qualité, il obéit à une économie différente qui, à notre sens, devrait se généraliser à terme.»

# Une double activité

En quoi consiste l’activité d’un éditeur électronique? «Je décrirais mon activité comme double. D’une part celle d’un éditeur traditionnel dans la sélection des manuscrits et leur re-travail (je m’occupe directement de la collection science-fiction), mais également le choix des maquettes, les relations avec les prestataires, etc. D’autre part, une activité internet très forte qui vise à optimiser le site de CyLibris et mettre en oeuvre une stratégie de partenariat permettant à CyLibris d’obtenir la visibilité qui lui fait parfois défaut. Enfin, je représente CyLibris au sein du SNE [NDLR: Syndicat national de l’édition, dont CyLibris fait partie depuis le printemps 2000]. CyLibris est aujourd’hui une petite structure. Elle a trouvé sa place dans l’édition, mais est encore d’une économie fragile sur internet. Notre objectif est de la rendre pérenne et rentable et nous nous y employons.»

# Un éditeur présent sur tous les fronts

Le site web se veut aussi un carrefour de la petite édition. Il procure des informations pratiques aux auteurs en herbe: comment envoyer un manuscrit à un éditeur, ce que doit comporter un contrat d’édition, comment protéger ses manuscrits, comment tenter sa chance dans des revues ou concours littéraires, etc.

En 2001, certains titres sont également vendus en version imprimée par un réseau de librairies partenaires, notamment la Fnac, et en version numérique par Mobipocket et Numilog, pour lecture sur ordinateur ou PDA. En 2003, le catalogue de CyLibris comprend une cinquantaine de titres.

Par ailleurs, l’équipe de CyLibris lance en mai 1999 CyLibris Infos, une lettre d’information électronique gratuite dont l’objectif n’est pas tant de promouvoir les livres de l’éditeur que de présenter l’actualité de l’édition francophone. Volontairement décalée et souvent humoristique sinon décapante, la lettre, d’abord mensuelle, paraît deux fois par mois à compter de février 2000, avec 565 abonnés en octobre 2000. Elle change de nom en février 2001 pour devenir Édition-actu, qui compte 1.500 abonnés en 2003 avant de laisser place au blog de CyLibris.

Olivier Gainon met fin à toutes ces activités éditoriales en 2007 pour passer à d’autres projets.

1996 > VERS UN SAVOIR NUMÉRIQUE

[Résumé] Vinton Cerf, père de l’internet et fondateur de l’Internet Society (ISOC), explique en janvier 1998 lors d’un entretien avec le quotidien Libération: «Le réseau fait deux choses (…): comme les livres, il permet d’accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d’autres informations. Alors que, dans un livre, l’information est maintenue isolée.» De plus, l’information contenue dans les livres reste la même, alors que l'internet privilégie les informations récentes et régulièrement actualisées. Lors d'une conférence organisée en septembre 1996 par l'IFIP (International Federation of Information Processing), Dale Spender, professeure et chercheuse, propose une communication sous le titre «Creativity and the computer education industry» en tentant de cerner les changements apportés par l'internet dans l'acquisition du savoir et les méthodes d'enseignement.

***

L’information contenue dans les livres reste la même, alors que l'internet privilégie les informations récentes et régulièrement actualisées. Il faut donc complètement repenser notre relation au savoir.

Vinton Cerf, père de l’internet et fondateur de l’Internet Society (ISOC), explique en janvier 1998 lors d’un entretien avec le quotidien Libération: «Le réseau fait deux choses (…): comme les livres, il permet d’accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d’autres informations. Alors que, dans un livre, l’information est maintenue isolée.»

# Une nouvelle manière d’enseigner

Lors d'une conférence organisée en septembre 1996 par l'IFIP (International Federation of Information Processing), Dale Spender, professeure et chercheuse, propose une communication sous le titre «Creativity and the computer education industry» en tentant de cerner les changements apportés par l'internet dans l'acquisition du savoir et les méthodes d'enseignement. Voici son argumentation résumée en deux paragraphes.

Pendant plus de cinq siècles, l'enseignement est principalement basé sur l'information donnée par les livres. Or les habitudes liées à l'imprimé ne peuvent être transférées au monde numérique. L'enseignement en ligne offre des possibilités tellement nouvelles qu'il n'est guère possible d'effectuer les distinctions traditionnelles entre enseignant et enseigné. Le passage de la culture imprimée à la culture numérique exige d'entièrement repenser le processus d'enseignement, puisque nous avons maintenant l'opportunité sans précédent de pouvoir influer sur le genre d'enseignement que nous souhaitons.

Dans la culture imprimée, l'information contenue dans les livres restait la même pendant un certain temps, ce qui nous a encouragé à penser que l'information était stable. La nature même de l'imprimé est liée à la notion de vérité, stable elle aussi. Cette stabilité et l'ordre qu'elle engendre ont été l’un des fondements de l'âge industriel et de la révolution scientifique. Les notions de vérité, de loi, d'objectivité et de preuve ont été les éléments de référence de nos croyances et de nos cultures. Mais la révolution numérique change tout ceci. Soudain l'information en ligne supplante l'information imprimée pour devenir la plus fiable et la plus utile, et l'usager est prêt à la payer en conséquence. C'est cette transformation radicale dans la nature de l'information qui doit être au coeur du débat relatif aux méthodes d'enseignement.

# Trois expériences

En témoigne l'expérience de Patrick Rebollar, professeur de français et de littérature française à Tokyo (Japon), qui raconte en juillet 1998: «Mon travail de recherche est différent, mon travail d’enseignant est différent, mon image en tant qu’enseignant-chercheur de langue et de littérature est totalement liée à l’ordinateur, ce qui a ses bons et ses mauvais côtés (surtout vers le haut de la hiérarchie universitaire, plutôt constituée de gens âgés et technologiquement récalcitrants). J’ai cessé de m’intéresser à certains collègues proches géographiquement mais qui n’ont rien de commun avec mes idées, pour entrer en contact avec des personnes inconnues et réparties dans différents pays (et que je rencontre parfois, à Paris ou à Tokyo, selon les vacances ou les colloques des uns ou des autres). La différence est d’abord un gain de temps, pour tout, puis un changement de méthode de documentation, puis de méthode d’enseignement privilégiant l’acquisition des méthodes de recherche par mes étudiants, au détriment des contenus (mais cela dépend des cours). Progressivement, le paradigme réticulaire l’emporte sur le paradigme hiérarchique.»

Robert Beard, professeur à la Bucknell University (États-Unis), écrit en septembre 1998: «En tant que professeur de langue, je pense que le web présente une pléthore de nouvelles ressources disponibles dans la langue étudiée, de nouveaux instruments d'apprentissage (exercices interactifs Java et Shockwave) et de test, qui sont à la disposition des étudiants quand ceux-ci en ont le temps ou l'envie, 24 heures / 24 et 7 jours / 7. Aussi bien pour mes collègues que pour moi, et bien sûr pour notre établissement, l'internet nous permet aussi de publier pratiquement sans limitation. (…) L'internet nous offrira tout le matériel pédagogique dont nous pouvons rêver, y compris des notes de lecture, exercices, tests, évaluations et exercices interactifs plus efficaces que par le passé parce que reposant davantage sur la notion de communication.»

Russon Wooldridge, professeur au département des études françaises de l'Université de Toronto (Canada), explique en février 2001: «Mes activités de recherche, autrefois menées dans une tour d'ivoire, se font maintenant presque uniquement par des collaborations locales ou à distance. (…) Tout mon enseignement exploite au maximum les ressources d'internet (le web et le courriel): les deux lieux communs d'un cours sont la salle de classe et le site du cours, sur lequel je mets tous les matériaux des cours. Je mets toutes les données de mes recherches des vingt dernières années sur le web (réédition de livres, articles, textes intégraux de dictionnaires anciens en bases de données interactives, de traités du 16e siècle, etc.). Je publie des actes de colloques, j'édite un journal, je collabore avec des collègues français, mettant en ligne à Toronto ce qu'ils ne peuvent pas publier en ligne chez eux. (…) Je me rends compte que sans internet mes activités seraient bien moindres, ou du moins très différentes de ce qu'elles sont actuellement. Donc je ne vois pas l'avenir sans.»

1996 > LE PROJET @FOLIO, BALADEUR DE TEXTES

[Résumé] Conçu dès octobre 1996 par Pierre Schweitzer, architecte designer à Strasbourg (Alsace, France), le projet @folio se définit comme un baladeur de textes ou encore comme un support de lecture nomade permettant de lire des textes glanés sur l'internet. De petite taille, il cherche à mimer, sous forme électronique, le dispositif technique du livre, afin d'offrir une mémoire de fac-similés reliés en hypertexte pour faciliter le feuilletage. Pierre est aussi l'auteur du logiciel Mot@mot, un logiciel permettant de découper mot à mot les pages scannées du livre. Le but est d’obtenir une chaîne d'images-mots liquide qu'on peut remettre en page aussi facilement qu'une chaîne de caractères pour lire le texte sur un écran de petite taille. Afin de développer @folio et Mot@mot, Pierre fait valider un brevet international en avril 2001 puis crée la start-up française iCodex en juillet 2002.

***

Conçu dès octobre 1996 par Pierre Schweitzer, le projet @folio se définit comme un baladeur permettant de lire des textes glanés sur l’internet.

De petite taille, ce support de lecture nomade cherche à mimer, sous forme électronique, le dispositif technique du livre, afin d’offrir une mémoire de fac-similés reliés en hypertexte pour faciliter le feuilletage.

# Les débuts du projet

Pierre Schweitzer, architecte designer à Strasbourg (Alsace, France), explique en janvier 2001: «@folio est un baladeur de textes, simple, léger, autonome, que le lecteur remplit selon ses désirs à partir du web, pour aller lire n’importe où. Il peut aussi y imprimer des documents personnels ou professionnels provenant d’un CD-Rom. Les textes sont mémorisés en faisant: "imprimer", mais c’est beaucoup plus rapide qu’une imprimante, ça ne consomme ni encre ni papier. Les liens hypertextes sont maintenus au niveau d’une reliure tactile. (…)

Le projet est né à l’atelier Design de l’École d’architecture de Strasbourg où j’étais étudiant. Il est développé à l’École nationale supérieure des arts et industries de Strasbourg avec le soutien de l’ANVAR-Alsace. Aujourd’hui, je participe avec d’autres à sa formalisation, les prototypes, design, logiciels, industrialisation, environnement technique et culturel, etc., pour transformer ce concept en un objet grand public pertinent.»

# Le logiciel Mot@mot

Pierre est aussi l'auteur du logiciel Mot@mot, un logiciel permettant de découper mot à mot les pages scannées du livre. Le but est d’obtenir une chaîne d'images-mots liquide qu'on peut remettre en page aussi facilement qu'une chaîne de caractères pour lire le texte sur un écran de petite taille.

Pierre explique à la même date: «La plus grande partie du patrimoine écrit existant est fixé dans des livres, sur du papier. Pour rendre ces oeuvres accessibles sur la toile, la numérisation en mode image est un moyen très efficace. Le projet Gallica en est la preuve. Mais il reste le problème de l'adaptation des fac-similés d'origine à nos écrans de lecture aujourd'hui: réduits brutalement à la taille d'un écran, les fac-similés deviennent illisibles. Sauf à manipuler les barres d'ascenseur, ce qui nécessite un ordinateur et ne permet pas une lecture confortable. La solution proposée par Mot@mot consiste à découper le livre, mot à mot, du début à la fin (enfin, les pages scannées du livre…). Ces mots restent donc des images, il n'y a pas de reconnaissance de caractères, donc pas d'erreur possible. On obtient une chaîne d'images-mots liquide, qu'on peut remettre en page aussi facilement qu'une chaîne de caractères. Il devient alors possible de l'adapter à un écran de taille modeste, sans rien perdre de la lisibilité du texte. La typographie d'origine est conservée, les illustrations aussi.»

# Le rêve de Pierre Schweitzer

Afin de développer le projet @folio et le logiciel Mot@mot, Pierre Schweitzer fait valider un brevet international en avril 2001, puis crée la start-up française iCodex en juillet 2002.

Cinq ans plus tard, en août 2007, Pierre poursuit patiemment sa croisade pour promouvoir son projet. «Il s’agit d’offrir un support de lecture efficace aux textes qui n’en ont pas, ceux qui sont accessibles sur le web. Avec @folio, je reste persuadé qu’un support de lecture transportable qui serait à la fois simple et léger, annotable et effaçable, à bas coût, respectueux de la page et de nos traditions typographiques, pourrait apporter un supplément de confort appréciable à tous les usagers du texte numérique. Une ardoise dont on pourrait feuilleter l’hypertexte à main nue, en lieu et place de l’imprimante…»

En quoi la technologie utilisée est-elle différente de celle des autres tablettes du marché? «La technologie d'@folio est inspirée du fax et du classeur à onglets. La mémoire flash est imprimée comme Gutenberg imprimait ses livres. Ce mode fac-similé ne nécessite aucun format propriétaire, il est directement lisible à l'oeil nu. Le fac-similé est un mode de représentation de l'information robuste, pérenne, adaptable à tout type de contenu (de la musique imprimée aux formules de mathématique ou de chimie) sans aucune adaptation nécessaire. C'est un mode de représentation totalement ouvert et accessible à tous: il supporte l'écriture manuscrite, la calligraphie, les écritures non alphabétiques, et le dessin à main levée, toutes choses qui sont très difficiles à faire à l'aide d'un seul outil sur un ordinateur ou un "ebook" classique. Cette conception technique nouvelle et très simplifiée permet de recueillir une grande variété de contenus et surtout, elle permet un prix de vente très raisonnable (100 euros pour le modèle de base) dans différentes combinaisons de formats (tailles d'écran) et de mémoire (nombre de pages) adaptées aux différentes pratiques de lecture.»

Outre cette technologie novatrice, quel serait l'avantage de la lecture sur @folio? «La simplicité d'usage, l'autonomie, le poids, le prix. Quoi d'autre? La finesse n'est pas négligeable pour pouvoir être glissé presque n'importe où. Et l'accès immédiat aux documents - pas de temps d'attente comme quand on "allume" son ordinateur portable: @folio ne s'allume jamais et ne s'éteint pas, la dernière page lue reste affichée et une simple pression sur le bord de l'écran permet de remonter instantanément au sommaire du document ou aux onglets de classement.»

À la même date, en août 2007, la revue en ligne anglophone TeleRead fait l'éloge du projet @folio en intitulant l'article «Pierre Schweitzer's Dream» (Le rêve de Pierre Schweitzer). Plusieurs spécialistes anglophones, et non des moindres (David Rothman, Mike Cook, Ellen Hage), rendent hommage à la persévérance de Pierre en espérant voir son projet commercialisé un jour.

1996 > LES ÉDITIONS DU CHOUCAS SUR LA TOILE

[Résumé] Basé en Haute-Savoie, le Choucas est une petite maison d'édition spécialisée dans les romans policiers, la littérature, la photographie et les livres d'art. Le Choucas voit le jour en 1992 sous la houlette de Nicolas et Suzanne Pewny. Au prix d'un grand nombre de nuits sans sommeil, Nicolas Pewny crée lui-même le site web du Choucas en novembre 1996. Les manuscrits affluent par courriel. Les corrections apportées aux livres, les illustrations et l’envoi des documents à l'imprimeur se font aussi par courriel. Le Choucas cesse malheureusement ses activités en mars 2001, une disparition de plus à déplorer chez les petits éditeurs indépendants. Nicolas Pewny devient ensuite consultant en édition électronique et met ses compétences au service d'autres organismes.

***

Né en 1992, le Choucas est une petite maison d’édition haut-savoyarde spécialisée dans les romans policiers, la littérature, la photographie et les livres d’art, avec un site web dès 1996.

Le Choucas voit le jour sous la houlette de Nicolas et Suzanne Pewny. En juin 1998, Nicolas raconte: «Le site des éditions du Choucas a été créé fin novembre 1996. Lorsque je me suis rendu compte des possibilités qu’internet pouvait nous offrir, je me suis juré que nous aurions un site le plus vite possible. Un petit problème: nous n’avions pas de budget pour le faire réaliser. Alors, au prix d’un grand nombre de nuits sans sommeil, j’ai créé ce site moi-même et l’ai fait référencer (ce n’est pas le plus mince travail). Le site a alors évolué en même temps que mes connaissances (encore relativement modestes) en la matière et s’est agrandi, et a commencé à être un peu connu même hors de France et de l’Europe.»

# Un changement considérable

Quels sont les atouts d’un site internet? «Le changement qu’internet a apporté dans notre vie professionnelle est considérable, explique Nicolas. Nous sommes une petite maison d’édition installée en province. Internet nous a fait connaître rapidement sur une échelle que je ne soupçonnais pas. Même les médias "classiques" nous ont ouvert un peu leur portes grâce à notre site. Les manuscrits affluent par le courrier électronique. Ainsi nous avons édité deux auteurs québécois [NDLR: Fernand Héroux et Liz Morency, auteurs de "Affaire de coeurs", paru en septembre 1997]. Beaucoup de livres se réalisent (corrections, illustrations, envoi des documents à l’imprimeur) par ce moyen. Dès le début du site nous avons reçu des demandes de pays où nous ne sommes pas (encore) représentés: États-Unis, Japon, Amérique latine, Mexique, malgré notre volonté de ne pas devenir un site "commercial" mais d’information et à "connotation culturelle". (Nous n’avons pas de système de paiement sécurisé, nous avons juste référencé sur une page les libraires qui vendent en ligne.)»

Comment Nicolas voit-il l'avenir? «J’aurais tendance à répondre par deux questions: Pouvez-vous me dire comment va évoluer internet? Comment vont évoluer les utilisateurs? Nous voudrions bien rester aussi peu "commercial" que possible et augmenter l’interactivité et le contact avec les visiteurs du site. Y réussirons-nous? Nous avons déjà reçu des propositions qui vont dans un sens opposé. Nous les avons mises "en veille". Mais si l’évolution va dans ce sens, pourrons-nous résister, ou trouver une "voie moyenne"? Honnêtement, je n’en sais rien.»

# D’éditeur à consultant en édition électronique

Le Choucas cesse malheureusement ses activités en mars 2001, une disparition de plus à déplorer chez les petits éditeurs indépendants.

Nicolas raconte en juin 2001: «Comme je le prévoyais, notre distributeur a déposé son bilan. Et malheureusement les éditions du Choucas (ainsi que d’autres éditeurs) ont cessé leur activité éditoriale. Je maintiens gracieusement le site web pour témoignage de mon savoir-faire d’éditeur on- et off-line. (…)

Je ne regrette pas ces dix années de lutte, de satisfactions et de malheurs passés aux éditions du Choucas. J’ai connu des auteurs intéressants dont certains sont devenus des amis… Maintenant je fais des publications et des sites internet pour d’autres. En ce moment pour une ONG [organisation non gouvernementale] internationale caritative; je suis ravi de participer (modestement) à leur activité à but non lucratif. Enfin on ne parle plus de profit ou de manque à gagner, c’est reposant.»

Fort de son expérience dans le domaine de la librairie, de l'édition, de l'internet et du numérique, Nicolas Pewny est maintenant consultant en édition électronique et met ses compétences au service d'autres organismes.

Il écrit en février 2003: «Je vois le livre numérique du futur comme un "ouvrage total" réunissant textes, sons, images, vidéo, interactivité: une nouvelle manière de concevoir et d'écrire et de lire, peut-être sur un livre unique, sans cesse renouvelable, qui contiendrait tout ce que l'on a lu, unique et multiple compagnon. Utopique? Invraisemblable? Peut-être pas tant que cela!»

1997 > LA CONVERGENCE MULTIMÉDIA

[Résumé] La convergence multimédia est la convergence de tous les secteurs liés à l'information (imprimerie, édition, presse, conception graphique, enregistrements sonores, films, radiodiffusion, etc.) suite à l’utilisation des techniques de numérisation. On peut également la définir comme la convergence de l’informatique, du téléphone, de la radio et de la télévision dans une industrie de la communication utilisant les mêmes canaux de distribution, avec accélération du processus matériel de production. La convergence multimédia a de nombreux revers, à savoir des contrats occasionnels et précaires pour les salariés, l'absence de syndicats pour les télétravailleurs, le droit d'auteur souvent mis à mal pour les auteurs, etc. La convergence multimédia amène-t-elle des emplois nouveaux ou bien est-elle source de chômage? Ce sujet est débattu dès janvier 1997 lors du Colloque sur la convergence multimédia organisé par l'Organisation internationale du travail (BIT) à Genève, avec des débats qui se poursuivent les années suivantes.

***

La convergence multimédia est la convergence de tous les secteurs liés à l'information (imprimerie, édition, presse, conception graphique, enregistrements sonores, films, radiodiffusion, etc.) suite à l’utilisation des techniques de numérisation.

On peut également la définir comme la convergence de l’informatique, du téléphone, de la radio et de la télévision dans une industrie de la communication utilisant les mêmes canaux de distribution, souvent dénommés autoroutes de l'information (ou inforoutes), avec accélération du processus matériel de production.

# Une approche plus concrète

La numérisation permet de créer, enregistrer, combiner, stocker, rechercher et transmettre des textes, sons et images par des moyens simples et rapides. Des procédés similaires permettent le traitement de l’écriture, de la musique et du cinéma alors que, par le passé, ce traitement était assuré par des procédés différents sur des supports différents (papier pour l’écriture, bande magnétique pour la musique, celluloïd pour le cinéma). De plus, des secteurs distincts comme l’édition (qui produit des livres) et l’industrie musicale (qui produit des disques) travaillent désormais de concert pour produire des CD-Rom.

Pour mémoire, ceci n'est pas le premier bouleversement affectant la chaîne de l’édition, loin de là. Dans les années 1970, l’imprimerie traditionnelle est d’abord ébranlée par les machines de photocomposition. Dans les années 1980 et 1990, le coût de l’impression continue ensuite de baisser avec les photocopieurs, les photocopieurs couleur, les ateliers de PAO (publication assistée par ordinateur) et le matériel d’impression numérique.

Tout contenu est désormais systématiquement numérisé pour permettre son transfert par voie électronique et pour accélérer la processus matériel de production. Dans l’édition, le rédacteur, le concepteur artistique et l'infographiste travaillent souvent simultanément au même ouvrage. Dans la presse, alors qu’auparavant le personnel de production devait dactylographier les textes du personnel de rédaction, les journalistes envoient désormais directement leurs textes pour mise en page.

# Un colloque international

Si la convergence multimédia entraîne de nouveaux emplois dans certains secteurs - par exemple ceux liés à la production de films ou de produits audio-visuels - d'autres secteurs sont soumis à d'inquiétantes restructurations ou même des licenciements en masse. Ces problèmes sont suffisamment préoccupants pour être débattus lors d’un colloque sur la convergence multimédia organisé en janvier 1997 par l'Organisation internationale du travail (OIT) à Genève.

Professeur associé en sciences sociales à l’Université d’Utrecht (Pays- Bas), Peter Leisink explique que la rédaction des textes et la correction des épreuves se font désormais à domicile, le plus souvent par des travailleurs ayant pris le statut d’indépendants à la suite de licenciements et de délocalisations ou fusions d’entreprises. «Or cette forme d’emploi tient plus du travail précaire que du travail indépendant, car ces personnes n’ont que peu d’autonomie et sont généralement tributaires d’une seule maison d’édition.»