La saga de la web multilingüe

LogoMarie

Por Marie Lebert, 23 de julio de 2019.

EL LIBRO EN LOS COMMUNITY TEXTS DEL INTERNET ARCHIVE

Después de la invención de la web en 1990, los usuarios del internet cuya lengua materna no es el inglés alcanzan un 5% en 1994, un 20% en 1998, un 50% en 2000 y un 75% en 2015. Son muchos los que ayudan a promover su propia lengua y cultura y otras lenguas y culturas –a menudo en su tiempo libre y utilizando el inglés como lengua-puente– para que la web se vuelva realmente multilingüe. Este libro basado en una serie de entrevistas es un homenaje a su trabajo y su dedicación.


[Versión web]
[Versión inglesa] [+ versión web]
[Versión francesa] [+ versión web]


* Prólogo
* El internet
* La codificación
* La internacionalización
* El multilingüismo
* La localización de los sitios web
* La colaboración en línea
* Los textos electrónicos
* Los libros digitales
* La prensa
* La precariedad del empleo
* El derecho de autor
* El derecho de autor adaptado a la web
* Las librerías
* Las librerías digitales
* Los autores
* Los best-sellers
* Las bibliotecas
* Los bibliotecarios
* Las bibliotecas digitales
* Los tesoros del pasado
* Los catálogos colectivos
* Los recursos lingüísticos
* Los diccionarios
* Las enciclopedias
* Las revistas científicas
* Los recursos para enseñar
* Los recursos para los traductores
* Las bases de datos terminológicas
* La traducción automática
* La traducción asistida por ordenador
* La traducción automática gratis en línea
* El catálogo de todas las lenguas vivas
* Las lenguas minoritarias
* Las lenguas en peligro
* Unas preguntas
* Cronología


Prólogo

Después de la invención de la web en 1990, los usuarios del internet cuya lengua materna no es el inglés alcanzan un 5% en 1994, un 20% en 1998, un 50% en 2000 y un 75% en 2015.

Brian King, director del WorldWide Language Institute (WWLI), desarrolla el concepto de “democracia lingüística” en septiembre de 1998 en una entrevista por correo electrónico: “En un informe de la UNESCO a principios de los 1950, la educación en lengua materna era considerada como un derecho fundamental para todos los niños del mundo. En la era de la información, esto equivaldría a darles la oportunidad de navegar en la web en su lengua materna. Si el internet quiere convertirse realmente en la red global que pretende ser, todos los usuarios deberían tener acceso a él sin el problema del idioma. Considerar el internet como propiedad exclusiva de la gente que, por accidente histórico, necesidad práctica o privilegio político, habla inglés, es injusto para la gente que no habla este idioma.”

Maria Victoria Marinetti, profesora de español y traductora, escribe en agosto de 1999: “Tengo acceso a una gran cantidad de información a nivel mundial, por lo tanto es muy interesante. Es muy importante poder comunicar en la web en diferentes lenguas, es más bien obligatorio, porque la información la tenemos a nivel mundial, ¿por qué no podríamos tenerla en el idioma que hablamos o que deseamos? ¿Es contradictorio, no?”

Jean-Pierre Cloutier, autor de las Chroniques de Cybérie, una crónica semanal en francés de las noticias del internet, escribe en agosto de 1999: “Un giro se tomó este verano. Ahora más de 50% de los usuarios de la red viven fuera de Estados Unidos. El año próximo, más de 50% de los usuarios serán no anglófonos. Hace solamente cinco años era un 5%. Estupendo, ¿verdad?”

El número de usuarios que no son de habla inglesa alcanza a 50% en el verano de 2000, 52,5% en el verano de 2001, a 57% en diciembre de 2001, a 59,8% en abril de 2002, a 64,4% en septiembre de 2003 y a 64,2% en marzo de 2004, según la empresa consultora en línea Global Reach.

15 años después de la creación de la web, la revista Wired (California) observa en su número de agosto de 2005 que “solo menos de la mitad de la web es comercial, y el resto funciona con la pasión.” En cuanto al internet, el diario Le Monde (Francia) observa que “gracias a sus tres poderes —ubicuidad, variedad e interactividad— su potencial de uso es casi infinito.”

Son muchos los que ayudan a promover su propia lengua y cultura y otras lenguas y culturas –a menudo en su tiempo libro y utilizando el inglés como lengua-puente– para que la web se vuelva realmente multilingüe. Este libro basado en una serie de entrevistas es un homenaje a su trabajo y su dedicación. Gracias a Alicia Simmross y Anna Alvarez por su ayuda para la traducción o la revisión de muchas páginas. Todos los errores que quedan son míos.


El internet

Henri “Henk” Slettenhaar, especialista en sistemas de comunicación, ha vivido todas las etapas del internet durante su larga carrera en Ginebra (Suiza) y Palo Alto (California). Habla holandés ya que pasó su infancia en Holanda, enseña las tecnologías de la comunicación en inglés y habla francés ya que vive en Francia.

Se una al CERN (Organización Europea para la Investigación Nuclear) en Ginebra en 1958 para trabajar en el primer ordenador digital y participar en el desarrollo de las primeras redes digitales. Su experiencia californiana empieza en 1966, cuando se une durante 18 meses a un equipo del SLAC (Stanford Linear Accelerator Center – Centro Acelerador Lineal de Stanford) para crear el primer digitalizador de películas. Regresa al SLAC en 1983 para crear un sistema digital de control que será utilizado durante una década. Es profesor en tecnologías de las comunicaciones en la Webster University de Ginebra durante 25 años y director de su Telecom Management Program (Programa de Gestión de las Telecomunicaciones). Crea también la Silicon Valley Association (SVA), una asociación suiza que organiza viajes de estudio a la Silicon Valley y a otros centros de alta tecnología.

Relata en diciembre de 1998 en una entrevista por correo electrónico: “No puedo imaginar mi vida profesional sin el internet. Hace veinte años que utilizo el correo electrónico. Los primeros años, era casi siempre para comunicarme con mis colegas en un área geográfica muy limitada. Desde la explosión del internet y la llegada de la web, me comunico sobre todo por correo electrónico. Casi todas mis conferencias son en la web y todas mis clases tienen una extensión en esta. Para las visitas que organizó en la Silicon Valley, toda la información está disponible en la web y sería incapaz de organizarlas sin utilizar el internet. Además, el internet representa para mí una base de datos extraordinaria disponible con solo unos cuantos clic.”

“Las comunidades locales presentes en la web deberían utilizar antes que nada su propio idioma para difundir información. Si desean presentar esta información a la comunidad mundial, esta información deberá estar disponible también en inglés. Pienso que los sitios web bilingües son verdaderamente necesarios. Pero estoy encantado de que ahora existan tantos documentos disponibles en su lengua original. Prefiero —y de lejos— leer el original con cierta dificultad antes que una traducción mediocre.”

Añade en agosto de 1999: “A mi parecer, existen dos tipos de búsquedas en la web. En el primer caso, se trata de una búsqueda global en el campo de los negocios y de la información. Para llevarla a cabo, el primer idioma es el inglés, con versiones locales si es necesario. El segundo tipo de búsqueda concierne información local de todo tipo de lugares remotos. Si la información se dirige a una etnia o a un grupo lingüístico, debe aparecer primero en el idioma de dicha etnia o de dicho grupo, con además —quizás— un resumen en inglés.”

Añade en agosto de 2000: “El multilingüismo se ha desarrollado mucho. Muchos sitios de comercio electrónico son ahora multilingües, y hay empresas que venden sus productos permitiendo la localización de los sitios. Vemos también la explosión de la tecnología móvil. El teléfono móvil se ha convertido para muchas personas, incluyéndome a mí, en el medio de comunicación personal que permite estar ubicable en todo momento en cualquier lugar. Pero el internet móvil es todavía un sueño. Los nuevos servicios que ofrecen los teléfonos GSM son muy primitivos y muy caros, tanto así que el WAP recibió el sobrenombre de ‘Wait And Pay’ [Espera y Paga].”

Añade en julio de 2001: “El primer cambio que me viene a la cabeza es el cambio considerable que trajo el hecho de que ahora tengo en mi casa una conexión de banda ancha rápida. El estar conectado continuamente es muy diferente al conectarse de vez en cuando por línea telefónica. Ahora recibo mis mensajes en cuanto llegan a mi correo. Puedo escuchar mis emisoras de radio preferidas de cualquier parte del mundo. Puedo escuchar las noticias cuando quiero. Y también escuchar la música que me gusta durante todo el día. Lo único que falta son videos de buena calidad y en tiempo real. El ancho de banda todavía es insuficiente para esto. Mi casa ahora está dotada de una red local y sin cables. Puedo utilizar mi ordenador portátil en todas partes dentro o fuera de casa, e incluso en la de los vecinos, estando continuamente conectado. Esta misma tecnología me permite ahora utilizar la WiFi de mi ordenador mientras viajo. Por ejemplo, durante mi último viaje a Estocolmo, podía estar conectado al internet en el hotel, en el centro de conferencias, en el aeropuerto e incluso en el pub irlandés!”

Según Pierre Schweitzer, creador del prototipo de lector portátil @folio, entrevistado en enero de 2006: “La suerte que compartimos todos es la de estar viviendo desde dentro, aquí y ahora, esta fantástica transformación. Cuando yo nací, en 1963, en la memoria de los ordenadores cabían apenas algunas páginas de caracteres. Hoy en día, en mi lector portátil caben miles de millones de páginas; una verdadera biblioteca de barrio. Mañana, por el efecto combinado de la ley de Moore y de la omnipresencia de las redes, el acceso instantáneo a las obras y al saber será algo corriente. El soporte de almacenamiento en sí ya ni siquiera presentará mucho interés. Solo importarán las comodidades funcionales de uso y la poética de esos objetos.”

Jean-Paul, creador del sitio hipermedia Cotres.net, escribe en enero de 2007: “Tengo la impresión de que estamos viviendo un período flotante, situado entre los tiempos heroicos, en los que se trataba de avanzar esperando a que la tecnología nos alcanzara, y el futuro, en el que el gran ancho de banda liberará fuerzas que aún solamente se han desencadenado para los juegos. Los dos puntos positivos en los próximos tres o cuatro años serán: (1) la generalización de la banda ancha (es decir, en realidad la generalización de la anchura de banda normal), que me librará de limitaciones puramente técnicas, en particular de los problemas con el ‘peso’ y la visualización de los archivos (por fin acabaremos con los histogramas de descargas); (2) el desarrollo de la 3D. Lo que me interesa es el relato hipermedia (= el multimedia + el clic). Las trampas en las que uno puede caer con un relato en 2D ya pueden ser apasionantes. Con la 3D, habrá que coger el toro por las astas para impedir que el proyecto se limite a una simple proeza técnica, y dejar la prioridad al relato.”

La próxima generación del internet será una red “pervasiva” —es decir, una red única y omnipresente— que permitirá conectarse en cualquier lugar y en cualquier momento a través de cualquier tipo de aparato. Rafi Haladjian, fundador del proveedor de servicios internet Ozone, explica en 2007 en el sitio web de su empresa: “La nueva ola afectará en cualquier momento nuestro mundo físico, nuestro entorno real, nuestra vida cotidiana. Ya no accederemos a la red, sino que viviremos en ella. Los futuros componentes de esta red (cables, operadores, etcétera) serán completamente transparentes para el utilizador final. La red estará siempre abierta, posibilitando así una conexión permanente en cualquier lugar. También será agnóstica en términos de aplicaciones, ya que estará fundada en los mismos protocolos del internet.”

En cuanto al contenido de la red pervasiva, el filósofo visionario Timothy Leary lo describe así en 1994 en su libro “Caos y cibercultura”: “Toda la información del mundo está en el interior. Y gracias al ciberespacio, todo el mundo puede tener acceso a ella. Todas las señales humanas contenidas hasta ahora en los libros han sido digitalizadas. Han sido guardadas y están disponibles en estos bancos de datos, sin contar todos los cuadros, todas las películas, todos los programas de televisión, todo, absolutamente todo.”


La codificación

El primer sistema de codificación informática es el ASCII (American Standard Code for Information Interchange – Código Estadounidense Estándar para el Intercambio de Información). Publicado en 1963 por el ANSI (American National Standards Institute – Instituto Estadounidense para Normas Nacionales), el ASCII es un código de 128 caracteres convertidos, en el lenguaje binario, en siete bits (A se convierte en “1000001”, B se convierte en “1000010”, etcétera). Los 128 caracteres incluyen 33 caracteres de control (que no representan símbolos escritos) y 95 caracteres imprimibles que corresponden a las teclas del teclado inglés: las 26 letras sin acento en mayúsculas (A-Z) y en minúsculas (a-z), las cifras, los signos de puntuación y algunos símbolos.

El ASCII no permite más que la lectura del inglés y del latín. No permite tomar en cuenta los caracteres acentuados de otros idiomas (como el español, el francés o el alemán) así como los idiomas con alfabetos diferentes (como el árabe, el griego o el ruso) y aún menos los idiomas no alfabéticos (como el chino, el japonés o el coreano).

Esto no plantea ningún problema de importancia en los primeros años, cuando los intercambios en el internet (creado en 1974) se limitan esencialmente a Norteamérica. Con el desarrollo del internet por el mundo en los años 1980, se vuelve insuficiente comunicarse solo en inglés con el ASCII original, y de ahí la necesidad de las variantes del ASCII para tener en cuenta los caracteres acentuados de otros idiomas. Se publican variantes del ASCII en ocho bits desde 1986, por ejemplo la norma ISO 8859, también llamada ISO Latín, con la ISO 8859-1 (ISO Latín-1) para el español, el francés y el alemán.

El paso del ASCII original a sus diversas variantes no tarda en convertirse en un verdadero rompecabezas, incluso en la Unión Europea, donde se plantean problemas como la multiplicación de las variantes, la corrupción de los datos durante los intercambios informáticos o la incompatibilidad de los sistemas, ya que las páginas web solo pueden visualizarse en un idioma a la vez.

Con el desarrollo de la web (inventada en 1990), se internacionaliza cada vez más el intercambio de datos. Uno ya no puede conformarse con utilizar el inglés y otros pocos idiomas con el ASCII y sus variantes.

Como explica en septiembre de 1998 Brian King, director del WorldWide Language Institute (WWLI), en una entrevista por correo electrónico: “La tecnología de los ordenadores ha sido durante mucho tiempo un ámbito únicamente de una ‘élite’ compuesta de ingenieros en informática, cómoda tanto en lenguajes de programación complejos como en inglés, la lengua universal de las ciencias y la técnica. Los primeros ordenadores fueron concebidos para manejar únicamente sistemas de escritura que pudiesen ser traducidos en ASCII. Solo había espacio para las 26 letras del alfabeto inglés en un sistema de codificación que, al comienzo, ni siquiera podía reconocer los acentos agudos y las diéresis, por no hablar de los sistemas no alfabéticos como el chino. Pero se alteró la tradición y la tecnología se popularizó. Interfaces gráficas como Windows y Macintosh aceleraron el proceso. La estrategia de marketing de Microsoft consistió en presentar su sistema de explotación como fácil de usar por el cliente ‘medio’. Actualmente, esta facilidad de uso se ha extendido más allá del PC hasta la red, tanto así que, ahora, incluso aquellos que no son programadores pueden insertar applets de Java en sus páginas web sin saber nada de programación.”

“La extensión de esta popularización local es la exportación de las tecnologías de la información en el mundo entero. El inglés ya no es necesariamente la lengua del usuario. Ahora ya no hay una lengua indispensable, sino idiomas propios de los usuarios. Una cosa es cierta: ya no es necesario entender el inglés para utilizar un ordenador, igual que ya no es necesario tener un diploma en informática. Las exigencias de los usuarios que no son de lengua inglesa —y el esfuerzo de las empresas de tecnología que compiten para conseguir mercados mundiales— han hecho de la localización un sector de rápida expansión en el desarrollo de los software y del hardware [material informático]. La demanda de los usuarios no anglófonos y el esfuerzo que hicieron las empresas de alta tecnología compitiendo entre sí para acaparar los mercados mundiales, hicieron de la localización un sector en expansión rápida el del desarrollo de los software y del hardware.”

“Lo primero fue el paso del ASCII al ASCII extendido. Esto significa que los ordenadores empezaban a reconocer los acentos y los símbolos utilizados en las variantes del alfabeto inglés; símbolos que pertenecían sobre todo a las lenguas europeas. Sin embargo, las páginas solo podían aparecer en una sola lengua a la vez. La innovación más reciente es Unicode. Aunque todavía esté evolucionando y que solo haya sido incorporado en los últimos software, este sistema nuevo de codificación convierte cada carácter en 16 bits. Mientras que el ASCII extendido con ocho bits podía abarcar un máximo de 266 caracteres, el Unicode puede abarcar más de 65.000 caracteres únicos y, por lo tanto, tiene la posibilidad de manejar informáticamente todos los sistemas de escritura del mundo. Todavía no es perfecto, pero se puede navegar en chino, en japonés, en coreano y en muchas otras lenguas que no utilizan el alfabeto occidental. Ya que el internet se extiende por lugares del mundo donde se usa poco el inglés, como por ejemplo en China, lo normal es que se use el chino y no el inglés. La mayoría de los usuarios en China no tiene más opción que su lengua materna.”

Publicado por primera vez en enero de 1991, el Unicode es un sistema de codificación universal en 16 bits que asigna un número único a 65.000 caracteres. Este número es legible desde cualquier plataforma, con cualquier software o desde cualquier idioma. Tiene variantes UTF-8, UTF-16 y UTF-32 (UTF: Unicode Transformation Format – Formato de Transformación del Unicode) según el número de bits utilizados para la codificación. El Unicode, mantenido por el Unicode Consortium, es uno de los componentes de las especificaciones del World Wide Web Consortium (W3C), el organismo internacional encargado del desarrollo de la web.

La utilización del Unicode se generaliza en 2000, por ejemplo, para los archivos de texto bajo la plataforma Windows (Windows NT, Windows 2000, Windows XP y siguientes versiones) que hasta entonces estaban en ASCII. Pero integrar este nuevo sistema de codificación en todos los software y navegadores es un trabajo titánico; habrá que esperar hasta diciembre de 2007 para que el Unicode suplante al ASCII en el internet.


La internacionalización

“Hacia la comunicación en el internet en todas las lenguas…”: este es el subtítulo de la página web de Babel, un proyecto creado en 1997 por la Internet Society (ISOC) y Alis Technologies para contribuir a la internacionalización del internet. La Internet Society, fundada por el inventor del internet Vinton Cerf, es una organización internacional que promueve el desarrollo del internet. Alis Technologies es una compañía especializada en el procesamiento automático de las lenguas.

El sitio web de Babel está disponible en siete idiomas (alemán, español, francés, inglés, italiano, portugués, sueco). Babel hace el primer estudio sobre la distribución de las lenguas en la web y lo publica en junio de 1997 en los siete idiomas del sitio bajo el título “Palmarés de las lenguas en la web”. Los porcentajes son los siguientes: 82,3% para el inglés, 4% para el alemán, 1,6% para el japonés, 1,5% para el francés, 1,1% para el español, 1,1% para el sueco y 1% para el italiano.

Según la empresa consultora en línea Global Reach, los usuarios que no son anglófonos son 56 millones en julio de 1998, con 22,4% de usuarios hispanos, 12,3% de usuarios japoneses, 14% de usuarios germánicos y 10% de usuarios francófonos. Por ejemplo, de los 500 millones de habitantes de Europa, solo 15% tienen como lengua materna el inglés, 32% consultan páginas web en inglés y 28% no pueden leer esta lengua.

Randy Hobler, consultor en marketing para productos y servicios de traducción, explica en septiembre de 1998 en una entrevista por correo electrónico: “El aumento de páginas web en otros idiomas que no sean el inglés no solo es debido al hecho que hay más sitios y usuarios en países no anglófonos, sino también al hecho que empresas y organismos localizan más sus sitios web y a que se utiliza más la traducción automática para ofrecer sitios desde o hacia otros idiomas.”

“Como el internet no tiene fronteras nacionales, los usuarios se organizan según otros criterios propios de este medio de comunicación. En términos de plurilingüismo, existen comunidades virtuales, por ejemplo lo que suelo llamar las ‘naciones de los idiomas’, cuales son los usuarios que comparten la misma lengua materna, sea cual sea su entorno geográfico. Así pues, la nación de habla hispana no abarca solo a los usuarios de España y de Latinoamérica, sino también a todos los hispanohablantes que viven en los Estados Unidos o en Marruecos.”

¿Cómo leer varios idiomas en la pantalla de un ordenador? Yoshi Mikami, informático en Fujisawa (Japón), escribe (junto con sus socios Kenji Sekine y Nobutoshi Kohara) una “Guía para una web multilingüe”, publicada en japonés por la editorial O’Reilly Japan en agosto de 1997, y traducida al inglés, al alemán y al francés el año siguiente.

Yoshi Mikami explica en diciembre de 1998: “Mi lengua materna es el japonés. Como hice mis estudios de tercer ciclo en los Estados Unidos y trabajé en informática, he llegado a ser bilingüe japonés-inglés americano. Siempre he estado interesado en otras lenguas y culturas, lo que me llevó a aprender ruso, francés y chino mientras tanto. A finales de 1995, creé la página web ‘The Languages of the World by Computers and the Internet’ [Los idiomas del mundo por ordenadores y el internet] e intenté proponer en inglés y en japonés un breve historial de los seis idiomas más usados en el internet, así como las características de cada lengua, de su fonética, de su mapa de caracteres y de su codificación informática. Avalado por la experiencia adquirida, instigué a mis dos socios a que escribiéramos un libro sobre la concepción, la creación y la presentación de sitios web multilingües; un libro que se publicó en agosto de 1997 [en japonés] bajo el título ‘Guía para una web multilingüe’ , el primer libro del mundo escrito sobre semejante tema.”

“Miles de años atrás, en Egipto, en China y en otros lugares, la gente era más sensible a la necesidad de comunicar sus leyes y reflexiones en varios idiomas y no en uno solo. En nuestra sociedad moderna, cada Estado ha adoptado más o menos una sola lengua para la comunicación. A mi parecer, el internet permitirá un uso más amplio de varios idiomas y de páginas multilingües (y no solo una gravitación alrededor del inglés americano) así como un uso más creativo de la traducción informática multilingüe. i 99% de los sitios web creados en Japón están redactados en japonés!”

El World Wide Web Consortium (W3C) es un consorcio internacional fundado en octubre de 1994 por Tim Bernes-Lee, inventor de la web, para definir los protocolos comunes de la web. En 1998, la nueva sección “Internacionalización / Localización” presenta los protocolos útiles para una web multilingüe (HTML, mapas de caracteres, nuevos atributos, HTTP, negociación del idioma, URL, otros identificadores para incluir non ASCII caracteres) y consejos prácticos para crear un sitio web multilingüe.


El multilingüismo

Geoffrey Kingscott, director de Praetorius, empresa británica de traducción y de servicios lingüísticos, explica en septiembre de 1998 en una entrevista por correo electrónico: “Las características propias de la web son la multiplicidad de generadores de sitios y el bajo precio de la emisión de mensajes. Esto, por lo tanto, favorecerá el multilingüismo mientras se vaya desarrollando la web. Como esta se creó en los Estados Unidos, todavía está principalmente en inglés, pero es solo algo temporal. Para explicarlo de manera más detallada, diría que, cuando teníamos lo impreso o lo audiovisual (películas, televisión, radio, videos, casetes), la información o el entretenimiento que esperábamos dependía de agentes (editores, canales de radio o televisión, productores de casetes o videos) que tenían que subsistir comercialmente y, en el caso de la radio-teledifusión, del servicio público, con serias limitaciones presupuestarias. Lo que significa que la cantidad de clientes es primordial y determina la necesidad de hacer uso de otras lenguas más allá del omnipresente inglés. Estas restricciones desaparecen con la web.”

Alain Bron, un consultor en sistemas de información y escritor francés, cuenta en enero de 1999: “Habrá todavía y durante mucho tiempo el uso de lenguas diferentes y qué mejor, por el derecho a la diferencia. El riesgo es por supuesto la invasión de una lengua en perjuicio de otras, y por lo tanto la nivelación cultural al detrimento de las otras. Pienso que, poco a poco, servicios en línea van a crearse para paliar esta dificultad. Antes que nada, algunos traductores podrán traducir y comentar textos según la petición, y sobre todo los sitios más frecuentados van a invertir en versiones en lenguas diversas, como lo hace la industria audiovisual.”

Marcel Grangier, responsable de la sección francesa de los servicios lingüísticos centrales de la Administración Federal Suiza, explica en enero de 1999: “El multilingüismo en el internet puede ser considerado como una feliz fatalidad y, sobre todo, como una irreversible. Es siguiendo esta óptica que conviene dejar de lado a los aguafiestas que solo saben quejarse de la supremacía del inglés. Esta supremacía no es nefasta en sí, en la medida en que resulta de realidades esencialmente estadísticas (más PC por persona, más locutores de este idioma, etcétera). La respuesta adecuada no es ‘luchar contra el inglés’ y tampoco basta con lamentarse, sino que hace falta multiplicar los sitios web en otros idiomas. Cabe añadir que en calidad de servicio de traducción, también preconizamos el plurilingüismo en los sitios web mismos. La multiplicación de los idiomas presentes en el internet es inevitable, y solo puede hacerse en beneficio de los intercambios multiculturales. Para que estos intercambios tengan lugar en un medioambiente óptimo, sigue conviniendo desarrollar herramientas que mejoren la compatibilidad. La gestión de los signos diacríticos no constituye más que un ejemplo de todo lo que aún se puede hacer.”

Bruno Didier, webmaster de la biblioteca del Instituto Pasteur en París, escribe en agosto de 1999: “El internet no es una propiedad nacional ni lingüística. Es un vector de cultura, y el primer soporte de la cultura es la lengua. Cuantas más lenguas estén representadas en toda su diversidad, más culturas estarán representadas en el internet. No pienso que tengamos que ceder a la tentación sistemática de traducir las páginas web a una lengua más o menos universal. Los intercambios culturales suponen una voluntad de ponerse al alcance de las personas que queremos encontrar. Y este esfuerzo pasa por la comprensión de su lengua. Por supuesto, mis palabras son muy utópicas. Porque, concretamente, mi actividad de vigilancia en la red me incita más bien a echar pestes contra algunos sitios noruegos o brasileños que no dan ninguna información en inglés, por más mínima que sea.”

Steven Krauwer, coordinador de la red ELSNET (European Network of Excellence in Human Language Technologies – Red Europea de Excelencia en Tecnologías para las Lenguas Humanas), explica en septiembre de 1998: “Como ciudadano europeo, me parece que el multilingüismo en la web es absolutamente esencial. En mi opinión, no es una situación sana a largo plazo que solo la gente que entiende el inglés pueda aprovechar plenamente los beneficios de la web. Como científico (que se ha especializado en la traducción automática), veo el multilingüismo como un gran reto: garantizar que la información en la web sea accesible para todos, independientemente de las diferencias lingüísticas.”

Añade en agosto de 1999: “Cada vez estoy más convencido de que debemos velar por no afrontar el problema del multilingüismo aislándolo del resto. Regreso de Francia, donde acabo de pasar unas excelentes vacaciones veraniegas. A pesar de que mi conocimiento del francés es muy básico (es lo mínimo que puedo decir), sorprende darse cuenta de que puedo —a pesar de todo— comunicarme sin problemas al combinar este con gestos, expresiones faciales, indicios visuales, esquemas, etcétera. Creo que la web (opuestamente al viejo sistema de correo electrónico textual) va a permitir combinar con éxito la transmisión de informaciones a través de diversos canales (o medios), a pesar de que este proceso no satisfaga más que parcialmente cada uno de estos canales tomados de manera aislada.”

Steven Krauwer sugiere tres soluciones prácticas para promover el multilingüismo en la web: “(1) en lo que se refiere a los autores: una mejor formación de los autores de los sitios web para explotar las posibles combinaciones que permitan mejorar la comunicación superando la barrera del idioma (y no solo de manera superficial); (2) en lo que se refiere a los usuarios: software de traducción del tipo AltaVista Translation [Babel Fish], cuya calidad no es excepcional, pero que tiene el mérito de existir; (3) en lo que se refiere a los navegadores web: software de traducción integrados, especialmente para los idiomas no dominantes, y diccionarios también integrados más rápidos para consultar.”


La localización de los sitios web

Yahoo! es el primer buscador en proponer en abril de 1997 una interfaz en siete idiomas (inglés, alemán, coreano, francés, japonés, noruego, sueco) para el número creciente de usuarios no anglófonos.

Brian King, director del WorldWide Language Institute (WWLI), explica en septiembre de 1998: “Aunque una web multilingüe sea deseable por motivos morales y éticos, tal ideal no es suficiente para convertirlo en una realidad a gran escala. Así como el usuario que no habla inglés ahora puede tener acceso a la tecnología en su propio idioma, el impacto del comercio electrónico puede ser una fuerza importante para que el multilingüismo acabe siendo la vía más natural hacia al ciberespacio. Los vendedores de productos y servicios en el mercado virtual mundial en el que se está convirtiendo el internet deben prepararse para tratar con un mundo virtual tan multilingüe como el mundo físico. Si quieren tener éxito, ¡tienen que asegurarse de que están hablando el idioma de sus clientes!”

Fundada por Bill Dunlap en 1995, Global Reach (Alcance Global) es una empresa especializada en la internacionalización y la localización de sitios web. En primer lugar, Bill Dunlap crea en 1985 Euro-Marketing Associates (Socios para un Marketing en Europa), una empresa consultora con sede en San Francisco (Estados Unidos) y en París (Francia). Diez años después, reestructura su empresa en la consultora en línea Global Reach, que tiene como objetivo promover en otros países los sitios web de empresas estadounidenses para atraer a más visitantes y así aumentar las ventas. Este método incluye la traducción de los sitios web a varios idiomas, la promoción activa de estos sitios y el uso de banderas de publicidad en los mismos.

Bill Dunlap destaca en diciembre de 1998: “Hay muy pocas personas en los Estados Unidos que se interesan por comunicar en varios idiomas. Mucha gente sigue pensando que el mundo entero habla inglés. Al contrario, en Europa los países son suficientemente pequeños para que una perspectiva internacional haya sido necesaria desde hace siglos. Desde 1981, cuando empezó mi vida profesional, estuve involucrado en traer compañías estadounidenses a Europa. Esto era en gran medida un problema de idioma, ya que su información tenía que estar disponible en lenguas europeas para ser útil tanto aquí como en Europa. Cuando la web se hizo popular en 1995, dio a mis actividades una dimensión en línea y empezó promoviendo el comercio electrónico europeo entre mis conciudadanos estadounidenses. Recientemente, en la conferencia Internet World en Nueva York, hablé del cibercomercio europeo y sobre cómo utilizar un sitio web para llegar a los diferentes mercados europeos.”

“La promoción de un sitio web es tan importante como su creación, si no más. Una empresa debe estar dispuesta a dedicar por lo menos tanto tiempo y a gastar tanto dinero para promocionar su sitio como para crearlo. Global Reach ayuda a promover un sitio en países de habla no inglesa para llegar a un público más amplio… y así conseguir más ventas. Las empresas tiene muchas buenas razones para tomar en serio el asunto del mercado internacional. Global Reach ofrece un método para ampliar su sitio a muchos países, presentarselo a los visitantes en línea en su propio idioma y penetrar la red comercial de estos.”

Bill Dunlap añade en julio de 1999: “Cuando la página principal de un sitio web está disponible en varios idiomas, el siguiente paso es el desarrollo del contenido en cada idioma. Un webmaster notará cuáles idiomas atraen a más visitantes y por lo tanto generan más ventas. Estos serán los idiomas en los que se iniciará una campaña de promoción plurilingüe en la web. Mientras tanto, siempre es bueno que siga aumentando el número de idiomas en los que un sitio web está disponible. Al principio, basta con que solo la página principal sea traducida a varios idiomas, pero es deseable que se establezca un verdadero sector para cada idioma.”

Peter Raggett, director de la biblioteca de la OCDE (Organización de Cooperación y Desarrollo Económicos), escribe en agosto de 1999: “Pienso que corresponde a las organizaciones y empresas europeas proponer sitios web, si es posible, en tres o cuatro idiomas. A la hora de la mundialización y del comercio electrónico, las empresas tienen un mercado potencial que cubre varios países a la vez. Permitir a los francófonos, germanófonos y japoneses consultar un sitio web tan fácilmente como para los anglófonos, dará mejor competitividad a una empresa dada.”


La colaboración en línea

Pierre Ruetschi, periodista del diario suizo La Tribune de Genève (La Tribuna de Ginebra), pregunta en diciembre de 1997 a Tim Berners-Lee, el inventor de la web en 1990: “Han pasado siete años. ¿Está usted satisfecho de la manera en que la web ha evolucionado?” Él contesta que, si bien se alegra de que la información disponible sea tan rica y variada, la web aún no ha alcanzado la potencia prevista en su concepción original. Preferiría “que la web fuera más interactiva, que la gente pudiera juntar esfuerzos para crear información”, en vez de limitarse a consumir la que se le ofrece. La web tiene que convertirse en “un medio de comunicación colaborativo, en un mundo de conocimientos que compartimos”.

Ingeniera de estudios en el INaLF (Institut National de la Langue Française – Instituto Nacional de la Lengua Francesa), Christiane Jadelot cuenta en julio de 1998: “Comencé a utilizar verdaderamente el internet en 1994, creo, con un software que se llamaba Mosaic. Descubrí entonces una herramienta increíble para hacer progresos en mis conocimientos de informática, lingüística, literatura… Todos los ámbitos están cubiertos. Puedes encontrar lo peor y lo mejor, pero en tanto que consumidor inteligente hay que saber diferenciar entre las cosas que uno encuentra. Me encantaron sobre todo los software de correo, de intercambio de documentos, de conexión a distancia. En ese entonces tenía problemas con un software llamado Paradox y fuentes de caracteres inapropiadas para lo que quería hacer. Traté de resolverlo preguntando en un grupo de News apropiado. ¡Recibí respuestas del mundo entero, como si mucha gente estuviese preocupada por resolver mi problema!”

Robert Ware, informático en Englewood (Colorado, Estados Unidos), lanza en abril de 1996 el sitio web OneLook Dictionaries (Diccionarios en una Mirada) como punto de acceso común para una búsqueda rápida en diccionarios generales y especializados (en negocios, informática, medicina, religión, ciencia, tecnología, deportes, argot), con 2 millones de términos de 425 diccionarios en 1998. Cuenta en septiembre de 1998: “Personalmente, estoy en contacto casi únicamente con personas que solo hablan inglés y que no tienen mucho incentivo para desarrollar sus habilidades lingüísticas. El hecho de que yo esté ahora en contacto con el mundo entero cambia el enfoque, ¡y lo cambia para mejor! Yo tardé un poco en incluir diccionarios de lengua no inglesa —en parte porque soy monolingüe— pero ahora se pueden encontrar algunos.”

Cuenta en la misma entrevista: “Ocurrió algo muy interesante e instructivo para mí. En 1994, trabajé para una escuela y trataba de instalar un software en determinado tipo de ordenador. Conocí a una persona que tenía el mismo problema que yo, y empezamos a intercambiar correos electrónicos. Súbitamente, fue impresionante… El software había sido escrito a 40 kilómetros de distancia, pero la persona que me estaba ayudando se encontraba en otra parte del mundo. ¡Las distancias geográficas ya no importaban! Bueno, esto era genial, pero ¿qué hacer con eso? Podía comunicar solo en inglés aunque, afortunadamente, mi correspondiente podía escribir tanto en inglés como en alemán, que era su lengua materna. El internet había eliminado una barrera (la de la distancia), pero seguía existiendo una barrera muy real (la del idioma).”

“Me parece que el internet impulsa a la gente simultáneamente hacia dos direcciones diferentes. El internet, de habla inglesa al principio, conecta a la gente en el mundo entero. De esta manera, promueve un idioma común para comunicar. Pero también suscita contactos entre personas de diferentes idiomas y puede desarrollar un interés por el multilingüismo. Un idioma común es importante, pero de ninguna manera puede reemplazar la necesidad de muchos idiomas. Así, el internet promueve tanto un idioma común como el multilingüismo, y eso es un factor que contribuye a encontrar soluciones. El creciente interés por los idiomas y la necesidad de utilizarlos estimulan en el mundo la creación de cursos de idiomas y de herramientas lingüísticas, y el internet ofrece la oportunidad de ponerlos a disposición de todos en la web de forma rápida y barata.”

El internet también permite que los diarios prohibidos en un país existan en la web. Puesto que denuncia las violaciones a los derechos humanos en Argelia, La Nation, un semanario argelino independiente publicado en francés, se ve obligado por el Gobierno argelino a cesar sus actividades en diciembre de 1996. Un año después, cuando se cumple el primer aniversario de su desaparición de los quioscos, Reporteros sin Fronteras publica una edición especial en su sitio web. Malti Djallan, uno de los creadores de esta iniciativa, explica en el sitio web: “Al poner La Nation en línea, nuestro objetivo era el de asegurar: ya no tiene sentido la censura de diarios en Argelia porque, gracias al internet, la gente puede recuperar los artículos, imprimirlos y distribuirlos a su alrededor.”

Otro desafío importante es la accesibilidad del internet para todos. La asociación HandicapZéro (Discapacidad Cero) crea su sitio web en septiembre de 2000 para los usuarios franceses afectados por un problema visual, que representan 10% de la población. Se propone demostrar así “que con solo respetar algunas reglas elementales, el internet puede acabar convirtiéndose en un espacio de libertad para todos.” Este sitio se convierte en febrero de 2003 en un portal generalista francófono con un acceso adaptado a la información sobre diversos asuntos (noticias, programas de televisión, informes meteorológicos) y servicios (salud, empleo, consumo, ocio, deporte, telefonía). Los usuarios ciegos pueden acceder al sitio web a través de un dispositivo braille o de una síntesis de voz. Los usuarios con visión reducida pueden escoger los parámetros en la página de entrada, por ejemplo el tamaño de los caracteres y el color del fondo de pantalla, para navegar en la web más cómodamente. Los usuarios que no padecen deficiencia visual pueden corresponder en braille con los usuarios ciegos a través de este sitio. Más de 2 millones de usuarios utilizan sus servicios durante el año 2006.


Los textos electrónicos

Los primeros textos electrónicos en la web son los zines electrónicos (e-zines). John Labovitz, creador de la E-Zine-List en 1993, cuenta en en su página web: “Para los que no conocen el mundo del zine, ‘zine’ es la abreviación de ‘fanzine’ o ‘magazine’ según el punto de vista. Los zines son, en general, obra de una persona o de un pequeño grupo, casi siempre redactados por placer o por razones personales, y normalmente irreverentes, bizarros y/o esotéricos. Los zines no son publicaciones para todo público. No suelen tener publicidad (salvo, en ocasiones, sobre otros zines), no se dirigen a un público masivo y no tienen fines comerciales. Un e-zine es un zine distribuido en parte o únicamente en redes electrónicas como el internet.”

Los primeros e-zines están hospedados en los Etext Archives, creados en 1992 por Paul Southworth en el sitio web de la Universidad de Michigan (Estados Unidos). Los Etext Archives son “un lugar para los textos electrónicos de todo tipo, desde los sagrados a los profanos, y desde los políticos a los personales”, sin juzgar su contenido. Cinco años después, tienen seis secciones: (a) una sección “E-zines”, que incluye textos electrónicos periódicos que van desde los profesionales a los personales; (b) una sección “Politics”, que incluye zines políticos, ensayos y páginas de grupos políticos; (c) una sección “Fiction”, que incluye textos de autores aficionados; (d) una sección “Religión”, que incluye textos religiosos para el público corriente o especializado; (e) una sección “Poetry”, que es una mezcla ecléctica de poesía aficionada en su mayoría; y (f) una sección “Quartz”, que incluye archivos anteriormente hospedados en quartz.rutgers.edu.

Paul Southworth cuenta en su página web: “La web era nueva, el gopher [menú textual a varios niveles] era la nueva tecnología y el FTP [protocolo de transferencia de archivos] era todavía el protocolo estándar de extracción de la información para la gran mayoría de los usuarios. El origen del proyecto ha llevado a muchas personas a asociarlo con la Universidad de Michigan, a pesar de que no ha existido en realidad ninguna relación formal y que el proyecto es solo el hecho del trabajo de los voluntarios y de donaciones. El equipo es la propiedad exclusiva de los responsables del proyecto. El proyecto fue lanzado en respuesta a la falta de un archivo organizado de los documentos políticos, de los diarios y de los debates difundidos por Usenet en newsgroups.”

“Poco tiempo después, los e-zines empezaron su proliferación rápida en el internet, y quedaba claro que estos materiales tampoco eran almacenados de manera coordinada ni preservados, por no mencionar el hecho que la frontera era borrosa entre los e-zines (que en ese momento se relacionaban sobre todo al hacking, al phreaking y al anarquismo internet) y los documentos políticos disponibles en el internet. Entonces, la mayoría de los e-zines estaban en línea con el propósito original de los Etext Archives. Una cosa llevando a la otra, e-zines de todo tipo —incluidos muchos títulos sobre diversos temas culturales no relacionados con la política— han invadido nuestros archivos en un volumen significativo.”

Se crea la E-Zine-List en el verano de 1993 por iniciativa de John Labovitz para hacer el inventario de los zines electrónicos que circulan por el mundo y están accesibles por FTP, gopher, el correo electrónico, la web y otros servicios. John Labovitz relata en su página web que, al principio, su objetivo era dar a conocer Crash, un zine en versión impresa del cual deseaba hacer una versión electrónica. Se pone a buscar unos directorios, pero sólo encuentra el grupo de discusión alt.zines, y archivos como The Well y The Etext Archives. Decide crear un directorio organizado. Empieza con doce títulos clasificados manualmente en un procesador de textos, redacta su propia base de datos, y actualiza la E-Zine-List una vez al mes.

En cinco años, entre 1993 y 1998, ya no se trata de decenas, sino que de centenas de e-zines. El mismo significado de la palabra e-zine se hace más amplio, para referirse a cualquier tipo de publicación que haya sido editada por vía electrónica, aunque “exista aún un grupo original e independiente, minoritario, que sigue publicando lo que le dicta el corazón, más allá de los límites de lo que solemos llamar un e-zine.” La E-Zine-List cuenta con 3.045 títulos en noviembre de 1998.

John Mark Ockerbloom, estudiante de doctorado en la Universidad Carnegie Mellon (CMU, Estados Unidos), crea la Online Books Page (Página de libros en línea) en 1993 como un repertorio de los libros digitales gratuitos en la web a fin de ofrecer así al lector un punto de acceso común.

Relata cinco años más tarde, en septiembre de 1998, en una entrevista por correo electrónico: “Yo era el webmaster del Departamento de informática de la CMU, y empecé con nuestro sitio web local en 1993. Este comprendía páginas con enlaces hacia recursos disponibles localmente, entre las que figuraba al principio la Online Books Page con enlaces hacia libros puestos en línea por personas de nuestro departamento (por ejemplo Robert Stockton, quien realizó versiones web de algunos libros del Proyecto Gutenberg). Después, los usuarios empezaron a pedir enlaces hacia libros disponibles en otros sitios web. Me di cuenta de que muchos sitios web (y no solamente el Proyecto Gutenberg o Wiretap) proponían libros en línea, y que podría ser útil tener una lista completa que permitiera descargar o leer libros dondequiera que se encontraran en la red. Fue así como empezó mi catálogo.”

“Dejé mi actividad de webmaster en 1996, pero mantuve la Online Books Page porque entretanto me apasioné por el enorme potencial que representaba el internet para poner la literatura al alcance de mucha gente. Ahora se han puesto en línea tantos libros que resulta difícil para mí mantenerme al día (de hecho, tengo mucho retraso). Pero pienso seguir con esta actividad de una manera u otra. Me intereso mucho por el desarrollo del internet como medio de comunicación de masa durante los próximos años. También me gustaría seguir comprometido de un modo u otro en la difusión gratuita de libros para todos en el internet, ya sea que esta tarea forme parte integrante de mi actividad profesional, o que me dedique a una actividad voluntaria similar durante mi tiempo libre.”

John Mark Ockerbloom obtiene su doctorado en informática a finales de 1998. Empieza a trabajar en la Universidad de Pensilvania en 1999, en el departamento de investigación y desarrollo de la biblioteca digital. Transfiere allí la Online Books Page con la misma presentación sobria, y prosigue con su trabajo de inventario en la misma línea. El repertorio cuenta con 12.000 libros en 1999, 20.000 libros en 2003 (de los cuales 4.000 libros escritos por mujeres), 25.000 libros en 2006, 30.000 libros en 2007 (de los cuales 7.000 libros del Proyecto Gutenberg), 35.000 libros en 2010 y dos millones de libros en 2015.


Los libros digitales

Las primeras colecciones digitales se inspiran casi todas en el Proyecto Gutenberg, una colección digital de libros de dominio público creada en 1971 por Michael Hart, estudiante en la Universidad de Illinois (Estados Unidos).

El Proyecto Gutenberg es un proyecto visionario con el fin de crear versiones electrónicas gratuitas de obras literarias y difundirlas por todo el mundo. Explica en agosto de 1998 en una entrevista por correo electrónico: “Nosotros consideramos el texto electrónico como un nuevo medio de comunicación, sin verdadera relación con el papel. La única semejanza es que ambos difundimos las mismas obras, pero en cuanto la gente se haya acostumbrado, no veo cómo el papel podría aún competir con el texto electrónico, sobre todo en las escuelas.”

Michael Hart teclea la Biblia, la obra completa de Shakespeare y algunas novelas (por ejemplo “Alicia en el país de las maravillas” y “Peter Pan”), primero él solo y luego con la ayuda de algunos voluntarios. Su proyecto cobra un nuevo aliento con la invención de la web en 1990. 95% de los usuarios del internet son de lengua materna inglesa en 1994; entonces, la mayor parte de los libros digitales está en inglés. En octubre de 1997, Michael Hart anuncia su intención de aumentar la producción de libros en otros idiomas (francés, alemán, español, italiano, latín). Publicado en mayo de 1999, el e-book #2000 es “Don Quijote” de Cervantes, en castellano, su idioma original. Michael Hart relata en julio de 1999: “Ahora añado un nuevo idioma cada mes, y voy a seguir haciéndolo todo el tiempo mientras sea posible.”

Charles Franks crea Distributed Proofreaders en octubre de 2000 para compartir la revisión de los libros entre centenares de voluntarios de diferentes países. Los libros impresos son en primer lugar escaneados y después convertidos en formato texto con un software ROC (Reconocimiento Óptico de Caracteres), que tiene una fiabilidad de un 99%, lo que implica la necesidad de una relectura en pantalla para corregir el texto comparándolo con las imágenes escaneadas de las páginas impresas. Distributed Proofreaders tiene un total de 3.000 libros producidos en febrero de 2004, un total de 5.000 libros producidos en octubre de 2004, un total de 10.000 libros en marzo de 2007, un total de 20.000 libros producidos en abril de 2011 y un total de 30.000 libros producidos en julio de 2015, con miles de voluntarios en el globo y cinco libros producidos por día.

El Proyecto Gutenberg ofrece obras en 25 idiomas a principios de 2004, en 42 idiomas en julio de 2005, incluyendo el sánscrito y las lenguas maya, y en 59 idiomas en octubre de 2010. Los diez principales idiomas son el inglés (con 28.441 e-books el 7 de octubre 2010), el francés (con 1.659 e-books), el alemán (con 709 e-books), el finlandés (con 536 e-books), el holandés (con 496 e-books), el portugués (con 473 e-books), el chino (con 405 e-books), el español (con 295 e-books), el italiano (con 250 e-books) y el griego (con 101 e-books). Los idiomas siguientes son el latín, el esperanto, el sueco y el tagalo.

Michael Hart precisó a menudo en sus escritos que, así como en su tiempo Gutenberg había permitido a cualquier persona tener sus propios libros —hasta entonces exclusivos para una élite—, el Proyecto Gutenberg permite a todos disponer de una biblioteca digital gratuita —hasta ahora reservada a la colectividad— en un soporte de bolsillo, por ejemplo una llave USB. Las colecciones del Proyecto Gutenberg tienen el tamaño de una biblioteca pública de barrio (con 50.000 e-books en septiembre de 2015), pero esta vez disponible en la web e indefinidamente repetible.

Las primeras colecciones digitales en otros países se inspiran casi todas en el Proyecto Gutenberg. La primera colección digital nórdica (escandinava) es el Projekt Runeberg, creado en 1992 por iniciativa de Lysator, un club informático de estudiantes, en colaboración con la biblioteca de la Universidad de Linkoping (Suecia) para producir y organizar versiones electrónicas gratuitas de la literatura clásica nórdica. 200 obras están disponibles en 1998, con una lista de 6.000 autores nórdicos como herramienta de desarrollo de las colecciones.

La primera colección digital francesa es ABU-La Bibliothèque Universelle (ABU-La Biblioteca Universal), creada en 1993 en París a la iniciativa de la Asociación de los Bibliófilos Universales (Association des Bibliophiles Universels). Ofrece en 1998 un acceso libre al texto integral de 223 obras (de 76 autores) de la literatura clásica francesa.

La primera colección digital alemana es el Projekt Gutenberg-DE, creado en 1994 para ofrecer versiones electrónicas gratuitas de la literatura clásica alemana. Algunas decenas de obras están disponibles en 1998, con una página web para obras cortas y varias páginas (una por capítulo) para obras más largas. El sitio web también ofrece una lista alfabética de autores y de títulos, así como una breve biografía y una bibliografía para cada autor.

La primera colección digital suiza es Athena, creada en 1994 por Pierre Perroud, profesor del colegio Voltaire de Ginebra, y hospedada en el sitio web de la Universidad de Ginebra. En diciembre de 1997, el sitio bilingüe francés-inglés ofrece tanto obras digitalizadas por Athena (200 obras desde 1994) como enlaces hacia obras en varios idiomas de libre acceso de la web, y de géneros tan variados como la filosofía, las ciencias, el clasicismo, la literatura, la historia o la economía. Athena entrega acceso a 3.500 libros en diciembre de 1997, y a 8.000 libros en diciembre de 1998.

En un artículo de la revista suiza Informatique-lnformations, Pierre Perroud insiste en febrero de 1997 en la complementariedad del texto electrónico y del libro impreso. “Los textos electrónicos representan una incitación a la lectura y una participación atrayente a la difusión de la cultura, especialmente respecto al estudio y a la búsqueda textual. Estos textos son un buen complemento del libro impreso —aunque este último sea irremplazable si se trata de leerlo—. El libro impreso es un compañero misteriosamente sagrado hacia el cual convergen símbolos profundos: uno puede apretarlo en su mano, estrecharlo contra su pecho, mirarlo con admiración; su pequeñez nos tranquiliza tanto como nos impresiona su contenido; su fragilidad esconde una densidad que nos tiene fascinados; como el hombre, teme al agua y al fuego, pero es capaz de mantener al pensamiento humano a salvo del Tiempo.”

La primera colección digital italiana es el Progetto Manuzio, creado en 1995 por Liber Liber, una asociación que promueve la creatividad artística e intelectual, utilizando las tecnologías informáticas para asociar las humanidades con las ciencias. El nombre del proyecto está inspirado en un editor veneciano del siglo XVI famoso por haber mejorado las técnicas de impresión inventadas por Gutenberg. El Progetto Manuzio pretende”hacer realidad una idea noble: la idea de poner la cultura a disposición de todos. ¿Cómo? Poniendo libros, tesis, artículos, obras de ficción o cualquier documento que se pueda digitalizar a disposición de todo el mundo, en cualquier momento y gratis. Mediante un módem y disquetes (en este caso, sumando el precio de un disquete virgen y del correo postal), se pueden obtener cientos de libros. Y el Progetto Manuzio solo necesita a unas cuantas personas para que una obra de arte como ‘La Divina Comedia’ de Dante esté disponible para millones.”


La prensa

A principios de los años 1990, se pueden consultar las primeras ediciones electrónicas de diarios impresos en servicios comerciales como America OnLine (AOL) o CompuServe. Pues los órganos de prensa impresa empiezan a crear sus propios sitios web. El diario El País se pone en línea en España, así como los diarios Libération, Le Monde y L’Humanité en Francia y los semanales Focus y Der Spiegel en Alemania. En el Reino Unido, The Times y The Sunday Times crean su sitio web Times Online, el que ofrece incluso la posibilidad de generar una edición personalizada.

En los Estados Unidos, la versión en línea de pago de The Wall Street Journal logra atraer a 100.000 suscriptores en 1998. La suscripción es gratuita para leer The New York Times en línea. The Washington Post propone un sitio web con las noticias del día en línea y numerosos artículos archivados, con imágenes, sonido y videos. Pathfinder (que se convierte en Time) es el sitio web del grupo Time-Warner, que publica las revistas Time Magazine, Sports lllustrated, Fortune, People, Southern Living, Money y Sunset. En el sitio web se pueden leer artículos de estas revistas, con una búsqueda por fecha o por tema. Y por supuesto también está presente en la web la revista Wired, primera revista impresa enteramente dedicada a la cibercultura.

El internet también permite que se puedan leer en línea los títulos que no son fáciles de encontrar en un quiosco. Un artículo del diario francés Le Monde del 23 de marzo de 1998 da el ejemplo del diario argelino El Watan, en línea desde octubre de 1997. Según Redha Belkhat, redactor jefe de El Watan: “Para la diáspora argelina, encontrar en un quiosco de Londres, Nueva York u Ottawa, una edición de El Watan salida hace menos de una semana, es algo increíble. Ahora, el diario llega aquí a las 6 de la mañana, y a las 12 ya está en el internet.”

En un artículo publicado en diciembre de 1997 en el sitio de AJR/NewsLink, el periodista Eric K. Meyer explica: “Hoy, más de 3.600 diarios tienen presencia en el internet, pero observamos a la vez señales de decaimiento. 43% de estos diarios se sitúan fuera de los Estados Unidos, cuando solo eran 29% hace un año. Un crecimiento veloz —sobre todo en Canadá, el Reino Unido, Noruega, Brasil y Alemania— hizo aumentar a 1.563 la cantidad de diarios publicados fuera de los Estados Unidos. La cantidad de diarios estadounidenses en línea también está en alza y pasó de ser 745 hace un año a 1.290 hace seis meses y a 2.059 en la actualidad. Más allá de los Estados Unidos, los países líderes son el Reino Unido con 294 diarios en línea y Canadá, con 230. En Canadá, cada provincia o territorio posee al menos un diario en línea. La provincia que lidera este ranking es Ontario con 91 diarios, seguida por Alberta con 44 y después por Columbia Británica con 43. Más allá, México cuenta con 51 diarios en línea, Centroamérica con 23 y El Caribe con 36. Europa es el segundo continente más activo, con 728 diarios en línea. El primer país es el Reino Unido, seguido por Noruega con 53 diarios en línea y Alemania con 43. Asia posee 223, con la India liderando las estadísticas. América del Sur tiene 161 diarios en línea con Bolivia en primer lugar. África posee 53, donde Sudáfrica es el primer país. Australia y otras islas tienen 64 diarios en línea.”

Más allá de los artículos de todos estos diarios en línea, la web da acceso directo a gran cantidad de información para ayudar a comprenderlos (mapas, biografías, documentos oficiales, datos políticos y económicos, fotos, archivos de audio y video). Los lectores también pueden acceder a otros artículos sobre el mismo tema, con motores de búsqueda por fecha, autor, título o tema.

Los boletines digitales sin un equivalente impreso son cada vez más numerosos, por ejemplo el boletín en inglés de Jacques Gauchey desde Silicon Valley en California. Jacques Gauchey trabaja entre 1985 y 1992 para el diario francés La Tribune. Crea en 1993 la empresa G.a Communications, que ayuda a las compañías de la costa oeste de los Estados Unidos a definir y desarrollar sus expansión europea. Cuenta en julio de 1999 en una entrevista por correo electrónico: “Publiqué algunas ediciones de un boletín en inglés gratuito hace cuatro años en el internet. Cada edición tenía una decena de lectores hasta el día (en enero de 1996) en que la edición digital de Wired puso un enlace. En una semana tuve un centenar de correos electrónicos, incluyendo a lectores franceses de mi libro ‘La vallée du risque: Silicon Valley’ [El valle del riesgo: Silicon Valley, publicado por Plon en 1990], contentos de haber dado conmigo.”


La precariedad del empleo

En los años 1990, los talleres de PAO (publicación asistida por ordenador) proponen una impresión a precios bajos. Cada contenido está en versión digital para permitir su traslado por vía electrónica y para acelerar el procedimiento material de producción. En la prensa, los periodistas envían directamente sus textos para la maquetación, mientras que antes el personal de producción tenía que dactilografiar los textos del personal de redacción. En el mundo editorial, el redactor, el diseñador artístico y el diseñador gráfico suelen trabajar simultáneamente en una misma obra.

La digitalización de los textos y la automatización de los métodos de trabajo aceleran el proceso de producción, pero provocan una disminución de la intervención humana y por lo tanto incrementan el desempleo. Estos problemas son tan preocupantes que empleadores, sindicalistas y representantes gubernamentales del mundo entero son invitados a compartir sus experiencias durante en primer Coloquio sobre la Convergencia Multimedia organizado en enero de 1997 en Ginebra (Suiza) por la Oficina Internacional del Trabajo (OIT).

En Kenia, la tirada de los diarios es muy pequeña comparada con el número de habitantes, y cada ejemplar es leído al menos por una veintena de personas. Wilfred Kiboro, presidente del grupo Nation Printers and Publishers, explica que los costos de distribución podrían reducirse mucho con la creación de un sistema de impresión por satélite que evitaría el transporte en camiones por todo el país. “El precio de la tecnología de la información debe ser llevado a un nivel asequible. Sueño con el día en que los aldeanos africanos puedan acceder al internet desde su aldea, que hoy no tiene ni agua ni electricidad.” Los problemas económicos conllevan problemas culturales. Paradójicamente, las noticias sobre África para los africanos no vienen del mismo continente, sino que son difundidas por grandes medios de comunicación occidentales que transmiten su propia visión de África, sin dar una percepción real de su situación económica y social.

Según Bernie Lunzer, secretario-tesorero de la Newspaper Guild (Alianza de los Diarios) en los Estados Unidos, otro problema es el de la presión constante ejercida sobre los periodistas de las salas de redacción, cuyo trabajo debe estar disponible a medida que avanza el día, en lugar de ser utilizado solo al final de la jornada. A estas tensiones repetidas se añade el estrés de estar trabajando frente a la pantalla durante ocho a diez horas seguidas. El ritmo de trabajo y el uso intensivo del ordenador acarrean problemas preocupantes en términos de seguridad en el trabajo. Después de estar algunos años con este ritmo, algunos periodistas se desmoronan con solo treinta y cinco o cuarenta años de edad.

Según Carlos Alberto de Almeida, presidente de la Federación Nacional de Periodistas de Brasil (FENAJ), las nuevas tecnologías deberían hacer posible una racionalización del trabajo y permitir reducir su duración para favorecer el ocio y el enriquecimiento intelectual. En la práctica, los profesionales de los medios de comunicación se ven obligados a trabajar cada vez más horas. La jornada legal de cinco horas en realidad se convierte en una jornada de diez a doce. Las horas extra no se pagan, ni tampoco las horas trabajadas por un periodista los fines de semana durante su tiempo de descanso.

Michel Muller, secretario general de la Federación de las Industrias del Libro, del Papel y de la Comunicación (FILPAC) de Francia, explica que las industrias gráficas francesas han perdido 20.000 empleos en diez años (1987-1996), con efectivos que han pasado de 110.000 a 90.000 empleados. Las empresas elaboran planes sociales costosos para favorecer la recolocación de los empleados despedidos, creando empleos que suelen ser artificiales, mientras que hubiera sido preferible costear estudios fiables sobre la manera de equilibrar creaciones y supresiones de empleos antes de que fuera demasiado tarde.

Peter Leisink, profesor asociado de ciencias sociales en la Universidad de Utrecht (Países Bajos), precisa que, en el mundo editorial, la redacción de textos y la corrección de pruebas suelen realizarse a domicilio, lo más a menudo por trabajadores que se han hecho empresarios individuales tras haber sido despedidos, o tras la deslocalización o la fusión de su empresa. “Ahora bien, esta forma de empleo se parece más a un trabajo precario que a uno autónomo, pues las personas que la adoptan solo gozan de una autonomía reducida y generalmente dependen de una sola editorial.”

Walter Durling, director de la red de telecomunicaciones AT&T en los Estados Unidos, insiste en el hecho de que las nuevas tecnologías no cambiarán fundamentalmente la situación de los empleados. La invención de las películas no mató al teatro, y la invención de la televisión tampoco acabó con el cine. Las empresas deberían crear empleos vinculados con las nuevas tecnologías y proponerselos a aquellos trabajadores que se ven obligados a abandonar sus puestos porque éstos se han vuelto obsoletos.

Estos son argumentos muy teóricos, mientras que el problema es más bien una cuestión de proporción. ¿Cuántos puestos se han creado y a cuántos trabajadores se han despedido? Aparte de algunos casos que las organizaciones de empleadores suelen realzar, se observan masivas supresiones de empleos. Muchos puestos de baja cualificación técnica son sustituidos por puestos que requieren personal muy cualificado. Los trabajadores poco cualificados son despedidos. Otros reciben una formación profesional complementaria, teniendo a veces que autofinanciarla y que cursarla en su tiempo libre, aunque al final de la formación profesional ni siquiera pueden estar seguros de si los volverán a contratar.

Por su parte, los sindicatos preconizan la creación de empleos mediante la inversión, la innovación, la formación para las nuevas tecnologías, la reconversión de los trabajadores cuyos empleos han sido suprimidos, una negociación colectiva justa, la defensa de los derechos de autor, una mejor protección de los trabajadores del sector artístico y la defensa de los teletrabajadores como trabajadores de pleno derecho. 30% de los empleados que han perdido su trabajo debido a la reestructuración de su empresa se establecen por cuenta propia.


El derecho de autor

Un problema preocupante es la falta de respeto del derecho de autor en el internet. Durante este coloquio, Bernie Lunzer, secretario-tesorero de la Newspaper Guild (Alianza de los Diarios) de los Estados Unidos, recalca las batallas jurídicas que se han desenfrenado en torno a los problemas de propiedad intelectual. Estas batallas conciernen especialmente la actitud de los directores de publicaciones, quienes convencen a los escritores independientes de que firmen contratos chocantes por los cuales se comprometen a ceder la totalidad de sus derechos al director de la publicación a cambio de una contraparte financiera ridícula.

Heinz-Uwe Rübenach, presidente de la Asociación de Directores de Diarios (BDZ) de Alemania, insiste en la necesidad para las empresas de prensa de administrar y controlar la utilización en la web de los artículos de sus periodistas, y en pedir una contrapartida financiera que permita seguir invirtiendo en las nuevas tecnologías.

Algo inquietante para una sociedad de la información es que el dominio público se va reduciendo como piel de zapa. El Tratado de la OMPI sobre Derecho de Autor (WIPO Copyright Treaty – WTC) se firma en diciembre de 1996 con el objetivo de controlar la gestión de los derechos digitales en los países miembros de la OMPI (Organización Mundial de la Propiedad Intelectual). También se ratifica el Digital Millennium Copyright Act (DMCA – Ley de Derechos de Autor del Milenio Digital) en octubre de 1998 en los Estados Unidos para contrarrestar la formidable potencia del internet como vehículo de difusión. Esta nueva legislación es un golpe muy duro para las bibliotecas digitales, las cuales están en pleno crecimiento gracias al desarrollo de la web. Como consecuencia, muchas obras que estaban a punto de pasar al dominio público permanecen bajo copyright.

John Mark Ocklerbloom explica en agosto de 1999 en una entrevista por correo electrónico: “Me parece importante que los usuarios del internet entiendan que el copyright es un contrato social concebido para el bien público —y esto incluye tanto a los autores como a los lectores—. Esto significa que los autores deberían tener el derecho de utilizar, de manera exclusiva y por un tiempo limitado, las obras creadas, así como se especifica en la ley actual sobre el copyright. Pero esto significa también que cuando expire el copyright, sus lectores deberían tener el derecho de copiar y reutilizar este trabajo tantas veces como lo deseen. Los que tienen intereses en juego en este debate tienen que hacer frente a la realidad y reconocer que los productores de las obras y sus usuarios tienen ambos intereses legítimos en la utilización de estas. Si la propiedad intelectual se negociará por medio de un equilibrio de principios en lugar de ser gobernada por el juego del poder y del dinero que se suele observar a menudo, quizás sería posible llegar a un compromiso razonable.”

“Últimamente, en los Estados Unidos han intentado algunas veces retirarles a los lectores estos derechos, limitando las reglas relativas a la utilización de dichas obras, prolongando la duración del copyright (algunas propuestas prevén incluso un plan de copyright perpetuo), y extendiendo la propiedad intelectual a trabajos que no son obras de creación (véase por ejemplo las propuestas de copyright para las bases de datos). Incluso hay propuestas que pretenden sustituir por completo la ley de copyright por una ley que establecería un contrato mucho más fuerte. Me parece mucho más difícil compartir la opinión de Jack Valenti, director de la MMPA [Motion Picture Association of America – Asociación Cinematográfica de los Estados Unidos], cuando este pide que se dejen de copiar las películas bajo copyright, cuando sé perfectamente que si esto se aceptara, ninguna película pasaría al dominio público. Al ver cómo las empresas de medios de comunicación tratan de bloquear todo lo que pueden, no me sorprende que algunos usuarios reaccionen a su vez poniendo en línea todo lo que pueden. Desgraciadamente, esta actitud también perjudica los derechos legítimos de los autores.”

Si bien el Proyecto Gutenberg se ha propuesto difundir gratuitamente por vía electrónica el mayor número posible de obras clásicas, no se facilita su tarea con la ratificación del Digital Millenium Copyright Act en octubre de 1998. En la sección “Copyright HowTo” de su sitio web, se detalla cómo determinar si un título publicado en los Estados Unidos pertenece o no al dominio público. (a) Las obras publicadas antes de 1923 están sujetas a derechos de autor durante 75 años a partir de su fecha de publicación (luego ya han pasado hoy al dominio público). (b) Las obras publicadas entre 1923 y 1977 están sujetas a derechos de autor durante 95 años a partir de su fecha de publicación (o sea que ninguna pasará al dominio público hasta 2019). (c) Una obra publicada en 1998 y en los años siguientes está sujeta a derechos de autor durante 70 años a partir de la fecha de muerte del autor si se trata de un autor único (en este caso ninguna obra pasará al dominio público antes de 2049), o bien durante 95 años a partir de la fecha de publicación —o 120 años a partir de la fecha de creación— si se trata de un autor colectivo (no puede publicarse nada antes de 2074).

Un endurecimiento similar afecta los países de la Unión Europea. Se ratifica la Directiva de la Unión Europea sobre Derecho de Autor (European Union Copyright Directive – EUCD) en mayo de 2001. Su título exacto es “Directiva 2001/29/EC del Parlamento Europeo y el Consejo sobre la armonización de ciertos aspectos del derecho de autor y derechos relacionados en la sociedad de la información”. La regla general es ahora un copyright de 70 años tras la muerte del autor, en vez de 50 años, el objetivo oficial siendo el de reforzar el respeto de los derechos de autor en el internet para limitar así el pirateo. Esta directiva va entrando poco a poco en vigor en los países de la Unión Europea, con la elaboración de legislaciones nacionales.


El derecho de autor adaptado a la web

¿Qué piensan los autores del respeto del derecho de autor en el internet? Jacques Gauchey, periodista y especialista de las tecnologías de la información en San Francisco, escribe en julio de 1999: “El derecho de autor en su contexto tradicional ya no existe. Los autores necesitan adaptarse a un nuevo paradigma, el de la libertad total del flujo de la información. El contenido original es como una huella digital: no se puede copiar. Sobrevivirá, luego prosperará.”

Alain Bron, autor y consultor en sistemas de la información en París, escribe en noviembre de 1999: “Hoy considero el internet como un dominio público. Eso significa que la noción de derecho de autor desaparece de facto: cualquier persona puede reproducir lo que pertenece a otra. La creación se expone, por lo tanto, a ser copiada de inmediato si el copyright no se presenta bajo una forma reconocible y si se exponen las obras ante el público sin formalidades de ingreso.”

Según Xavier Malbreil, autor multimedia, entrevistado en marzo de 2001: “Hay dos cosas distintas. La web no debe ser una zona de no-derecho, y éste es un principio que debe aplicarse a todo, y especialmente al derecho de autor. Cualquier utilización comercial de una obra debe dar lugar a una retribución. Pero la web también es un lugar donde compartir. Intercambiar con los amigos fragmentos de un texto que a uno le han gustado, de la misma manera que uno podría copiar fragmentos de un libro que le ha gustado particularmente, para compartir el gusto de su lectura, eso no puede para nada ser perjudicial para las obras ni los autores, sino todo lo contrario. La literatura sufre sobre todo de que no logra alcanzar una difusión suficiente. Todo lo que pueda contribuir a sacarla del gueto en que está metida, será positivo.”

Muchos creadores desean utilizar la potencia del internet como vehículo de difusión. Por lo tanto, cada vez hay más adeptos de los contratos flexibles, primero con el copyleft y la GPL, y después con la licencia Creative Commons.

La idea del copyleft aparece en 1984 —antes de la invención de la web en 1990— a iniciativa de Richard Stallman, informático y creador de la Fundación para el Software Libre (Free Software Foundation – FSF). El copyleft contiene la declaración de copyright en la que se afirma el derecho de autor. Su originalidad radica en que le proporciona al usuario el derecho de redistribuir libremente el documento y de modificarlo. El usuario se compromete no obstante a no reivindicar ni la obra original, ni los cambios hechos por otros usuarios.

El copyleft se formaliza con la GPL (General Public License – Licencia Pública General) para los software y luego para cualquier tipo de obra de creación. Todas las obras derivadas de la obra original están sujetas a la licencia GPL. La GFDL (GNU Free Documentation License – Licencia de Documentación Libre GNU) es la licencia para la documentación y los manuales que acompañan los software libres y luego para cualquier obra documental. Es, por ejemplo, la licencia que se usaba para los artículos de Wikipedia antes de la licencia Creative Commons.

El principio de la licencia Creative Commons es desarrollado en 2001 por Lawrence “Larry” Lessig, profesor de derecho en la Stanford Law School (California) y ferviente defensor de un internet creativo en el cual las obras podrían no solo ser difundidas sino ser reutilizadas si los autores están de acuerdo. El organismo del mismo nombre presenta en diciembre de 2002 algunas licencias-tipo, que son contratos flexibles de derechos de autor compatibles con la difusión en el internet y válidas para todo tipo de creación (textos, fotos, películas, música, sitios web). Estas licencias-tipo autorizan (o no) a copiar, distribuir, comunicar, remezclar o transformar la obra original. Redactadas por abogados, están acompañadas de un resumen breve que pueden entender los usuarios, muy numerosos, que no son abogados.

¿Cómo registrar una obra bajo una licencia Creative Commons (CC)? Antes de publicar una obra en el internet, el autor elige la licencia adecuada según lo que necesite (uso comercial o no, posibilidad de obras derivadas o no, uso de la misma licencia o no para las obras derivadas) y indica en su obra la licencia elegida con un enlace hacia la licencia correspondiente en el sitio web de Creative Commons y el (pequeño o grande) logo de esta licencia.

Hay seis licencias disponibles: (1) la licencia CC BY (la más amplia, que solo requiere la mención del autor, del título y de la fuente en caso de reutilizar la obra); (2) la licencia CC BY-SA (que requiere la misma licencia en caso de reutilización de la obra); (3) la licencia CC BY-NC (que prohíbe las obras comerciales en caso de reutilización de la obra); (4) la licencia CC BY-ND (que prohíbe las obras derivadas en caso de reutilización de la obra); (5) la licencia CC BY-NC-SA (que prohíbe las obras comerciales y requiere la misma licencia en caso de reutilización de la obra) y (6) la licencia CC BY-NC-ND (que prohíbe las obras comerciales y las obras derivadas en caso de reutilización de la obra).

Tras las versiones 1.0 (publicadas en diciembre de 2002) y las versiones 2.0 (publicadas en mayo de 2004), las versiones 3.0 (publicadas en febrero de 2007) instauran una licencia internacional y la compatibilidad con otras licencias similares, entre las cuales están el copyleft y la GPL. Una cumbre internacional es organizada en septiembre de 2011 a la cual se suman dos años de discusiones públicas documentadas en la web para la creación de los versiones 4.0. Las versiones 4.0 de las seis licencias (publicadas en noviembre de 2013) eliminan las versiones nacionales para favorecer versiones internacionales —disponibles en 23 idiomas—. Creative Commons también pide que las modalidades de uso de las obras bajo licencia CC se indiquen mejor en las mismas obras, con un enlace sistemático hacia la licencia correspondiente en el sitio web de Creative Commons, algo que los usuarios solían olvidar. Estas versiones 4.0 son efectivas durante varios años, como lo fueron las versiones 3.0 durante cinco. Con su experiencia en la materia, Creative Commons también desea promover una reforma en profundidad del derecho de autor a escala mundial en el futuro.

¿Quién utiliza una licencia Creative Commons? La primera editorial en utilizar una licencia Creative Commons es O’Reilly Media. Tras haber utilizado una licencia GFDL, Wikipedia pasa a tener una licencia CC BY-SA para todos sus artículos, redactados por miles de colaboradores en muchos idiomas, a los cuales se suman los que contribuyen con ilustraciones (imágenes, fotos, dibujos, mapas, gráficos). Esta licencia indica que los artículos y las ilustraciones de las millones de páginas de Wikipedia pueden ser reutilizados por todos siempre y cuando se utilice la misma licencia. La Public Library of Science (PLOS – Biblioteca Pública de Ciencia) también utiliza una licencia Creative Commons para los artículos de sus siete revistas científicas y médicas. PLOS usa una licencia CC BY, la más “amplia”. Todos los artículos pueden ser difundidos y reutilizados en cualquier parte del mundo, incluyendo para traducciones, con la única obligación de mencionar a los autores, el título y la fuente.

Sigue Al Jazeera con sus videos del conflicto israelo-palestino, disponibles bajo licencia Creative Commons tanto para las cadenas asociadas como para la competencia. Siguen Flickr con gran cantidad de fotos bajo licencia Creative Commons, el OpenCourseWare del Massachusetts Institute of Technology (MIT) con todo su material didáctico bajo licencia Creative Commons, o el grupo Nine Inch Nails, una de las primeras bandas que distribuirá su música bajo licencia Creative Commons, con ventas récord y conciertos repletos.

También les siguen miles de autores, ilustradores, músicos, investigadores y demás creadores que comparten sus trabajos en la web, algunos con el fin de contribuir a un mundo mejor. Se utiliza una licencia Creative Commons para un millón de obras en 2003, 4.7 millones de obras en 2004, 20 millones de obras en 2005, 50 millones de obras en 2006, 90 millones de obras en 2007, 130 millones de obras en 2008, 400 millones de obras en diciembre de 2010, y 882 millones de obras en diciembre de 2014.


Las librerías

La Internet Bookshop (IBS, Reino Unido) es la librería europea más grande en 1997, con un catálogo de 1.4 millones de títulos. Presenta iniciativas originales e inéditas que en los meses siguientes son retomadas por Amazon en los Estados Unidos.

La Internet Bookshop desarrolla en enero de 1997 un sistema de “asociaciones” en la web. Los dueños de sitios web pueden asociarse con la Internet Bookshop al seleccionar en su propio sitio cierto número de títulos del catálogo de la librería. Esta se encarga de los pedidos, los envíos y las facturas. Los dueños de sitios web reciben 10% sobre el precio de venta. Es la primera vez que una librería en línea propone una parte de los beneficios adquiridos a través de la web, una iniciativa que será retomada por Amazon en la primavera de 1997 con sus sitios afiliados (llamados “asociados”), forzando así la necesidad de crear una nueva reglamentación en este ámbito.

Otra idea original, que comienza en octubre de 1997, es la política de descuentos “jugosos”. La Internet Bookshop propone descuentos que van hasta 45% para best-sellers, arriesgándose a una guerra de precios con los editores y las librerías tradicionales. La idea será después retomada al otro lado del Atlántico por Amazon y Barnes & Noble.com, lo que genera una guerra de precios entre ambos.

A finales de 1997, la Internet Bookshop queda a la espera de la reacción de los editores y libreros tradicionales frente a su decisión de vender libros de los Estados Unidos, una iniciativa lanzada en septiembre de 1997. Otra librería británica en línea, Waterstones, anuncia también su intención de introducir en su catálogo títulos estadounidenses a partir de enero de 1998. The Publishers Association (Associación de los editores), organismo que representa a los editores del Reino Unido, está muy atareada estudiando las quejas de estos últimos, junto a las de los libreros tradicionales, que quieren no solo prohibir la venta de libros estadounidenses a través de librerías en línea británicas, sino también prohibir en el Reino Unido la actividad de librerías en línea estadounidenses para que estas no puedan vender libros a clientes británicos.

En 1997 y 1998, la rúbrica IBS News de la Internet Bookshop permite seguir paso a paso la lucha de las librerías en línea contra las asociaciones de editores y de librerías tradicionales, con el objetivo de obtener la supresión de las fronteras para la venta de libros. Como vemos, lo que ahora nos parece lógico, antes no lo era. Pero, por la estructura misma del internet, la abolición de las fronteras en el mercado del libro es inevitable y se crea una legislación adecuada. Otras librerías en línea europeas no tardan en seguir el ejemplo de la Internet Bookshop y vender libros más allá de las fronteras.

En materia de fiscalidad —otro punto sensible—, se firma en diciembre de 1997 un acuerdo marco entre los Estados Unidos y la Unión Europea. El internet pasa a ser considerado como una zona de libre comercio, sin aranceles para los software, las películas y los libros comprados en la web. Los bienes materiales y otros servicios son sometidos al régimen de los países implicados, con percepción del IVA sin aranceles suplementarios. A este acuerdo marco le sigue una convención internacional.

Con todas estas librerías en línea, la vida no es fácil para las librerías independientes, que tratan de sobrevivir a pesar de todo, por ejemplo la librería Ulysse fundada en 1971 por Catherine Domain en París, que sería la librería más antigua del mundo dedicada a los viajes. Ubicada en la Isla Saint-Louis, rodeada por el Sena, la librería propone 20.000 libros nuevos y antiguos, así como mapas y revistas que no se pueden encontrar en otro lugar. Catherine Domain viaja cada verano sobre alguno de los mares del globo, mientras su pareja —especialista en mapas antiguos— se encarga de la librería.

Catherine Domain decide hacer en enero de 1999 un viaje no muy grato, virtual esta vez; la creación de un sitio web como autodidacta cuando solo tiene unos conocimientos básicos de informática, como muchos de nosotros en esa época. Cuenta en diciembre de 1999: “Mi sitio web está en estado embrionario y en construcción. Quiero que se parezca a mi librería, que sea un lugar de encuentro antes que un lugar comercial. El internet me pone los pelos de punta, me quita mucho tiempo y no me trae ningún beneficio, pero esto no me molesta… El internet mata las librerías especializadas. Esperando a que me devore, yo uso el internet como medio para atraer a los clientes hasta mi librería, y también con intención de encontrar libros para aquéllos que aún no tienen el internet en casa! Pero la verdad es que no tengo mucha esperanza.”

En 2005, crea una segunda librería de viajes en Hendaya (Francia), en la costa sur del Atlántico, con vistas sobre la playa y el océano. Abierta desde el 20 de junio hasta el 20 de septiembre, con horarios que dependen del clima y las mareas, la librería es “como un barco de libros que va a la mar, donde a veces se introduce, de hecho.”

Tras diez años desde la creación de su sitio web, Catherine Domain es mucho menos crítica respecto al internet ya que la web le permite crear su propia editorial para publicar libros de viajes. Escribe en abril 2010: “El internet ocupa cada vez más sitio en mi vida. Me permite ser editora gracias a capacitaciones dificultosas en Photoshop, InDesign y otras. Me alegra mucho darme cuenta que la voluntad política de que la gente se quede pegada al ordenador para que no hagan una revolución puede ser cuestionada por encuentros masivos y espontáneos de miles de personas [organizados vía Facebook] que quieran verse y hablar cara a cara. Está claro que siempre habrá giros inesperados frente a los inventos, entre otros. Cuando empecé a usar el internet, no me imaginaba para nada convertirme en una editora.”


Las librerías digitales

Librerías de un nuevo tipo se especializan en la venta de libros digitales, por ejemplo Mobipocket o Numilog. Con el paso del tiempo, se pueden leer estos libros a través de distintos dispositivos (ordenador, PDA, smartphone, tableta y lector digital).

Olivier Pujol, director de la empresa Cytale y creador del Cybook, el primer lector digital europeo, escribe en diciembre de 2000: “Hace dos años mi camino se cruzó con el de un extraordinario proyecto aún en ciernes: el libro electrónico [lector digital]. Desde aquel día me he convertido en el promotor impenitente de este nuevo modo de acceso al documento escrito, a la lectura y a la felicidad de leer. La lectura digital por fin se está desarrollando gracias a este maravilloso objeto: biblioteca, librería nómada, libro ‘adaptable’, y también medio de acceso a todos los sitios literarios (o no literarios), y a todas las nuevas formas de literatura, pues también es una ventana abierta sobre la web.”

El primer formato de libro digital es el PDF (Portable Document Format), presentado en junio de 1993 por la empresa Adobe al mismo tiempo que el Acrobat Reader (gratuito, para leer los PDF) y el Adobe Acrobat (de pago, para crear los PDF). Este formato fija un documento para conservar su contenido y su presentación cual sea la plataforma para crear el PDF y para leerlo. Mucho más tarde, después de haber sido un formato cerrado, el formato PDF pasa a ser uno estándar abierto en julio de 2008, con una norma ISO (ISO 32000- 1:2008).

El final de los años 1990 está marcado por la proliferación de los formatos, cada empresa presentando su propio formato de libro digital en un mercado naciente que promete expandirse muy rápido. La industria del libro digital presenta entonces en septiembre de 1999 el OeB (Open eBook), un formato estándar basado en el lenguaje XML y destinado a normalizar el contenido, la estructura y la presentación de los libros digitales. El formato OeB sirve como base para numerosos formatos, por ejemplo el formato LIT (Microsoft) y el formato PRC (Mobipocket), antes de ser reemplazado por el formato EPUB en septiembre de 2007. Otros formatos digitales se desarrollan de manera paralela para los libros en braille y los audio.

Según Denis Zwirn, fundador y presidente de la librería digital Numilog, entrevistado en agosto de 2007: “El libro digital es un producto comercial y una herramienta al servicio de la lectura. Basta con ofrecer textos legibles fácilmente en los diferentes medios de lectura que utiliza la gente, la tinta electrónica pudiendo invadir progresivamente todos estos soportes. Y con proponerlos de manera industrial. El libro digital se está convirtiendo en un producto de masas, con múltiples formas al igual que el libro tradicional.” El catálogo de Numilog tiene 3.500 títulos (libros y revistas) en 2003, 35.000 títulos en diciembre de 2006 y 50.000 títulos de un centenar de editores francófonos y anglófonos en enero de 2009, con servicios específicos para las bibliotecas y las librerías.

Fundada en marzo de 2000 por Thierry Brethes y Nathalie Ting, Mobipocket se especializa en la lectura y la distribución segura de libros para PDA (assistante digital personal). Su software de lectura, el Mobipocket Reader, es “universal”, es decir que puede ser utilizado en cualquier PDA, después en ordenadores desde abril de 2002 y más tarde en smartphones. Mobipocket alcanza los 6.000 títulos en diferentes idiomas (francés, inglés, alemán, español) en 2003, en la librería de Mobipocket y en librerías asociadas. Mobipocket es adquirido por Amazon en abril de 2005 en vistas del lanzamiento del Kindle dos años más tarde. Los 39.000 títulos de la librería de Mobipocket forman parte del Kindle Store en abril de 2007.

Se cuenta con 17 millones de PDA y solo 100.000 lectores digitales por el mundo en abril de 2001, según un Seybold Report. Se venden 13.2 millones de PDA en 2001. La primera PDA del mercado es la Palm Pilot, presentada en marzo de 1996, con 23 millones de Palm Pilot vendidas entre 1996 y 2002. Le sigue el Pocket PC de Microsoft en marzo de 2000. Los sistemas de explotación de las PDAs son el Palm OS (para 55% de las PDA) y el Pocket PC de Microsoft (para 25,7%). La PDA va dejando después su lugar al smartphone, que tiene como modelo precursor el Nokia 9210 en noviembre de 2000 y que tendrá como modelo insignia el iPhone de Apple en junio de 2007.

Hasta entonces habían sido patrimonio de las películas de ciencia ficción, pero en 1998 y 1999 aparecen las primeras tabletas electrónicas para la lectura, del tamaño de un libro (gordo). Son el Rocket eBook (creado por la empresa NuvoMedia) y el SoftBook Reader (creado por la empresa SoftBook Press), salidos directamente de la imaginación (y del monedero) de la Silicon Valley en California. Estos lectores digitales pesan dos kilos, tienen pantalla de cristal líquido (pantalla LCD) en blanco y negro, funcionan con baterías y pueden guardar una decena de libros. El usuario se conecta al internet bien a través de un ordenador (con el Rocket eBook) o directamente con un módem integrado (con el SoftBook Reader), para descargar libros de los sitios de NuvoMedia (con el Rocket eBook) o de SoftBook Press (con el SoftBook Reader).

Estos lectores digitales provocan cierto entusiasmo, a pesar de ser pocas las personas que las compran, debido a su valor prohibitivo (varios cientos de dólares) y a la poca cantidad de títulos ya que el catálogo de libros digitales sigue siendo ridículo comparándolo con la producción impresa. Los editores recién comienzan a producir libros en versión digital y se preguntan cómo comercializarlos, la mayoría quedándose paralizados por los riesgos de la piratería.

Después del Rocket eBook y del SoftBook Reader, las experiencias continúan con otros lectores digitales, por ejemplo el Gemstar eBook (creado por la empresa Gemstar) en noviembre de 2000 en los Estados Unidos y el Cybook (creado por la empresa Cytale) en enero de 2001 en Europa. Después de un período tranquilo que también ve el desarrollo de la lectura en la PDA y el smartphone, lectores más ligeros ganan en potencia y en calidad de pantalla con la tecnología E Ink. Estos nuevos lectores son, por ejemplo, el LIBRIe de Sony (en abril de 2004), el Cybook 2a generación de Bookeen (en junio de 2004), el Sony Reader (en septiembre de 2006), el Kindle de Amazon (en noviembre de 2007), el Nook de Barnes & Noble (en noviembre de 2009) y el iPad de Apple (en abril de 2010).

Los favoritos formatos son el PDF y el EPUB. Nicolás Pewny, consultor web y de ediciones digitales, detalla en octubre de 2015: “Los PDF pueden tener enlaces y botones, campos de texto para formularios, contenidos audio y video. También se ocupan de las firmas electrónicas. La ventaja principal que tiene este formato es ser totalmente fiel al formato original. Sin embargo, es pesado y le falta agilidad; no se adapta siempre a la pantalla utilizada.”

“Muy diferente al PDF, el formato EPUB puede presentar un texto que se ajuste en el último minuto según la pantalla y los diferentes lectores en el momento preciso en que se va a leer. La última versión estandarizada, el EPUB3, se sostiene en HTML5, la última versión revisada de HTML, el formato de datos concebido para presentar páginas web. El formato EPUB3 puede consultar las funcionalidades del lector vía JavaScript. De esta manera, puede adaptar el contenido cómodamente.”

“Mi opinión es que el EPUB3 es el mejor formato para la publicación digital actualmente. Varias aplicaciones permiten crear un archivo EPUB directamente, algunas con software gratuitos. Casi todos los lectores digitales son compatibles con el formato EPUB, excepto el Kindle de Amazon, que necesita hacer antes una transformación (por ejemplo con el software gratuito Calibre). Varias aplicaciones de lectura que leen el EPUB también están disponibles para los computadores personales, las tabletas táctiles y los smartphones.”

Marc Autret, infografista y asesor editorial, explica en junio de 2011: “Lamento que la llegada del EPUB haya provocado la aniquilación pura y dura del PDF como formato de libro digital. El hecho que los elementos de interactividad disponibles en el PDF no sean sostenidos por las plataformas nómadas actuales abolió cualquier posibilidad de experimentación en esta vía, que me parecía muy prometedora. Mientras que la edición impresa da lugar a objetos muy diversos, entre el libro de arte muy costoso y el libro ‘todo terreno’, el mercado del libro digital se ha desarrollado únicamente sobre un modelo totalitario y segregacionista, comparable en esto a una guerra de sistemas de explotación más que a una emulación técnica y cultural. De hecho, existen muy pocos libros digitales PDF que aprovechen este formato.”

“En el inconsciente colectivo, el PDF se ve como una especie de duplicado estático de la obra impresa y nadie quiere encontrarle otro uso. El EPUB, que no es más que una combinación XHTML/CSS (aunque con perspectivas JavaScript), pretende adaptar el libro digital para la web. Se trata de una tecnología muy favorable para los contenidos estructurados, pero muy desfavorable para las artes tipográficas. Introduce una visión limitada de la obra digital, reducida a un flujo de información. Todavía no nos damos cuenta, pero la peor catástrofe de estas últimas décadas ha sido la llegada del XML, ese lenguaje que calibra previamente y que contamina nuestra manera de pensar las jerarquías. El XML y sus avatares terminan de encerrarnos en las constantes culturales occidentales”.


Los autores

Murray Suid, un autor de la Silicon Valley (California), escribe libros didácticos, libros para niños, obras multimedia y guiones. Cuenta en julio de 1998: “El internet se ha convertido en mi herramienta principal de investigación y ha reemplazado —aunque no completamente— la biblioteca tradicional y las consultas personales para las búsquedas concretas. Actualmente, en lugar de llamar o de ir a entrevistar con cita previa a la gente, lo hago por correo electrónico. Debido a la velocidad inherente de la mensajería electrónica, he podido colaborar a distancia con ciertas personas, sobre todo para los guiones. Por ejemplo, he trabajado con dos productores alemanes. También resulta fácil conservar y organizar esta correspondencia, y puedo así acceder cómodamente a la información intercambiada de dicha manera. Además, el usar del correo electrónico permite asimismo guardar el rastro de las ideas y de las referencias documentales.”

“Al funcionar mucho mejor que el correo tradicional, el internet ha permitido que aumente considerablemente mi correspondencia. Igualmente, la cancha geográfica de mis contactos se ha extendido mucho, sobre todo hacia Europa. Antes, le escribía muy rara vez a gente que estuviese fuera de los Estados Unidos. Es también mucho más fácil, me toma mucho más tiempo que antes para ayudar a otros escritores en lo que es una especie de grupo de trabajo virtual. No es solo por una actitud altruista, aprendo mucho con estos intercambios que, antes del internet, requerían mucho más esfuerzo de mi parte. Jamás habría podido preparar mi último libro sin utilizar el correo electrónico porque me habría costado demasiado dinero y tiempo ubicar a los expertos. El internet es una herramienta de búsqueda primordial para los autores de libros, artículos, etcétera.”

Murray Suid también preconiza una solución por la cual han optado desde entonces numerosos autores, es decir, publicar libros con una extensión en la web: “En nuestra era, en la que todo va tan rápido, pocos datos son correctos durante mucho tiempo, y así el contenido de los libros se vuelve obsoleto rápidamente. Pero un libro puede tener una prolongación en la web —y entonces existir parcialmente en el ciberespacio— . De este modo, el autor puede actualizarlo y corregirlo fácilmente, mientras que para esto antes tenía que esperar mucho tiempo, hasta la siguiente edición, suponiendo que la hubiera. La web también se hace indispensable para el marketing, sobre todo para los editores pequeños que no pueden permitirse hacer publicidad en las principales revistas o emisoras de radio. A pesar de que las grandes editoriales tengan cierta ventaja asegurada, gracias al ciberespacio, las pequeñas pueden idear estrategias de marketing que sean eficaces. Los libros en papel seguirán estando disponibles durante algún tiempo, porque estamos acostumbrados a este soporte. A muchos lectores les gusta el tacto del papel y el peso de los libros sobre sus manos o en un bolso. Todavía no he tenido la oportunidad de utilizar un libro electrónico, pero me gustaría tener esta experiencia por la facilidad de búsqueda, las posibilidades de color y de sonido previstas para más adelante, etcétera. Evidentemente, los libros multimedia pueden ser descargados de manera fácil a través de la web y, aunque todavía no sea el caso, estos libros dominarán el mercado de la edición en el futuro.”

¿Cómo se imagina el futuro? “No lo sé, porque no estoy muy al tanto de los aspectos técnicos del internet. Me gustaría tener acceso directo a obras digitales de la Library of Congress, por ejemplo, igual que a los archivos de diarios que leo hoy en línea. Por el momento, encuentro bastantes libros en línea (en modo imagen), pero necesito la versión impresa para poder utilizarlos. Preferiría tener acceso en línea a una versión en modo texto y copiar las partes que necesito para mi trabajo, en lugar de tener que fotocopiar o escanear las páginas que me interesan.”

¿Y para sus propios libros? “No sé si llegaré a publicar libros en la web, en lugar de publicarlos en versión impresa. Tal vez utilice este nuevo soporte si los libros llegan a ser multimedia. Por ahora, participo en el desarrollo de material didáctico multimedia. Es un nuevo tipo de material que me gusta mucho y que permite crear interactividad entre varios textos, películas, bandas sonoras y gráficos que están vinculados los unos con los otros.”

Murray Suid escribe un año después, en agosto de 1999: “Además de mis libros complementados con un sitio web, estoy adoptando la misma fórmula para mis obras multimedia —disponibles en CD-ROM—, con el fin de poder actualizarlas y enriquecer su contenido.” Escribe en octubre de 2000: “El material didáctico al que contribuyo ya no se concibe para una difusión en CD-ROM, sino que para ser difundido en la web. EdVantage Software, la empresa de software educativos para la que trabajo, ha dejado de ser una empresa multimedia para convertirse en una empresa del internet.”

La segunda novela de Alain Bron, “Sanguine sur toile” (Sanguínea sobre la red), está publicada en versión impresa por la editorial Le Choucas en 1999 y en versión digital (formato PDF) por la editorial 00h00 en 2000.

Consultor en sistemas de información y escritor, Alain Bron relata en noviembre de 1999: “Trabajé alrededor de 20 años en la empresa Bull. Allí participé en todas las aventuras de la informática y de las telecomunicaciones. Fui el representante de los industrias informáticas en la ISO (Organización Internacional de Normalización), y presidente del grupo de redes del consorcio X/Open. Conocí también a finales de 1978 los primeros pasos del internet con mis colegas de Honeywell en los Estados Unidos. Actualmente soy consultor en sistemas de información y me encargo de mayores proyectos informáticos en estas empresas y sus sucursales internacionales. Y escribo. Escribo desde mi adolescencia. Cuentos (más de una centena), ensayos psico-sociológicos, artículos y novelas. Es a la vez una necesidad y un placer del que gozo muchísimo.”

“En mi novela, el internet es un personaje en sí mismo. En lugar de describirlo en su complejidad técnica, la web es mostrada como un ser a veces amenazador, otras veces esmerado y a veces manejando el humor. No olvidemos que la pantalla de la computadora juega su doble papel: muestra y oculta. Es esta ambivalencia que hace la intriga del principio al fin. En este juego, el gran ganador es el/la que sabe liberarse de la influencia del instrumento para poner el humanismo y la inteligencia sobre todo.”

En cuanto a la finalidad del internet: “Lo que importa es el valor añadido del ser humano sobre el sistema. El internet nunca vendrá a compensar la clarividencia de una situación, la toma de riesgo o la inteligencia del corazón. El internet solamente acelera los procesos de decisión y reduce la incertidumbre por la información aportada. Pero se tiene que dejar el
tiempo al tiempo, dejar madurar las ideas, dar un toque indispensable de humanidad en las relaciones. Para mí, la finalidad del internet es el encuentro, y no la multiplicación de los intercambios electrónicos.”

Otra experiencia es la de Jean-Paul, un escritor hipermedia que crea su sitio web Cotres.net en octubre de 1998 para explorar las posibilidades que abre el hipervínculo a fin de dar origen a nuevas obras.

Jean-Paul relata en junio de 2000: “La navegación vía hipervínculos puede tener una estructura radial (tengo un centro de interés y pincho metódicamente sobre todos los enlaces relativos a este), o bien hacerse con rodeos (de clic en clic, a medida que van apareciendo enlaces nuevos, pero con el riesgo de perder de vista mi tema). Por supuesto, ambos métodos también son posibles con el documento impreso. Pero la diferencia salta a la vista: hojear no es lo mismo que “pinchar”. Así pues, el internet ha cambiado mi relación con la escritura. Uno no escribe de la misma manera para un sitio web que para un guión o para una obra de teatro. Ahora escribo (compongo, diseño, hago el montaje) directamente en la pantalla. La etapa ‘impresa’ de mi trabajo no es la etapa final, el objetivo; sino una forma entre otras que privilegia la linealidad y la imagen, y que excluye el sonido y las imágenes animadas.”

“La publicación en línea me ha permitido por fin encontrar la movilidad, la fluidez que estaba buscando. En este ámbito la palabra clave es ‘obra en progreso’, abierta, sin paredes. Creación permanente, a la vista de todos, como el mundo ante nuestros ojos. Provisional, como la vida que se está buscando a tientas, que va y viene. Pero, por supuesto, con el riesgo que subrayan los gutenbergs, los huérfanos de la civilización del libro: ya nada es cierto. Ya no hay fuente fiable, hay demasiadas, y se va haciendo difícil distinguir un sabio de un gurú. Pero el problema concierne el control de la información, no la transmisión de las emociones.”

Siete años después, en enero de 2007, Jean-Paul añade: “He ahorrado tiempo. Utilizo menos software e integro directamente en Flash el resultado. Este software me asegura un control de 90% del resultado expuesto en las pantallas de recepción (al contrario de aquellos que prefieren presentar obras abiertas, en las que se busca deliberadamente la intervención tanto del azar como del internauta). Ahora puedo concentrarme en el corazón del problema: la arquitectura y el desarrollo del relato.”

“También ha habido un adelanto. Gracias a las PDA y a otros aparatos portátiles multimedia, el público se ha ido acostumbrando a manipular pantallas táctiles de dimensión individual (más que cualquier aparato de pago público). El hipermedia se ha convertido hoy día en una evidencia. Ahora les toca a los ingenieros y a los especialistas del marketing ingeniárselas para elaborar un objeto rentable, ligero, atractivo, no demasiado frágil, que ocupe lo mejor posible el espacio que separa las dos manos del terrícola sentado en el autobús o en el WC: la superficie de una hoja A4 en formato italiano, o sea ± 800 x 600 pixeles. Por supuesto, el contenido no estará en dos dimensiones sino en tres, como los GPS de próxima generación o las miras telescópicas en la carlinga de un A-Win.”


Los best-sellers

El novelista español Arturo Pérez-Reverte prueba su primera experiencia digital con el nuevo título de su serie best-seller que narra las aventuras del Capitán Alatriste en el siglo XVII. Este nuevo título se llama “El Oro del Rey”, con su publicación prevista para finales de 2000. En noviembre de 2000, en colaboración con su editorial Alfaguara, Arturo Pérez-Reverte decide difundir el libro exclusivamente en formato digital por un mes, en una página web específica del portal web Inicia, antes del lanzamiento del libro impreso en las librerías.

La novela está disponible en formato PDF por 2,90 euros, un precio mucho más barato que los 15,10 euros anunciados para el libro impreso. El experimento tiene como efecto que el número de descargas es muy bueno, pero no así el de pagos. Un mes después de la publicación digital de la novela, se registran 332.000 descargas, pero solo 12.000 pagos.

Mariló Ruiz de Elvira, directora de contenidos del portal Inicia, explica en un comunicado: “Para cada comprador del libro digital, había un código para poder descargarlo durante 48 horas desde el sitio internet y, sobre todo al comienzo, muchos internautas intercambiarón este código en los foros de chats y descargaron su ejemplar sin pagar. Quisimos probar y esto formaba parte del juego. Arturo Pérez-Reverte lo que quería ante todo era que se le leyese.”

Sin embargo, este experimento es un éxito para el marketing del libro impreso. Los cinco primeros volúmenes de esta saga literaria se convierten en un éxito mundial, con 4 millones de ejemplares vendidos en 2006, en varios idiomas, sobre todo en forma impresa. Las aventuras del Capitán Alatriste también dan lugar en 2006 a la película Alatriste, una superproducción española de 20 millones de euros. Un sexto tomo impreso sale a finales de 2006, seguido de un séptimo a finales de 2011.

Frederick Forsyth, el maestro inglés de la novela de suspenso, decide hacer una experiencia digital con el apoyo de Online Originals, una editorial electrónica de Londres. En noviembre de 2000, Online Originals publica “The Veteran ” [“El Veterano”] como la primera novela corta de “Quintet” [“Quinteto”], una serie de cinco novelas cortas. Publicada en tres formatos (PDF, Microsoft Reader, Glassbook Reader), la novela se vende por 3,99 libras en el sitio web de la editorial y en varias librerías digitales del Reino Unido (Alphabetstreet, BOL.com, WHSmith) y de los Estados Unidos (Barnes & Noble, Contentville, Glassbook).

Frederick Forsyth explica en el sitio web de Online Originals: “La publicación en línea será fundamental en el futuro. Crea un enlace simple y sobre todo rápido y directo entre el productor original (el autor) y el consumidor final (el lector), con muy pocos intermediarios. Es emocionante participar en este experimento. Yo no soy de ningún modo un especialista en nuevas tecnologías. Nunca he visto un libro electrónico [tableta de lectura]. Pero nunca he visto un motor para la Fórmula 1, cosa que no me impide ver lo rápido que andan esos coches.” Sin embargo, este experimento no dura mucho debido a las bajas ventas que conlleva. “Quintet” se publica finalmente de manera tradicional, con un libro impreso.

El maestro del suspense americano Stephen King se inmiscuye también en esta aventura, y trata de publicar una novela epistolar en línea independientemente de su editor. Distribuya en la web en marzo de 2000 su relato “Riding the Bullet”, que tiene 66 páginas. Debido a la notoriedad del autor y a la cobertura mediática de esta primicia digital, el éxito es instantáneo, con 400.000 ejemplares descargados durante las primeras veinticuatro horas en las librerías digitales que lo venden a 2,5 dólares estadounidenses.

Confiado con esta experiencia prometedora, Stephen King decide olvidarse de los servicios de Simón & Schuster, su editor habitual. Crea su propia página web en julio de 2000 para empezar con la autopublicación por episodios de “The Plant”, una novela epistolar inédita. El primer capítulo se puede descargar en varios formatos (PDF, OeB, HTML, TXT) por el precio barato de 1 dólar, con pago diferido o inmediato desde Amazon.

En una carta para los lectores publicada en su sitio en la misma fecha, Stephen King cuenta que la creación del sitio, el diseño y la publicidad le costaron 124.150 dólares, sin contar su propia retribución como escritor y la de su asistente. (Esta suma parece impresionante, pero bueno.) También especifica que la publicación de los próximos capítulos está ligada al pago del primero por 75% de los internautas. Escribe en su carta: “Amigos míos, tienen la oportunidad de convertirse en la peor pesadilla de los editores. Como ven, es muy simple. Y sin cripta fastidiosa. ¿Quieren imprimir la historia y que pueda disfrutar de esta un amigo? Háganlo. Una única condición: todo se basa en la confianza, así de simple. Es la única solución. Cuento con dos factores. El primero es la honestidad. Tomen lo que quieran y paguen por ello, como dice el proverbio. El segundo es que les interesará la historia lo suficiente como para querer seguir leyendo. Si realmente lo quieren, tendrán que pagar. Acuérdense: paguen y la historia seguirá; vuelen y se acabará.”

Una semana después de colgar el primer capítulo, se pueden contar 152.132 descargas, con pago por 76% de los usuarios. Algunos pagan incluso más que el dólar que se les pedía, llegando hasta los 10 o 20 dólares para compensar por los que no pagarían. Se traspasa justo el límite de 75%, para alivio de los fans, y el segundo capítulo está en línea un mes después. En otra carta en línea en agosto de 2000, Stephen King anuncia que la cantidad de descargas es un poco inferior a la del primer capítulo. Dice que es debido a contar con menos publicidad y a los problemas para descargar los archivos. A pesar de que la cifra de estas solo ha disminuido un poco, la cantidad de pagos se ha reducido drásticamente, ya que los usuarios solo pagan la cuenta una sola vez por varias descargas. A pesar de esto, el autor se compromete a publicar el tercer capítulo, como previsto, a finales de septiembre, y a tomar una decisión sobre si seguir o no con la experiencia en función de la cantidad de pagos. El autor prevé once o doce capítulos en total, con una cantidad total de 1.7 millones de descargas. El o los últimos capítulos serían gratuitos.

Más voluminosos —con 10.000 caracteres en lugar de los 5.000 de los capítulos anteriores— los capítulos cuarto y quinto pasan a costar 2 dólares en lugar de 1. Pero la cantidad de descargas y de pagos no deja de disminuir, con solo 40.000 descargas para el quinto capítulo mientras que el primero había tenido 120.000, y pago solo por 46% de estas. En una nueva carta en línea a finales de noviembre de 2000, Stephen King anuncia la interrupción de la publicación por un tiempo indeterminado, tras la aparición del sexto capítulo, descargable gratuitamente a mediados de diciembre. Escribe en su carta: “’The Plant’ volverá a invernar para que yo pueda seguir trabajando. Mis agentes quieren que haga una pausa para que la traducción y la publicación en el extranjero puedan ser simultáneas a la versión en inglés.” Sin embargo, esta decisión parece tener que ver sobre todo con el fracaso comercial de la experiencia.

Stephen King sigue sus experimentos digitales durante los años siguientes, pero esta vez en colaboración con su editor. En marzo de 2001, su novela “Dreamcatcher” (“El cazador de sueños”) es la primera novela que se publica a la vez en una versión impresa por Simon & Schuster y en una versión digital por Palm Digital Media, la librería digital de Palm, para su lectura en las PDA Palm Pilot y Pocket PC (Microsoft). En marzo de 2002, su libro de novelas cortas “Everything’s Eventual” (“Todo es eventual”) también se publica en dos versiones: una versión impresa por Scribner (una subdivisión de Simon & Schuster) y una versión digital por Palm Digital Media, que también propone un extracto del libro para la descarga libre. Y así sucesivamente, esto supone una prueba de que los editores siguen siendo útiles.


Las bibliotecas

La biblioteca pública de Helsinki (Finlandia) es la primera biblioteca en crear un sitio web en febrero de 1994. Publicado en línea por la Comisión Europea, el documento “Internet and the Library Sphere” (Internet y la esfera de las bibliotecas) estima que mil bibliotecas públicas en 26 países tienen un sitio web en noviembre de 1998. Los países más representados son Finlandia (247 bibliotecas), Suecia (132 bibliotecas), Alemania (102 bibliotecas), los Países Bajos (72 bibliotecas), Lituania (51 bibliotecas), España (56 bibliotecas) y Noruega (45 bibliotecas). Rusia tiene un sitio web común para 26 bibliotecas públicas. Los nuevos países representados son la República Checa (29 bibliotecas) y Portugal (3 bibliotecas). Estos sitios web son muy heterogéneos; algunos se contentan con dar la dirección postal de la biblioteca y sus horas de operación, mientras que otros ofrecen una amplia gama de servicios que incluyen un acceso directo a su catálogo en línea.

La Conferencia de las Bibliotecarios Nacionales Europeos (Conference of European National Librarians – CENL) lanza en enero de 1997 Gabriel, un portal web trilingüe (inglés, francés, alemán) que ofrece un punto de acceso común a los servicios internet de las 38 bibliotecas nacionales participantes (Austria, Bélgica, Bulgaria, Dinamarca, Estonia, Finlandia, Francia, Grecia, Hungría, Irlanda, Islandia, Italia, Letonia, Lichtenstein, Lituania, Luxemburgo, Macedonia, Malta, Noruega, Países Bajos, Polonia, Portugal, Reino Unido, República Checa, República Eslovaca, Rumania, San Marino, Suecia, Suiza, Turquía, Vaticano). Estos servicios son catálogos en línea, bibliografías nacionales, catálogos colectivos nacionales, índices de diarios, servidores web y gophers (menús textuales a varios niveles), con una búsqueda por país o por tipo de servicio. Una sección específica proporciona información sobre proyectos conjuntos en varios países.

Se lee en el portal que Gabriel es el acrónimo de “Gateway and Bridge to Europe’s National Libraries” (Puerta y Puente hacia las Bibliotecas Nacionales de Europa). La elección del nombre Gabriel “también recuerda las obras de Gabriel Naudé, cuya ‘Advis pour dresser une bibliothèque’ [‘Recomendaciones para formar una biblioteca’, París, 1627], es el primer trabajo teórico en Europa sobre las bibliotecas y constituye, por lo tanto, un punto de partida sobre las bibliotecas de investigación modernas. El nombre Gabriel también se utiliza en muchos idiomas europeos y viene del Antiguo Testamento, Gabriel siendo uno de los arcángeles, o un mensajero celestial. También está presente en el Nuevo Testamento y en el Corán.”

Mucho más tarde, en el verano de 2005, Gabriel se une al sitio web de la Biblioteca Europea –creado por la CENL en enero de 2004– con el fin de proponer un portal común para las 43 bibliotecas nacionales europeas. También ofrece una entrada única a los catálogos de 18 bibliotecas nacionales (Alemania, Austria, Croacia, Dinamarca, Estonia, Finlandia, Francia, Italia, Hungría, Letonia, Países Bajos, Portugal, República Checa, Reino Unido, Serbia, Eslovaquia, Eslovenia, Suiza), con acceso (gratuito o de pago) a los documentos digitales de estas bibliotecas. Se suman a estos los catálogos de la CENL y del ICCU (Instituto Centrale per il Catalogo Unico delle Bibliothece Italiane – Instituto Central para el Catálogo Único de las Bibliotecas Italianas). Las colecciones de otras 25 bibliotecas nacionales se integran en una fase posterior. Tres años después de la fusión de Gabriel con la Biblioteca Europea, se presenta Europeana en noviembre de 2008 como la gran biblioteca digital pública europea.


Los bibliotecarios

Con la riqueza documental que ofrece el internet, los bibliotecarios viven un cambio en sus costumbres laborales, por ejemplo Peter Raggett en la OCDE (Organización para la Cooperación y el Desarrollo Económicos), Bruno Didier en el Instituto Pasteur de París y Bakayoko Bourahima en la ENSEA (Escuela Nacional Superior de Estadística y de Economía Aplicada) de Abiyán (Costa de Marfil).

Peter Raggett es director de la biblioteca de la OCDE, una organización internacional que reúne a treinta países miembro en 1998. Al núcleo original, compuesto por países de Europa occidental y de América del Norte, se suman Japón, Australia, Nueva Zelanda, Finlandia, México, República Checa, Hungría, Polonia y Corea. Reservada para el personal de la OCDE, la biblioteca cuenta con unas 60.000 monografías y 2.500 diarios en 1998. También proporciona microfilms, CD-ROM y bases de datos como Dialog, Lexis-Nexis y UnCover. La biblioteca crea en 1996 sus propias páginas web en el intranet de la OECD, que se convierten en una mayor fuente de información.

Peter Raggett explica en agosto de 1999 en una entrevista por correo electrónico: “Tengo que filtrar la información para nuestros usuarios, y por lo tanto tengo que conocer bien los sitios web y los enlaces que proponen. He seleccionado varias centenas de sitios a los que se puede acceder más fácilmente a partir de la intranet de la OCDE, y esta selección forma parte de la ‘oficina de referencia virtual’ que propone la biblioteca al personal de la organización. Además de muchos enlaces, esta ‘oficina virtual’ contiene páginas web con las referencias de artículos, monografías y sitios web que corresponden a los varios proyectos de investigación de la OCDE, y también propone un acceso en línea a los CD-ROM y una lista mensual de los libros nuevos de la biblioteca.”

“El internet ofrece una reserva de información considerable para los investigadores, pero para ellos el problema es encontrar lo que buscan. Nunca antes se había sentido semejante sobrecarga de información como la que sentimos ahora cuando tratamos de encontrar alguna información sobre un tema preciso utilizando los buscadores disponibles en el internet. Cuando se utiliza un motor de búsqueda como Lycos o AltaVista, o un directorio como Yahoo!, se ve rápidamente la dificultad de encontrar sitios útiles sobre un tema determinado. La búsqueda funciona bien sobre un tema muy específico, por ejemplo si se desea información sobre una persona con un nombre poco común, pero esta da demasiados resultados si se desea información sobre un tema bastante amplio. Por ejemplo, si se busca ‘Rusia *y* transportes’ con el fin de encontrar estadísticas sobre el uso de los trenes, aviones y autobuses en Rusia, los primeros resultados de los motores de búsqueda son las empresas de carga que tienen relaciones comerciales con Rusia.”

¿Cómo ve los cambios de su profesión? “Pienso que los bibliotecarios desempeñarán un papel importante en la misión de mejorar la búsqueda y la organización de la información en la red. Se puede prever también una gran expansión del internet en el campo de la enseñanza y de la investigación. Se incitará a las bibliotecas a crear bibliotecas virtuales que permitan a un estudiante seguir un curso impartido por cualquier institución al otro lado del mundo. La tarea del bibliotecario consistirá en filtrar la información para los usuarios. Personalmente, cada vez me imagino más como un bibliotecario virtual. Ya no tendré oportunidad de conocer a los usuarios en persona: bastará con que se contacten conmigo por correo electrónico, por teléfono o por fax, luego haré la búsqueda y les enviaré los resultados por vía electrónica.”

Bruno Didier es bibliotecario en el Instituto Pasteur de París. Los Institutos Pasteur son observatorios para el estudio de enfermedades infecciosas y parasitarias (malaria, tuberculosis, sida, fiebre amarilla, dengue, poliomielitis y otras). Atraído por las perspectivas que ofrece la red para la búsqueda documental, Bruno Didier crea el sitio web de la biblioteca en 1996 y se convierte en su webmaster. Escribe en agosto de 1999: “La vocación principal del sitio web de nuestra biblioteca es ayudar a la comunidad Pasteur. Es el soporte de aplicaciones que se hacen indispensables para la función documental en un organismo de esta dimensión: bases de datos bibliográficos, catálogo, pedido de documentos y, por supuesto, acceso a diarios en línea. Sirve también de ‘ventana’ para nuestros diferentes servicios, no solo a nivel interno, sino también en toda Francia y en el extranjero. Ocupa un lugar importante en el sistema de cooperación documental con los institutos de la red Pasteur en el mundo entero. Por último, intento convertir este sitio en una pasarela adaptada a nuestras necesidades para iniciar y utilizar el internet. Desarrollo y administro las páginas del sitio web, además de mantener una actividad de vigilancia regular. Por otra parte, soy responsable de la instrucción de los usuarios, como se puede observar en mis páginas. La red es un excelente soporte para la enseñanza, como se ve en casi todos los métodos actuales de formación de los usuarios.”

¿Cómo ve los cambios de su profesión? “Los cambios afectaron a la vez nuestra relación con la información y con los usuarios. Cada vez servimos más de mediadores, y quizás somos un poco menos conservadores. Mi actividad actual es típica de esta nueva situación: por una parte despejo los caminos de acceso rápido para la información e instalo medios de comunicación eficaces, y por otra enseño a los usuarios cómo usar estos instrumentos nuevos. Creo que el futuro de nuestro trabajo depende de la cooperación y de la explotación de recursos comunes. Es sin duda un viejo proyecto, pero bueno, es la primera vez que disponemos de los medios para ponerlo en práctica.”

Bakayoko Bourahima es el responsable de la biblioteca de la ENSEA (École Nationale Supérieure de Statistique et d’Économie Appliquée – Escuela Nacional Superior de Estadística y de Economía Aplicada) de Abiyán (Costa de Marfil), una escuela cuya misión es impartir formación a los estadísticos en los países africanos de expresión francesa. Se crea el sitio web de la ENSEA en abril de 1999 dentro de la red REFER de la Agencia Universitaria de la Francofonía (AUF – Agence Universitaire de la Francophonie), una red francófona que se dirige a la comunidad científica y técnica en África, Asia y Europa del Este, con 24 países participantes en 2002 .

Bakayoko Bourahima se encarga de la gestión de la información y de la difusión de los trabajos publicados por la ENSEA. Relata en julio de 2000: “Recientemente hemos organizado sesiones de trabajo con el equipo informático para discutir sobre la implicación de la biblioteca en la animación del sitio web. El servicio de biblioteca trabaja también sobre dos proyectos de integración de la web para mejorar sus prestaciones. Espero que pronto pueda poner a disposición de mis usuarios un acceso al internet para que puedan consultar las bases de datos. Por otro lado, tengo el proyecto de elaborar algunos servicios documentales para cargarlos luego en el intranet y en la web (bases de datos temáticas, información bibliográfica, servicio de referencias bibliográficas, boletín analítico de los mejores trabajos de los estudiantes). Si logro obtener los financiamientos necesarios para este proyecto, se tratará entonces para nuestra biblioteca de fomentar el uso del internet para dotar nuestra Escuela de mayor proyección, reforzar su plataforma de comunicación con cuantos asociados sea posible. Al integrar este instrumento en el plan de desarrollo de la biblioteca, tengo la esperanza de mejorar la calidad y ampliar la gama de información científica y técnica puesta a disposición de los estudiantes, de los docentes e investigadores, y a la vez de extender considerablemente la oferta de los servicios de la biblioteca.”


Las bibliotecas digitales

Google decide poner su experiencia al servicio del libro y lanza Google Print en mayo de 2005 antes de presentarlo con el nombre de Google Books (Google Libros) un año más tarde, en agosto de 2006.

A iniciativa del Internet Archive y de su director Brewster Kahle, la Open Content Alliance (OCA – Alianza para un Contenido Abierto) se lanza en octubre de 2005 como un proyecto público y cooperativo de biblioteca digital mundial, cuyo objetivo es crear un vasto repertorio multilingüe de libros digitalizados y de documentos multimedia para consulta y descarga en cualquier buscador, con libros sometidos a derechos de autor disponibles solo con la aprobación previa de los editores de estos libros. El Internet Archive piensa que una biblioteca de vocación mundial no debe estar sometida a factores comerciales, contrariamente al proyecto Google Libros. Desea evitar las deficiencias de Google, a saber, la digitalización de libros sometidos a derechos de autor sin la aprobación previa de los editores, y la imposibilidad de consultar y descargar los libros desde otro buscador.

El proyecto reúne a numerosos colaboradores: bibliotecas, universidades, organizaciones gubernamentales, asociaciones sin ánimo de lucro, organismos culturales y empresas informáticas (Adobe, Hewlett Packard, Microsoft, Yahoo!, Xerox). Se digitalizan por ejemplo las colecciones de la Biblioteca de la Universidad de California, la Biblioteca de la Universidad de Toronto, el European Archive, los Archivos Nacionales del Reino Unido y los Prelinger Archives. Para los libros, las colecciones digitales son incluidas en la sección Text Archive (Archivo de Textos) del Internet Archive, con 100.000 libros digitalizados en diciembre de 2006, 200.000 libros digitalizados en mayo de 2007, un millón de libros digitalizados en diciembre de 2008 y dos millones de libros digitalizados en marzo de 2010.

El Internet Archive digitaliza tambíen colecciones especializadas. Recibe por ejemplo una subvención de un millón de dólares estadounidenses por parte de la Fundación Sloan en diciembre de 2006 para digitalizar las colecciones del Metropolitan Museum of Art (la totalidad de los libros y miles de imágenes), así como algunas colecciones de la Boston Public Library (los 3.800 libros de la biblioteca personal de John Adams, segundo presidente de los Estados Unidos), del Getty Research Institute (una serie de libros de arte), de la Universidad John Hopkins (una serie de documentos sobre el movimiento antiesclavista) y de la Universidad de California en Berkeley (una serie de documentos sobre la fiebre del oro).

En Europa, algunos están preocupados a causa de la “hegemonía americana” en este ámbito también. Europeana es creada en noviembre de 2008 como biblioteca digital pública europea, con dos millones de documentos en la misma fecha, 6 millones de documentos en marzo de 2010, 10 millones de documentos en septiembre 2010 (y una nueva interfaz) y 39 millones de documentos en mayo de 2015. Pero el presupuesto de operación asignado a este servicio público europeo parece no ser suficiente para la gigantesca tarea encomendada.

La Digital Public Library of America (DPLA – Biblioteca Digital Pública de América) es concebida en 2010 por Robert Darnton, director de la biblioteca universitaria de Harvard, para unir los esfuerzos de las bibliotecas, archivos y museos de los Estados Unidos. La DPLA abre sus puertas virtuales en abril de 2013 y ofrece 8.5 millones de documentos digitales dos años más tarde, con una previsión de 30 millones de documentos en los años siguientes. Al ser su presupuesto de operación privado, no parece estar en peligro.


Los tesoros del pasado

Las bibliotecas digitalizan sus tesoros para ponerlos a disposición del mundo entero, por ejemplo la versión original de la Biblia de Gutenberg en el sitio web de la British Library en noviembre de 2000.

Datada de 1454 o 1455, la Biblia de Gutenberg es la primera biblia impresa. Fue impresa por Gutenberg en 180 ejemplares en su taller de Maguncia (Alemania). 48 ejemplares existirían aún en 2000. Tres de esos ejemplares —dos completos y uno parcial– pertenecen a la British Library. Diez investigadores y expertos técnicos de la Universidad de Keio en Tokio (Japón) y de NTT (Nippon Telegraph and Telephone Communications – Teléfonos y Telégrafos Nipón) llegan a trabajar durante dos semanas en marzo de 2000 para escanear ambas versiones, ya que presentan ciertas diferencias. Una bella versión digitalizada está disponible en línea en el sitio web de la British Library, algunos meses después, en noviembre de 2000.

Se puede ver otros tesoros de la British Library en línea, por ejemplo Beowulf, joya de la literatura inglesa del siglo XI, la Magna Carta, el primer texto constitucional inglés firmado en 1215, los Lindisfarne Gospels (Evangelios de Lindisfarne), un tesoro del año 698, el Diamond Sutra (Sutra del Diamante), un tesoro del año 868, las Sforza Hours, un tesoro del Renacimiento de los años 1490-1520, el Codex Arundel (Códice Arundel), un cuaderno de Leonardo da Vinci con notas de 1478 a 1518, y el Tyndale New Testament (Nuevo Testamento de Tyndale), el primer Nuevo Testamento en lengua inglesa impreso en 1526.

Otro tesoro literario en línea es la Encyclopédie de Diderot (1751-1772), pero esta vez bajo la forma de una base de datos creada por la ARTFL (American and French Research on the Treasury of the French Language – Investigación Americana y Francesa sobre el Tesoro de la Lengua Francesa), un proyecto común de la Universidad de Chicago (Estados Unidos) y del Centro Nacional de la Investigación Científica (Centre National de la Recherche Scientifique – CNRS) en Francia.

Este experimento empieza con el primer volumen (1751) de la Encyclopédie, un primer paso hacia la versión completa con sus 17 volúmenes de texto (18.000 páginas y 21.7 millones palabras) y sus 11 volúmenes de láminas. La búsqueda es posible hacerla por palabra, por parte del texto, por autor o por categoría, o al combinar estos criterios. Enlaces permiten ir de una lámina a un texto o de un texto al facsímil de la página original. Se corrigen poco a poco los errores tipográficos debidos a la automatización del proceso de digitalización. La búsqueda de imágenes también se hace posible más adelante.

La Encyclopédie de Diderot —cuyo título completo es la “Encyclopédie ou Dictionnaire raisonné des sciences, des métiers et des arts” (Enciclopedia o Diccionario razonado de las ciencias, artes y oficios) de Diderot y d’Alembert— cuenta con 72.000 artículos escritos por 140 autores, incluidos Voltaire, Rousseau, Marmontel, d’Holbach y Turgot. Diseñada para recoger y difundir los conocimientos del Siglo de las Luces, la Encydopédie lleva la marca de las corrientes intelectuales y sociales de ese tiempo. Gracias a ella fue cómo se difundieron las nuevas ideas que inspiraran la Revolución Francesa en 1789.

En la introducción de la Encydopédie, Diderot escribe que “el propósito de una enciclopedia es reunir los conocimientos dispersos sobre la superficie de la tierra, exponer el sistema general a los seres humanos con quienes vivimos y transmitirlo a los seres humanos que vendrán después de nosotros, de manera (…) que nuestros sobrinos, cada vez más educados, lleguen a ser más virtuosos y más felices, y que no muramos sin haber merecido agradecimiento del género humano.” Este texto figura también sobre la pared de la Allée de l’Encyclopédie, uno de los callejones de la Biblioteca Nacional de Francia en París.


Los catálogos colectivos

En el pasado, podíamos criticar los catálogos de las bibliotecas por ser austeros y poco amigables, y por dar las referencias de los documentos pero nunca el acceso a su contenido. Los catálogos en línea son menos austeros y más amigables, y el sueño de muchos comienza a hacerse realidad con acceso a algunos documentos –primero a los textos e imágenes y, después, a extractos del sonido y a videos.

Se crea en 1977 el UNIMARC (Universal Machine-Readable Cataloguing), un formato bibliográfico común para los catálogos de las bibliotecas, publicado por la IFLA (International Federation of Library Associations – Federación Internacional de Asociaciones de Bibliotecas). En 1996, la Comisión Europea promueve el UNIMARC como formato bibliográfico común para los catálogos de las bibliotecas europeas. Los catalogadores de varios países comienzan a intercambiar sus reseñas a través de los catálogos colectivos.

¿Qué es exactamente un catálogo colectivo? El propósito de un catálogo colectivo es evitar volver a catalogar un documento que ha sido procesado por una biblioteca participante. Si el catalogador encuentra el registro del libro que tiene que catalogar, lo copia para su inclusión en el catálogo de su propia biblioteca. Si no encuentra el registro, lo crea, y este registro queda inmediatamente disponible para las otras bibliotecas. Catálogos colectivos están gestionados tras el internet a nivel local, regional, nacional o mundial.

Los dos catálogos colectivos mundiales son gestionados por las asociaciones OCLC (Online Computer Library Center – Centro Informático en Línea para Bibliotecas) y RLG (Research Libraries Group – Grupo de Bibliotecas de Investigación). Empiezan a pequeña escala en los años 1980 antes de convertirse en enormes bases de datos bibliográficos proporcionadas por miles de bibliotecas miembro (suscripción de pago) en el mundo entero, permitiendo a sus servicios de catalogación aunar esfuerzos a través de las fronteras.

El RLG Union Catalog tiene 126 millones de registros para 42 millones de documentos (libros, mapas, manuscritos, películas, bandas sonoras) en 2003. Se lanza una versión web de acceso libre llamada RedLightGreen (RojaLuzVerde) en la primavera de 2004. Destinado en primer lugar a los estudiantes universitarios, RedLightGreen proporciona 130 millones de registros, permite la localización de los documentos en una biblioteca universitaria determinada, y propone enlaces hacia su versiones en línea si existen.

El catálogo colectivo WorldCat de OCLC tiene 73 millones de registros producidos por 10.000 bibliotecas en 112 países en 2006. Permite localizar a unos mil millones de documentos, lo que favorece el préstamo interbibliotecario. WorldCat empieza su migración gradual hacia la web, primero con la posibilidad de ver los registros en Yahoo! o Google, y segundo con la creación en agosto de 2006 del sitio web Worldcat.org, de acceso libre. Las bibliotecas participantes también proponen un acceso directo (gratis o de pago) a sus documentos electrónicos (libros del dominio público, artículos, fotos, videos, música, audiolibros).

RedLightGreen pone fin a sus actividades en noviembre de 2006. Los usuarios son animados a usar Worldcat.org. El RLG se fusiona con OCLC en la misma fecha. WorldCat permite localizar 1.500 millones de documentos en abril de 2010, y tener acceso al contenido de varios de éstos.


Los recursos lingüísticos

Travlang es el primer sitio web que ofrece una lista de diccionarios bilingües gratuitos en línea. Michael C. Martin, estudiante de física en Nueva York, crea en primer lugar la página web “Foreign Languages for Travelers” (Idiomas Extranjeros para Viajeros) en el sitio de su universidad en 1994 para aprender los fundamentos de 70 idiomas a través de la web. Un año después, crea el sitio web Travlang, dedicado a los viajes y a los idiomas. Empieza a trabajar como investigador en el Lawrence Berkeley National Laboratory en California en 1998, y sigue administrando Travlang en su tiempo libre.

Travlang recibe el premio del mejor sitio de viajes en 1997. La sección “Translating Dictionaries” (Diccionarios de Traducción) proporciona acceso a diccionarios en quince idiomas (afrikáans, alemán, checo, danés, español, esperanto, finlandés, francés, frisón, holandés, húngaro, italiano, latín, noruego, portugués) en 1998. Estos diccionarios son a menudo breves y de calidad desigual. Otras secciones ofrecen enlaces a servicios de traducción, escuelas de idiomas y librerías multilingües. También se puede reservar un hotel, un coche o un billete de avión, consultar las tasas de conversión de dinero o navegar en un repertorio de 7.000 enlaces hacía otros sitios de idiomas o de viajes.

Michael C. Martin escribe en agosto de 1998 en una entrevista por correo electrónico: “Pienso que la web es un lugar ideal para acercar a las culturas y las personas, y eso incluye que la web sea multilingüe. Nuestro sitio Travlang es muy popular por esta razón, y a la gente le encanta estar en contacto con otras partes del mundo. Realmente, el internet es un instrumento importante para comunicarse con personas con las cuales no tendríamos la oportunidad de interactuar de otro modo. Agradezco la cooperación que ha hecho posible nuestras páginas web. (…) Creo que las traducciones integrales informatizadas se convertirán en algo común para comunicarse directamente con más gente. Esto también ayudará a que el internet llegue más a la gente que no habla inglés.” Michael C. Martin vende Travlang en febrero de 1999. El sitio web se dedica solo a viajes y cuenta con dos millones de visitas en julio de 2000.

Tyler Chambers, informático en Boston (Massachusetts, Estados Unidos), crea en su tiempo libre la Human-Languages Page (H-LP – Página de las Lenguas Humanas) en 1994 y el Internet Dictionary Project (IDP – Proyecto de Diccionarios en el Internet) en 1995. Cuenta en septiembre de 1998: “El multilingüismo en la web era inevitable mucho antes de que este medio se desarrolla verdaderamente. Mi primer verdadero contacto con la web fue en 1994, poco después de sus inicios, pero mucho antes de su expansión. 1994 fue también el año en que comencé mi primer proyecto web multilingüe [la Human-Languages Page], y existía ya un número significativo de recursos lingüísticos en línea. Eso fue antes de la creación de Netscape. Mosaic era el único navegador en la web y las páginas web eran principalmente documentos textuales enlazados con hipervínculos.”

La Human-Languages Page es un catálogo de recursos lingüísticos, con 1.800 recursos en un centenar de lenguas en octubre de 1998. La Human-Languages Page se fusiona en la primavera de 2001 con el Languages Catalog (Catálogo de lenguas), una sección de la WWW Virtual Library, en el nuevo sitio iLoveLanguages (Yo quiero idiomas). iLoveLanguages hace el inventario de 2.000 recursos lingüísticos en un centenar de idiomas en septiembre de 2003.

El segundo proyecto web multilingüe de Tyler Chambers es el Internet Dictionary Project, un proyecto colaborativo abierto a todos para la creación de diccionarios gratis en la web, del inglés a otros idiomas (alemán, español, francés, italiano, latín, portugués).

Según su sitio web: “El Internet Dictionary Project nació en 1995 para llenar un vacío y ofrecer diccionarios de traducción gratuitos a la comunidad del internet y a todas las personas que se interesan por la informática. No solo es muy útil tener acceso inmediato a los diccionarios en la World Wide Web, sino que esto también permite el desarrollo de software que utilizan estos diccionarios, por ejemplo software de traducción, correctores ortográficos o guías para el aprendizaje de idiomas. Al facilitar, por miles de voluntarios, la creación de estos diccionarios en línea y al ponerlos a disposición de todos gratuitamente, el Internet Dictionary Project espera imprimir su marca en el internet y suscitar otros proyectos que serán más beneficiosos que los proyectos generando ingresos puramente financieros. (…) Nuestro sitio web permite a la gente de todo el mundo consultarlos y participar en la traducción de términos ingleses a otros idiomas. Así, las listas de términos en inglés y sus equivalentes en otros idiomas están a disposición de todos en este sitio, sin restricciones de ningún tipo.”

Tyler Chambers cuenta en septiembre de 1998 en una entrevista por correo electrónico: “Aunque yo no sea políglota, ni siquiera bilingüe, estoy consciente de que muy pocas áreas tienen una importancia comparable al área de las lenguas y del plurilingüismo. En general, creo que la web es importante para la sensibilización a las lenguas y a los temas culturales. ¿En qué otro lugar se puede navegar al azar durante veinte minutos y encontrar información útil en tres lenguas o más? Decir que el internet estimula el multilingüismo me parece una opinión falsa. Es la comunicación la que estimula el multilingüismo y el intercambio cultural. El internet es solo el modo de comunicación más reciente accesible para la gente más o menos ordinaria. Los idiomas serán aún más importantes de lo que son ahora cuando todo el mundo pueda comunicarse a escala planetaria (a través de la web, del chat, de los juegos, del correo electrónico o de cualquier otra aplicación que todavía pertenece al futuro). Con la mejora de los navegadores y la experiencia adquirida por los usuarios, creo que ahora no hay una sola lengua viva que no esté presente en la web; ya se trate de la lengua de los indios americanos o de los dialectos medio-orientales. Muchas lenguas muertas pueden también encontrar ahora una nueva audiencia con eruditos y otros expertos en línea.”

Tyler Chambers pone fin al Internet Dictionary Project en enero de 2007, por falta de tiempo, dejando los diccionarios existentes en el sitio web para su visualización o descarga.

En diciembre de 1997, la empresa de traducción italiana Logos decide poner todas sus herramientas profesionales de acceso libre en la web para sus traductores –300 traductores en la sede y 2.500 traductores externos en 35 idiomas — y el público general. Estas herramientas son: (a) el Logos Dictionary (Diccionario Logos), un diccionario multilingüe de 7.5 millones de términos (en septiembre de 1998); (b) la Wordtheque, una base de datos multilingüe de 328 millones de términos, compilada a partir de miles de traducciones, con búsquedas por idioma, por término, por autor o por título; (b) Linguistic Resources (Recursos Lingüísticos), que ofrece un punto de acceso único a 553 glosarios; (d) el Universal Conjugator (Conjugador Universal), que proporciona tablas de conjugación en 17 idiomas.

En una entrevista con la periodista Annie Kahn –publicada en su artículo “Les mots pour le dire” (Las palabras para decirlo) en el diario francés Le Monde del 7 de diciembre de 1997– Rodrigo Vergara, director de Logos, relata: “Queríamos que todos nuestros traductores tuvieran acceso a las mismas herramientas de traducción. Entonces las hemos puesto a su disposición en el internet, y ya que estábamos lanzados, abrimos el sitio web al público. Esto nos hizo muy populares y nos ha hecho mucha publicidad. Esto también ha atraído a muchos clientes a nuestra empresa y nos ha permitido expandir nuestra red de traductores con esta iniciativa.”

Annie Kahn explica en el mismo artículo: “El sitio de Logos es mucho más que un diccionario o un directorio de enlaces hacia otros diccionarios en línea. Uno de los pilares del sistema es un software de búsqueda documental en un corpus de textos literarios disponibles gratuitamente en el internet. Cuando uno busca la definición o la traducción de un término, por ejemplo ‘didáctica’, encuentra no solo el resultado de la búsqueda, sino también la frase de una obra literaria que usa esta palabra (en este caso, un ensayo de Voltaire). Un simple clic permite tener acceso al texto íntegro de la obra o encargar el libro a través de nuestra cooperación con Amazon.com, la librería en línea más conocida. Lo mismo sucede con las traducciones extranjeras. Si no se encuentra ningún texto que contenga este término, el sistema actúa como un buscador hacia otros sitios usando el mismo. Para algunos términos, se propone escuchar la pronunciación. Si le falta una traducción, el sistema recurre a los usuarios del sitio. Cada uno puede contribuir a la base de datos, y los traductores profesionales de Logos validan o no las traducciones propuestas.”

Diez años después, en 2007, la Wordtheque, ahora llamada Logos Library (Biblioteca Logos), contiene 710 millones de términos; Linguistic Resources (Recursos Lingüísticos, no cambio de nombre) proporciona un punto de acceso único a 1.215 glosarios; y el Universal Conjugator, ahora llamado Conjugation of Verbs (Conjugación de Verbos), ofrece tablas de conjugación en 36 idiomas.


Los diccionarios

Robert Beard, profesor de lengua en la Universidad Bucknell (Pensilvania, Estados Unidos), crea en 1995 el sitio A Web of Online Dictionaries (Una Web de Diccionarios en Línea). Su sitio ofrece 800 diccionarios en varios idiomas en el otoño de 1998, con diccionarios multilingües, diccionarios especializados de la lengua inglesa, tesauros, vocabularios, gramáticas, glosarios y métodos de enseñanza de lenguas. La sección Linguistic Fun (Diversión lingüística) tiene elementos de lingüística para los que no son especialistas.

Robert Beard destaca en septiembre de 1998 en una entrevista por correo electrónico: “Al principio se temió que la web representara una amenaza para el multilingüismo, dado que el lenguaje HTML y otros lenguajes de programación se basan en el inglés, y que hay más sitios web en inglés que en cualquier otro idioma. Sin embargo, el sitio web que administro muestra que el multilingüismo está muy presente y que la web puede ayudar a preservar las lenguas en peligro de extinción. Ahora propongo enlaces hacia diccionarios en 150 idiomas y gramáticas en 65 idiomas. Por otro lado, la gente que desarrolla navegadores se interesa más por la diversidad de los idiomas del mundo, promoviendo así la presencia de un número aún mayor de sitios web en varios idiomas.”

Cinco años después de la creación de su primer sitio web, Robert Beard cofunda el portal web yourDictionary.com, que integra su sitio precedente. Explica en enero de 2000: “Tenemos muchas ideas nuevas. Planeamos trabajar con el Endangered Language Fund [Fondo para Lenguas en Peligro], en los Estados Unidos y en Gran Bretaña, a fin de recaudar fondos para esta fundación, y publicaremos los resultados en nuestro sitio web. Tendremos grupos de discusión y boletines de información sobre los idiomas. Tendremos juegos de lengua para entretenerse y para aprender los fundamentos de la lingüística. La página web Linguistic Fun se convertirá en un diario en línea con fragmentos breves, interesantes e incluso divertidos en varios idiomas, seleccionados por expertos del mundo entero.”

La sección Endangered Language Repository es dedicada a las lenguas amenazadas. “Las lenguas en peligro son esencialmente aquellas que no tienen tradición escrita. Solo un tercio de los 6.000 idiomas que existen en el mundo tienen a la vez tradición escrita y hablada. Pero no pienso que la web contribuya a la pérdida de identidad de los idiomas. Al contrario, me da la impresión de que, a largo plazo, la web irá reforzando esta identidad. Por ejemplo, cada vez hay más Indios americanos que contactan a lingüistas para pedirles que escriban la gramática de su idioma y les ayuden a elaborar diccionarios. Para ellos la web representa un instrumento de expresión cultural accesible y a la vez muy valioso.”

yourDictionary.com incluye 1.800 diccionarios en 250 idiomas en septiembre de 2003 y 2.500 diccionarios en 300 idiomas en abril de 2007, así como vocabularios, gramáticas, glosarios y métodos de enseñanzas de lenguas.

Michael Kellogg crea WordReference.com en 1999 para ofrecer diccionarios bilingües gratuitos en línea. Explica en el sitio web: “El internet ha sido una herramienta increíble en los últimos años para unir a la gente del mundo entero. Sin embargo, el idioma sigue siendo uno de los mayores obstáculos. El contenido del internet está en gran parte en inglés, y para muchos usuarios que leen esas páginas web, el inglés es un segundo idioma y no su lengua materna. Mi propia experiencia con el idioma español me ha enseñado que muchos usuarios entienden mucho de lo que leen, pero no todo. Este sitio partió en 1999 como un esfuerzo para proporcionar diccionarios bilingües gratuitos en línea y herramientas para todos en el internet. Entonces el sitio ha crecido poco a poco hasta convertirse en uno de los diccionarios más usados en línea, y en el primer diccionario para los pares de idiomas inglés-español, inglés-francés, inglés-italiano, español-francés y español-portugués. Este sitio siempre figura entre los 500 más visitados de la red. Hoy me complace seguir trabajando para mejorar estos diccionarios, sus herramientas y los foros de lenguas.”

WordReference.com propone para la lengua española un diccionario monolingüe, un diccionario de sinónimos, un diccionario español-francés y otro español-portugués; y para la lengua inglesa un diccionario monolingüe y diccionarios del inglés a otros idiomas (árabe, checo, chino, coreano, griego, japonés, polaco, portugués, rumano, turco) y viceversa. Para el francés y el italiano, propone uno diccionario francés-inglés de 250.000 términos y un diccionario italiano-inglés de 200.000 términos. También propone tablas de conjugación para el español, el francés y el italiano, y un diccionario monolingüe para el alemán y el ruso. Una versión del sitio en miniatura (creada en 2010) puede integrarse en otros sitios, por ejemplo en sitios de aprendizaje de idiomas. Una versión para dispositivos móviles está disponible para diccionarios del inglés al español, del inglés al francés y del inglés al italiano y viceversa, con más pares de idiomas en los años siguientes.

WordReference.com presenta igualmente foros lingüísticos muy activos y de calidad gracias a la moderación de Michael Kellogg. Si los usuarios tienen una pregunta sobre un uso lingüístico concreto, pueden buscar entre las miles de preguntas anteriores, antes de hacer la pregunta en alguno de los foros, para ser ayudados por lingüistas de todo el mundo.


Las enciclopedias

¿Qué es exactamente un wiki, que permite la gestión de enciclopedias en línea? Un wiki (palabra hawaiana que significa “rápido”) es un sitio web que permite a varios usuarios colaborar juntos en línea al redactar el contenido del wiki, modificarlo y enriquecerlo en cualquier momento. El software utilizado para estructurar la interfaz de un wiki puede ser más o menos elaborado. Un software sencillo permite administrar texto e hipervínculos; un software complejo permite incluir imágenes, gráficos, tablas y videos.

Wikipedia se crea en enero de 2001 a iniciativa de Jimmy Wales y Larry Sanger (este dimite más tarde) como una enciclopedia colectiva gratuita en línea, y de inmediato adquiere una gran popularidad. No alberga publicidad y se financia gracias a donaciones. La redactan miles de voluntarios —que se registran bajo un seudónimo— con la posibilidad de escribir, corregir o completar los artículos, tanto los propios como los de otros contribuidores. Estos artículos siguen siendo propiedad de sus autores. Su libre utilización es regida primero por la licencia GFDL (GNU Free Documentation License – Licencia de Documentación Libre de la GNU) y después por una licencia Creative Commons.

Wikipedia cuenta con 1.3 millones de artículos redactados por 13.000 contribuidores en un centenar de idiomas en diciembre de 2004. Cuenta con 6 millones de artículos en 250 idiomas en diciembre de 2006, y llega a ser uno de los diez sitios más visitados de la web. Cuenta con 7 millones de artículos en 192 idiomas en mayo de 2007, de los cuales 1.8 millones de artículos en inglés, 589.000 artículos en alemán, 500.000 artículos en francés, 260.000 artículos en portugués y 236.000 artículos en español. Es uno de los cinco sitios más visitados de la web en 2009. Cuenta con 14 millones de artículos en 272 idiomas en septiembre de 2010, de los cuales 3.4 millones de artículos en inglés, 1.1 millones artículos en alemán y 1 millón artículos en francés. Celebra sus diez años de existencia en enero de 2011 con 17 millones de artículos en 270 idiomas y 400 millones de visitas al mes en sus varios sitios.

La Fundación Wikimedia (creada en junio de 2003) no administra sólo Wikipedia, sino también Wiktionary (diccionario y tesauro multilingüe, creado en diciembre de 2002) y Wikibooks (repertorio de libros y manuales, creado en junio de 2003), a los que se añaden más adelante Wikiquote (repertorio de citas), Wikisource (repertorio de textos del dominio público), Wikimedia Commons (repertorio de fuentes multimedia), Wikispecies (repertorio de especies animales y vegetales), Wikinews (sitio web de noticias) y Wikiversity (repertorio de material didáctico).

Wikipedia también inspira otros proyectos a lo largo de los años, por ejemplo Citizendium, creado en marzo de 2007 por Larry Sanger como una enciclopedia colaborativa experimental de contenido verificado por expertos, o la Encyclopedia of Life (Enciclopedia de la Vida), creada en mayo de 2007 para hacer el inventario de todas las especies animales y vegetales conocidas.


Las revistas científicas

La Public Library of Science (PLOS – Biblioteca Pública de Ciencia) crea siete revistas científicas y médicas gratuitas de gran calidad entre 2003 y 2007: PLOS Biology, PLOS Medicine, PLOS Genetics, PLOS Computational Biology, PLOS Pathogens, PLOS Neglected Tropical Disease [enfermedades tropicales desatendidas] y PLOS ONE. Estas revistas enseguida comienzan a competir con las mejores revistas científicas de pago (y muy caras), con la tremenda ventaja de estar accesibles tanto para los pobres como para los ricos y estén donde estén. Además, PLOS usa una licencia Creative Commons CC BY para todos los artículos, es decir la más “amplia” que pueda haber. Todos los artículos pueden ser difundidos y reutilizados en cualquier parte del mundo, incluyendo para traducciones, con la única obligación de mencionar a los autores, el título y la fuente.

Los revistas de PLOS son revistas llamadas “de acceso abierto” (acceso libre). El movimiento internacional de acceso abierto empeza con la publicación de la Iniciativa de Budapest para el Acceso Abierto (Budapest Open Access Initiative – BOAI), un acta pública firmada en febrero 2002 para poner a disposición de todos los resultados de las investigaciones. Ahora que tenemos una red mundial llamada internet, no hay razones para seguir haciendo circular los artículos de los investigadores a través de revistas científicas carísimas cuando a los investigadores no se les paga por escribir estos textos, pues los redactan en el marco de sus labores (incluso, a veces, de noche o los fines de semana desde sus casas). Además, como ciudadanos, pagamos las investigaciones de organismos públicos con nuestros impuestos y, por lo tanto, deberíamos poder leer sus resultados gratuitamente. El acceso abierto es beneficioso para todo el mundo, incluso para los investigadores, quienes se aseguran así que sus trabajos serán leídos y utilizados por mucha gente, ¿y no es eso lo que espera cualquier investigador?

Si un investigador quiere publicar su artículo en una revista abierta, puede explorar el DOAJ (Directory of Open Access Journals – Repertorio de las Revistas en Acceso Abierto), un repertorio con 10.200 revistas científicas y académicas de acceso abierto de 136 países y en 50 lenguas en 2015.

Más y más universidades y centros de investigación tienen sus propios archivos abiertos para poner a disposición de todos los artículos de sus investigadores y profesores, incluido universidades con reputación mundial como Harvard con DASH o el Massachusetts Institute of Technology (MIT) con DSpace@MIT. Los archivos abiertos pueden ser institucionales o temáticos, por ejemplo arXiv para la física o PubMed para la biomedicina. Ciertos archivos abiertos no se limitan a contener artículos y proponen otros documentos (tesis, memorias, libros, material pedagógico, documentos audio, videos). Los archivos abiertos tienen dos repertorios mundiales : ROAR (Registry of Open Access Repositories) y OpenDOAR (Directory of Open Access Repositories).


Los recursos para enseñar

Vinton Cerf, el co-inventor de los protocolos del internet, funda la Internet Society (ISOC) en 1992 para promover el desarrollo del internet. Explica en enero de 1998 en una entrevista con el diario francés Libération: “La red permite dos cosas: como los libros, permite acumular conocimientos, pero sobre todo presenta este conocimiento de manera de relacionarlo con otra información. Mientras que en un libro, la información se queda aislada.”

Además, la información contenida en los libros sigue siendo la misma, mientras que la información en el internet es regularmente actualizada. Eso cambia nuestra relación con al saber. Durante una conferencia organizada en septiembre de 1996 por la Federación Internacional del Tratamiento de la Información (International Federation of Information Processing – IFIP), Dale Spender, una investigadora y profesora australiana, destaca estos cambios en la adquisición del saber y en los métodos de enseñanza. He aquí un resumen de su argumentación.

Durante los últimos quinientos años, la enseñanza se ha basado principalmente en la información contenida en los libros. Ahora bien, las costumbres vinculadas con el documento impreso no se pueden transferir al mundo digital. La enseñanza en línea ofrece posibilidades tan novedosas que ya casi no es posible hacer las distinciones tradicionales entre docente y alumno. El paso de la cultura impresa a la cultura digital exige reconsiderar enteramente el proceso de enseñanza, ya que ahora tenemos la oportunidad, sin precedente, de poder influir sobre el tipo de enseñanza que deseamos. Con la cultura impresa, la información contenida en los libros seguía siendo la misma durante bastante tiempo, lo que nos ha incitado a pensar que la información era estable. La misma naturaleza de lo impreso es vinculada a la noción de verdad, que también es estable. Esta estabilidad y el orden que engendra han sido unos de los fundamentos de la era industrial y de la revolución científica. Las nociones de verdad, de leyes, de objetividad y de pruebas, han sido los elementos de referencia de nuestras creencias y de nuestras culturas, pero la revolución digital lo cambia todo. De repente, la información en línea suplanta la información impresa para convertirse en la más fiable y la más útil y, en consecuencia, el usuario está dispuesto a pagarla. Es esta transformación radical en la naturaleza de la información la que debe estar en el centro del debate sobre los métodos de enseñanza.

Así lo demuestra la experiencia de Patrick Rebollar, profesor de francés y de literatura francesa en Tokio (Japón), quien escribe en julio de 1998 en una entrevista por correo electrónico: “Mi trabajo de investigación es diferente, mi trabajo como profesor es diferente, mi imagen como profesor-investigador de lengua y de literatura está totalmente ligada al ordenador, lo que tiene sus lados buenos y sus lados malos (sobre todo en la alta jerarquía académica, que se compone de personas de edad avanzada y tecnológicamente recalcitrantes). He dejado de interesarme en algunos colegas cercanos geográficamente pero que no tienen nada en común con mis ideas, para entrar en contacto con personas desconocidas y ubicadas en varios países (y con las que a veces me encuentro en París o en Nueva York, con ocasión de las vacaciones o de las conferencias de los unos o los otros). La diferencia es antes que nada un ahorro de tiempo para todo, luego un cambio del método de documentación, un cambio del método en la enseñanza que hace hincapié en la adquisición de métodos de investigación por mis estudiantes a expensas de los contenidos (pero eso depende de los cursos). Poco a poco, el paradigma reticular es más importante que el paradigma jerárquico.”

Robert Beard, profesor en la Universidad Bucknell (Estados Unidos), destaca en septiembre de 1998: “Como profesor de lengua, creo que la web tiene una plétora de nuevos recursos disponibles en el idioma estudiado, nuevas herramientas de aprendizaje (ejercicios interactivos Java y Shockwave) y de tests, que están disponibles para los estudiantes cuando tienen tiempo o les apetece hacerlos, 24 horas al día y 7 días a la semana. Tanto para mis colegas como para mí, y por supuesto para nuestra institución, el internet también nos permite publicar prácticamente sin límite. El internet nos proporcionará todo el material pedagógico con el que podemos soñar, incluso notas de lectura, ejercicios, tests, evaluaciones y ejercicios interactivos más eficaces que antes, por estar estos más basados en el concepto de comunicación. (…) La web será una enciclopedia del mundo, hecha por el mundo y para el mundo. Ya no habrá información o conocimientos útiles que no estén disponibles para la gente, de manera que se eliminará la barrera principal para la comprensión internacional e interpersonal, y para el desarrollo personal e institucional. Hará falta tener una imaginación más desbordante que la mía para predecir el efecto de este desarrollo sobre la humanidad.”

Ubicado en el Instituto de las Lenguas de la Universidad de Hull (Reino Unido), el C&IT Centre (Communications & Information Technology Centre – Centro de Tecnologías de la Comunicación y la Información) promueve el uso de los ordenadores en el aprendizaje y la enseñanza de las lenguas y ofrece un apoyo a los profesores que utilizan (o quieren utilizar) la informática en su enseñenza. Según June Thompson, responsable del Centro, entrevistada en diciembre de 1998: “El uso del internet ha aportado una nueva dimensión a nuestra tarea, que consiste en ayudar a los profesores de lengua a usar las nuevas tecnologías en este ámbito. Con el internet, tenemos la posibilidad de usar más las lenguas extranjeras. Creo que, en un futuro cercano, el uso del internet para las lenguas seguirá desarrollándose a la vez que otros soportes (como por ejemplo el uso de CD-ROM; algunos establecimientos no tienen suficiente material informático con una conexión internet), en el marco de actividades de carácter pedagógico.”

Russon Wooldridge, profesor en el Departamento de Estudios Franceses de la Universidad de Toronto (Canadá), relata en febrero de 2001: “Mis actividades de investigación, llevadas a cabo anteriormente en una torre de marfil, se hacen ahora casi exclusivamente por colaboraciones locales o remotas. Todo mi método de enseñanza aprovecha al máximo los recursos del internet (la web y el correo electrónico). Los dos lugares comunes son el aula de clase y la página web del curso, en la cual coloco todo el material didáctico. Pongo a disposición en la web todos los datos de mi labor de investigación de los últimos veinte años (reedición de libros, artículos, textos integrales de diccionarios antiguos en bases de datos interactivas, de tratados del siglo XVI, etcétera). Publico actas de coloquios, edito un diario, colaboro con colegas franceses, poniendo en línea en Toronto lo que ellos no pueden publicar en línea en su país. Me doy cuenta de que sin el internet mis actividades serían mucho más limitadas, o al menos serían muy diferentes de lo que son en la actualidad. Luego, no me imagino el futuro sin el internet.”

El Massachusetts Institute of Technology (MIT – Instituto Tecnológico de Massachusetts) lanza en septiembre 2002 la versión piloto de su OpenCourseWare, con acceso gratuito, para poner el material didáctico de sus cursos a disposición de todos. Un OpenCourseWare puede definirse como la publicación electrónica para el acceso libre al material didáctico de un conjunto de cursos (textos de conferencias, trabajos prácticos, ejercicios con sus soluciones, bibliografías, documentos audio, videos). La versión piloto propone el material de estudio de 32 cursos representativos de las cinco escuelas del MIT. El lanzamiento oficial del OpenCourseWare se concretiza un año después, proponiendo acceso al material de unos cien cursos en septiembre de 2003, de 500 cursos en marzo de 2004, de 1.400 cursos en mayo de 2006 y de la totalidad de los 1.800 cursos del MIT en noviembre de 2007. Este material es actualizado con frecuencia. El material de algunos cursos es traducido al español, al portugués y al chino con ayuda de otros organismos.

La esperanza del MIT es que esta experiencia de publicación electrónica —la primera de este tipo— permita definir un estándar y un método de publicación para el material didáctico de cursos, e incite a otras universidades a crear su propio OpenCourseWare. A tal efecto, el MIT crea el OpenCourseWare Consortium (que se convierte después en el Open Education Consortium) en diciembre de 2005, el que proporciona acceso al material didáctico de cien universidades del mundo un año más tarde, y 30.000 módulos de enseñanza en 29 idiomas de 280 organismos participantes en 40 países en mayo de 2015.


Los recursos para los traductores

El internet es “una fuente indispensable e inagotable de información” para los traductores. Marcel Grangier, responsable de la sección francesa de los servicios lingüísticos centrales de la Administración Federal Suiza, escribe en enero de 1999: “Trabajar sin el internet se ha hecho simplemente imposible. Más allá de todas las herramientas utilizadas (correo electrónico, consulta de la prensa electrónica, actividades de servicios en beneficio de los traductores profesionales), el internet es para nosotros una fuente indispensable e inagotable de información en lo que yo llamaría el ‘sector informal’ de la red. Para ilustrar este punto, recordemos que cuando ningún sitio con información organizada nos puede dar una respuesta a un problema de traducción, los buscadores pueden —en la mayoría de los casos— encontrar el eslabón perdido en algún lugar de la red.”

Los traductores de la sección francesa gestionan Dictionnaires Électroniques (Diccionarios electrónicos), un directorio de diccionarios en línea, con diccionarios monolingües (alemán, español, francés, inglés, italiano), directorios de abreviaturas y acrónimos, y repertorios geográficos incluyendo atlas. Marcel Grangier explica en enero de 2000: “Los Dictionnaires Électroniques son solo una parte de nuestro sitio web. Otras partes están relacionadas con la administración, el derecho y la lengua francesa. Proponemos también mucha información general. Diseñado en primer lugar como un servicio intranet, nuestro sitio está destinado principalmente a los traductores suizos, que trabajan a menudo de la misma manera que los traductores de la Administración Federal. Pero ciertas partes de nuestro sitio pueden ser útiles a cualquier otro traductor en cualquier lugar.” Dictionnaires Électroniques se transfiere en 2001 al nuevo sitio web de la Conferencia de Servicios de Traducción de los Estados Europeos (Conference of Translation Services of European States – COTSOES).

Maria Victoria Marinetti, de nacionalidad mexicana, es ingeniera, profesora de español para empresas y traductora. Escribe en agosto de 1999: “Tengo acceso a una gran cantidad de información a nivel mundial, por lo tanto es muy interesante. Tengo también la oportunidad de poder transmitir y recibir cartas, fotos, etcétera, es un ‘va y viene’ de información constante. Por medio del internet puedo hacer traducciones de todo tipo, del francés al español y viceversa, así como también enviar y recibir correcciones. Dentro del área técnica o química, propongo ayuda y consejos técnicos, así como información para la exportación de equipos de alta tecnología hacia México u otro país de América Latina.”

Praetorius, empresa británica de traducción y de servicios lingüísticos, crea la revista Language Today (Lenguaje Hoy) para los lingüistas (traductores, intérpretes, terminólogos, lexicógrafos, escritores técnicos), con una versión impresa y otra en línea. Geoffrey Kingscott, director de Praetorius, explica en 1998: “Publicamos la versión impresa de Language Today solo en inglés, denominador común de nuestros lectores. Cuando usamos un artículo que, originalmente, estaba en otro idioma que el inglés, o cuando damos cuenta de una entrevista en otro idioma, lo traducimos al inglés y no publicamos más que esta versión por la siguiente razón: la cantidad de páginas que podemos imprimir es limitada, y está determinada en función de nuestra clientela (anunciantes y suscriptores). Sin embargo, en nuestra versión web, presentamos también la versión original.”

La Linguist List es una lista de difusión para lingüistas creada en 1990 por Anthony Rodrigues Aristar en la University of Western Australia. La lista se traslada a la Texas A&M University (Estados Unidos) en 1991 y crea su propio sitio web en 1997. Helen Dry, co-moderadora de la Linguist List desde 1991, explica en agosto de 1998: “La Linguist List tiene por política aceptar información en todos los idiomas, ya que es una lista para lingüistas. Sin embargo, no deseamos que un mensaje se publique en varios idiomas, simplemente por la carga de trabajo que eso representaría para nuestra redacción. Nuestra lista no es una ‘bolsa de gatos’, sino una lista moderada. Así pues, antes de ser publicado, cada mensaje es clasificado por nuestros estudiantes-redactores en una sección específica que contiene todos los mensajes del mismo tipo. Nuestra experiencia nos enseña que casi todo el mundo opta por publicar en inglés. Pero creamos enlaces a un sistema de traducción que presenta nuestras páginas en cinco idiomas. Así, un suscriptor lee la Linguist en inglés solo si lo desea. También tratamos de tener al menos un estudiante-redactor verdaderamente multilingüe, de modo que los lectores puedan comunicarse con nosotros en otros idiomas que el inglés.”

Helen Dry añade en julio de 1999: “Empezamos a reunir una gran cantidad de datos. Por ejemplo, tenemos bases de datos con un motor de búsqueda para los resúmenes de las tesis lingüísticas, las informaciones sobre los programas universitarios de lingüística y los datos profesionales de lingüistas individuales. Que yo sepa, el archivo de los resúmenes de las tesis es la única compilación electrónica que está disponible gratis en el internet.”


Los bases de datos terminológicas

NetGlos, compendio de “Multilingual Glossary of Internet Terminology” (Glosario Multilingüe de la Terminología del Internet), es un glosario colaborativo creado en 1995 por iniciativa del WorldWide Language Institute (Instituto de Idiomas del Mundo Entero). Tres años después, NetGlos está disponible en 13 idiomas (alemán, chino, croata, español, francés, griego, hebreo, flamenco, inglés, italiano, maorí, noruego, portugués), con la participación de muchos traductores y lingüistas en varios países.

Brian King, director del WorldWide Language Institute (WWLI), explica en septiembre de 1998: “Gran parte de la terminología técnica en la web todavía no está traducida a otros idiomas [más que en inglés]. Y como nos damos cuenta en NetGlos, la traducción de estos términos no es siempre fácil. Antes de que un nuevo término sea aceptado como el término correcto, hay un período de inestabilidad con varios ‘candidatos’ en competencia. A menudo, un término tomado del inglés es el punto de partida y, en muchos casos, también es el punto de llegada. Finalmente surge un ganador, que luego se utiliza tanto en los diccionarios técnicos como en el vocabulario cotidiano del usuario no especialista. La última versión de NetGlos es la versión rusa, y debería estar disponible pronto. Será sin duda un excelente ejemplo del proceso dinámico en curso para la ‘rusificación’ de la terminología de la web.”

En 1997 y 1998, algunas organizaciones gubernamentales internacionales ponen sus bases de datos terminológicas de acceso libre en la web, para que sean útiles para los lingüistas del mundo entero. Es el caso, por ejemplo, de ILOTERM, la base de datos cuadrilingüe (inglés, francés, español, alemán) de la Organización Internacional del Trabajo (OIT); de TERMITE, la base de datos cuadrilingüe (inglés, español, francés, ruso) de la Unión Internacional de las Telecomunicaciones (UIT); y de WHOTERM, la base de datos trilingüe (inglés, español, francés) de la Organización Mundial de la Salud (OMS).

Otro proyecto es Eurodicautom, la base de datos terminológica multilingüe de la Unión Europea. Mantenida por el Servicio de Traducción de la Comisión Europea, es una base de datos de términos económicos, científicos, técnicos y jurídicos que permite combinar entre sí las 11 lenguas oficiales de la Unión Europea (alemán, danés, español, finlandés, francés, griego, holandés, inglés, italiano, portugués, sueco) y el latín. Originalmente para uso interno de los traductores de la Comisión Europea, la base de datos está de acceso libre en la web en 1997 para todos los funcionarios de la Unión Europa y para los traductores del mundo entero.

En 1999 se idea el proyecto de una base de datos nueva fusionando el contenido de todas las bases terminológicas de las instituciones europeas, con el fin de mejorar la cooperación interinstitucional. Los socios del proyecto son la Comisión Europea, el Parlamento Europeo, el Consejo de la Unión Europea, el Tribunal de Justicia de las Comunidades Europeas, el Tribunal de Cuentas Europeo, el Comité de las Regiones, el Banco Europeo de Inversiones, el Banco Central Europeo y el Centro de Traducción de los Órganos de la Unión Europea.

Con 120.000 visitas al día, Eurodicautom anuncia a finales de 2003 su integración en una base de datos en una veintena de idiomas debido a la ampliación de la Unión Europea planificada para el año siguiente, con 25 países miembros en mayo de 2004 (y 27 países miembros en enero de 2007). La nueva base de datos terminológica IATE (InterActive Terminology for Europe – Terminología InterActiva para Europa) se crea en la primavera de 2004 para uso interno de las instituciones europeas. IATE es de acceso libre en la web en marzo de 2007, con 1.4 millones de términos en los 23 idiomas oficiales de la Unión Europea (alemán, búlgaro, checo, danés, eslovaco, esloveno, español, estonio, finlandés, francés, griego, húngaro, inglés, irlandés, italiano, letón, lituano, maltés, neerlandés, polaco, portugués, rumano, sueco) y el latín. La base de datos está gestionada por el Centro de Traducción de los Órganos. El folleto en línea de IATE explica que “los términos son introducidos en la base de datos por terminólogos y traductores de la Unión Europea sobre la base de información procedente de traductores, administradores, juristas-lingüistas, expertos y otras fuentes fiables.” Según el mismo folleto, IATE incluye 8.4 millones de términos en 2010, incluidas 540.000 abreviaturas y 130.000 frases.


La traducción automática

El objetivo de un software de traducción automática es analizar el texto en la lengua de origen (el texto que se tiene que traducir) y generar automáticamente el texto correspondiente en la lengua de destino (el texto traducido), usando normas específicas para la transferencia de la estructura gramatical.

Según el sitio web de la Asociación Europea de Traducción Automática (European Association for Machine Translation – EAMT): “La traducción automática consiste en usar un ordenador para traducir textos de una lengua natural a otra. Fue una de las primeras áreas de investigación en la informática. Resultó que este objetivo era difícil de lograr. Sin embargo, existen hoy en día unos cuantos sistemas que producen resultados cuya calidad —aunque no sea perfecta— es suficientemente útil para ciertas aplicaciones específicas, en general en el campo de la documentación técnica. Además, los software de traducción, destinados esencialmente a ayudar al traductor humano a generar traducciones, gozan de una creciente popularidad entre los organismos de traducción profesionales.”

Globalink, empresa especializada en productos y servicios de traducción, propone en 1999 una historia de la traducción automática en su sitio web: “La traducción automática y el procesamiento del lenguaje natural hacen su aparición a fines de los años 1930, y se desarrollan más tarde a la par que la evolución de la informática cuantitativa. Durante la Segunda Guerra Mundial, el desarrollo de los primeros ordenadores programables se beneficia de los progresos de la criptografía y de los esfuerzos realizados para tratar de quebrar los códigos secretos alemanes así como otros códigos de guerra. El sector emergente de las tecnologías de la información sigue después prestando mucha atención a la traducción y al análisis del texto en lenguaje natural. Las investigaciones se centran sobre todo en la traducción literal, es decir en la traducción palabra por palabra sin tomar en cuenta las reglas lingüísticas.”

“Un proyecto de la Universidad de Georgetown [Estados Unidos] comenzado en 1950 es el primer intento sistemático por crear un sistema de traducción automático utilizable del inglés hacia el ruso. Algunas investigaciones similares se llevan a cabo igualmente en Europa. En 1965, los progresos en lingüística teórica culminan con la publicación del libro ‘Aspectos de la teoría de la sintaxis’ de Noam Chomsky, que propone nuevas definiciones para la fonología, la morfología, la sintaxis y la semántica del lenguaje humano. Pero un informe oficial estadounidense publicado en 1966 da una estimación prematuramente negativa de los sistemas de traducción automática, cortando así el financiamiento y los experimentos en este ámbito durante la década siguiente.”

“Habrá que esperar el final de los años 1970 para que se vuelvan a realizar experiencias serias, paralelamente al progreso de la informática y de las tecnologías de las lenguas. Este período ve el desarrollo de sistemas de transferencia de una lengua a otra y el lanzamiento de las primeras tentativas comerciales. Empresas como Systran y Metal están convencidas de la viabilidad y utilidad de un mercado así. Crean productos y servicios de traducción automática conectados a un servidor central. Pero siguen habiendo muchos problemas, como por ejemplo los altos costos en investigación y desarrollo; mucho trabajo lexicográfico; la dificultad de proponer nuevas combinaciones de lenguas y lo inaccesible de dichos sistemas para el usuario promedio.”

En “Web embraces language translation” (La web acoge la traducción lingüística), un artículo de ZDNN (ZD Network News) publicado el 21 de julio de 1998, la periodista Martha L. Stone explica: “Entre los nuevos servicios del sector de la traducción que representa 10 mil millones de dólares estadounidenses, encontramos software de traducción de páginas web, de foros, de correo electrónico y de intranets corporativas. Las empresas de traducción más importantes se movilizan para aprovechar las oportunidades del mercado.”

“He aquí algunos ejemplos. Systran se asoció con AltaVista para crear Babel Fish, con entre 500 y 600 mil visitantes cotidianos y cerca de un millón de traducciones al día; traducciones que van desde recetas a páginas web enteras. Alrededor de 15.000 sitios tienen un enlace a Babelfish, que puede traducir [del inglés] al francés, italiano, alemán, español y portugués, y viceversa. El japonés está previsto para dentro de poco. ‘Esta popularidad es sencilla. Con el internet, ahora podemos utilizar la información que nos llega desde los Estados Unidos. Todo esto favorece una demanda al alza’, declara Dimitros Sabatakakis, director general de Systran, desde su casa en París. Alis estableció un sistema de traducción de Los Angeles Times que debería ser presentado dentro de poco en el sitio y que propondrá traducciones [del inglés] hacia el español y el francés, y más tarde hacia el japonés. Con solo un clic, una página web entera puede ser traducida en la lengua que se desee. Globalink presenta software de traducción de páginas web, un servicio de mensajería electrónica gratis, y software que permiten traducir el texto de los foros.”

“Sin embargo, mientras que estos sistemas de traducción automática tienen éxito en todo el mundo, los directores de las empresas que los desarrollan admiten que no pueden estar preparados frente a todo tipo de situaciones. Los portavoces de Globalink, Alis y Systran usan expresiones como ‘no es perfecto’ y ‘aproximativo’ cuando describen la calidad de las traducciones, y puntualizan que las frases a traducir deben ser simples, correctas gramaticalmente y sin dobleces idiomáticas. ‘Los progresos hechos en traducción automática cumplen con la ley de Moore: la calidad se duplica cada dieciocho meses’, declara Vin Crosbie, un analista de la industria web que vive en Greenwich, Connecticut. ‘No es perfecto, pero algunos de mis interlocutores no se dan cuenta que utilizo un software de traducción.’ Estas traducciones dañan la sintaxis y el uso sabio de las palabras, ya que las bases de datos-diccionarios no pueden dilucidar las diferencias entre las palabras homónimas. ‘La traducción humana costaría entre 50 y 60 dólares por página web, o alrededor de 20 céntimos por palabra’, explica Sabatakis, director de Systran. Mientras que esta última opción podría ser conveniente para las páginas ‘estáticas’ de información sobre la empresa, la traducción automática, por su lado, es gratis en la web, y el software sale normalmente menos de 100 dólares, según la cantidad de lenguas disponibles para traducir y sus características propias.”

IBM lanza en marzo de 2001 el WebSphere Translation Server (de pago), que puede traducir en ocho idiomas (alemán, chino, coreano, español, francés, inglés, italiano, japonés) las páginas web, los correos electrónicos y los diálogos en línea (chats). Puede tratar 500 palabras por segundo y permite añadir vocabularios específicos. Otros software están desarrollados por Systran, Alis Technologies, Lernout & Hauspie (que compra Globalink) y Softissimo para tres tipos de clientes: las empresas localizando sus sitios web, los profesionales de la lengua y el público general.


La traducción asistida por ordenador

En un software de traducción automática (TA), el ser humano no interviene en el proceso, a diferencia de los software de traducción asistida por ordenador (TAO), que se basan en la interacción entre el ser humano y la máquina. Estos software incluyen una “memoria de traducción” con gestión de la terminología en tiempo real y control tipográfico.

Es el caso, por ejemplo, de Wordfast, creado en 1999 por Yves Champollion, disponible para cualquier plataforma (Windows, Mac o Linux), y compatible con otros software del mercado como el WebSphere Translation Server de IBM y SDL Trados. Wordfast cuenta con 20.000 clientes alrededor del mundo en 2010, por ejemplo las Naciones Unidas, la NASA (National Aeronautics and Space Administration), Sony, Coca-Cola y la editorial McGraw-Hill.

Según Tim McKenna, profesor de matemáticas y autor, entrevistado en octubre de 2000: “Cuando la calidad de los software sea suficiente para que la gente converse por escrito y verbalmente en la web en varios idiomas y en tiempo real, veremos un nuevo mundo abrirse ante nosotros. Científicos, políticos, empresarios y muchos otros grupos podrán comunicar directamente entre ellos sin la intervención de mediadores o traductores.”

Según Randy Hobler, consultor en marketing de productos y servicios de traducción, el siguiente paso sera “la transparencia transcultural y transnacional”. Explica en septiembre de 1998 en una entrevista por correo electrónico: “Pronto alcanzaremos el punto en que será tan habitual obtener una traducción fiel del texto y del habla que esta funcionalidad podrá formar parte de las plataformas o incluso de los chips. En esta etapa, cuando el desarrollo del internet haya alcanzado su velocidad de crucero, cuando la fidelidad de la traducción supere el 98% y cuando las diferentes combinaciones posibles de idiomas hayan cubierto la gran mayoría del mercado, la transparencia de la lengua —es decir, cualquier comunicación de un idioma a otro— será una visión demasiado restrictiva para los que venden esta tecnología. El desarrollo siguiente será la ‘transparencia transcultural y transnacional’ en la cual los otros aspectos de la comunicación humana, el comercio y las transacciones más allá del idioma entrarán en juego.”

“Por ejemplo, los gestos tienen un significado, los movimientos faciales tienen un significado, y esto varía en función de las normas sociales de un país a otro. La letra O hecha con el índice y el pulgar significa “OK” en los Estados Unidos, mientras que en Argentina es un gesto obsceno. Cuando se produzca el desarrollo inevitable de la videoconferencia multilingüe y multimedia, habrá que corregir visualmente los gestos. El Media Lab del MIT [Massachusetts Institute of Technology], Microsoft y otros más trabajan en el reconocimiento informático de las expresiones faciales, en la identificación de las características biométricas a través de la cara, etcétera. No le serviría de nada a un ejecutivo estadounidense hacer una presentación impecable frente a un ejecutivo argentino durante una videoconferencia multilingüe en la web, con un discurso traducido perfectamente en un perfecto español-argentino, si hace a la vez el gesto de la O con el índice y el pulgar. Los ordenadores podrán interceptar este tipo de mensajes y corregirlos visualmente.”

“Las culturas difieren en miles de formas, y la mayoría de sus códigos podrán ser modificados por vía informática al pasar de uno a otro. Esto incluye las leyes, las costumbres, los hábitos de trabajo, la ética, el cambio monetario, las maneras de indicar las tallas en la ropa, las diferencias entre el sistema métrico y el sistema no métrico anglófono, etcétera. Las empresas dinámicas catalogarán y programarán estas diferencias, y venderán productos y servicios para ayudar a los habitantes del planeta a comunicarse mejor entre ellos. Una vez que estos productos y servicios se hayan generalizado, contribuirán realmente a una mejor comprensión a escala internacional.”


La traducción automática gratis en línea

AltaVista es el primer buscador web a lanzar en diciembre de 1997 un servicio gratuito de traducción automática, llamado Babel Fish (o AltaVista Translation). Babel Fish puede traducir una página web del inglés a otros cinco idiomas (alemán, español, francés, italiano, portugués) y viceversa, con la página original y la traducción una al lado de la otra en la pantalla. También permite traducir cualquier texto corto con un “copiar y pegar”. Aunque tenga sus límites, con traducciones acertadas, este servicio se hace de inmediato muy popular entre los usuarios del internet, entre los cuales se observa un creciente número de usuarios que no son de habla inglesa, contribuyendo así al plurilingüismo de la red.

El software detrás de Babel Fish se alimenta de diccionarios multilingües con 2.5 millones de términos. El software es la obra de Systran, una empresa especializada en el procesamiento automático de las lenguas. Según el sitio web de Systran: “La traducción automática tiene en cuenta la estructura gramatical de cada lengua y utiliza reglas para transferir la estructura gramatical de la lengua de origen (texto a traducir) a la lengua (texto traducido). La traducción automática no sustituye ni está destinada a sustituir al traductor humano.”

Antes de lanzar su propio servicio en octubre de 2007, Google Traductor utiliza un traductor de Systran, con los pasos siguientes para los pares de idiomas disponibles (según Wikipedia en su versión inglesa): (1) del inglés al francés, al alemán y al español, y viceversa; (2) del inglés al portugués y al holandés, y viceversa; (3) del inglés al italiano, y viceversa; (4) del inglés al chino simplificado, al japonés y al coreano, y viceversa; (5) del inglés al árabe, y viceversa (en abril de 2006); (6) del inglés al ruso, y viceversa (en diciembre de 2006); (7) del inglés al chino tradicional y del chino simplificado al chino tradicional, y viceversa (en febrero de 2007).

Google Traductor traduce instantáneamente un texto, un documento o una página web a otro idioma, con la página original y la traducción una al lado de la otra en la pantalla. Se puede también copiar cualquier texto corto en la interfaz web o incluso dar una dirección web para que la página web sea traducida completamente. El nuevo servicio lanzado en octubre de 2007 se basa en un análisis estadístico al lugar de un análisis tradicional basado en reglas lingüísticas.

Según Wikipedia, los pasos son los siguientes entre 2007 y 2010: (1) todos los idiomas disponibles en el traductor de Systran, en todas las combinaciones de pares (en octubre de 2007); (2) del inglés al hindi, y viceversa; (3) en búlgaro, checo, croata, danés, finlandés, griego, noruego, polaco, rumano y sueco, en todas las combinaciones de pares (en mayo de 2008); (4) en catalán, eslovaco, esloveno, filipino, hebreo, indonesio, letón, lituano, serbio, ucraniano y vietnamita (en septiembre de 2008); (5) en albanés, estonio, gallego, húngaro, maltés, tailandés y turco (en enero de 2009); (6) en persa (en junio de 2009); (7) en afrikáans, bielorruso, galés, irlandés, islandés, macedonio, malayo, swahili y yidis (en agosto de 2009); (8) en criollo haitiano (en enero de 2010); (9) en armenio, azerí, euskera, georgiano y urdu (en mayo de 2010); (10) en latín (en octubre de 2010).

Google Traductor propone un sintetizador de voz para leer un texto en 2009, y la posibilidad elegir varias traducciones para una misma palabra en 2011. Google también lanza en 2009 el Google Translator Toolkit para los traductores (humanos) que revisan las traducciones generadas por Google Traductor, con el inglés como idioma de origen y 47 idiomas de destino, y con la posibilidad de traducciones compartidas, de glosarios y de memorias de traducción.


El catálogo de todas las lenguas vivas

El “Ethnologue: Languages of the World” (Ethnologue: las lenguas del mundo) es un catálogo enciclopédico de todas las lenguas vivas publicado por SIL International. Además de su versión impresa (de pago) desde los años 1950, el Ethnologue crea su sitio web en 1996 con una versión en línea (gratis).

El Ethnologue es primero un catálogo de los lenguas minoritarias antes de expandirse a todas las lenguas vivas en 1971. SIL International, grupo de investigadores basado en Dallas (Texas), reúne y organiza los datos obtenidos y verificados uno a uno, en el terreno, por miles de lingüistas que trabajan en equipos nacionales y/o lingüísticas en cada continente.

Barbara Grimes, editora del Ethnologue desde 1971, explica en enero de 2000 en una entrevista por correo electrónico: “El Ethnologue es una lista de las lenguas del mundo, con información sobre dónde se hablan; una estimación del número de personas que habla cada una; la familia lingüística a la que pertenecen; los demás nombres utilizados para designar esas lenguas; los nombres de los dialectos; otro tipo de información sociolingüística y demográfica; las fechas de las Biblias publicadas; un índice de los nombres de lenguas [Ethnologue Name Index]; un índice de las familias lingüísticas [Ethnologue Language Family Index] y mapas geográficos para las lenguas.”

¿Pero qué es exactamente una lengua? El Ethnologue define así una lengua en su sitio web: “Cómo uno elige definir una lengua depende de los propósitos que tiene al identificar dicha lengua como diferente de otra. Algunas personas basan su definición en aspectos puramente lingüísticos. Otras reconocen que los factores sociales, culturales o políticos también deben tenerse en cuenta. Además, los hablantes de una lengua tienen a menudo sus propias perspectivas sobre la apropiación de una lengua como siendo la suya. Estos criterios se relacionan a menudo mucho más con cuestiones de patrimonio y de identidad que con rasgos lingüísticos de la lengua o de las lenguas en cuestión.”

La 17a edición (2013) del Ethnologue cuenta con 7.105 lenguas vivas. El Ethnologue publica por primera vez su edición en línea gratuita antes que su versión impresa de pago. Anuncia también una actualización anual, y no ya cada cuatro años, para ir a la par con el mundo veloz en el que vivimos. La lengua inglesa sigue siendo predominante ya que aparece en la lista de 125 países, como lengua oficial o como lengua hablada por un grupo significativo de inmigrantes. De las 136 familias lingüísticas, la más importante es la indoeuropea, que reúne a 3 mil millones de hablantes. Papúa Nueva Guinea es el país que cuenta con más lenguas vivas, con 836 lenguas. Le siguen Indonesia con 706 lenguas y Nigeria con 522 lenguas.

Una característica de la base de datos del Ethnologue es un sistema de códigos de tres letras elaborado desde 1971 para cada lengua (por ejemplo “spa” para el español), con inclusión de los códigos en la enciclopedia impresa a partir de la 10a edición (1984). Con la invitación de la Organización Internacional de la Normalización (ISO), SIL International elabora desde 2002 la nueva norma ISO 639-3 para identificar todas las lenguas del mundo con un código de tres letras y reemplazar la norma ISO 639-2 (1998) que codifica solo 400 lenguas. (La primera norma estaba ISO 639-1 (1988) con códigos de dos letras.)

La nueva norma elaborada por SIL International permite armonizar los identificadores utilizados en el Ethnologue con los de la norma ISO 639-2, y también integrar los identificadores de las lenguas muertas y artificiales usados en la Linguist List, gran lista de difusión para lingüistas. Publicada en 2007, la norma ISO 639-3 asigna un código de tres letras a 7.589 lenguas vivas o muertas, antiguas o artificiales, escritas o verbales. SIL International se encarga de la gestión del ciclo anual de las modificaciones y actualizaciones.


Las lenguas minoritarias

Guy Antoine, un informático haitiano-americano que vive en New Jersey, crea el sitio web Windows on Haiti en abril de 1998 para promover el criollo haitiano, una lengua hablada en Haití, en la República Dominicana, en los Estados Unidos, en Canadá y en otros países.

Guy Antoine explica en junio de 2001 en una entrevista por correo electrónico: “¿Qué son los haitianos sin el kreyól (criollo haitiano), una lengua que se desarrolló y que permitió unir entre ellas varias tribus africanas desplazadas a Haití durante el período de la esclavitud? Esta lengua representa de manera palpable la unión de nuestro pueblo. Sin embargo, es sobre todo una lengua hablada y no escrita. En mi opinión, la web va a cambiar este estado de hechos más que ningún otro medio tradicional de difusión de una lengua. Mi sitio web quiere por una parte ser una gran fuente de información sobre la cultura haitiana, y por otra parte oponerse a imágenes continuamente negativas que los medios de comunicación tradicionales dan de Haití. Deseo también insistir en la diversidad de la cultura haitiana en los temas tales como el arte, la historia, la cocina, la música, la literatura y las memorias de la vida tradicional. En resumen, el sitio abre nuevas ‘ventanas’ sobre la cultura de Haití.”

“En mi sitio web, la lengua principal es el inglés, pero se encuentran también muchos documentos en kreyól. Propongo también documentos sobre Haití en francés y en el antiguo criollo colonial, y estoy preparado para publicar otros documentos en español y en otras lenguas. No propongo traducciones, pero el multilingüismo es efectivo sobre este sitio, y pienso que se convertirá cada vez más en la norma sobre la web. Nuestro sitio propone dos foros exclusivamente en kreyól. El primer foro reúne las discusiones generales sobre todo tipo de temas, aunque en realidad estas se centran principalmente en los problemas socio-políticos que sufre Haití. El segundo foro está reservado únicamente a los debates sobre las normas de escritura del kreyól. Estos debates son bien movidos, y participan en ellos expertos lingüísticos. El carácter excepcional de estos foros es que no son académicos.”

Kevin Scannell, informático y profesor en la Universidad de San Luis (Missouri, Estados Unidos), crea en marzo de 2011 el sitio web Indigenous Tweets (Tweets indígenas) en su tiempo libre para hacer un recuento de los tuits en lenguas minoritarias y autóctonas, y reforzar la presencia en línea de sus comunidades lingüísticas. Para encontrar estas lenguas en Twitter, concibe y parametriza An Crúbadán, un software estadístico rastreador de la web. Indigenous Tweets comienza con 35 lenguas y llega a 71 lenguas tres semanas más tarde, a 144 lenguas en marzo de 2013 y a 184 lenguas en octubre de 2017.

La página principal de Indigenous Tweets tiene una lista con las lenguas minoritarias y autóctonas activas en Twitter. Se busca la lengua que le interesa, hace clic en donde corresponde y es redirigido hacia una página nueva que entrega un listado con los usuarios de Twitter en esta lengua (500 usuarios como máximo), con estadísticas para cada lengua: cantidad de tuits, cantidad de suscriptores, porcentaje de tuits en dicha lengua (algunos tuitean en una lengua minoritaria y una lengua global) y fecha del tuit más reciente. Muchos proyectos comunes comienzan con un contacto entre dos personas en Twitter.

Kevin Scannell explica en marzo de 2011 en su blog que el objetivo de Indigenous Tweets es ayudar a crear comunidades lingüísticas a través de Twitter, y permitir a las personas que hablan lenguas minoritarias o autóctonas encontrarse más fácilmente en el vasto océano del inglés, del francés, del español y de las otras lenguas globales que dominan Twitter. Las principales lenguas minoritarias son el criollo haitiano, el vasco y el irlandés. Pero, según Kevin Scannell, incluso los hablantes del vasco y del irlandés, que tienen comunidades en línea muy activas, se sorprendieron al ver la cantidad de personas que tuitean en esas lenguas.

Kevin Scannell crea un segundo sitio web, Indigenous Blogs (Blogs indígenas), en septiembre de 2011, esta vez para hacer el listado de blogs escritos en lenguas minoritarias y autóctonas, siempre con el objetivo de tener una plataforma para que las personas que hablan una misma lengua se conozcan y se pongan en contacto. Empieza con los blogs de Blogspot (donde también aloja el suyo), WordPress y Tumblr. La presentación de Indigenous Blogs es similar a la de Indigenous Tweets, con una página principal que ofrece el listado de 50 lenguas en septiembre de 2011, 74 lenguas en marzo de 2013 y 85 lenguas en octubre de 2017.

Cada vez más grupos lingüísticos se fijan en la web, convertida en una herramienta importante para la revitalización de las lenguas. Miles de personas bloguean en su lengua nativa y la utiliza asimismo en redes sociales (Facebook, Twitter y otros). Las redes sociales han permitido a comunidades a veces dispersas estrechar lazos y utilizar su lengua en la red de manera natural. Las redes sociales también llegan a los jóvenes, el grupo demográfico al que hay que llegar prioritariamente para revitalizar una lengua, ya que una lengua amenazada es casi siempre una lengua hablada sólo por los mayores. Mientras más jóvenes hablen y escriban una lengua amenazada, menos posibilidades tiene de desaparecer.


Las lenguas en peligro

La UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) publica en 2010 su “Atlas interactivo para las lenguas en peligro” en tres idiomas (inglés, español, francés). La versión web gratis es el complemento de la 3a edición impresa (2010) de pago. Los dos primeras ediciones impresas (1996 y 2001) no tienen una versión web.

El atlas interactivo cuenta con 2.473 lenguas en junio de 2011 y con 2.464 lenguas en octubre de 2017, con un buscador multicriterio (país o área, nombre de la lengua, número de locutores, vitalidad de la lengua, código ISO 639-3). Los nombres de las lenguas tienen transcripciones al inglés, al francés y al español, así como sus nombres alternativos (variantes de pronunciación, dialectos o nombres en alfabetos no romanos).

Según el “Informe de la UNESCO sobre la vitalidad y el peligro de extinción de las lenguas”, un informe en línea en el sitio web del atlas, una lengua puede tener seis niveles de vitalidad: a salvo, vulnerable, en peligro, seriamente en peligro, en situación crítica, y extinta. (1) “A salvo” significa que todas las generaciones hablan la lengua y que su transmisión de una generación a otra es continua; el atlas no incluye estas lenguas. (2) “Vulnerable” significa que la mayoría de los niños habla la lengua, pero que su uso puede estar restringido a determinados ámbitos, por ejemplo al hogar familiar. (3) “En peligro” significa que los niños ya no aprenden la lengua en sus familias como lengua materna. (4) “Seriamente en peligro” significa que los abuelos y las personas de las viejas generaciones hablan la lengua pero que los miembros de la generación parental, si bien pueden comprenderla, no la hablan entre sí, ni tampoco con sus hijos. (5) “En situación crítica” significa que los únicos hablantes son los abuelos y las personas de las viejas generaciones, que usan la lengua de manera parcial y con escasa frecuencia. (6) “Extinta” significa que no quedan hablantes; el atlas contiene las lenguas extintas desde los años 1950.

¿Cuándo está una lengua en peligro de extinción? Según el sitio web del atlas: “Una lengua corre el peligro de desaparecer cuando sus hablantes dejan de utilizarla, cuando van restringiendo su uso a ámbitos cada vez más reducidos, cuando recurren cada vez menos a sus registros y estilos idiomáticos o cuando dejan de transmitirla a la generación siguiente. Un solo factor no es determinante para afirmar que una lengua se halla en peligro de desaparición.” Nueve factores deben considerarse en su conjunto: (1) la transmisión de la lengua de una generación a otra; (2) el número absoluto de sus hablantes; (3) la proporción de sus hablantes con respecto a la población total; (4) los cambios en los ámbitos de utilización de la lengua; (5) la capacidad de reacción de la lengua ante los nuevos ámbitos de actividad y los medios; (6) la disponibilidad de material destinado a la alfabetización en la lengua y la enseñanza de esta; (7) la actitud ante la lengua y la política lingüística de las autoridades gubernamentales y las instituciones, incluyendo para su reconocimiento oficial y su uso oficial; (8) la actitud de los miembros de la comunidad de hablantes hacia su propia lengua; y (9) la cantidad y calidad de documentos disponibles en esta lengua.

¿Qué determina la desaparición de una lengua? “Una lengua desaparece cuando se extinguen sus hablantes, o cuando estos dejan de utilizarla para expresarse en otra lengua que, con frecuencia, está más extendida y es hablada por un grupo preponderante. La supervivencia de una lengua puede verse amenazada por factores externos, como por ejemplo con una dominación de índole militar, económica, religiosa, cultural o educativa; y también por factores internos, como por ejemplo por la actitud de rechazo de una comunidad hacia su propia lengua. Hoy en día, el aumento de los fenómenos migratorios y la celeridad de la urbanización suelen acarrear una desaparición de los modos de vida tradicionales, así como una fuerte presión para hablar la lengua predominante que es necesaria —o se percibe como tal— para participar plenamente en la vida de la sociedad y progresar en el plano económico.”

Por ejemplo, el atlas de la UNESCO clasifica el gaélico como una lengua “en grave peligro”. Según el censo de 2011, menos de 60.000 personas hablan gaélico, un poco más del 1% de la población de Escocia, y 92.000 personas lo entienden. Son cifras son muy inferiores a las del censo de 1901, donde había 200.000 personas que hablaban el gaélico, 4,5% de la población de Escocia.

Este no fue siempre el caso. Durante muchos siglos, toda la gente habla gaélico en Escocia e Irlanda y los académicos difunden sus libros en gaélico. A lo largo de los siglos, el inglés se convierte poco a poco en la lengua dominante, incluyendo en las islas occidentales escocesas, a pesar de la presencia del gaélico escocés como primera lengua comunitaria. La cultura gaélica renace a comienzos del siglo XIX en forma de poesía, prosa y música. Entre las dos guerras mundiales, la radio difunde las noticias en gaélico y se enseña esta lengua en el colegio. Se publican ahora más novelas en gaélico que en ningún otro momento. Radio nan Gàidheal transmite en gaélico desde los años 1980, y la cadena de televisión ALBA desde 2000. Estas dos también se encuentran en la web, lo que aumenta su audiencia.

Opera es el primer navegador con una interfaz en gaélico (en 2001), seguido por Firefox (Mozilla) y Google Chrome, gracias al trabajo de Michael Bauer, traductor independiente, en su tiempo libre, con la ayuda de su colega GunChleoc (“una mujer” en gaélico). Son también los autores de las versiones gaélicas de Thunderbird (servicio de mensajería de Mozilla), Lightning (calendario de Mozilla), OpenOffice, LibreOffice, así como las versiones gaélicas del VLC media player, del juego Freeciv (la versión con código abierto de Civilisation) y de Accentuate.us (un software que permite insertar automáticamente los acentos). Michael Bauer es el autor (junto a Kevin Scannell) del corrector ortográfico An Dearbhair Beag.

Wikipedia tiene su versión gaélica, Uicipeid. El gaélico escocés posee tres diccionarios en línea. El primer diccionario es Stòr-dàta, una lista de palabras administrada por el Instituto Sabhal Mòr Ostaig en la isla de Skye en Escocia. El segundo diccionario es el Dwelly, el famoso diccionario gaélico de 1911, que es para el gaélico lo mismo que el Oxford English Dictionary para el inglés. La versión digitalizada le tomó diez años de trabajo a Michel Bauer, con la ayuda de su colega Will Robertson. El tercer diccionario es el Am Faclair Beag, que significa “pequeño diccionario” pero que es en realidad uno grande que reúne el Dwelly de 1911 y datos más modernos, siempre gracias al paciente trabajo de Michael Bauer y Will Robertson.

Y no faltan los proyectos. Según Michael Bauer, entrevistado en octubre de 2015, un archivo en línea sería muy útil para todos los proyectos de localización, con una memoria de traducción común, lo que evitaría tener que volver a traducir indefinidamente los mismos términos y segmentos de frases. Si las traducciones de software pudiesen ser hechas a través de este archivo en línea, por ejemplo un tipo de meta-Pootle (una plataforma para traducciones colectivas en línea), todo el mundo se beneficiaría, no solo el gaélico sino el conjunto de lenguas minoritarias y autóctonas.


Unas preguntas

< El uso de las tecnologías para la revitalización de las lenguas. En el International Dictionary Day (Día Internacional del Diccionario) del 16 de octubre de 2015, se anuncia la publicación gratis en la web de quince diccionarios sudafricanos en lenguas minoritarias, nuevos o revisados, con trece diccionarios en línea el 30 de noviembre de 2015 y dos diccionarios en línea a comienzos de 2016. Muchas lenguas minoritarias y autóctonas necesitan diccionarios, gramáticas y glosarios. Algunas lenguas incluso necesitan tecnologías básicas como la configuración del teclado o el corrector ortográfico.

< Cómo traspasar las barreras idiomáticas. ¿Cómo se las ingenian los usuarios del internet para acceder a libros o artículos escritos en una lengua que no conocen, cuando necesitan acceder sí o sí a su contenido, y no únicamente a una idea general de este? ¿Utilizan Google Traductor? ¿Contratan a traductores? ¿Estudian el idioma, así como Alexandre Pouchkine aprendió español para poder leer "El Quijote" de Cervantes en la versión original? Los usuarios unilingües son muy numerosos. Y, aun así, los usuarios bilingües, trilingües o plurilingües no pueden saber todos los idiomas.

< El final del inglés como lengua-puente. Mas de 50% de la web sigue estando en inglés en 2019. Son muchos los que no leen en inglés, o que solo tienen una idea general de este. ¿Asistiremos pronto al final del inglés como lengua-puente para traspasar las barreras idiomáticas? ¿Sigue siendo imprescindible una lengua-puente ahora que tenemos software de traducción instantánea tanto para textos como para la voz? ¿Qué piensan los usuarios cuya lengua materna no es el inglés sobre la necesidad (o no) del inglés como lengua-puente?

< La “invisibilidad” de los traductores (humanos). No habría web multilingüe sin traductores profesionales. Sin embargo sus nombres a menudo se omiten en las páginas web y otros documentos en línea que se han pasado horas o semanas traduciendo. Sus condiciones de trabajo no han mejorado en los últimos años, con una actividad exclusivamente en línea, un empleo precario con tarifas decrecientes y la competencia de traductores voluntarios utilizados por grandes organizaciones cuando éstas podrían pagar traductores profesionales. Queda mucho por hacer para reconocer, como en el pasado, el papel principal que desempeñan los traductores en nuestra sociedad.


Cronología

[año-mes]
1963: El primer sistema de codificación informático es el ASCII (American Standard Code for Information Interchange) para el inglés (y el latín).
1971-07: Michael Hart digita el eText #1 para los cien usuarios del pre-internet. Este es el inicio del Proyecto Gutenberg.
1974: Vinton Cerf y Robert Kahn crean los protocolos de comunicación del internet.
1976: El Congreso de los Estados Unidos endurece su legislación del copyright y extiende los derechos de autor a 50 años después de la muerte del autor.
1977: La IFLA (International Federation of Library Associations) crea el UNIMARC como formato bibliográfico común para los catálogos de bibliotecas.
1983: Después de ser una red gubernamental y académica estadounidense, el internet despega internacionalmente.
1984: Richard Stallman crea el copyleft a fin de permitir la libre reutilización de los software y de otras obras en línea con la GPL (General Public License).
1991-01: Se funda el Unicode Consortium para desarrollar el Unicode, un sistema de codificación universal que permite visualizar todos los idiomas del planeta en la pantalla.
1992: El Projekt Runeberg es la primera colección digital sueca de libros del dominio público.
1992: Vinton Cerf funda la Internet Society (ISOC) para coordinar el desarrollo del internet.
1992: Paul Southworth crea las Etext Archives para alojar textos electrónicos de todo tipo.
1993: John Mark Ockerbloom crea la Online Books Page como punto de acceso común a los libros digitales gratuitos en la web.
1993-04: ABU-La Bibliothèque Universelle es la primera colección digital francesa de libros del dominio público.
1993-06: Adobe crea el formato PDF (Portable Document Format), el Acrobat Reader (para leer los archivos PDF) y el Adobe Acrobat (para crear los archivos PDF).
1993-07: John Labovitz crea la E-Zine-List, un inventario de los zines electrónicos de todo tipo por el mundo.
1993- 11: Mosaic es el primer navegador web público.
1994: El Netscape Navigator es el segundo navegador web público.
1994: El Projekt Gutenberg-DE es la primera colección digital alemana de libros del dominio público.
1994: Michel Martin crea Travlang, un directorio de diccionarios bilingües en línea para los viajeros.
1994: Pierre Perroud crea Athena, una colección digital suiza de libros del dominio público.
1994-02: La biblioteca pública de Helsinki (Finlandia) es la primera biblioteca en crear un sitio web.
1994-05: Tyler Chambers crea la Human-Languages Page (H-LP), un directorio de los recursos lingüísticos de la web.
1994-07: Los usuarios del internet cuya lengua materna no es el inglés alcanzan un 5%.
1994-10: Se funda el World Wide Consortium (W3C) para desarrollar los protocolos comunes de la web.
1995: Algunos títulos de la prensa impresa crean sus páginas web.
1995: El WorldWide Language Institute (WWLI) crea NetGlos, un glosario cooperativo multilingüe de términos del internet y de la informática.
1995: Microsoft lanza su navegador web Internet Explorer.
1995: Robert Beard crea A Web of Online Dictionaries (WOD), un repertorio de los diccionarios gratuitos en línea.
1995: Tyler Chambers lanza el Internet Dictionary Project (IDP) para crear diccionarios cooperativos en acceso libre.
1995-07: Jeff Bezos crea la librería en línea Amazon.com, pionero del comercio electrónico.
1996: El Ethnologue, un catálogo enciclopédico de los idiomas vivos, crea su versión web gratuita.
1996-04: Brewster Kahle funda el Internet Archive con el fin de archivar la web para las generaciones presentes y futuras.
1996-04: Robert Ware crea OneLook Dictionaries, un buscador común a muchos diccionarios en línea.
1996-12: Los países miembros de la Organización Mundial de la Propiedad Intelectual (OMPI) firman el Tratado de la OMPI Sobre Derecho de Autor para las ediciones digitales.
1997: El primer blog nace en la web, seguido por muchos otros.
1997-01: La Oficina Internacional del Trabajo (OIT) organiza su primer coloquio sobre la convergencia multimedia.
1997-01: Las bibliotecas nacionales europeas crean su sitio web Gabriel como punto de acceso común a sus servicios.
1997-04: La web mundial alcanza un millón de sitios.
1997-05: La British Library pone su catálogo en línea en acceso libre.
1997-08: O’Reilly publica el libro “Para una web multilingüe’’ de Yoshi Mikami en japonés, y lo traduce al inglés, al alemán y al francés al año siguiente.
1997-10: La Biblioteca Nacional de Francia (BnF) crea su biblioteca digital Gallica con 3.000 libros del siglo XIX.
1997-12: La empresa italiana de traducción Logos pone todas sus herramientas lingüísticas (diccionarios, glosarios, gramáticas, conjugaciones) en línea para todos.
1997-12: El motor de búsqueda AltaVista lanza Babel Fish, un servicio de traducción automática gratuito en seis idiomas.
1997-12: El internet mundial cuenta con 70 millones de usuarios (1,7% de la población mundial).
1998-07: Los usuarios del internet cuya lengua materna no es el inglés alcanzan un 20%.
1998-10: El Congreso de los Estados Unidos firma el Digital Millennium Copyright Act (DMCA), que extiende los derechos de autor de 50 a 70 años después de la muerte del autor.
1999: Michael Kellogg crea WordReference.com para ofrecer diccionarios en línea bilingües gratuitos y foros de discusión para lingüistas.
1999-09: El formato Open eBook (OeB) es creado como formato estándar de libro digital (al lado del PDF).
1999-12: La Encyclopaedia Britannica pone en línea su versión digital Britannica.com, primero con acceso libre y luego con acceso de pago.
2000-01: El principio del wiki —sitio web participativo— adquiere popularidad y se convierte en la base de Wikipedia al año siguiente.
2000-01: El Million Book Project quiere proponer un millón de libros digitales gratuitos en varios idiomas en la web.
2000-02: Robert Beard cofunda yourDictionary.com, un portal internet de diccionarios y recursos lingüísticos en línea.
2000-03: La Oxford University Press crea la versión en línea del Oxford English Dictionary (OED) con acceso de pago.
2000-03: El internet mundial cuenta con 300 millones de usuarios (5% de la población mundial).
2000-07: Los usuarios del internet cuya lengua materna no es el inglés alcanzan un 50%.
2000-09: La asociación HandicapZéro lanza su sitio web para personas ciegas o con visión reducida y promueve un internet accesible para todos.
2000-09: El GDT (Grand Diccionario Terminológico) de Quebec es un diccionario en línea francés-inglés de acceso gratuito.
2000-10: Charles Franks crea el sitio Distributed Proofreaders para la digitalización y la corrección compartida de los libros antes de su integración en el Proyecto Gutenberg.
2000-11: La versión digitalizada de la Biblia de Gutenberg original está disponible en el sitio web de la British Library.
2000-12: La llave USB de IBM es la primera del mercado, con una capacidad de 8 MB (megabytes), cinco veces más que la capacidad de los disquetes.
2001: Lawrence “Larry” Lessig funda Creative Commons para crear nuevas licencias que favorecen la difusión y la utilización de obras con derechos de autor en el internet.
2001-01: Jimmy Wales y Larry Sanger crean Wikipedia, una gran enciclopedia colaborativa en línea gratuita.
2001-03: IBM crea el WebSphere Translation Server, un servidor de traducción automática en ocho idiomas.
2001-04: Un Seybold Report inventaría 17 millones de PDA en el mundo por solo 100.000 lectores digitales.
2001-05: La Comisión Europea aprueba la Directiva de la Unión Europea sobre Derecho de Autor con el fin de “armonizar” las leyes nacionales sobre derechos de autor.
2001-10: Con 30 mil millones de páginas web archivadas desde 1996, el Internet Archive lanza la Wayback Machine, que permite ver un sitio web en diferentes fechas.
2002-02: La Iniciativa de Budapest para un acceso abierto (BOAI) es firmada para promover un acceso abierto (libre) a la literatura académica y científica.
2002-03: La Oxford University Press lanza el Oxford Reference Online (ORO), una enciclopedia concebida para la web, con acceso de pago.
2002-12: Las primeras licencias Creative Commons son publicadas por el organismo del mismo nombre.
2003-09: El MIT (Massachusetts Institute of Technology) crea su OpenCourseWare con el material de sus clases de acceso libre.
2003-10: La Public Library of Science (PLOS) es una editorial de revistas científicas y médicas en línea gratuitas, con todos sus artículos bajo licencia Creative Commons.
2003-12: Un millón de obras en el internet tienen una licencia Creative Commons.
2004: El editor Tim O’Reilly lanza el término “web 2.0”, utilizado luego en el mundo entero para definir una web participativa.
2004-01: La Comisión Europea crea la Biblioteca Europea, que reemplaza Gabriel como portal de las bibliotecas nacionales europeas.
2004-02: Mark Zuckerberg crea Facebook para un público de estudiantes antes de conquistar el mundo entero.
2004-05: Con la ampliación de la Unión Europea, el número de sus idiomas oficiales pasa de once (y el latín) a veinte.
2004-10: Google lanza Google Print antes de rebautizarlo Google Books.
2005-04: El IDPF (International Digital Publishing Forum) toma el relevo del OeBF (Open eBook Forum) para gestionar el formato OeB (Open eBook).
2005-10: El Internet Archive funda la Open Content Alliance (OCA) para proponer una biblioteca digital mundial pública.
2005-12: El MIT (Massachusetts Institute of Technology) crea el OpenCourseWare Consortium para la publicación en línea del material de cursos de otras universidades.
2005-12: El internet mundial cuenta con mil millones de usuarios (15,7% de la población mundial).
2006: La Public Library of Science (PLOS) crea PLOS ONE, une revista académica en línea abierta a cualquier tema científico o médico.
2006: El smartphone progresa, con 90 millones de smartphones para mil millones de teléfonos móviles en el planeta.
2006-06: Twitter es una herramienta de microblogging para difundir mensajes de 140 caracteres.
2006-08: Google lanza Google Libros (Google Books) en sustitución a Google Print.
2006-08: El catálogo colectivo mundial WorldCat de OCLC crea su versión gratuita worldcat.org en la web.
2006-10: Microsoft crea su propia colección digital Live Search Books, y da sus libros al Internet Archive dos años más tarde.
2006-11: La web mundial cuenta con cien millones de sitios.
2006-12: Gallica, la biblioteca digital de la Biblioteca Nacional de Francia, cuenta con 90.000 libros y 80.000 imágenes del dominio público.
2007-01: El número de idiomas oficiales de la Unión Europea pasa de 20 a 23 idiomas con el búlgaro, el irlandés y el rumano.
2007-02: Creative Commons publica la versión 3.0 de sus licencias, con una licencia internacional y la compatibilidad con otras similares (copyleft, GPL y otros).
2007-03: Larry Sanger crea Citizendium como una enciclopedia colaborativa en línea gratuita gestionada por expertos.
2007-04: yourDictionary.com propone un repertorio de 2.500 diccionarios y gramáticas en 300 idiomas.
2007-05: La Encyclopedia of Life es una enciclopedia colaborativa global para ofrecer un inventario de todas las especies vegetales y animales conocidas.
2007-06: La Comisión Europea lanza la versión pública de su base de datos terminológica multilingüe IATE (InterActive Terminología para Europa).
2007-09: El International Digital Publishing Forum (IDPF) publica el formato EPUB, que reemplaza el formato OeB (Open eBook).
2007-10: Google lanza Google Traductor (Google Translate), su propio servicio gratis de traducción automática, después de usar un servicio de Systran.
2007-12: El Unicode (creado en 1991) suplanta definitivamente al ASCII (creado en 1963) como sistema de codificación en el internet.
2008-07: El formato PDF se convierte en un estándar abierto y una norma ISO (ISO 32000-1:2008).
2008-11: La Comisión Europea lanza su biblioteca pública europea digital Europeana.
2010-06: Facebook celebra sus 500 millones de usuarios.
2010-12: 400 millones de obras en el internet tienen una licencia Creative Commons.
2011-01: Wikipedia celebra su décimo aniversario con 17 millones de artículos en 270 idiomas.
2011-03: El internet mundial cuenta con 2 mil millones de usuarios (30,2% de la población mundial).
2013: El Ethnologue, un repertorio enciclopédico de las lenguas vivas, publica por primera vez su versión en línea gratuita antes de su versión impresa de pago.
2013-04: Se crea la Digital Public Library of America (DPLA) como la gran biblioteca digital pública estadounidense.
2013-11: Creative Commons publica las versiones 4.0 de sus licencias, que son licencias internacionales.
2014-12: 882 millones de obras en el internet tienen una licencia Creative Commons.
2015-01: El Ethnologue (17a edición) es un repertorio enciclopédico de las 7.102 lenguas vivas en nuestro planeta.
2015-03: El internet mundial cuenta con 3 mil millones de usuarios (42,3% de la población mundial).
2015-04: La Online Books Page hace el inventario de dos millones de libros de acceso libre en la web.
2015-05: La web mundial cuenta con cerca de mil millones de sitios.
2015-07: Los usuarios del internet cuya lengua materna no es el inglés alcanzan un 75%.


Copyright © 2015-2019 Marie Lebert
Licencia CC BY-NC-SA version 4.0

Written by marielebert

2015-12-07 at 13:05

Posted in Uncategorized