lunes, 24 de mayo de 2010

Djuna Barnes y la chipoteca


Dos lecturas del día de hoy me decidieron a reproducir en este blog el texto de una ponencia que leí el año 2002 en la Residencia de Estudiantes de Madrid, en el marco de unas jornadas sobre libro electrónico organizadas por José Antonio Millán. Por un lado, el post de Jordi Mustieles en el blog de Soybits, "De plataformas digitales". Mustieles hace un llamado a recordar los fracasos del 2001-2002 (veintinueve.com) para no repetir los errores que retrasaron el cambio de paradigma de la industria del libro casi una década. Por otro, un tweet de J. S. Montfort, que dice así: "Demasiado debate sobre el futuro del libro; pero yo tengo la sensación de que nadie tiene ni la más remota idea cabal al respecto". Le doy gran parte de razón.

Ese futuro tiene una prehistoria, que estamos haciendo en estos días y seguiremos haciendo en los mismos términos si renunciamos a la memoria. Por entonces, por el 2001, mi puesto de trabajo en BroadEbooks, la única experiencia independiente de distribución de libros digitales que competía con la de Planeta, llevaba el título rimbombante de "Asesora Estratégica de Contenidos". Lo que en la práctica significaba que debía convencer a los editores españoles de que se atrevieran a distribuir digitalmente sus catálogos con nosotros y lanzaran algún título original en formato e-book. No lo logré. Mis compañeros de aventura eran, todos ellos, desplazados de otro sueño digital perdido: el departamento de multimedia de Anaya y los alegres años 90 del cd-rom. Esto último viene a cuento porque el entusiasmo por los app-books (iPad mediante) o "libros enriquecidos" nos está haciendo caer en un adamismo peligroso.

La mayoría de los actores del relato que sigue ya son cadáver o lo eran incluso entonces. Sirven de memento mori a nuestras vanidades de hoy, que son las mismas de ayer. Otros, continúan firmes en sus puestos: el DRM, esa penalización del lector que los editores reunidos en Libranda quieren volver a imponer; el lenguaje XML, que ningún editor del ámbito hispánico ha adoptado en las cadenas de producción de valor de sus empresas; y el formato PDF, cuya increíble supervivencia se debe a la longevidad de las dos condiciones anteriores: editores obsesionados por el control de los contenidos (vía DRM) y perezosos a la hora de las inversiones experimentales (resistencia a cambiar radicalmente el proceso editorial). Si hacemos un buen mix de los muertos que quedaron en el camino y de las obcecaciones que persisten, escondidas detrás de un grado de sofisticación mayor, quizás podremos ver con horror un futuro cercano en el que estaremos, una vez más, escribiendo epitafios.

Aquí va el texto, que también se puede encontrar en ArchivoVirtual:




Algunas reflexiones sobre la continuidad de nuestra herencia cultural y
los libros electrónicos

Advertencia sobre terminología: en este artículo se usa la palabra
e-book exclusivamente para los contenidos digitalizados que cumplen
determinadas exigencias y para cuya lectura es necesario un software de
lectura o sistema lector. Los e-books en tanto hardware, se denominan
"dispositivos dedicados".


Djuna Barnes es una figura rodeada de mitología. Olvidada durante mucho tiempo, que coincidió con su falta de producción y su aislamiento durante decenios en el pequeño apartamento de Patchin Place, en el Greenwich Village, el movimiento feminista estadounidense la rescató en los años setenta. Alrededor tanto de su vida privada como de su actividad literaria, se crearon tantas interpretaciones y verdades a medias como se quiso, muchas de ellas dominadas por los intereses de las agendas políticas que se la querían apropiar. Una de ellas es el rol que, como editor, jugó T. S. Eliot en la versión final del que tal vez sea el único de sus libros que entrará en alguno de los cánones occidentales que han puesto en boga críticos como Harold Bloom. Se trata de Nightwood, una novela que se supone tuvo alguna vez 190.000 palabras y vio la luz sólo con 65.000 en la edición de 1936 de
Faber&Faber, que por entonces dirigía Eliot. Nightwood había sido rechazada por seis editores estadounidenses antes de que llegara a manos de Eliot a través de la verdadera "editora" del texto, Emily Coleman.

Con el espaldarazo londinense, en 1937, la Barnes tenía un editor interesadísimo en Nueva York, y decidió tomarse su venganza. Una venganza que viene a cuento de lo que estamos discutiendo hoy en este seminario. Harcourt Brace, la editorial en cuestión, recibió una exigencia que, en su momento, se tomó por el capricho de una diva intelectual de los años treinta, la contrapartida de la otra diva del momento, Gertrude Stein: la novela debía editarse en un papel que durara mil años. Consciente de que había escrito una de las obras de ficción de referencia del siglo XX, Djuna Barnes quería asegurarse de que su novela merecería el trato editorial de una obra maestra, cuyo soporte asegurara su lectura a muchas generaciones venideras. Este tipo de papel, que se fabrica a partir de trapos de lino, es un bien escaso y hoy tal vez inhallable. Ya en 1937 la tarea resultó casi imposible para
su editor americano, que sólo encontró un papel con una vida de 500 años, en una fábrica artesanal de Italia.

Mientras en Barcelona discutimos encendidamente sobre el futuroemplazamiento de la Biblioteca Provincial -cuyas características intrínsecas todavía se desconocen-y en España en general todo el sector del libro no deja de advertirnos de la escuálida situación de nuestras bibliotecas, carentes de presupuesto al punto de que muchas de ellas solicitan a a los editores libros gratuitos, en otros lugares del mundo están pasando cosas indicativas de que, se quiera o no, para bien o para mal, al libro también le ha llegado el momento de incorporarse a la sociedad de redes.

El 18 de mayo de 2002, en las páginas de opinión de El País, el ensayista peruano y profesor de Literatura de la Universidad de Pensilvania, José Miguel Oviedo, publicaba un artículo titulado "La
biblioteca sin libros". Allí nos informaba del método que usan los bibliotecarios estadounidenses para deshacerse de ejemplares: si al doblar una de las páginas cierto número de veces el papel se quiebra es
señal de que no resistirá por mucho tiempo y debe descartarse. La rigidez de esta prueba varía según las bibliotecas y según el clima del lugar. En la biblioteca de laUniversidad de Maryland, por ejemplo, si la página se quiebra al doblarla por segunda vez, el libro ha de ser eliminado. En Florida, en cambio, donde el clima es más húmedo, el viejo amigo tiene cinco posibilidades antes de ser desahuciado. Con toda seguridad, Nightwood resistirá estas pruebas todavía por muchos, muchos años. ¿Pero qué pasará con la obra de otros autores menos intuitivos, menos precavidos, tal vez menos soberbios? ¿Y con la de aquellos que ya estaban en el dominio público y fueron reeditados en papel de pasta mecánica en ediciones de bolsillo? ¿Y los libros fabricados con pasta química ácida?

Hace ya diez años, en una de mis reencarnaciones como editora tradicional, publicamos un gran clásico americano que jamás se había traducido al castellano. Se trataba de Norman Maclean y su libro A River Runs Through It (El río de la vida). Queríamos que el soporte estuviera a la altura de la obra y usamos lo que entonces se llamaba, ambiguamente, "papel ecológico" de primerísima calidad, que hicimos traer desde Suecia, fabricado a partir de una pasta química alcalina en la cual no se había serrado la madera antes de la primera cocción. Obsolescencia: 100 años. No tengo noticias de que
ninguna biblioteca lo haya comprado, aunque sus 15.000 lectores tendrán la oportunidad de pasárselo a sus hijos. ¿Y después?

La biblioteca de la Universidad de Pensilvania, por ejemplo, ha decidido digitalizar sus fondos. De esta manera ahorrarán espacio y personal (los dos puntales de la racionalización económica) a la vez que permitirán el acceso perpetuo a las obras, que cada cual leerá en su PC, en su PDA, en su dispositivo dedicado o imprimirá, según los gustos y las licencias obtenidas por parte de lo que José Miguel Oviedo llama, con nostalgia y no sin cierto pavor, la "chipoteca" de Pensilvania.
Pero, ¿es verdad? En este momento de transición en la tecnología de los libros electrónicos, con varias tecnologías DRMs compitiendo entre sí sin que ninguna de ellas llegue a cumplir los requerimientos de todas las partes implicadas en un libro (especialmente editores y propietarios
de derechos intelectuales, pero también los viejos lectores que, a partir de ahora, llamaremos "usuarios") ni de las legislaciones de todos los territorios en los que todavía se divide el mapa político del mundo analógico donde viven los hombres, ¿hay alguna plataforma que pueda asegurar que no será obsoleta en cinco, diez, quince años?

La respuesta es un pequeño sí y un gran no. Pero dejaremos esta cuestión para más
adelante, cuando hablemos de XML y de las dos organizaciones (OEB y DOI) que tratan de crear los estándares que aseguren una vida sana a nuestras inversiones en conversión y otra, larga e igualmente saludable, a lacontinuidad de nuestra memoria cultural.


¿Quién se atreve a decir que los años 70 fueron estúpidos?

Aparte de los pantalones pata de elefante que hoy han vuelto a invadir las calles de las grandes capitales occidentales y occidentalizadas, no hubo nada estúpido en aquel decenio. De hecho, la nueva economía, la sociedad de redes, la glorificación de lo efímero, Bill Gates, las migraciones de la información y del capital, la concepción de un nuevo poder basado en la generación, el acceso, el análisis y la parcelación de la información y su control, todo ello se cocinaba en los años setenta. Y si los pantalones pata de elefante andan por las calles y surgen como setas, es porque aquellas fuerzas, supuestamente escondidas, han salido a la luz y son las que hoy dominan nuestras relaciones
sociales... y lo harán por mucho tiempo.El libro electrónico, en realidad, existe desde los años setenta aunque sólo a partir de fines del siglo pasado la industria editorial (y habría que especificar que ha sido la anglosajona casi en exclusividad) empezó a entrar en su dinámica.

Federico Peralta Ramos, un artista plástico argentino de quien seguramente no tendrán noticias aunque fue muy talentoso, recibió en 1971 una beca Guggenheim para un proyecto llamado "La última cena". Eran 3 mil dólares de entonces y Federico no sabía muy bien cómo emplearlos
en su carrera artística. De manera que invitó a una gran cena en el hotel más caro de Buenos Aires a la que llamó a todos sus amigos, que eran muchos, y también a sus conocidos, que eran más, y a los amigos de los amigos y a los conocidos de los conocidos, y así hasta llegar a organizar una única y última cena por el valor de la beca. Como justificante de su obra, envió una foto de aquella "instalación" vanguardista y la cuenta del restaurante del hotel.

Pero hubo otro becario aquel mismo año 1971: Michael Hart, en la Universidad de Illinois, recibió el equivalente de 100 millones de dólares en horas de computación por parte de Xerox Sigma V, con las
cuales tampoco sabía muy bien qué hacer. Tardó sólo una hora y cuarenta y cinco minutos en llegar a la conclusión que lo importante de la computación no era la computación en sí sino su capacidad de
almacenamiento y transmición de datos. Picó el texto de la Constitución de los Estados Unidos de Norteamérica y estuvo a punto de enviarlo indiscriminadamente a través de un antepasado remoto de la Red, casi como un virus. Alguna voz sensata, de la que careció Peralta Ramos, lo disuadió de realizar el envío, pero Hart consideró justificados los 100 millones de dólares si alguna vez 100 millones de estadounidenses leían su vanguardista "e-book". Así nació el Proyecto Gutenberg.

Y fue también en los años setenta, más exactamente en 1977, cuando Adele Goldberg y Allan Kay comenzaron a hablar de la estación de trabajo portátil y de sus implicaciones en el acceso a libros de referencia digitalizados. Como vemos, el e-book tiene que ver con la movilidad, con la fluidez, con lo efímero e instantáneo, con la accesibilidad y no es (aunque partes de su prehistoria lo sugieran) el resultado de una idea ingeniosa, sino de una anticipación de prácticas y necesidades sociales futuras, que hoy ya están impuestas en otros terrenos de nuestra cotidianeidad.

En la excelente definición de Manuel Castells, los libros digitales son los libros de la sociedad red. Nos provocan cuiriosidad en tanto gadgets, pero nos cuesta entenderlos como concepto; sin embargo, cada vez que usamos la tarjeta de crédito, llamamos por el teléfono móvil o una cámara del Ayuntamiento nos filma en la calle, vivimos dentro de esa sociedad, a la que Hannah Arendt habría llamado, con más tino estilístico, la del "artificio humano". La tecnologización de la palabra es un detalle más del artificio dentro del cual vivimos, y tal vez no sea el de mayor relevancia. En ese artificio, la información es el producto final más importante, donde la productividad y la competitividad dependen del acceso y del control. La información en un libro tradicional es necesariamente analógica, está "encerrada" en los límites de la página impresa y, por tanto, no puede migrar, no es fluida, no sirve a las nuevas cadenas de valor. Casi me atrevería a decir que es una inadaptada y que, como tal, podría ser expulsada al territorio de la marginalidad. ¿A qué se debe, si no, la permanente pérdida de valor social de la construcción, a lo largo de toda una vida,
de una buena biblioteca privada?

Para liberarse de su cárcel de tinta y servir a los intereses de las redes, que es la lógica y la dinámica interna de los grandes conglomerados multinacionales, la palabra escrita se ha de digitalizar. Nuestra
herencia cultural ya ha vivido otros procesos de "liberación" con éxito. El primero de ellos (tal vez el único comparable por sus consecuencias con el que estamos protagonizando hoy) fue cuando la palabra escrita se independizó de la voz humana. Podemos datarlo en el cuarto siglo de nuestra era, cuando alguien sorprendió a san Agustín leyendo sin mover los labios: había aparecido el silencio en la transmición. Otra liberación fue la invención de los tipos móviles, que sacó la transmición de las salas de los monasterios y permitió la fijación de lenguas modernas como el alemán, por ejemplo y, más tarde, el surgimiento de la Ilustración. La conversión digital de nuestra herencia cultural será lenta, cara y azarosa. Y éste es el principal motivo por el cual la industria editorial da pasos prudentísimos cuando no, como sucede en el mundo hispanohablante, se queda esperando a ver qué inventan otros y cómo les va en la feria.

Proyectos sobredimensionados, con un modelo de negocio basado en las asunciones erróneamente optimistas del primer informe Arthur Andersen sobre la evolución y difusión del e-book, como el de
Veintinueve, no hacen sino atrasar la toma de decisiones de un sector que, en España, dice estar en crisis permanente desde hace veinte años. Basta ver el panorama de los pioneros del e-book para entender por qué las grandes casas editoriales han estado mirando hacia otro lado durante tanto tiempo. Al comienzo, el desarrollo de las tecnologías que harían posible la digitalización y, por tanto, la migración de los contenidos de los libros estuvo en manos de pequeñas start-ups como PeanutPress, Glassbook, Fatbrain o el ya hoy obsoleto Rocket E-book. Los emprendedores nunca han logrado captar la imaginación popular y el asunto se consideraba restringido a un grupo de lunáticos. Dejarlos hacer y, si iban por el buen camino, esperarlos en el café, como dijo la cucharita sádica al terrón de azúcar. Pero cuando Microsoft lanzó su primer MS Reader y nombró director del proyecto a Dick Brass, todo el mundo olió que la pasta gansa se interesaba seriamente en el tema. Y
donde hay mucho dinero hay glamour: el e-book empezó a ganarse la imaginación de los grandes conglomerados editoriales. La imaginación popular, por su lado, fue captada por la experiencia de Stephen King con su relato online The Plant.

De aquellos primeros jugadores, ya no queda nadie. PeanutPress fue devorada por Palm, así como la absorción de GlassBook le ha servido a Adobe para adelantar algunos pasos en una carrera que podía perder frente al poderoso software de lectura de Microsoft . Hoy, cuando el e-book comienza a
parecer una realidad a vastos sectores, sólo quedan tres gigantes: Microsoft, Adobe y, posiblemente, Gemstar. Esto también forma parte de la dinámica de la sociedad de redes. Estas empresas son, por su sola lógica interna, mucho más sensibles a los puntos de vista de los editores, cuya mayor preocupación es el control (ver mi artículo "Cielos borrascosos") y, después, la
rentabilidad. El conjunto de tecnologías llamadas DRM fue desarrollado por estas empresas a instancias de Pat Schroeder, presidente de la Association of American Publishers. Hoy, tanto el DRM de Adobe como el de Microsoft son fiabilísimos; con una doble clave pública de 128 bits se puede decir que ofrecen al editor la seguridad de que los contenidos que transforme en e-books no podrán ser copiados sin grandes esfuerzos e inversiones ingentes en esa gigantesca fotocopiadora instantánea que es Internet. Estamos a años luz del Proyecto Gutenberg.

Los DRMs, que son al mismo tiempo una criptografía y un sistema de distribución, cubren los intereses comerciales y de control de la reproducción de los editores, intereses que a todas luces son legítimos (a nadie se le ocurriría que un banco que salga a la Red deba perder dinero y seguridad por ese solo motivo o tenga que dejarse atacar impunemente por crackers), pero plantean otro tipo de problemas, estos de índole social y ética, que contribuirán a atrasar la difusión del e-book en grandes masas de población lectora. Uno de ellos, tal vez el mayor, es el de la privacidad del usuario. Para controlar que una obra no se duplique ilegalmente por alguien que no posee su propiedad intelectual (el autor) ni ha licenciado el derecho de explotación de esa propiedad (el editor), cada libro que se descarga desde uno de estos sistemas queda unido a los datos personales del usuario. Esa información
se almacena en el DRM para siempre. Una base de datos lejana y anónima, en algún lugar del mundo sabe qué libros he descargado (y tal vez leído) durante el último año. El argumento a favor del usuario es que si pierde o borra inadvertidamente el libro cuyo derecho de uso ha adquirido, puede volver a descargarlo sin coste adicional. El argumento en contra es ¿todos queremos que se sepa qué leemos? ¿que esa información quede almacenada para fines que desconocemos y que tal vez ni siquiera se
hayan inventado todavía?

El otro asunto espinoso con los DRMs es el de las bibliotecas públicas, a las que se les puede cancelar la licencia de un libro a partir de un cierto tiempo, de acuerdo con los términos de la licencia de uso que haya contratado. Sobre estaba base se creó Ebrary, tal vez el proyecto más ambicioso y mejor estructurado que haya habido en materia de servicios de distribución digital a bibliotecas, cuyo modelo valdría la pena estudiar. Para volver a tener el título disponible, la institución deberá sacar una nueva licencia. ¿El préstamo gratuito de los fondos de las bibliotecas públicas seguirá siendo factible en estas circunstancias?

Los DRMs son universales, globales, como la economía a la que representan, pero las leyes de propiedad intelectual son todavía nacionales. No es disparatado pensar que deberán desarrollarse muchos sistemas de protección y distribución para responder a este problema de territorialidad de los derechos y de las prácticas comerciales del sector editorial y, en la medida que florezcan y se diversifiquen, más difícil será que los fondos digitalizados alcancen la masa crítica necesaria para volverse populares y, por tanto, rentables para los editores y atractivos para los usuarios. Hoy que la tecnología de los e-books empieza a ser prometedora para algunos de los actores de esta cadena de valor, que obviamente se verá alterada (en especial la relación de poder y económica entre el autor y
el editor), es esa misma tecnología la que crea desequilibrios que harán de su aceptación y su difusión masiva un camino lento y costoso. Porque el impacto de las tecnologías no es tan rápido como se cree y, sobre todo, su arraigo depende de la actividad de las fuerzas culturales y económicas a las que están ligadas y por las cuales son influidas.

Y una coletilla: ningún editor confiará totalmente en un DRM, siempre habrá una zona de sombra, de sospecha, por el pánico que provoca la inmediatez y la envergadura de la copia en Internet. Porque el miedo también es una de las emociones básicas de la sociedad red. Un sólo código roto y la inversión hecha en un libro se vuelve irrecuperable. En cuanto al lector, es fácil, los libros electrónicos estarán disponibles en segundos, a capricho: siempre y cuando tenga un ordenador personal, el software de lectura adecuado, acceso y una tarjeta de crédito. William T. Vollman, cuando pasó por Barcelona hace seis años para la promoción de su libro Historias del Mariposa, dijo que los libros
tradicionales nunca desaparecerían, pero que los veríamos sobre todo en las manos de los marginados de la tierra, de los homeless, de esos que buscarán en nuestras basuras y se encontrarán con ediciones viejas y sin valor para coleccionistas ni anticuarios y que quienes sí tienen acceso (esto es, alguna parcela de poder) habrán descartado en favor de la biblioteca virtual. Si fuese editor, empezaría a pensar seriamente en esta visión tierna y apocalíptica de uno de los mayores escritores vivos
estadounidenses. Tal vez valdría la pena saber, de una vez, qué es un e-book y qué exige de los procesos y circuitos editoriales.

¿Son inevitables? Y si lo son, ¿qué son?
De todo lo expresado hasta ahora se desprende que los e-books son inevitables, aunque su tecnología sea aún experimental. Así como los flujos de capital empezaron para una exquisita minoría capaz de levantar o derruir economías regionales enteras y hoy todo el mundo que tiene una cuenta bancaria hace operaciones por Internet para pagar la cuenta del gas; así, los flujos de información alcanzarán y reclamarán al libro para sí -hasta ahora, nuestra libreta de ahorros en la sociedad de la información-, modificarán no sólo sus métodos de distribución y las formas en que se genera su contenido, sino que cambiarán para siempre la naturaleza del libro en sí. Pensemos sobre todo, en que pasaremos de una
decodificación directa y sensible del texto escrito -que sólo exigía la alfabetización del sujeto lector-a otra mediatizada por un software de lectura que será, en realidad, una especie de middleware entre el
lenguaje que entiende la máquina y el lenguaje que entiende el hombre. Comparada con esto, la lectura silenciosa de san Agustín aparece como un paso igualmente importante pero menos abismal.

Si pensamos que un e-book es la representación digital de un libro tradicional erraremos el camino, aunque muchísimos de los e-books que se comercializan en estos momentos no han ido mucho más allá. Entre otras cosas porque los editores han encontrado un atajo para evitarse las inversiones que temen hacer: el PDF de Adobe, mediante un sencillo proceso que implica a su programa Distiller, se despoja de las pesadísimas especificaciones de imprenta (sobre kerning, definición tipográfica, etc.) y se vuelve lo bastante liviano, hablando en megas, como para ser descargado de la Red en un lapso casi óptimo. Finalmente, las delicias de una Garamond no son apreciables en ninguna pantalla. Su
desventaja es un cierto grado de rigidez, cuando el libro digital debe ser, sobre todo, purísimo flujo de información.

Tampoco sería acertado pensar el e-book como un objeto digital único, ya que se compone de una serie de documentos digitales que, a su vez, están formateados y cerrados para que puedan desplegarse y leerse en un dispositivo portátil a través de un sistema lector. Es una publicación digital con archivos de contenido y hojas de estilo, con metadatos y derechos digitales, navegadores, etc. Los archivos de contenido pueden ser documentos de texto, ilustraciones, fotos digitales, etc. Algunas de
las hojas de estilo tienen las instrucciones tipográficas y de diagramación para que el libro pueda desplegarse en el dispositivo elegido; otras, organizan el orden de los contenidos del libro. Los
metadatos ofrecen un sumario del libro que incluye el autor, el editor, el ISBN, el precio, etc. Y, por último, los derechos digitales, ubicados en el DRM, especifican la extensión de la propiedad intelectual de ese libro.

Es obvio, como escribió José Antonio Millán, que si los editores ya no precisarán saber de gramajes de papel, deberán saber otras cosas. Las tecnologías que permitieron el libro tradicional están entre los grandes logros de la cultura europea y podemos afirmar que han llegado a un grado de madurez insuperable, al cual se han ido incorporando los procesos de redes y la digitalización. Hoy es muy
difícil encontrar un escritor que no use un procesador de textos y un editor que no envíe sus libros a la imprenta en postscript para beneficiarse de la tecnología CTP, obviando los engorrosos procesos
intermedios de películas y oxidación de planchas. Pero aun así, hay una total incomprensión en los medios editoriales de qué significa el lenguaje de marcación XML, que es la madre y el padre de todos los e-books tal y como los necesita y exige la sociedad de redes. Si bien empresas como Adobe están tratando de simplificar las cosas, en un intento de seguir siendo los reyes de la industria editorial
apoyándose en la pereza intelectual y la desidia inversora, a través de desarrollos ulteriores de sus programas InDesign o FrameMaker, capaces de importar y exportar XML, la industria editorial española sigue aferrada a un callejón sin salida (sin salida a otros canales, entiéndase) que es el programa QuarkXpress, el Porsche de los diseñadores cuando, en realidad, lo que necesita el libro en este período de transición es un todoterreno.

Un nuevo código genético

Adoptar el lenguaje de marcación XML implica alterar toda la cadena de producción del libro, lo que supone cambios drásticos en la cultura corporativa y grandes inversiones. Aunque la tarea de autores y editores seguirá siendo más o menos la misma: producir libros de alta calidad, la adopción de XML significa que todo el trabajo de edición de los contenidos, incluida la corrección de pruebas, debe hacerse antes de la "puesta en página". Los estilos, tipográficos y otros, quedan totalmente separados de la estructura semántica, permitiendo que la información (este libro con nuevo código genético) viaje a través de múltiples plataformas, sea capaz de realizar operaciones comerciales y controle por sí mismo los derechos de propiedad intelectual y de reproducción. No hay lugar para los cambios de último momento. Este modo de producción exige una planificación detallada, la eliminación de las "bolsas" de información dentro de la organización y una mentalidad de trabajo en equipo que brilla por su ausencia en la empresa editorial española, especialmente en los grandes grupos.

Con el cambio del código genético del libro, también cambiará el código genético de las empesas editoriales, que deberán transformarse en empresas de gestión de contenidos. Lo curioso de todo esto es que la compañía española más avanzada en la producción de contenidos aptos para la explotación multicanal es una compañía de aviación. Iberia, presionada por una directiva comunitaria para la normalización de los manuales de vuelo, se ha transformado en la vanguardia de la gestión de
contenidos y de su experiencia deberían aprender muchos editores, especialmente los editores de libros de texto. Por la particular organización política y territorial de España, donde las competencias en Educación han sido cedidas en gran medida a las comunidades autónomas, la racionalización de las distintas versiones de un libro de texto de primaria, por ejemplo, las volvería más competitivas, reduciría sus costes, optimizaría el uso de contenidos existentes que sólo varían levemente de una Comunidad a otra y les permitiría llegar a tiempo con los cambios que exigen las distintas consejerías de educación.

Los mejores son conscientes de ello, pero llegado el momento de invertir, son presas de la timidez. Otros, han encargado el cambio a grandes consultoras que desconocen el sector y se han quedado con
programas hechos a medida que les permiten gestionar muy bien sus bases de datos, pero no les dejan salir a imprenta con la calidad debida y, para cuando toda la educación sea wireless, dichos programas serán obsoletos. Si de algún lado despegarán los e-books -en España y en cualquier otra parte-será desde la editoriales dedicadas a los libros de enseñanza, en especial los de educación básica, aunque las prensas universitarias tienen también un papel clave. ¿Tendremos que esperar a que una directiva comunitaria nos obligue a hacer lo que nuestra profesión nos exige por simple sentido común?

En cuanto a la edición generalista, no me atrevo a hacer predicciones. Las experiencias, aquí y fuera, no son alentadoras. Las guías de viaje, otro material que por su versatilidad para la versionificación es muy apto para entrar el el circuito del e-book, están desactualizadas (justamente gracias a que el uso de QuarkXpress hace carísimas las actualizaciones) y se ha dado el caso de un editor que colgó sus guías electrónicas en la red, en diciembre de 2001, con todos los precios en pesetas. No es mejor la experiencia de las famosas Rough Guides en los Estados Unidos: hicieron una digitalización más avanzada, usando el estándar OEB y el formato propietario .lit, de Microsoft, pero como este formato tiene todavía problemas con las ilustraciones, decidieron dejar la inversión donde estaba y publicarlas sin mapas. De algunas de ellas se vendieron sólo siete ejemplares, y no es de extrañar.
La falta de comprensión de qué es un e-book llega hasta el mismísimo corazón de la actividad editorial: la Feria de Francfort. Sus premios al mejor libro digital han ido a parar a productos que no son más que la representación digital de sus homólogos en papel.

Y todos estos cambios, llevarán también al cambio del código genético de la lectura. Pensemos en nosotros mismos cuando consultamos la edición de nuestro periódico favorito on-line. La lectura se hace a saltos, ha dejado de ser lineal, secuencial. Al perder su espacio físico, el texto ha mutado y nos hace otras propuestas. O cuando consultamos la Britannica on-line, lo hacemos como quien consulta una base de datos. Los hiperlinks, los elementos multimedia, funcionan como la conejera de Alicia: caemos por el agujero de una palabreja subrayada en azul y estamos en otro espacio y en otro tiempo. Cuando volvemos al texto primitivo, ya somos otros. A este tipo de lectura quisiera bautizarla
como "lectura cuántica".

Cuando la industria editorial adopte definitivamente el lenguaje de marcación XML, será tan fácil hacer reediciones y versionificaciones de un libro, que el material original se perderá en la mayoría de los casos y, con él, información esencial. Tengo la costumbre (como otros pioneros de la edición digital en España) de guardar, comprar y perseguir primeras ediciones de diccionarios y enciclopedias. A partir de las definiciones de un determinado período histórico, puedo reconstruir toda una época y su mentalidad, sus prejuicios, sus obsesiones. De no haber tenido la primera edición de la Webster's no habría podido traducir un novela de E. L. Doctorow, en la cual el autor usaba todos los neologismos cultos del siglo XIX, palabras hoy en desuso y abandonadas para siempre. De no tener la primera edición de la Espasa, no entendería el proyecto multifacético de la República ni la obsesión de aquellos hombres por hacer del mundo una inmensa naturaleza muerta en setenta y dos tomos, como si hubiese llegado el final de la historia mucho antes de Fukuyama.

La fijación del texto fue uno de los logros de la Modernidad y fuente de trabajo para generaciones y generaciones de filolólogos. Tendremos que acostumbrarnos a que la sociedad de redes nos quite también esta conquista a cambio de la accesibilidad y la rentabilización de los contenidos. Sin embargo, enormes porciones de la Humanidad viven sin este concepto, especialmente en aquellas partes de Oriente donde sigue viva la figura del relator de cuentos y, a fin de cuentas, ¿quién sabe
cómo fue la primera Ilíada hasta que lavada por los siglos y las voces, llegó a la versión que conocemos hoy? Si estamos de acuerdo en que es en ese libro donde se define por primera vez el sujeto occidental, al cual se agregaría luego la linealidad introducida por el Cristianismo, podemos afirmar, sin temor a hacer futurología, que la lectura cuántica cambiará también el código genético del sujeto y nuestra percepción del yo.

Coda
Este día 4 de junio de 2002, con el reciente cierre de Veintinueve a nuestras espaldas, hemos dedicado un día entero a hablar de los e-books, de su impacto en nuestras vidas, de cómo cambiarán nuestra manera de leer y nuestras relacionarnos con el saber, cómo influirán en el desarrollo de la industria editorial y, en nuestro entusiasmo y nuestro miedo, hasta hemos dicho que cambiarán el mundo. Sucede que es el mundo el que ha cambiado y los e-books son sólo una parte ínfima de ese
cambio, la parte que le toca pagar a nuestra cultura escrita.

Cuando salgan de aquí rumbo a las editoriales donde trabajan, a sus despachos, a sus casas, piensen que han pasado bajo una cámara de seguridad. La próxima vez que inviten a comer a un autor o a una agente literaria y saquen su tarjeta de crédito, piensen que ya son parte de la sociedad red, que una base de datos sabe cuál es su restaurante favorito. Que su teléfono móvil puede indicarle si está cerca o lejos de él porque otra base de datos conoce exactamente su situación geográfica. Piense que esto también le serviría a los niños que visiten la catedral de Oviedo si usted tuviera la valentía de hacer que los libros no queden marginados y puedan viajar en múltipes plataformas. La parte de su libro que describe la obra arquitectónica podría aparecer en el celular del alumno. Y además, usted ganaría dinero.

Regreso a 2010
Hemos aprendido poco, a juzgar por las discusiones sobre el futuro del libro en las que seguimos ensarzados y como bien temen Jordi Mustieles y Guy LeCharles Gonzalez, tal vez terminemos agotando al lector con tanta plataforma incompatible y, en un ecosistema herido, dejemos al libro solo, sin siquiera aquel parador natural que siempre fueron las librerías.

6 comentarios:

Julieta Lionetti dijo...

Ya ven lo difícil que es convertir un html defectuoso de hace 8 años en uno virtuoso de hoy mismo. Pues parece que no hay otra manera que hacerlo manualmente. Disculpen los saltos de línea, pero lo dejaré así.

Gerardo Lino dijo...

De esa "lectura cuántica" se hallan lejos muchos editores, autores y lectores; todavía creen que el libro sólo es una cosa de papel encuadernado; si no es así, no conciben que se haya publicado.

Julieta Lionetti dijo...

Hola, Gerardo:

Bienvenido a la conversación y gracias por darte una vuelta por este blog.

editora con carrito dijo...

Me ha encantado este post. Desde la referencia a Djuna Barnes (de la que soy fan e incluso tengo la primera edición de Nightwood publicada por Faber&Faber en Londres) hasta los archivos xml con los que he trabajado en proyectos de open learning, sin olvidar mi afición a leer diccionarios (ojalá pudiera comprarme esas primeras ediciones, me tengo que conformar con las bibliotecas y las versiones de la rae online).

Si quieres te echo una mano con los saltos de línea, ya estoy muy curtida en recuperar formatos antiguos...

Julieta Lionetti dijo...

Gracias por venir hasta aquí con tu carrito. Tu propuesta de arreglar los saltos de línea es tentadora. Me lo voy a pensar y (mucho cuidado) tal vez te diga que sí. ;-)

Sebastián Lalaurette dijo...

Ufff... al fin un artículo extenso y concienzudo que se sale de la cháchara habitual. Estoy harto de leer siempre el mismo artículo. No coincido con todo lo que dice éste (o, para expresarlo mejor, me inquieta todo lo que no dice), pero por una vez me he sentido estimulado a pensar sobre este tema más allá de las idas y vueltas de siempre.

¡Y eso que el texto tiene ocho años ya! :)