Darwin y los memes

Darwin y los memes

Leo en el muro de una amiga de Facebook que hoy es el aniversario del nacimiento de Charles Darwin, probablemente el científico más inspirador de la última centuria para quienes se ocupan del estudio de los seres vivos.

Pero también de entidades no vivas, me explicaré.

Charles Darwin nos enseñó que allá donde hay herencia y mutación hay evolución y que se perpetúa aquella mutación que ofrece a quien la incorpora un mayor éxito reproductivo.

Pero eso no ocurre solo con los seres vivos.

Hay entidades que se replican no por sí mismas sino parasitando o invadiendo a otros seres vivos. Es el caso de los virus, seres difícilmente clasificables como vivos, que se reproducen no por sí mismos sino invadiendo células donde replicar su código genético; pero yo no hablo de ellos.

Yo hablo de otras entidades que se replican colonizando a otros seres vivos, concretamente los seres humanos.

Pruebe usted a cantar una canción pegadiza, instintivamente otras personas a su alrededor la cantarán, puede que hasta se obsesionen y canten la canción de forma maníaca. El hecho de que una canción salte de un cerebro a otro hace que la canción, una sucesión inerte de sonidos, se replique y perviva hospedada en el cerebro de quienes la cantan. La canción se replica merced a esa peculiar calidad de sus sonidos que provocan a quienes los escuchan a reproducirlos.

La canción se reproduce (se canta) se propaga entre quienes la oyen (están en contacto con ella) que se «contagian» de ella y la reproducen a su vez (la replican) con más o menos exactitud o afinación (mutaciones) las notas que la componen.

En general las mutaciones son perniciosas pero puede ocurrir que alguna de ellas tenga éxito y haga que quienes escuchen la canción con mutaciones sientan más ganas de cantar esa versión que la original, de modo que la canción mutada tenga más éxito replicativo que la versión origina que irá cayendo en el olvido hasta morir.

Ya lo dijo Darwin, si hay herencia y mutación acabará funcionando la evolución y triunfará aquella entidad que tenga mayor éxito reproductivo. Si quieres un buen ejemplo de esto puedes examinar la historia del archifamoso villancico «Jingle Bells» comparando su partitura original con la versión que, hoy, todos conocemos.

Pero eso no pasa solo con las canciones sino con cualquier idea, credo político o religioso, construcciones mentales (informacionales) que sólo existen en el cerebro humano y cuya existencia depende de su capacidad de replicarse en otros cerebros. Para las ideas, para los credos, para las ideologías, la muerte es el olvido. Las entidades informacionales mueren cuando dejan de replicarse por ello sólo llegan a nosotros aquellas mutaciones de cada ideología que encuentra en cada momento un mayor éxito replicativo.

No es de extrañar que las religiones cuiden especialmente a su idea generatriz («Amarás a Dios sobre todas las cosas») o los credos políticos sus dogmas fundacionales («Sostenemos como evidentes estas verdades: que todos los hombres son creados iguales; que son dotados por su Creador de ciertos derechos inalienables; que entre éstos están la vida, la libertad y la búsqueda de la felicidad…») y es normal, solo se replican las ideas que impulsan su replicación del mismo modo que la vida solo premia la vida.

Hoy se habla con naturalidad de «memes» y de «volverse viral» pero sospecho que la mayoría de los que lo hacen desconocen que «meme» es una expresión que inventó Richard Dawkins parodiando a «gene» (la forma inglesa de «gen») para referirse a esas entidades informacionales que se comportaban como si fuesen genes.

No un «meme» no es un chiste ni un dibujito, es un concepto mucho más complejo aunque, comi es difícil de explicar, la evolución ha hecho que haya proliferado un significado que no es sino una grosera mutación de su sentido originario pero que, como a nadie escapa, goza de un mayor éxito replicativo entre los cerebros a colonizar.

Entender la información (y por ende la sociedad de la información) es una tarea compleja y apasionante a la que no muchos —a salvo de unas élites no siempre bienintencionadas— parecen querer dedicar tiempo.

En todo caso tal tarea sería imposible sin Darwin.

Adam Smith y los límites del ser humano

Adam Smith y los límites del ser humano

Ayer me entretuve en remendar el primer párrafo de la obra «El Capital» de Marx desde mi punto de vista esencialmente informacional de la realidad, hoy me parece de justicia hacer lo mismo con el primer párrafo de la obra fundamental del economista y filósofo escocés Adam Smith (Kirkcaldy 1723), «La Riqueza de las Naciones» (An Inquiry into the Nature and Causes of the Wealth of Nations) en la que dejó sentadas las bases de la economía clásica con sus trabajos y a la qué la cultura popular identifica con la biblia del capitalismo.

Pues bien, el primer párrafo del primer capítulo del primer libro de la obra fundamental de Adam Smith «La riqueza de las naciones» comienza afirmando…

«El mayor progreso de la capacidad productiva del trabajo, y la mayor parte de la habilidad, destreza y juicio con que ha sido dirigido o aplicado, parecen haber sido los efectos de la división del trabajo».

Y, al igual que me sucede con el primer párrafo de la obra «El Capital» de Marx, desde mi punto de vista, tal afirmación tampoco puede ser aceptada así como así. Veámoslo.

La división del trabajo no es una mejora organizativa que los seres humanos escojan simplemente para producir más, la división del trabajo es una realidad que impone la cada vez mayor complejidad de las tareas que desarrollan los seres humanos y la limitada capacidad que tienen estos para almacenar información (conocimientos). Analicémoslo despacio.

Creo que ya les conté una vez —uno siempre predica su fe ya sea de forma directa o indirecta— que el problema del pulpo (sí, el pulpo), como el de muchos prebostillos nacionales, es que es un inculto.

Un pulpo, a lo largo de su vida, puede aprender muchas cosas pero todo lo que aprende muere con él. El pulpo (o la pulpa) ponen sus huevos y los abandonan a su suerte, los pulpillos que eclosionan no tienen madre que, zapatilla en mano, les oriente y les haga entrar en la mollera todo lo que deben aprender de forma que, cada uno de los recien nacidos pulpillos, como Sísifo, debe empujar de nuevo su piedra hacia la cumbre.

El secreto del ser humano como especie es que, a los conocimientos instintivos de que les dota la naturaleza, añaden los que les transmiten sus progenitores, seres con quienes conviven durante toda su infancia. Podemos afirmar sin temor a equivocarnos que la cultura es una de las más eficaces estrategias evolutivas de que dispone la especie humana; ahora bien, cuando la cultura (el conocimiento, la información) alcanza un volumen tan enorme como el que ha alcanzado el saber humano en los tiempos modernos, es obvio que ya no puede ser almacenada en un solo indivíduo, de hecho, hace milenios que dejó de poder ser almacenada en un solo indivíduo.

Medimos la capacidad de almacenamiento de información en cualquier soporte con toda naturalidad y así, decimos: «ese disco tiene 18 Terabytes» o «ese USB puede almacenar 500 Gigabytes»… Esta forma de expresarnos es para nosotros, desde hace unos 20 años, perfectamente natural y, sin embargo raramente la aplicamos a las personas y decimos «fulano es un crack, tiene tantos Petabytes de almacenamiento libre…»

La capacidad humana de almacenar conocimientos es finita y es por eso que todos no sabemos hacer todas las cosas.

Los seres vivos vienen al mundo con muchísima información preprogramada. En su «read only memory» (ROM) almacenan todas las instrucciones precisas para mantenerse vivos, respirar, hacer la digestión, realizar la fotosíntesis si son plantas… Todas estas acciones usted (y todos los seres vivos) «saben» llevarlas a cabo aunque no sepan por qué. Luego, cada especie, en mayor o menor medida tiene una memoria «ram» donde almacena conocimientos útiles para ella.

En el paleolítico los conocimientos que el ser humano almacenaba en esa memoria «ram» estaban mayoritariamente dirigidos a procurarse su supervivencia y la de los suyos, aunque la construcción de herramientas de sílex o la confección de pigmentos para «almacenar» información en forma de dibujos y pinturas en sus cavernas, fueron cada vez ocupando una mayor parte de esa «random access memory» (RAM).

Si entendemos que la capacidad humana para acumular información es finita entenderemos sin problema por qué, espontáneamente, aparece la división del trabajo que en lugar tan prominente situa Adam Smith y comprenderemos por qué la fabricación de alfileres de que nos habla Adam Smith o la de sartenes de que nos habla Marx exigen de división del trabajo.

Ninguna persona puede dominar al mismo tiempo las habilidades precisas para distinguir los filones de los distintos minerales, detectarlos, picar en una mina, entibar galerías y extraer mineral; mucho menos saber eso y dominar el arte del fundido, aleación y forja de metales, confección de esmaltes y otros elementos necesarios para la terminación del producto… Y aunque alguien tuviera todo el conocimiento necesario para ello lo sería en un grado muy básico. Hoy hay carreras enteras dedicadas a la ingeniería de minas, por ejemplo y a todo lo anterior habrís que añadir el transporte y comercialización del producto.

Si llamamos «personbyte» (como indica C. Hidalgo) a la cantidad de información que es capaz de almacenar un ser humano, se entenderá por qué son necesarias muchísimas personas para fabricar, por ejemplo, un avión o un submarino. No porque lo exija la «división del trabajo» como método organizativo, sino porque son necesarios muchos conocimientos (personbytes) para transformar la materia en una navío submarino o en un aparato volador.

Así pues, desde nuestro punto de vista informacional, tampoco el primer párrafo de «La riqueza de las naciones» de Adam Smith resulta particularmente impactante sino más bien naif.

Entenderán que si, desde el primer párrafo, ambos textos capitales me resultan sospechosos de no entender el mecanismo profundo que determina el funcionamiento de la realidad y las sociedades, el debate comunismo-capitalismo me parezca periclitado. Déjenme tener mi propio criterio y no me embarquen en un antiacuado juego de pares o nones.

Supongo que a estas alturas ya habré hartado a mis lectores, entenderán por eso que un día escriba sobre el Nitrato de Chile y la riqueza, otro sobre el «Personbyte» y la construcción de submarinos y otro sobre la evolución y los Reyes Magos. Sé que si trato de explicarme soy aburrido y por eso es mejor recurrir a la vieja herramientas de las historias y los relatos, porque con ellos siento que siembro poco a poco mi punto de vista, mi forma de entender las cosas.

Los post diarios son práctica, lo demás es teoría.

Marx y el guano: reescribiendo «El Capital»

Marx y el guano: reescribiendo «El Capital»

En la década de los 60 del siglo XIX, mientras Marx redactaba su obra cumbre, El Capital, en América del Sur varios países experimentaban un desarrollo extraordinario gracias a su riqueza en materias primas.

Especialmente representativo de esta prosperidad económica fue el caso del Perú que, debido a la gran riqueza en guano que acumulaban sus islas, comenzó a obtener cuantiosos ingresos mediante el sistema de las llamadas «consignaciones», un sistema mediante el cual el Estado y determinados empresarios llegaban a acuerdos por los que se otorgaba a estos la explotación del guano durante un tiempo a cambio de un porcentaje que variaba entre el 35 y el 45 %. El consignatario se encargaba de todo el proceso de explotación, exportación y venta del guano mientras que el estado recibía una porción del ingreso líquido después de producida la venta. El problema fue que, como el Estado generalmente necesitaba efectivo y no podía esperar hasta el reparto de ingresos, solía pedir dinero por adelantado a los consignatarios que, de este modo, se convirtieron en los mayores prestamistas del Estado cobrándole entre el 4 y 13% de interés.

Los cambios de toda índole que en esta época de prosperidad se produjeron en Perú extienden sus efectos hasta nuestros días, estando en la base de la escisión de la sociedad peruana entre el interior y la costa, pero esa es otra historia.

Mientras duró la fiebre del guano los estados europeos compraron y pagaron a precio de oro este producto —no más que una gigantesca acumulación de defecaciones de aves— y fue gracias a él que pudieron alimentar a su creciente población pues, usado como abono, el guano rendía resultados espectaculares.

Marx no vivió lo suficiente como para asistir al trágico final de esta época dorada de la historia del Perú pues, mientras concluía la primera edición de la primera parte de «El Capital», estaba naciendo en la ciudad de Breslau (entonces Prusia hoy Polonia) el científico alemán Fritz Haber quien, junto con personalidades de la talla de Max Born o Karl Bosch (sí, Bosch, el de BASF) descubrieron procesos químicos para fabricar abonos de forma que el guano se tornó innecesario.

Aquella mercancía maravillosa por la que Chile, Bolivia y Perú habían guerreado, ahora simplemente no valía nada y los países que la producían, simplemente, enfrentaban la bancarrota.

Cuando nació Fritz Haber, Marx, acababa de publicar su primera parte de «Das Kapital» aquella obra colosal cuyo primer párrafo decía:

«La riqueza de las sociedades en que impera el régimen capitalista de producción se nos aparece como un «inmenso arsenal de mercancías» y la mercancía como su forma elemental. Por eso, nuestra investigación arranca del análisis de la mercancía».

Seguramente, para un europeo de 1866, la riqueza de las sociedades se podía percibir como un «inmenso arsenal de mercancías»; aunque un peruano, un chileno o un boliviano, unos cuantos decenios después, aprenderían dolorosamente que la riqueza de las sociedades no es un arsenal de mercancías (aunque estas sean tan valiosas como lo fue el maravilloso guano) sino un «inmenso arsenal de conocimientos» como los que acumulaban los alemanes en personalidades como Haber, Born o Bosch. En 1918 Fritz Haber recibió el Premio Nobel y Carl Bosch en 1931.

A día de hoy Perú importa 1,2 millones de toneladas de abonos sintéticos al año; el país del guano hoy paga el abono que gasta a empresas extranjeras y devuelve con creces los ingresos que un día recibió.

Mi parecer es que las sociedades ricas nunca lo han sido por la abundancia de mercancías, sino por poseer la información necesaria para transformar materias primas y así subvenir a sus necesidades.

En el calcolítico había el mismo cobre en el planeta Tierra que a principios del Paleolítico, la diferencia radicaba en que el ser humano, en el calcolítico, descubrió la forma de trabajarlo. Las herramientas de cobre (arados, cinceles, azuelas…) hicieron más productivas —más ricas— a las sociedades que pudieron disponer de ellas.

De hecho, a día de hoy, existe en la Tierra exactamente la misma cantidad de cobre que había en el calcolítico o en el Paleolítico, ni un átomo más ni un átomo menos, la diferencia es que hoy con el cobre no se fabrican arados, cinceles o azuelas; hoy disponemos de la información precisa para convertir al cobre en un conductor de la electricidad. El ser humano informa la materia en función de la información de que dispone y es esta actividad la que genera riqueza, la que dota de valor de uso a materiales que antes carecían de él, la que los hace valiosos.

Podríamos, pues, provisionalmente, modificar un tantito el primer párrafo de «El Capital» de Marx y donde él escribió:

«La riqueza de las sociedades en que impera el régimen capitalista de producción se nos aparece como un «inmenso arsenal de mercancías» y la mercancía como su forma elemental. Por eso, nuestra investigación arranca del análisis de la mercancía».

Escribir nosotros…

«La riqueza de las sociedades en que impera el régimen capitalista de producción se nos aparece como un «inmenso arsenal de conocimientos» y la información como su forma elemental. Por eso, nuestra investigación arranca del análisis de la información».

Si para Marx era la mercancía el centro de su sociedad mercantil, para nosotros será la información el centro de nuestra sociedad a la que —coherentemente— llamaremos Sociedad de la Información.

—¿Y podemos seguir hablando en esta sociedad de cosas como la «propiedad de los medios de producción», los «imperialismos», las «revoluciones» y cosas así?

—No se apure, desde luego que sí, pero eso lo veremos en otros capítulos de esta historia.

De momento le dejo con una fotografía de lo que significa trabajar en el guano.

Todo necio confunde valor y precio

Se atribuye comúnmente esta cita a Antonio Machado y he tenido ocasión de recordarla este principio de verano cuando, por razones largas de explicar, he vuelto a leer los capítulos iniciales de «El Capital», obra fundamental de Karl Marx y base de la ideología comunista. En ellos Marx habla de las mercancías y, muy machadianamente, distingue lo que él llama «valor de uso» del «valor de cambio». El valor de uso de una mercancía no precisa mayor explicación, las cosas sirven naturalmente para algo pues, si no sirven para nada, carecen de valor de uso; el valor de cambio, por el contrario, nos habla del intercambio de las mercancías y de las cantidades de cada una que habríamos de trocar para obtener una cantidad de la otra… es decir, cuantos pollos vale una vaca o cuántos litros de leche vale un martillo, proceso de cambio para el cual resulta muy útil el dinero, entidad que, fuera de esto, carece del más mínimo valor de uso como puso de manifiesto la archicitada frase que, entiendo yo que de forma apócrifa, se atribuye a los indios Cree.

Sólo después que el último árbol sea cortado, sólo después que el último río haya sido envenenado, sólo después que el último pez haya sido atrapado, sólo entonces nos daremos cuenta que no nos podemos comer el dinero.

Marx, en su análisis, prescinde de conceptos básicos para la formación de los precios y que son objeto fundamental de estudio para la economía clásica, como son los de demanda y oferta, y por ello ha sido criticado; sin embargo, a pesar de que comparto plenamente esa crítica negativa a la visión de Marx, su intento de tratar de comprender el «valor» de las cosas me parece loable aunque, ya que estamos en el siglo XXI y en la sociedad de la información, su visión se me antoja absolutamente obsoleta a pesar de que es, ciertamente, inspiradora en algunos momentos.

Para Marx la base del valor estaba en la cantidad de trabajo que había sido necesaria para obtener una determinada mercancía, desde la materia prima hasta el producto acabado. Así, el valor de una sartén de hierro se determinaría por la cantidad de trabajo empleado en extraer el mineral de hierro, fundirlo y dejarlo apto para ser trabajado por los herreros y, finalmente, por el trabajo del herrero que transforma el hierro en sartén. Toda la suma de este trabajo sería para Marx el valor de la sartén.

No voy a discutir el punto de vista de Marx ni su caracterización del trabajo como elemento generador de valor, sólo voy a tratar de dar un salto de la Sociedad Industrial del siglo XIX a la Sociedad de la Información del siglo XXI, salto en el que, quizá, alguna de las ideas expresadas pudieran ser de utilidad. Veámoslo.

Si pensamos la realidad con un enfoque informacional no nos costará entender que el universo está compuesto esencialmente de tres cosas: materia, energía e información, si bien, es esta última la que verdaderamente hace interesante al universo. Quizá en este punto convenga aclarar a qué me refiero cuando hablo de información y esto puedo hacerlo de dos formas: o bien remitiéndome a la teoría de la información de Claude Shannon y a los postulados de la termodinámica y demás teorías científicas o bien vulgarizando de un modo más sencillo para ahorrarles el trabajo científico que lleva aparejada la primera opción. Voy a tratar de hacerlo.

Créanme, en el universo se desarrolla una guerra eterna entre el orden y el caos, entre la información y la entropía, una guerra que sabemos de antemano que ganará el caos pues, como sin duda sabrá usted aunque no haya estudiado física, la entropía es la única magnitud que siempre crece en el universo junto con el tiempo.

Sin embargo, el que la entropía (si quiere llámele caos) crezca siempre en el universo no significa que, localmente, no haya lugares en el cosmos en los cuales el orden (la información) se manifiesta en todo su esplendor y revierte este fatal sino universal. Mire a su alrededor, las plantas y árboles engendran plantas y árboles, los animales y microbios campan por doquier y esas son realidades que contradicen el inexorable camino al caos del universo: un maravilloso orden rige aparentemente la biosfera de la Tierra. Sin embargo, créame también, este efímero triunfo del orden sobre el caos no es gratis, pues sólo puede producirse a costa de un generoso aporte de energía.

Si usted mira a su alrededor verá las mismas materias y energías que pudieron ver los dinosaurios en el Jurásico y el Cretácico… sí, mire bien, lo que usted está contemplando es el mismo hierro, el mismo granito o sílice que ya estaba en la Tierra en los períodos en que los dinosaurios imperaban en nuestro planeta. No hay ninguna materia ahora en la Tierra que no estuviese ya en ella en el Jurásico y, sin embargo, usted sabe también cuán diferente resulta nuestro mundo de aquel: aviones, rascacielos, naves espaciales, microprocesadores… La realidad es que, siendo el mismo mundo y la materia la misma, hemos logrado «informarlo» de forma muy distinta y reordenar la materia de manera que adquiera nuevas formas y propiedades. Un vaso de vidrio, en realidad, no es más que un puñado de silicio informado de una manera muy particular. Calentando el silicio se consiguió vidrio al que luego se le dio la forma precisa para que fuese un óptimo recipiente para líquidos. La metáfora es bastante exacta: el ser humano, a costa de un generoso aporte de energía, ha informado el silicio con una forma nueva aumentando el orden de manera local en este rincón del universo. Si bien lo examinamos toda la obra de la humanidad no es más que el producto de tres factores: materia, energía e información, hecho este que supone una tentación casi irresistible para tratar de elaborar sobre él una nueva teoría de la economía o incluso de la justicia. Sin embargo, mil palabras ya son suficientes por hoy, máxime si tenemos en cuenta que este post no va a interesar a nadie o casi nadie, de forma que dejaremos esas tentaciones para otras tardes de este mes de agosto.

Los revolucionarios de la información

arpanet-5Cuando en 1968 se estrenó «2001 Una odisea en el espacio» de Stanley Kubrick no recuerdo que nadie se extrañase de sus predicciones, al menos por lo que se refiere a mis amigos de entonces, todos ellos compañeros de colegio, aunque es verdad que tardamos un poco más en verla. Estábamos inmersos en plena carrera espacial (la navidad de ese año nuestra visión del mundo cambiaría con las fotos de la Tierra que tomó desde la Luna la misión Apolo 8) y no nos parecía que fuese en absoluto imposible que en el año 2001 se realizasen los viajes espaciales que se narraban en la película.

Tampoco se nos antojaba del todo disparatado que en algún momento del futuro los ordenadores (cerebros electrónicos les llamábamos entonces mis amigos y yo) se rebelasen contra sus creadores y que, al igual que HAL, pudiesen poner en peligro no ya a unos astronautas sino a toda la humanidad, pues no hay que olvidar que vivíamos entonces en plena guerra fría e incidentes como la crisis de los misiles de Cuba estaban muy recientes.

Sin embargo, en medio de todas esas predicciones futuristas que se veían en la película, la verdadera revolución tecnológica se les pasó por alto, pues nadie predijo ni sugirió el nacimiento de internet y de la sociedad de la información. Y lo cuerioso es que, en 1968, gran parte de lo que sería internet ya estaba diseñado: La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorandos escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica); en 1967 ya se había celebrado la primera conferencia sobre ARPANET; el 20 de octubre de 1969 se estableció la primera red de computadoras entre los nodos situados en el laboratorio de Kleinrock en la UCLA y el laboratorio de Douglas Engelbart en SRI; para entonces al protocolo TCP/IP apenas si le faltaban cuatro años para nacer. Ahora parece increíble pero entonces, toda esa tremenda revolución que marcaría nuestras vidas 30 años después y daría lugar a un cambio social de consecuencias imprevisibles, nos pasaba completamente desapercibida. Y sin embargo, mientras nosotros veíamos a Kubrick, alguien estaba soñando ese cambio y lo llevaba soñando desde hacía muchos años.

A menudo mis compañeros me preguntan quiénes son, a mi juicio, los verdaderos revolucionarios de la sociedad de la información, los padres fundadores de esta nueva sociedad en que ya vivimos y que trata de abrirse paso a través de una maraña de leyes y políticos ignaros; y hoy me he decidido a responder usando una de las herramientas más maravillosas que haya podido soñar el ser humano: la Wikipedia.

En el texto que les acompaño tienen las biografías en castellano de las personas que considero decisivas para entender la sociedad de la información; no están sus libros y escritos (maldito copyright) y sé que es difícil entender a Norbert Wiener sin leer «The human use of human beings» o a Vannevar Bush sin siquiera conocer su artículo «As we should think», pero creo que componen una lista bastante completa (discutida y discutible) de los «padres fundadores» de esta nueva sociedad que ellos soñaron mientras nosotros viajábamos a los confines de la galaxia de la mano de Kubrick. Disfrútenla.

 

 

¡Feliz año Turing! (Los diez auténticos revolucionarios de la sociedad de la información).

Alan Turing

Dentro de mi ranking de los “auténticos revolucionarios de la sociedad de la información” necesariamente tiene que estar Alan Turing (1912-1954); y no al final de la lista sino probablemente en uno de los tres primeros puestos. Ocurre, sin embargo, que este año, un comité de científicos ha decidió celebrar el “Año de Turing” conmemorando el centenario de su nacimiento y, debido a ello, he decidido alterar el orden de mi lista para dedicar este primer post del año, del año de Turing, a él.

Alan Turing, como comprobará quien tenga la paciencia de seguir leyendo, fue víctima de las mayores humillaciones por parte de la nación que le debía en gran medida a él su victoria en la Segunda Guerra Mundial. Este año, científicos de la nación que tanto le debe y que tan mal le pagó, han organizado este año de Turing en su memoria, para que Inglaterra sepa cuanto de le debe y el mundo conozca a uno de los científicos que más hicieron porque fuese posible la sociedad de la información que hoy disfrutamos.

Turing, conoció en Harvard a personalidades de la talla de Gödel y Von Neumann y en 1936 redactó uno de los manifiestos fundacionales de la sociedad de la información “On computable numbers with an application to the Entscheindungsproblem”, documento que contenía el diseño teórico de una computadora a la que, andando el tiempo, se la conocería como la “Máquina de Turing” (The Turing Machine) al tiempo que resolvía las cuestiones de Hilbert sobre la decidibilidad (Entscheindungsproblem).

En términos lógicosel problema de la decidibilidad se plantea la cuestión de si existe algún algoritmo o proceso definido que pueda determinar si un postulado determinado es susceptible de ser probado o no. Otras formulaciones del problema implican si existe algún método o algoritmo que permita generar los dígitos de “pi”, o de la raíz cuadrada de 2, hasta cualquier nivel de precisión que deseemos.

En aquella época tal tipo de cálculos solían ser efectuados por personas que, provistas de tablas y fórmulas, efectuaban las operaciones siguiendo rigurosamente conjuntos de reglas preestablecidas. A esas personas que realizaban los cálculos, generalmente mujeres, se les llamaba “computadoras” (computers).

Turing sabía que, si el podía sistematizar como trabajaban aquellas “computadoras” humanas el podría atacar el problema de la decidibilidad.

Fundándose en tales observaciones, en “On Computable Numbers” Turing describió una máquina de computación universal que podría computar cualquier secuencia de números que fuese computable escribiendo las correspondientes tablas de instrucciones; la máquina de Turing podría emular a cualquiera de las máquinas de cálculo existentes y sería por ello universal.

Aunque el hecho de que existan máquinas que pueden llevar a cabo diferentes tipos de cálculos parece obvia hoy día, la idea de Turing era revolucionaria en aquellos tiempos. Desde entonces hasta hoy todas las computadoras emulan a la “máquina de Turing”.

Turing que, como yo, era un apasionado del ajedrez, llegó años después a concebir un programa para jugar al ajedrez que, efectivamente, funcionó correctamente; si bien, dado que no existían máquinas capaces de ejecutarlo, los cálculos los efectuaba simplemente usando lápiz y papel. Naturalmente aquel programa no jugaba del todo bien, pero la simple idea de que se crease el algoritmo para una máquina pensante sin que tal tipo de máquina existiese resulta muy ilustrativo para aquellos que desprecian la “teoría”. Un día les enseñaré aquella partida, pero, de momento, sigamos con la vida de Alan Turing.

La publicación en 1936 de “On Computable Numbers” pasó desapercibida pero, diez años después, tras la finalización de la Segunda Guerra Mundial, ya era considerado como uno de los documentos seminales, uno de los manifiestos, de la revolución cibernética.

Durante la Segunda Guerra Mundial Turing fue reclutado como uno de los científicos que, en Bletchley Park, debían tratar de romper los sistemas criptográficos alemanes (la máquina “Enigma”) para descifrar los mensajes del ejército alemán. Las ideas de Turing transformaron por completo la criptografía y el criptoanálisis y dieron lugar a la entrada en escena de cada vez mejores máquinas pensantes. Toda la historia de Alan Turing y sus compañeros en Bletchley Park para desentrañar los secretos de la máquina Enigma es apasionante y, desde luego, no cabe en este post. Para quien quiera ampliar sus conocimientos en esta materia le recomiendo muy vivamente que lea los trabajos de Román Ceano en http://www.kriptopolis.org/la-maquina-enigma le aseguro que disfrutará de la mejor lección de historia posible, no ya sobre criptografía, sino sobre historia de la Segunda Guerra Mundial.

La ruptura del código germano permitió al alto mando inglés conocer de antemano las órdenes alemanas a sus tropas, aviones y, sobre todo, submarinos, de forma que Inglaterra pudo sobrevivir a la maquinaria militar alemana merced al uso de la información que Turing y sus compañeros facilitaban desde Bletchley Park. Este fue uno de los secretos mejor guardados de la Segunda Guerra Mundial y el secreto que, quizá, acabó costándole la vida a Turing.

Acabada la Segunda Guerra Mundial, Turing, como Von Neumann y otros, dirigieron su atención a la creación de computadoras digitales. En 1946 publicó su primer borrador de “Proposed Electronic Calculator” para la construcción de una de aquellas computadoras digitales. Turing señaló que esas computadoras digitales programables podrían tener un hardware fijo y simple, que deberían disponer de una buena cantidad de memoria y que, merced a los diversos programas, debidamente jerarquizados y divididos en subrutinas, podrían realizar tareas notables e incluso “jugar muy bien al ajedrez”. Incluso manifestó que podrían generarse programas capaces de aprender. Turing no pudo llevar a cabo su idea por sí mismo, la construcción de este ordenador diseñado en “Proposed Electronic Calculator” (conocido como ACE) fue encargado a personas distintas de Turing que se cuidaron muy mucho de que la figura de Turing fuese olvidada.

Turing incluso se planteó la posibilidad de la creación de inteligencia artificial y, para determinar si una máquina la poseía o no, ideó un test que ha pasado a la historia con el nombre de “El Test de Turing”, test que aún hoy día sigue vigente y que aún no ha superado ninguna máquina conocida. Todas estas ideas las vertió en otro de los manfiestos fundacionales de la sociedad de la información “Computing Machinery and Intelligence”, publicado en 1950.

A finales de los 50 la policía británica comenzó a interesarse por la homosexualidad de Turing. Se abrió contra él un procedimiento judicial por “perversion sexual” y se le obligó a seguir durante un año un tratamiento “órgano terápico” que incluyó castración química mediante inyección de hormonas (lo que le produjo un notable engrosamiento de sus pechos). La humillación social y física a la que se le sometió fue extrema; la misma sociedad a la que él había defendido durante años ahora lo hacía trizas. El 7 de junio de 1954 Turing apareció muerto tras comer una manzana envenenada. Tenía 42 años.

La historia de quien puso y por qué veneno en aquella manzana la trataremos otro día.

Los diez auténticos revolucionarios de la sociedad de la información: Tim Berners-Lee

Tim Berners Lee

En mi lista de los diez revolucionarios de la sociedad de la información no podía faltar Tim Berners-Lee.

Para aquellos, espero que pocos, que no sepan quien es, les diré que es la persona gracias a la cual usted usted puede leer esta página en su ordenador.

Tim Berners-Lee fue el creador del lenguaje “html” (hyper-text markup language) que es el lenguaje en el que se escriben las páginas web. Tim Berners-Lee fue también el creador del protocolo http (hyper text transfer protocol) que, para el que tampoco sepa lo que es, es el protocolo que permite transferir archivos html de un ordenador a otro a través de la red; si usted se fija, en la barra de direcciones de su navegador, antes de la dirección, aparece en primer lugar la cadena de caracteres “http”. Tim Berners-Lee nventó incluso los “url” que permiten nombrar y localizar recursos en internet como, por ejemplo, el de este sitio web http://www.josemuelas.com

En fin, Tim Berners-Lee es el creador de la web y del world wide web y, aunque sea sólo por eso, debe estar en mi lista de los verdaderos revolucionarios de las tecnologías de la información.

El sueño de un sistema de información hipertextual (eso es la web) no es privativo de Tim Berners-Lee; antes que él ya soñaron o entrevieron ese sistema visionarios de la talla de Vannevar Bush (Memex) o Ted Nelson (Xanadu) pero, sin duda, corresponde a Tim Berners-Lee el honor de haberlo llevado a la práctica y aún hoy día cuidar de él a través de su trabajo en el World Wide Web Consortium (W3C), organismo que regula los estándares de la web.

Las creaciones de Tim Berners-Lee ilustran a la perfección las paradojas que la sociedad de la información produce en quienes quieren juzgarla con estándares económicos tradicionales. Por ejemplo: La pregunta que más frecuentemente se le hace a nuestro protagonista en las entrevistas es: “¿Es usted rico gracias a su invento?”. Sir Tim Berners-Lee debe responder enfáticamente que no, que no es rico, que si un lenguaje se patenta y se cobra por su uso nunca alcanza a ser usado por todas las personas y esto ilustra muy significativamente hasta qué punto el sistema de patentes es pernicioso para el progreso de la humanidad en general y de la sociedad de la información en particular; por eso, Tim Berners-Lee siempre se ha mostrado un firme detractor de la posibilidad de patentar software.

A principio de los 90 Tim Berners-Lee conoció a Ted Nelson y su “Xanadu“, incluso compró su libro “Literary Machines” y se hizo seguidor de la visión democrática e igualitaria que suponía el proyecto Xanadu: Los recursos de los imperios debían estar al alcance de la mano de los ciudadanos comunes. Tim Berners-Lee consideró posible distribuir la información como las neuronas se distribuyen en el cerebro, de forma descentralizada y semánticamente enlazada, como en una red (web). La propuesta de Tim Berners-Lee era más modesta que el Xanadu de Ted Nelson pero, quizá por ello, tuvo un éxito espectacular. Tim Berners-Lee desarrolló su primera propuesta de la Web en marzo de 1989, pero no tuvo mucho eco, por lo que en 1990 y con la ayuda de Robert Cailliau, hicieron una revisión que fue aceptada por el CERN. Para esto diseñó y construyó el primer navegador (llamado WorldWideWeb y desarrollado con NEXTSTEP) y el primer servidor Web al que llamó httpd (HyperText Transfer Protocol daemon). Incluso fue Tim Berners-Lee quien bautizó a todo el sistema como “World Wide Web” tras abandonar su intención inicial de llamarlo TIM:MOI “The Information Mesh: Mine of Information” por considerarlo demasiado egocéntrico. (N.A. “La traducción del francés de “Tim:Moi” es verdaderamente egocéntrica).

El primer servidor Web se encontraba en el CERN y fue puesto en línea el 6 de agosto de 1991. Esto proporcionó una explicación sobre lo que era el World Wide Web, cómo uno podría tener un navegador y cómo establecer un servidor Web. Este fue también el primer directorio Web del mundo, ya que Berners-Lee mantuvo una lista de otros sitios Web aparte del suyo. Debido a que tanto el software del servidor como del cliente fue liberado de forma gratuita desde el CERN, el corazón de Internet Europeo en esa época, su difusión fue muy rápida. El número de servidores Web pasó de los veintiséis de 1992 a doscientos en octubre de 1995, lo que refleja cual fue la velocidad de la difusión de internet.

El que esto escribe se conectó por primera vez a internet en 1998 usando un Netscape Navigator, apenas siete años después de que el primer servidor web se instalase y, en ese ya lejano 98, los usuarios de internet y más concretamente del World Wide Web éramos legión. Aún sonaban cosas como gopher, pero la www era ya indiscutiblemente el servicio más popular de red.

Por eso, porque el servicio de información hipertextual que es el www ha cambiado nuestras vidas, es por lo que, a mi juicio, Tim Berners-Lee es uno de los auténticos revolucionarios de la sociedad de la información y su “Information Management: A proposal” (1989) y su “Weaving the web” (2000) dos de los manifiestos fundacionales de la sociedad de la información.

Los diez auténticos revolucionarios de la Sociedad de la Información.

Richard Stallman

La reciente muerte de Steve Jobs y la opinión que Richard Stallman emitió inmediatamente después de la misma sobre su figura han generado una agria polémica en las redes sociales. La disputa, extremadamente agria en muchos casos, me ha dejado con la incógnita de determinar cual ha sido el papel verdaderamente desempeñado por Steve Jobs en esta revolución de la información, cuales han sido sus aportaciones a la misma y cual es el lugar que ocupa, si es que ocupa alguno, entre los visionarios, soñadores, teóricos y hombres de negocios que han hecho posible la revolución en curso.

Para tratar de aclarar mis ideas trataré de confeccionar una lista con los nombres de las 10 personas más importantes en la historia de esta revolución. La realizaré tal y como los historiadores hacen con otras revoluciones, por ejemplo la francesa o la americana, estudiando quienes fueron sus precursores, quienes redactaron sus documentos fundacionales y cuales son estos. Trataré así de averiguar quien es el Voltaire, el Rousseau, el Jefferson o incluso el Robespierre de esta revolución contemporánea y trataré asimismo de identificar los documentos inaugurales de la misma.

El trabajo promete ser largo y los resultados no creo que convenzan a casi ninguno de los pocos lectores que me siguen, pero, si algo bueno tiene esto de las listas, es que cada uno tendrá sus candidatos y sus argumentos y, si hay el necesario “feedback”, acabaré aprendiendo mucho.

El orden en que los citaré no necesariamente se corresponde con el orden de importancia, quizá más bien con una difusa cronología que trataré de explicar al final de la lista, pero, porque él comenzó la polémica con sus agrias declaraciones, en el número #10 de la lista de los auténticos revolucionarios de las nuevas tecnologías de la información coloco a:

Richard Stallman

En 1971, un peculiar estudiante neoyorquino, Richard Stallman, ingresó en el laboratorio de Inteligencia Artificial (AI) del Instituto Tecnológico de Massachussets, el famoso MIT. Richard Stallman provenía de la Universidad de Harvard a la que había accedido a pesar de haber sido un estudiante problemático.

Stallman contaba entonces apenas 18 años y parece que el ambiente de trabajo que encontró en el MIT le cautivó y no sólo porque entonces trabajasen allí personalidades científicas de la talla de Minsky y Papert, sino por el particular código ético que regía las conductas de los programadores que allí trabajaban. A diferencia de los profesores y estudiantes graduados que también trabajaban allí, estos “hackers” no se atenían a los convencionalismos imperantes y, careciendo de relevancia oficial, para mantener su posición en el MIT no tenían más argumento que el de la calidad del software que programaban.

Estas personas se respetaban porque todos sabían que eran buenos en lo que hacían y, dentro de su peculiar código ético, resultaba repugnante guardar para uno mismo y no compartir el código que escribían. La medida de su éxito no se medía en dólares sino, muy al contrario, se medía en términos de creatividad y excelencia. No compartir el código provocaba esfuerzos repetidos, estériles reinvenciones de soluciones ya inventadas y un injustificada barrera contra el progreso. En este lugar y en este ambiente se gestaron una buena porción de los trabajos que permitieron la revolución tecnológica que vivimos.

Sin embargo, hacia mediados de los 70, la proliferación de ordenadores ya había creado un mercado con un tamaño suficiente para permitir que los desarrolladores de software pudiesen colocar sus programas. Muchos de ellos pensaron que, si no podían exigir dinero a los usuarios por el uso de sus programas, no podrían aprovecharse de este mercado y es en este contexto en el que vio la luz la famosa carta abierta de Bill Gates a los aficionados a los ordenadores.

Esta “Open letter to Hobbyist” fue redactada en 1975 por Bill Gates con motivo de lo que el consideraba el “robo” del intérprete BASIC que él había escrito para el Altair. En esta carta ya se adjetiva de “robo” la copia no autorizada de código y es un documento que puede servir de hito para señalar el comienzo de todo el debate posterior software propietario-software libre que ha llegado hasta nuestros días.

Durante la década de los 70, en general, el software venía incorporado al ordenador que uno compraba y estaba hecho específicamente para ese dispositivo pero, ya a principios de los 80 el software empezó a ser vendido separadamente de los dispositivos en grandes cantidades, de forma que muchos programadores fundaron exitosas compañías que pronto obtuvieron fabulosos ingresos. Las grandes corporaciones vieron la oportunidad de negocio y abrazaron con entusiasmo la idea de Bill Gates.

Frente a todo este conglomerado de empresas e intereses comerciales Richard Stallman se constituyó en defensor de la causa de la libertad y la cooperación y en 1985 escribió “El Manifiesto GNU”, producto de una genial intuición, y que es uno de los textos imprescindibles para entender quizá el más importante debate que debe resolver la revolución tecnológica que vivimos. Sus implicaciones jurídicas y políticas son enormes y quizá el conjunto de la sociedad aún no se ha percatado de la enorme trascendencia futura de dicho debate.

Como muy a menudo repiten los defensores del software libre las ideas no son una mercancía común. A diferencia de otras mercancías las ideas no se transfieren, sino que se propagan. Si usted le compra a su vecino un abrigo, una vez efectuada la transacción, usted tendrá el abrigo pero él ya no. Con las ideas no ocurre eso, si usted transmite una idea usted adquirirá la idea pero su vecino no la habrá perdido. Es más, es dudoso que usted pueda usar el abrigo de su vecino debido a razones de talla o peso, pero la idea que le transmite su vecino usted podrá adaptarla rápidamente a sus necesidades. Las ideas se propagan, no hay escasez en ellas y por ello estos bienes informaciones no conocen las escasez y es muy difícil comercial con ellos. Sólo una legislación que restrinja su intrínseca vocación de replicación permite establecer un mercado que, incluso desde los más estrictos postulados económico-capitalistas, tiene una malsana tendencia a fomentar el mercado negro.

Stallman, en 1985, publicó la “GNU General Public License” (Licencia Pública General de GNU) orientada principalmente a proteger la libre distribución, modificación y uso de software. Su propósito es declarar que el software cubierto por esta licencia es software libre y protegerlo de intentos de apropiación que restrinjan esas libertades a los usuarios.

Resulta sorprendente que sea precisamente un documento de neto carácter jurídico el que recoja las intuiciones de un programador y que sea precisamente un programador ajeno al mundo del derecho el autor de una de las más sorprendentes y capitales innovaciones jurídicas  contemporáneas.

Todo el pensamiento de Stallman resulta paradójico en un primer momento (¿Cómo puede ser viable un negocio que no cobre por sus productos?, ¿Por qué alguien escribiría programas que no podrá vender?) y, sin embargo, conforme avanza el tiempo sus planteamientos se ven cada vez más confirmados por la realidad. La abrumadora mayoría de los servidorers de páginas web, por ejemplo, son servidores “Apache” (un ejemplo de software libre), su teléfono “Android” en gran parte también lo es, los sistemas Linux cada vez son más frecuentes y, en general, las soluciones de software libre son ya la primera opción de la mayor parte de las estrategias comerciales, de hecho usted, amigo lector, ya no podría vivir un día sin software libre.

La información es el cimiento de la revolución presente y a Stallman le cabe el mérito de haber detectado que a los novedosos fenómenos a que estamos asistiendo no se les pueden aplicar conceptos jurídicos antiguos, que las ideas no pueden ser poseídas de la misma forma que el Digesto regulaba la propiedad de las cosas muebles o el Estatuto de Ana establecía para regular las relaciones de impresores y escritores.

Por eso, porque en la base de las implicaciones jurídicas y políticas de la revolución que vivimos está Richard Stallman es por lo que le doy el número #10 en mi lista de los auténticos padres fundadores de la revolución tecnológica y al “Manifiesto GNU” el número #10 en mi lista de documentos fundacionales.