Lágrimas en la lluvia 2019

Lágrimas en la lluvia 2019

Ha llegado noviembre de 2019 y nadie ha visto atacar naves en llamas más allá de Orión ni rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. El futuro soñado por Ridley Scott en Blade Runner (1982) no se ha producido y ni siquiera parece que esté cerca de producirse en los próximos diez años.

Basada parcialmente en la novela de Philip K. Dick «¿Sueñan los androides con ovejas eléctricas?» la acción de Blade Runner transcurre en Noviembre de 2019 (sí, el año y mes en que estamos) en la ciudad de Los Ángeles en un escenario distópico donde replicantes y humanos mantienen una problemática relación en la que algunos de los primeros parecen reclamar su derecho a la vida y a la «humanidad».

La novela de Philip K. Dick «¿Sueñan los androides con ovejas eléctricas?» se escribió en 1968, año en el que se estrenó otra de las grandes películas de ciencia ficción: «2001. Una odisea en el espacio» dirigida por Stanley Kubrick.

Kubrick, como Scott, predijo que para 2001 el ser humano viajaría por el sistema solar con habitualidad y también se equivocó. Es el problema de fijar las predicciones para demasiado cerca en el futuro, que podemos vivir lo suficiente como para saber que son erróneas.

Quienes sí acertaron a predecir el futuro fueron los científicos Robert Kahn y Vinton Cerf, los cuales, en 1982, vieron como su protocolo de comunicaciones TCP/IP se aprobaba como estándar para ARPANET. La humanidad comenzaba a construir un nuevo cosmos informacional. Los avances en el espacio no eran tantos como los soñados por Kubrick y Scott y, sin embargo, la humanidad avanzaba hacia un universo ni siquiera soñado por Kubrick: el ciberespacio.

Internet, ese ciberuniverso creado por la ciencia, fue ciencia ficción antes de ser realidad y sobre él escribieron maravillosos documentos personalidades como Licklider, Vannevar Bush, Dough Englebart, Postel, etc. y aún antes lo hicieron posible científicos como Wiener o Turing.

Es noviembre de 2019 y la distopía de Ridley Scott titulada Blade Runner ni lo que en ella se contaba han sucedido. Lo que sí ha ocurrido ha sido aquello que otros soñaron y que escribieron, no como novela de ciencia ficción, sino como papeles científicos.

Confío mucho más en los científicos que en los escritores de ciencia ficción y, si quieres saber cómo va a ser el futuro, mejor pregúntales a ellos que a un escritor de novelas.

Y dicho esto, déjenme que les diga una cosa: adoro Blade Runner.

El control social y los «media» 

Revolviendo papeles por el despacho me he encontrado con estas notas que tomé creo que en 2008 y que no son más que la copia y traducción de un famoso papel que escribió en su día Doug Ruskhoff.

Recuerdo que me pareció una forma interesante de explicar el control social en función del dominio de las tecnologías de la información a lo largo de la historia.

Según este algoritmo el dominio de los media por quienes ejercen el control de las masas va siempre una era por delante del que las masas tienen sobre los mismos.

Así, cuando la élite dominante dominaba (valga la redundancia) la lectura, la masa sólo podía escuchar, es la era de los sacerdotes que controlaban a las masas leyendo los textos sagrados a que esta masa no sabía sino escuchar.

Cuando las élites dominaron la escritura y otras tecnologías escénicas la masa controlada apenas si podía leer, mirar o escuchar (literatura, cine, radio). El uso que hicieron estados totalitarios (nazismo, estalinismo) del cine, la radio y otros medios de comunicación es el cénit de un control que comenzó en lo que Ruskhoff considera ser la era de los reyes.

En nuestros días nos encontramos en lo que Ruskhoff llama la era de los gobiernos, las masas saben escribir pero lo hacen en interfaces programadas por otros. Nuestra capacidad -y nuestra libertad- de expresión está condicionada por las interfaces que usamos. De hecho usted sólamente podrá escribir en determinadas redes sociales aquellas ideas que los propietarios de la red entiendan admisibles. Como escribía Jorge Campanillas en un tuit hace unos días, “la libertad de expresión se decide en Sillicon Valley”.

¿Qué ocurrirá cuando las masas adquieran esta capacidad de programar que ahora dominan las élites?. Buena pregunta. Ruskhoff denomina a esa era la era de las corporaciones y sus características les dejo que las adivinen ustedes porque yo hoy, en realidad, sólo me he reencontrado con unas notas que tomé hace ocho años y que no quiero volver a extraviar. 

Perdón por el rollo cyberpunk.

Los revolucionarios de la información

arpanet-5Cuando en 1968 se estrenó «2001 Una odisea en el espacio» de Stanley Kubrick no recuerdo que nadie se extrañase de sus predicciones, al menos por lo que se refiere a mis amigos de entonces, todos ellos compañeros de colegio, aunque es verdad que tardamos un poco más en verla. Estábamos inmersos en plena carrera espacial (la navidad de ese año nuestra visión del mundo cambiaría con las fotos de la Tierra que tomó desde la Luna la misión Apolo 8) y no nos parecía que fuese en absoluto imposible que en el año 2001 se realizasen los viajes espaciales que se narraban en la película.

Tampoco se nos antojaba del todo disparatado que en algún momento del futuro los ordenadores (cerebros electrónicos les llamábamos entonces mis amigos y yo) se rebelasen contra sus creadores y que, al igual que HAL, pudiesen poner en peligro no ya a unos astronautas sino a toda la humanidad, pues no hay que olvidar que vivíamos entonces en plena guerra fría e incidentes como la crisis de los misiles de Cuba estaban muy recientes.

Sin embargo, en medio de todas esas predicciones futuristas que se veían en la película, la verdadera revolución tecnológica se les pasó por alto, pues nadie predijo ni sugirió el nacimiento de internet y de la sociedad de la información. Y lo cuerioso es que, en 1968, gran parte de lo que sería internet ya estaba diseñado: La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorandos escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica); en 1967 ya se había celebrado la primera conferencia sobre ARPANET; el 20 de octubre de 1969 se estableció la primera red de computadoras entre los nodos situados en el laboratorio de Kleinrock en la UCLA y el laboratorio de Douglas Engelbart en SRI; para entonces al protocolo TCP/IP apenas si le faltaban cuatro años para nacer. Ahora parece increíble pero entonces, toda esa tremenda revolución que marcaría nuestras vidas 30 años después y daría lugar a un cambio social de consecuencias imprevisibles, nos pasaba completamente desapercibida. Y sin embargo, mientras nosotros veíamos a Kubrick, alguien estaba soñando ese cambio y lo llevaba soñando desde hacía muchos años.

A menudo mis compañeros me preguntan quiénes son, a mi juicio, los verdaderos revolucionarios de la sociedad de la información, los padres fundadores de esta nueva sociedad en que ya vivimos y que trata de abrirse paso a través de una maraña de leyes y políticos ignaros; y hoy me he decidido a responder usando una de las herramientas más maravillosas que haya podido soñar el ser humano: la Wikipedia.

En el texto que les acompaño tienen las biografías en castellano de las personas que considero decisivas para entender la sociedad de la información; no están sus libros y escritos (maldito copyright) y sé que es difícil entender a Norbert Wiener sin leer «The human use of human beings» o a Vannevar Bush sin siquiera conocer su artículo «As we should think», pero creo que componen una lista bastante completa (discutida y discutible) de los «padres fundadores» de esta nueva sociedad que ellos soñaron mientras nosotros viajábamos a los confines de la galaxia de la mano de Kubrick. Disfrútenla.

 

 

Lynn Margulis

IMG_9703.JPG

Ayer hube de dar una microconferencia sobre internet dentro de un ciclo de jornadas donde, junto a mí, intervenían verdaderos expertos en estos asuntos de los negocios en internet; no me sorprendió que los demás intervinientes hablasen de oportunidades de negocio y competitividad, pero a mí que internet nunca me pareció tanto un lugar donde competir como un espacio donde cooperar, me apetecía hablar de otras cosas. Por eso no pude evitar comenzar mi microintervención hablando del trabajo de una mujer cuyas ideas me fascinan desde hace tiempo: Lynn Margulis.

Frente al cocepto de evolución entendido como un proceso de competición, sangre y lucha, Lynn Margulis propuso una historia de cooperación y simbiosis que me parece mucho más inspiradora.

Lynn Margulis fue una bióloga estadounidense soprendente que, entre otras curiosidades, estuvo casada 9 años con Carl Sagan y a quien debemos uno de los descubrimientos más relevantes en la historia de la biología: la teoría sobre la aparición de las células eucariotas como consecuencia de la incorporación simbiótica de diversas células procariotas (endosimbiosis seriada).

La práctica totalidad de los seres vivos que conocemos están constituídos por células eucariotas, células que contienen en su interior otras células (mitocondrias) que, en un tiempo, fueron células independientes (de hecho conservan su ADN diferenciado) pero que, en algún momento de la evolución, cooperaron con otras células hasta dar lugar a las células eucariotas que forman los seres vivos que comúnmente conocemos. Sin ese proceso de cooperación no habría sido posible el mundo que conocemos ni hubiera sido posible el propio ser humano.

Lynn Margulis, también postuló la hipótesis según la cual la simbiogénesis sería la principal fuente de la novedad y diversidad biológica y, aunque es un postulado muy discutido, el mero hecho de poner el acento en la cooperación más que en la competencia dentro de los procesos evolutivos, ya es algo por lo que debemos estar agradecidos a Lynn Margulis.

Ayer construí mi microintervención sobre los trabajos de dos mujeres admirables: la bióloga Lynn Margulis y la premio Nobel de economía Elinor Ostrom quien efectuó un magnífico análisis de la gobernanza económica, especialmente de los recursos compartidos.

Creo más en la “cooperatividad” que en la competitividad y pienso que quizá no sea casual que sea la obra de dos mujeres la que me ha llevado a esta convicción.

La chica más bella del mundo

Hedy Lamarr
Hedy Lamarr

Debo confesar que lo mío por esta chica fue amor a primera vista o, mejor dicho, a primera lectura, porque lamentablemente Hedy Lamarr, el oscuro objeto de deseo de este post, falleció hace ya catorce años.

Le debo mucho a esta mujer -usted lector también, créame- y es más que probable que, sin ella, ni usted ni yo pudiésemos vivir este momento como ahora lo hacemos.

Fue actriz -y de las buenas- y tiene en su haber no pocas escenas suficientes por sí solas para hacerla pasar a la historia. Fue la primera mujer en desnudarse e interpretar un orgasmo de forma tan real e impactante que le valió la condena del mismísimo Papa Pío XI. (Éxtasis 1933)

Para dedicarse al cine hubo de abandonar sus estudios de ingeniería y le fue bien, muy bien, porque entre 1930 y 1933 filmó cinco películas en Europa.

Hija de judíos sus padres la casaron a la fuerza con un riquísimo magnate de la industria armamentística que proporcionaba armas al ejército de Hitler. Su vida conyugal con él fue tan corta como dramática pues, celoso hasta lo enfermizo, su marido la sometió a un régimen de vida carcelario de forma que Hedy hubo de huir de manera novelesca atravesando media Europa perseguida por los sicarios de su marido.

En 1937 Hedy huyó a los Estados Unidos a donde arribó ya con un contrato firmado por el mismísimo Louis B. Mayer, propietario de la Metro Goldwyn Mayer, a quien había conocido poco antes del viaje.

Trabajó con los mejores actores y directores de Hollywood y pronto fue conocida como «la mujer más bella del mundo». Una gran actriz, sin duda, que incluso rechazó el papel protagonista de Casablanca para alegría de Ingrid Bergmann.

Sin embargo, con ser mucho, sólo por eso no me habría enamorado, porque Hedy Lamarr, además de ser una estupenda actriz y una desgraciada esposa, aprovechó su enclaustramiento conyugal para acabar sus estudios de ingeniería y -perfectamente al corriente de los desarrollos armamentísticos de su esposo- decidió poner todos sus conocimientos al servicio de los Estados Unidos y así, en la década de los 40, ideó y patentó un sistema de conmutación de frecuencias que permitiese el guiado seguro de missiles. Su sistema fue usado por primera vez durante la llamada «Crisis de los missiles» que enfrentó a los Estados Unidos y a la Unión Soviética y más intensivamente en la guerra de Vietnam.

Hoy, gracias a Hedy Lamarr, la mujer más bella del mundo, usted y yo podemos disfrutar de este momento, porque la tecnología inventada por Hedy es la que permite el funcionamiento de los teléfonos móviles y la red wifi que, con mucha probabilidad, usted y yo estamos usando.

Sí, Hedy Lamarr, una mujer para enamorarse a primera vista… Y si lo que acabo de contar no le parece posible le sugiero que consulte algunos enlaces (aquí le regalo uno y aquí otro)

Sí, sin duda, esta era la chica más bella del mundo. ¡Gracias Hedy!

Palma Inacio

Documentación personal de Herminio da Palma Inacio
Documentación personal de Herminio da Palma Inacio

Hace unos días hablaba con unos amigos de las grandes ventajas que ofrecía internet para el activismo social y político de los ciudadanos y les recordaba aquellos no tan lejanos años 70 en que, privados de la libertad de expresión y de imprenta, los activistas españoles imprimían octavillas usando imprentas artesanales llamadas «vietnamitas». Aquellos hombres se jugaban la libertad tan solo por imprimir y repartir unos puñados de octavillas que ellos, soñaban, cambiarían el curso de las cosas.

Y hablando de aquellos hombres me vino a la memoria la figura de Herminio da Palma Inacio, un resistente contra la dictadura portuguesa de Salazar que acabó convirtiéndose en el primer pirata aéreo de la historia al secuestrar un avión Super-Constellation que hacía la ruta Casablanca-Lisboa.

Fue el 11 de noviembre de 1961, Palma Inacio logró tomar el control del aparato y lanzar desde él octavillas sobre la Lisboa de Salazar pidiendo elecciones libres; luego hizo volver el avión a Marruecos, pidió perdón por su acción a los pasajeros, regaló una flor a las damas que viajaban en el avión y a continuación se esfumó.

Hoy que podemos hacer llegar nuestros mensajes virtualmente a todo el mundo me acuerdo de aquellos hombres, de los impresores de «vietnamita» y de Palma Inacio quienes arriesgaban su libertad y su vida por hacer algo que hoy es trivial para nosotros.

Y pienso que algo debemos estar haciendo muy mal.

¡Feliz año Turing! (Los diez auténticos revolucionarios de la sociedad de la información).

Alan Turing

Dentro de mi ranking de los “auténticos revolucionarios de la sociedad de la información” necesariamente tiene que estar Alan Turing (1912-1954); y no al final de la lista sino probablemente en uno de los tres primeros puestos. Ocurre, sin embargo, que este año, un comité de científicos ha decidió celebrar el “Año de Turing” conmemorando el centenario de su nacimiento y, debido a ello, he decidido alterar el orden de mi lista para dedicar este primer post del año, del año de Turing, a él.

Alan Turing, como comprobará quien tenga la paciencia de seguir leyendo, fue víctima de las mayores humillaciones por parte de la nación que le debía en gran medida a él su victoria en la Segunda Guerra Mundial. Este año, científicos de la nación que tanto le debe y que tan mal le pagó, han organizado este año de Turing en su memoria, para que Inglaterra sepa cuanto de le debe y el mundo conozca a uno de los científicos que más hicieron porque fuese posible la sociedad de la información que hoy disfrutamos.

Turing, conoció en Harvard a personalidades de la talla de Gödel y Von Neumann y en 1936 redactó uno de los manifiestos fundacionales de la sociedad de la información “On computable numbers with an application to the Entscheindungsproblem”, documento que contenía el diseño teórico de una computadora a la que, andando el tiempo, se la conocería como la “Máquina de Turing” (The Turing Machine) al tiempo que resolvía las cuestiones de Hilbert sobre la decidibilidad (Entscheindungsproblem).

En términos lógicosel problema de la decidibilidad se plantea la cuestión de si existe algún algoritmo o proceso definido que pueda determinar si un postulado determinado es susceptible de ser probado o no. Otras formulaciones del problema implican si existe algún método o algoritmo que permita generar los dígitos de “pi”, o de la raíz cuadrada de 2, hasta cualquier nivel de precisión que deseemos.

En aquella época tal tipo de cálculos solían ser efectuados por personas que, provistas de tablas y fórmulas, efectuaban las operaciones siguiendo rigurosamente conjuntos de reglas preestablecidas. A esas personas que realizaban los cálculos, generalmente mujeres, se les llamaba “computadoras” (computers).

Turing sabía que, si el podía sistematizar como trabajaban aquellas “computadoras” humanas el podría atacar el problema de la decidibilidad.

Fundándose en tales observaciones, en “On Computable Numbers” Turing describió una máquina de computación universal que podría computar cualquier secuencia de números que fuese computable escribiendo las correspondientes tablas de instrucciones; la máquina de Turing podría emular a cualquiera de las máquinas de cálculo existentes y sería por ello universal.

Aunque el hecho de que existan máquinas que pueden llevar a cabo diferentes tipos de cálculos parece obvia hoy día, la idea de Turing era revolucionaria en aquellos tiempos. Desde entonces hasta hoy todas las computadoras emulan a la “máquina de Turing”.

Turing que, como yo, era un apasionado del ajedrez, llegó años después a concebir un programa para jugar al ajedrez que, efectivamente, funcionó correctamente; si bien, dado que no existían máquinas capaces de ejecutarlo, los cálculos los efectuaba simplemente usando lápiz y papel. Naturalmente aquel programa no jugaba del todo bien, pero la simple idea de que se crease el algoritmo para una máquina pensante sin que tal tipo de máquina existiese resulta muy ilustrativo para aquellos que desprecian la “teoría”. Un día les enseñaré aquella partida, pero, de momento, sigamos con la vida de Alan Turing.

La publicación en 1936 de “On Computable Numbers” pasó desapercibida pero, diez años después, tras la finalización de la Segunda Guerra Mundial, ya era considerado como uno de los documentos seminales, uno de los manifiestos, de la revolución cibernética.

Durante la Segunda Guerra Mundial Turing fue reclutado como uno de los científicos que, en Bletchley Park, debían tratar de romper los sistemas criptográficos alemanes (la máquina “Enigma”) para descifrar los mensajes del ejército alemán. Las ideas de Turing transformaron por completo la criptografía y el criptoanálisis y dieron lugar a la entrada en escena de cada vez mejores máquinas pensantes. Toda la historia de Alan Turing y sus compañeros en Bletchley Park para desentrañar los secretos de la máquina Enigma es apasionante y, desde luego, no cabe en este post. Para quien quiera ampliar sus conocimientos en esta materia le recomiendo muy vivamente que lea los trabajos de Román Ceano en http://www.kriptopolis.org/la-maquina-enigma le aseguro que disfrutará de la mejor lección de historia posible, no ya sobre criptografía, sino sobre historia de la Segunda Guerra Mundial.

La ruptura del código germano permitió al alto mando inglés conocer de antemano las órdenes alemanas a sus tropas, aviones y, sobre todo, submarinos, de forma que Inglaterra pudo sobrevivir a la maquinaria militar alemana merced al uso de la información que Turing y sus compañeros facilitaban desde Bletchley Park. Este fue uno de los secretos mejor guardados de la Segunda Guerra Mundial y el secreto que, quizá, acabó costándole la vida a Turing.

Acabada la Segunda Guerra Mundial, Turing, como Von Neumann y otros, dirigieron su atención a la creación de computadoras digitales. En 1946 publicó su primer borrador de “Proposed Electronic Calculator” para la construcción de una de aquellas computadoras digitales. Turing señaló que esas computadoras digitales programables podrían tener un hardware fijo y simple, que deberían disponer de una buena cantidad de memoria y que, merced a los diversos programas, debidamente jerarquizados y divididos en subrutinas, podrían realizar tareas notables e incluso “jugar muy bien al ajedrez”. Incluso manifestó que podrían generarse programas capaces de aprender. Turing no pudo llevar a cabo su idea por sí mismo, la construcción de este ordenador diseñado en “Proposed Electronic Calculator” (conocido como ACE) fue encargado a personas distintas de Turing que se cuidaron muy mucho de que la figura de Turing fuese olvidada.

Turing incluso se planteó la posibilidad de la creación de inteligencia artificial y, para determinar si una máquina la poseía o no, ideó un test que ha pasado a la historia con el nombre de “El Test de Turing”, test que aún hoy día sigue vigente y que aún no ha superado ninguna máquina conocida. Todas estas ideas las vertió en otro de los manfiestos fundacionales de la sociedad de la información “Computing Machinery and Intelligence”, publicado en 1950.

A finales de los 50 la policía británica comenzó a interesarse por la homosexualidad de Turing. Se abrió contra él un procedimiento judicial por “perversion sexual” y se le obligó a seguir durante un año un tratamiento “órgano terápico” que incluyó castración química mediante inyección de hormonas (lo que le produjo un notable engrosamiento de sus pechos). La humillación social y física a la que se le sometió fue extrema; la misma sociedad a la que él había defendido durante años ahora lo hacía trizas. El 7 de junio de 1954 Turing apareció muerto tras comer una manzana envenenada. Tenía 42 años.

La historia de quien puso y por qué veneno en aquella manzana la trataremos otro día.

Los diez auténticos revolucionarios de la sociedad de la información: Tim Berners-Lee

Tim Berners Lee

En mi lista de los diez revolucionarios de la sociedad de la información no podía faltar Tim Berners-Lee.

Para aquellos, espero que pocos, que no sepan quien es, les diré que es la persona gracias a la cual usted usted puede leer esta página en su ordenador.

Tim Berners-Lee fue el creador del lenguaje “html” (hyper-text markup language) que es el lenguaje en el que se escriben las páginas web. Tim Berners-Lee fue también el creador del protocolo http (hyper text transfer protocol) que, para el que tampoco sepa lo que es, es el protocolo que permite transferir archivos html de un ordenador a otro a través de la red; si usted se fija, en la barra de direcciones de su navegador, antes de la dirección, aparece en primer lugar la cadena de caracteres “http”. Tim Berners-Lee nventó incluso los “url” que permiten nombrar y localizar recursos en internet como, por ejemplo, el de este sitio web http://www.josemuelas.com

En fin, Tim Berners-Lee es el creador de la web y del world wide web y, aunque sea sólo por eso, debe estar en mi lista de los verdaderos revolucionarios de las tecnologías de la información.

El sueño de un sistema de información hipertextual (eso es la web) no es privativo de Tim Berners-Lee; antes que él ya soñaron o entrevieron ese sistema visionarios de la talla de Vannevar Bush (Memex) o Ted Nelson (Xanadu) pero, sin duda, corresponde a Tim Berners-Lee el honor de haberlo llevado a la práctica y aún hoy día cuidar de él a través de su trabajo en el World Wide Web Consortium (W3C), organismo que regula los estándares de la web.

Las creaciones de Tim Berners-Lee ilustran a la perfección las paradojas que la sociedad de la información produce en quienes quieren juzgarla con estándares económicos tradicionales. Por ejemplo: La pregunta que más frecuentemente se le hace a nuestro protagonista en las entrevistas es: “¿Es usted rico gracias a su invento?”. Sir Tim Berners-Lee debe responder enfáticamente que no, que no es rico, que si un lenguaje se patenta y se cobra por su uso nunca alcanza a ser usado por todas las personas y esto ilustra muy significativamente hasta qué punto el sistema de patentes es pernicioso para el progreso de la humanidad en general y de la sociedad de la información en particular; por eso, Tim Berners-Lee siempre se ha mostrado un firme detractor de la posibilidad de patentar software.

A principio de los 90 Tim Berners-Lee conoció a Ted Nelson y su “Xanadu“, incluso compró su libro “Literary Machines” y se hizo seguidor de la visión democrática e igualitaria que suponía el proyecto Xanadu: Los recursos de los imperios debían estar al alcance de la mano de los ciudadanos comunes. Tim Berners-Lee consideró posible distribuir la información como las neuronas se distribuyen en el cerebro, de forma descentralizada y semánticamente enlazada, como en una red (web). La propuesta de Tim Berners-Lee era más modesta que el Xanadu de Ted Nelson pero, quizá por ello, tuvo un éxito espectacular. Tim Berners-Lee desarrolló su primera propuesta de la Web en marzo de 1989, pero no tuvo mucho eco, por lo que en 1990 y con la ayuda de Robert Cailliau, hicieron una revisión que fue aceptada por el CERN. Para esto diseñó y construyó el primer navegador (llamado WorldWideWeb y desarrollado con NEXTSTEP) y el primer servidor Web al que llamó httpd (HyperText Transfer Protocol daemon). Incluso fue Tim Berners-Lee quien bautizó a todo el sistema como “World Wide Web” tras abandonar su intención inicial de llamarlo TIM:MOI “The Information Mesh: Mine of Information” por considerarlo demasiado egocéntrico. (N.A. “La traducción del francés de “Tim:Moi” es verdaderamente egocéntrica).

El primer servidor Web se encontraba en el CERN y fue puesto en línea el 6 de agosto de 1991. Esto proporcionó una explicación sobre lo que era el World Wide Web, cómo uno podría tener un navegador y cómo establecer un servidor Web. Este fue también el primer directorio Web del mundo, ya que Berners-Lee mantuvo una lista de otros sitios Web aparte del suyo. Debido a que tanto el software del servidor como del cliente fue liberado de forma gratuita desde el CERN, el corazón de Internet Europeo en esa época, su difusión fue muy rápida. El número de servidores Web pasó de los veintiséis de 1992 a doscientos en octubre de 1995, lo que refleja cual fue la velocidad de la difusión de internet.

El que esto escribe se conectó por primera vez a internet en 1998 usando un Netscape Navigator, apenas siete años después de que el primer servidor web se instalase y, en ese ya lejano 98, los usuarios de internet y más concretamente del World Wide Web éramos legión. Aún sonaban cosas como gopher, pero la www era ya indiscutiblemente el servicio más popular de red.

Por eso, porque el servicio de información hipertextual que es el www ha cambiado nuestras vidas, es por lo que, a mi juicio, Tim Berners-Lee es uno de los auténticos revolucionarios de la sociedad de la información y su “Information Management: A proposal” (1989) y su “Weaving the web” (2000) dos de los manifiestos fundacionales de la sociedad de la información.

Los diez auténticos revolucionarios de la Sociedad de la Información.

Richard Stallman

La reciente muerte de Steve Jobs y la opinión que Richard Stallman emitió inmediatamente después de la misma sobre su figura han generado una agria polémica en las redes sociales. La disputa, extremadamente agria en muchos casos, me ha dejado con la incógnita de determinar cual ha sido el papel verdaderamente desempeñado por Steve Jobs en esta revolución de la información, cuales han sido sus aportaciones a la misma y cual es el lugar que ocupa, si es que ocupa alguno, entre los visionarios, soñadores, teóricos y hombres de negocios que han hecho posible la revolución en curso.

Para tratar de aclarar mis ideas trataré de confeccionar una lista con los nombres de las 10 personas más importantes en la historia de esta revolución. La realizaré tal y como los historiadores hacen con otras revoluciones, por ejemplo la francesa o la americana, estudiando quienes fueron sus precursores, quienes redactaron sus documentos fundacionales y cuales son estos. Trataré así de averiguar quien es el Voltaire, el Rousseau, el Jefferson o incluso el Robespierre de esta revolución contemporánea y trataré asimismo de identificar los documentos inaugurales de la misma.

El trabajo promete ser largo y los resultados no creo que convenzan a casi ninguno de los pocos lectores que me siguen, pero, si algo bueno tiene esto de las listas, es que cada uno tendrá sus candidatos y sus argumentos y, si hay el necesario “feedback”, acabaré aprendiendo mucho.

El orden en que los citaré no necesariamente se corresponde con el orden de importancia, quizá más bien con una difusa cronología que trataré de explicar al final de la lista, pero, porque él comenzó la polémica con sus agrias declaraciones, en el número #10 de la lista de los auténticos revolucionarios de las nuevas tecnologías de la información coloco a:

Richard Stallman

En 1971, un peculiar estudiante neoyorquino, Richard Stallman, ingresó en el laboratorio de Inteligencia Artificial (AI) del Instituto Tecnológico de Massachussets, el famoso MIT. Richard Stallman provenía de la Universidad de Harvard a la que había accedido a pesar de haber sido un estudiante problemático.

Stallman contaba entonces apenas 18 años y parece que el ambiente de trabajo que encontró en el MIT le cautivó y no sólo porque entonces trabajasen allí personalidades científicas de la talla de Minsky y Papert, sino por el particular código ético que regía las conductas de los programadores que allí trabajaban. A diferencia de los profesores y estudiantes graduados que también trabajaban allí, estos “hackers” no se atenían a los convencionalismos imperantes y, careciendo de relevancia oficial, para mantener su posición en el MIT no tenían más argumento que el de la calidad del software que programaban.

Estas personas se respetaban porque todos sabían que eran buenos en lo que hacían y, dentro de su peculiar código ético, resultaba repugnante guardar para uno mismo y no compartir el código que escribían. La medida de su éxito no se medía en dólares sino, muy al contrario, se medía en términos de creatividad y excelencia. No compartir el código provocaba esfuerzos repetidos, estériles reinvenciones de soluciones ya inventadas y un injustificada barrera contra el progreso. En este lugar y en este ambiente se gestaron una buena porción de los trabajos que permitieron la revolución tecnológica que vivimos.

Sin embargo, hacia mediados de los 70, la proliferación de ordenadores ya había creado un mercado con un tamaño suficiente para permitir que los desarrolladores de software pudiesen colocar sus programas. Muchos de ellos pensaron que, si no podían exigir dinero a los usuarios por el uso de sus programas, no podrían aprovecharse de este mercado y es en este contexto en el que vio la luz la famosa carta abierta de Bill Gates a los aficionados a los ordenadores.

Esta “Open letter to Hobbyist” fue redactada en 1975 por Bill Gates con motivo de lo que el consideraba el “robo” del intérprete BASIC que él había escrito para el Altair. En esta carta ya se adjetiva de “robo” la copia no autorizada de código y es un documento que puede servir de hito para señalar el comienzo de todo el debate posterior software propietario-software libre que ha llegado hasta nuestros días.

Durante la década de los 70, en general, el software venía incorporado al ordenador que uno compraba y estaba hecho específicamente para ese dispositivo pero, ya a principios de los 80 el software empezó a ser vendido separadamente de los dispositivos en grandes cantidades, de forma que muchos programadores fundaron exitosas compañías que pronto obtuvieron fabulosos ingresos. Las grandes corporaciones vieron la oportunidad de negocio y abrazaron con entusiasmo la idea de Bill Gates.

Frente a todo este conglomerado de empresas e intereses comerciales Richard Stallman se constituyó en defensor de la causa de la libertad y la cooperación y en 1985 escribió “El Manifiesto GNU”, producto de una genial intuición, y que es uno de los textos imprescindibles para entender quizá el más importante debate que debe resolver la revolución tecnológica que vivimos. Sus implicaciones jurídicas y políticas son enormes y quizá el conjunto de la sociedad aún no se ha percatado de la enorme trascendencia futura de dicho debate.

Como muy a menudo repiten los defensores del software libre las ideas no son una mercancía común. A diferencia de otras mercancías las ideas no se transfieren, sino que se propagan. Si usted le compra a su vecino un abrigo, una vez efectuada la transacción, usted tendrá el abrigo pero él ya no. Con las ideas no ocurre eso, si usted transmite una idea usted adquirirá la idea pero su vecino no la habrá perdido. Es más, es dudoso que usted pueda usar el abrigo de su vecino debido a razones de talla o peso, pero la idea que le transmite su vecino usted podrá adaptarla rápidamente a sus necesidades. Las ideas se propagan, no hay escasez en ellas y por ello estos bienes informaciones no conocen las escasez y es muy difícil comercial con ellos. Sólo una legislación que restrinja su intrínseca vocación de replicación permite establecer un mercado que, incluso desde los más estrictos postulados económico-capitalistas, tiene una malsana tendencia a fomentar el mercado negro.

Stallman, en 1985, publicó la “GNU General Public License” (Licencia Pública General de GNU) orientada principalmente a proteger la libre distribución, modificación y uso de software. Su propósito es declarar que el software cubierto por esta licencia es software libre y protegerlo de intentos de apropiación que restrinjan esas libertades a los usuarios.

Resulta sorprendente que sea precisamente un documento de neto carácter jurídico el que recoja las intuiciones de un programador y que sea precisamente un programador ajeno al mundo del derecho el autor de una de las más sorprendentes y capitales innovaciones jurídicas  contemporáneas.

Todo el pensamiento de Stallman resulta paradójico en un primer momento (¿Cómo puede ser viable un negocio que no cobre por sus productos?, ¿Por qué alguien escribiría programas que no podrá vender?) y, sin embargo, conforme avanza el tiempo sus planteamientos se ven cada vez más confirmados por la realidad. La abrumadora mayoría de los servidorers de páginas web, por ejemplo, son servidores “Apache” (un ejemplo de software libre), su teléfono “Android” en gran parte también lo es, los sistemas Linux cada vez son más frecuentes y, en general, las soluciones de software libre son ya la primera opción de la mayor parte de las estrategias comerciales, de hecho usted, amigo lector, ya no podría vivir un día sin software libre.

La información es el cimiento de la revolución presente y a Stallman le cabe el mérito de haber detectado que a los novedosos fenómenos a que estamos asistiendo no se les pueden aplicar conceptos jurídicos antiguos, que las ideas no pueden ser poseídas de la misma forma que el Digesto regulaba la propiedad de las cosas muebles o el Estatuto de Ana establecía para regular las relaciones de impresores y escritores.

Por eso, porque en la base de las implicaciones jurídicas y políticas de la revolución que vivimos está Richard Stallman es por lo que le doy el número #10 en mi lista de los auténticos padres fundadores de la revolución tecnológica y al “Manifiesto GNU” el número #10 en mi lista de documentos fundacionales.

Homeostasis: ¿Estuvo usted presente cuando su madre le dio a luz?

Si uno se toma la molestia de buscar en la wikipedia el término “muerte” se encontrará con que, en la versión española, la muerte es definida, en esencia, como “la extinción del proceso homeostático y por ende el fin de la vida.”

La muerte, según esta definición, es el suceso obtenido como resultado de la incapacidad orgánica de sostener la homeostasis. Dada la degradación del ácido desoxirribonucleico (ADN) contenido en los núcleos celulares, la réplica de las células se hace cada vez más costosa.

Así pues, la homeostasis es el sustento de eso que llamamos “vida” pero, ¿qué es en realidad la homeostasis?

Homeostasis (Del griego homos (ὅμος) «similar», y estasis (στάσις) «posición», «estabilidad») es la característica de un sistema abierto o de un sistema cerrado, especialmente en un organismo vivo, mediante la cual se regula el ambiente interno para mantener una condición estable y constante. Los múltiples ajustes dinámicos del equilibrio y los mecanismos de autorregulaciónhacen la homeostasis posible. El concepto fue creado por Walter Cannon y usado por Claude Bernard, considerado a menudo como el padre de la fisiología, y publicado en 1865. Tradicionalmente se ha aplicado en biología, pero dado el hecho de que no sólo lo biológico es capaz de cumplir con esta definición, otras ciencias y técnicas han adoptado también este término.

Personalmente el concepto de homeostasis no me interesa tanto en su aspecto fisiológico como en su aspecto sistémico, concretamente como método para determinar si un sistema dado podemos decir que está “vivo” o “muerto”.

Lllegué a saber que existía el concepto de homeostasis a través de la lectura de un libro imprescindible para cualquiera que quiera entender la sociedad de la información, “The human use of human beings”, publicado por el matemático Norbert Wiener en 1950 y que es un verdadero manifiesto fundacional de la sociedad de la información.

Conforme a las ideas de Norbert Wiener, la individualidad de un ser reside en una determinada forma compleja, no en una sustancia inmutable.  Para entender un organismo, éste debe considerarse como un patrón que se mantiene a través de la homeostasis. (…) Mientras que los materiales que componen un ser vivo pueden ser constantemente sustituidos por otros casi idénticos, un organismo sigue funcionando con la misma identidad en tanto que el patrón que lo defina se mantenga lo suficientemente intacto. Estos patrones pueden ser transmitidos, modificados o duplicados y son, por tanto, un tipo de información.

El pensamiento de Norbert Wiener subraya la importancia de la forma (patrón) frente a la materia. Un ser vivo, como el hombre por ejemplo, renueva completamente los materiales de que está construido más o menos cada 10 años. Pensemos que los glóbulos rojos sólo viven unos 120 días, las células que recubren el estómago y las de la epidermis un par de semanas y que cada tejido tiene su tiempo de renovación. Por eso un científico sueco, Jonas Frisen, ideó una técnica para datar las células del organismo humano y llegó a una conclusión del máximo interés: Sólo las neuronas de la corteza cerebral, y pocas más, parece que duran hasta la muerte aunque nuevos descubrimientos en materia de neurogénesis, ponen en cuestión la total exactitud de esa afirmación.
La producción de nuevas neuronas tras el nacimiento fue negada hasta bien avanzada la segunda mitad del siglo XX. Hoy día se sabe que tanto las neuronas como las células gliales se siguen produciendo por la diferenciación de células madre durante toda la vida de los organismos.

La neurogénesis fue detectada por primera vez por el científico y biólogo español José Manuel García-Verdugo en lagartos. A partir de este descubrimiento se detectó en mamíferos como los humanos. Además también descubrió junto al investigador Arturo Alvarez-Buylla, de la Universidad Rockefeller, las células responsables de dicha neurogénesis.

En humanos la generación de nuevas neuronas se ha constatado y descrito en diferentes zonas del sistema nervioso: el bulbo olfatorio, el hipocampo y en diferentes áreas de la corteza cerebral. También se ha descrito esta neurogénesis en la región prefrontal, que controla el proceso de ejecución de decisiones y que está involucrada en la memoria a corto plazo; también en la región temporal inferior, que actúa en el reconocimiento de caras u objetos y en la región parietal posterior, importante en la percepción de relaciones espaciales y de la imagen corporal.

Y si las células humanas se regeneran no debemos olvidar tampoco que estas mismas células son organismos vivos que renuevan constantemente sus propios componentes moleculares para mantener su equilibrio homeostático.

Llegados a este punto permítanme abandonar la fisiología y que vuelva a formularles la pregunta -una boutade, como de costumbre- que da título a este post. ¿Estuvo usted presente en su propio nacimiento? Seguir leyendo «Homeostasis: ¿Estuvo usted presente cuando su madre le dio a luz?»