Todo necio confunde valor y precio

Se atribuye comúnmente esta cita a Antonio Machado y he tenido ocasión de recordarla este principio de verano cuando, por razones largas de explicar, he vuelto a leer los capítulos iniciales de «El Capital», obra fundamental de Karl Marx y base de la ideología comunista. En ellos Marx habla de las mercancías y, muy machadianamente, distingue lo que él llama «valor de uso» del «valor de cambio». El valor de uso de una mercancía no precisa mayor explicación, las cosas sirven naturalmente para algo pues, si no sirven para nada, carecen de valor de uso; el valor de cambio, por el contrario, nos habla del intercambio de las mercancías y de las cantidades de cada una que habríamos de trocar para obtener una cantidad de la otra… es decir, cuantos pollos vale una vaca o cuántos litros de leche vale un martillo, proceso de cambio para el cual resulta muy útil el dinero, entidad que, fuera de esto, carece del más mínimo valor de uso como puso de manifiesto la archicitada frase que, entiendo yo que de forma apócrifa, se atribuye a los indios Cree.

Sólo después que el último árbol sea cortado, sólo después que el último río haya sido envenenado, sólo después que el último pez haya sido atrapado, sólo entonces nos daremos cuenta que no nos podemos comer el dinero.

Marx, en su análisis, prescinde de conceptos básicos para la formación de los precios y que son objeto fundamental de estudio para la economía clásica, como son los de demanda y oferta, y por ello ha sido criticado; sin embargo, a pesar de que comparto plenamente esa crítica negativa a la visión de Marx, su intento de tratar de comprender el «valor» de las cosas me parece loable aunque, ya que estamos en el siglo XXI y en la sociedad de la información, su visión se me antoja absolutamente obsoleta a pesar de que es, ciertamente, inspiradora en algunos momentos.

Para Marx la base del valor estaba en la cantidad de trabajo que había sido necesaria para obtener una determinada mercancía, desde la materia prima hasta el producto acabado. Así, el valor de una sartén de hierro se determinaría por la cantidad de trabajo empleado en extraer el mineral de hierro, fundirlo y dejarlo apto para ser trabajado por los herreros y, finalmente, por el trabajo del herrero que transforma el hierro en sartén. Toda la suma de este trabajo sería para Marx el valor de la sartén.

No voy a discutir el punto de vista de Marx ni su caracterización del trabajo como elemento generador de valor, sólo voy a tratar de dar un salto de la Sociedad Industrial del siglo XIX a la Sociedad de la Información del siglo XXI, salto en el que, quizá, alguna de las ideas expresadas pudieran ser de utilidad. Veámoslo.

Si pensamos la realidad con un enfoque informacional no nos costará entender que el universo está compuesto esencialmente de tres cosas: materia, energía e información, si bien, es esta última la que verdaderamente hace interesante al universo. Quizá en este punto convenga aclarar a qué me refiero cuando hablo de información y esto puedo hacerlo de dos formas: o bien remitiéndome a la teoría de la información de Claude Shannon y a los postulados de la termodinámica y demás teorías científicas o bien vulgarizando de un modo más sencillo para ahorrarles el trabajo científico que lleva aparejada la primera opción. Voy a tratar de hacerlo.

Créanme, en el universo se desarrolla una guerra eterna entre el orden y el caos, entre la información y la entropía, una guerra que sabemos de antemano que ganará el caos pues, como sin duda sabrá usted aunque no haya estudiado física, la entropía es la única magnitud que siempre crece en el universo junto con el tiempo.

Sin embargo, el que la entropía (si quiere llámele caos) crezca siempre en el universo no significa que, localmente, no haya lugares en el cosmos en los cuales el orden (la información) se manifiesta en todo su esplendor y revierte este fatal sino universal. Mire a su alrededor, las plantas y árboles engendran plantas y árboles, los animales y microbios campan por doquier y esas son realidades que contradicen el inexorable camino al caos del universo: un maravilloso orden rige aparentemente la biosfera de la Tierra. Sin embargo, créame también, este efímero triunfo del orden sobre el caos no es gratis, pues sólo puede producirse a costa de un generoso aporte de energía.

Si usted mira a su alrededor verá las mismas materias y energías que pudieron ver los dinosaurios en el Jurásico y el Cretácico… sí, mire bien, lo que usted está contemplando es el mismo hierro, el mismo granito o sílice que ya estaba en la Tierra en los períodos en que los dinosaurios imperaban en nuestro planeta. No hay ninguna materia ahora en la Tierra que no estuviese ya en ella en el Jurásico y, sin embargo, usted sabe también cuán diferente resulta nuestro mundo de aquel: aviones, rascacielos, naves espaciales, microprocesadores… La realidad es que, siendo el mismo mundo y la materia la misma, hemos logrado «informarlo» de forma muy distinta y reordenar la materia de manera que adquiera nuevas formas y propiedades. Un vaso de vidrio, en realidad, no es más que un puñado de silicio informado de una manera muy particular. Calentando el silicio se consiguió vidrio al que luego se le dio la forma precisa para que fuese un óptimo recipiente para líquidos. La metáfora es bastante exacta: el ser humano, a costa de un generoso aporte de energía, ha informado el silicio con una forma nueva aumentando el orden de manera local en este rincón del universo. Si bien lo examinamos toda la obra de la humanidad no es más que el producto de tres factores: materia, energía e información, hecho este que supone una tentación casi irresistible para tratar de elaborar sobre él una nueva teoría de la economía o incluso de la justicia. Sin embargo, mil palabras ya son suficientes por hoy, máxime si tenemos en cuenta que este post no va a interesar a nadie o casi nadie, de forma que dejaremos esas tentaciones para otras tardes de este mes de agosto.

Los revolucionarios de la información

arpanet-5Cuando en 1968 se estrenó “2001 Una odisea en el espacio” de Stanley Kubrick no recuerdo que nadie se extrañase de sus predicciones, al menos por lo que se refiere a mis amigos de entonces, todos ellos compañeros de colegio, aunque es verdad que tardamos un poco más en verla. Estábamos inmersos en plena carrera espacial (la navidad de ese año nuestra visión del mundo cambiaría con las fotos de la Tierra que tomó desde la Luna la misión Apolo 8) y no nos parecía que fuese en absoluto imposible que en el año 2001 se realizasen los viajes espaciales que se narraban en la película.

Tampoco se nos antojaba del todo disparatado que en algún momento del futuro los ordenadores (cerebros electrónicos les llamábamos entonces mis amigos y yo) se rebelasen contra sus creadores y que, al igual que HAL, pudiesen poner en peligro no ya a unos astronautas sino a toda la humanidad, pues no hay que olvidar que vivíamos entonces en plena guerra fría e incidentes como la crisis de los misiles de Cuba estaban muy recientes.

Sin embargo, en medio de todas esas predicciones futuristas que se veían en la película, la verdadera revolución tecnológica se les pasó por alto, pues nadie predijo ni sugirió el nacimiento de internet y de la sociedad de la información. Y lo cuerioso es que, en 1968, gran parte de lo que sería internet ya estaba diseñado: La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorandos escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica); en 1967 ya se había celebrado la primera conferencia sobre ARPANET; el 20 de octubre de 1969 se estableció la primera red de computadoras entre los nodos situados en el laboratorio de Kleinrock en la UCLA y el laboratorio de Douglas Engelbart en SRI; para entonces al protocolo TCP/IP apenas si le faltaban cuatro años para nacer. Ahora parece increíble pero entonces, toda esa tremenda revolución que marcaría nuestras vidas 30 años después y daría lugar a un cambio social de consecuencias imprevisibles, nos pasaba completamente desapercibida. Y sin embargo, mientras nosotros veíamos a Kubrick, alguien estaba soñando ese cambio y lo llevaba soñando desde hacía muchos años.

A menudo mis compañeros me preguntan quiénes son, a mi juicio, los verdaderos revolucionarios de la sociedad de la información, los padres fundadores de esta nueva sociedad en que ya vivimos y que trata de abrirse paso a través de una maraña de leyes y políticos ignaros; y hoy me he decidido a responder usando una de las herramientas más maravillosas que haya podido soñar el ser humano: la Wikipedia.

En el texto que les acompaño tienen las biografías en castellano de las personas que considero decisivas para entender la sociedad de la información; no están sus libros y escritos (maldito copyright) y sé que es difícil entender a Norbert Wiener sin leer “The human use of human beings” o a Vannevar Bush sin siquiera conocer su artículo “As we should think”, pero creo que componen una lista bastante completa (discutida y discutible) de los “padres fundadores” de esta nueva sociedad que ellos soñaron mientras nosotros viajábamos a los confines de la galaxia de la mano de Kubrick. Disfrútenla.

 

 

¡Feliz año Turing! (Los diez auténticos revolucionarios de la sociedad de la información).

Alan Turing

Dentro de mi ranking de los “auténticos revolucionarios de la sociedad de la información” necesariamente tiene que estar Alan Turing (1912-1954); y no al final de la lista sino probablemente en uno de los tres primeros puestos. Ocurre, sin embargo, que este año, un comité de científicos ha decidió celebrar el “Año de Turing” conmemorando el centenario de su nacimiento y, debido a ello, he decidido alterar el orden de mi lista para dedicar este primer post del año, del año de Turing, a él.

Alan Turing, como comprobará quien tenga la paciencia de seguir leyendo, fue víctima de las mayores humillaciones por parte de la nación que le debía en gran medida a él su victoria en la Segunda Guerra Mundial. Este año, científicos de la nación que tanto le debe y que tan mal le pagó, han organizado este año de Turing en su memoria, para que Inglaterra sepa cuanto de le debe y el mundo conozca a uno de los científicos que más hicieron porque fuese posible la sociedad de la información que hoy disfrutamos.

Turing, conoció en Harvard a personalidades de la talla de Gödel y Von Neumann y en 1936 redactó uno de los manifiestos fundacionales de la sociedad de la información “On computable numbers with an application to the Entscheindungsproblem”, documento que contenía el diseño teórico de una computadora a la que, andando el tiempo, se la conocería como la “Máquina de Turing” (The Turing Machine) al tiempo que resolvía las cuestiones de Hilbert sobre la decidibilidad (Entscheindungsproblem).

En términos lógicosel problema de la decidibilidad se plantea la cuestión de si existe algún algoritmo o proceso definido que pueda determinar si un postulado determinado es susceptible de ser probado o no. Otras formulaciones del problema implican si existe algún método o algoritmo que permita generar los dígitos de “pi”, o de la raíz cuadrada de 2, hasta cualquier nivel de precisión que deseemos.

En aquella época tal tipo de cálculos solían ser efectuados por personas que, provistas de tablas y fórmulas, efectuaban las operaciones siguiendo rigurosamente conjuntos de reglas preestablecidas. A esas personas que realizaban los cálculos, generalmente mujeres, se les llamaba “computadoras” (computers).

Turing sabía que, si el podía sistematizar como trabajaban aquellas “computadoras” humanas el podría atacar el problema de la decidibilidad.

Fundándose en tales observaciones, en “On Computable Numbers” Turing describió una máquina de computación universal que podría computar cualquier secuencia de números que fuese computable escribiendo las correspondientes tablas de instrucciones; la máquina de Turing podría emular a cualquiera de las máquinas de cálculo existentes y sería por ello universal.

Aunque el hecho de que existan máquinas que pueden llevar a cabo diferentes tipos de cálculos parece obvia hoy día, la idea de Turing era revolucionaria en aquellos tiempos. Desde entonces hasta hoy todas las computadoras emulan a la “máquina de Turing”.

Turing que, como yo, era un apasionado del ajedrez, llegó años después a concebir un programa para jugar al ajedrez que, efectivamente, funcionó correctamente; si bien, dado que no existían máquinas capaces de ejecutarlo, los cálculos los efectuaba simplemente usando lápiz y papel. Naturalmente aquel programa no jugaba del todo bien, pero la simple idea de que se crease el algoritmo para una máquina pensante sin que tal tipo de máquina existiese resulta muy ilustrativo para aquellos que desprecian la “teoría”. Un día les enseñaré aquella partida, pero, de momento, sigamos con la vida de Alan Turing.

La publicación en 1936 de “On Computable Numbers” pasó desapercibida pero, diez años después, tras la finalización de la Segunda Guerra Mundial, ya era considerado como uno de los documentos seminales, uno de los manifiestos, de la revolución cibernética.

Durante la Segunda Guerra Mundial Turing fue reclutado como uno de los científicos que, en Bletchley Park, debían tratar de romper los sistemas criptográficos alemanes (la máquina “Enigma”) para descifrar los mensajes del ejército alemán. Las ideas de Turing transformaron por completo la criptografía y el criptoanálisis y dieron lugar a la entrada en escena de cada vez mejores máquinas pensantes. Toda la historia de Alan Turing y sus compañeros en Bletchley Park para desentrañar los secretos de la máquina Enigma es apasionante y, desde luego, no cabe en este post. Para quien quiera ampliar sus conocimientos en esta materia le recomiendo muy vivamente que lea los trabajos de Román Ceano en http://www.kriptopolis.org/la-maquina-enigma le aseguro que disfrutará de la mejor lección de historia posible, no ya sobre criptografía, sino sobre historia de la Segunda Guerra Mundial.

La ruptura del código germano permitió al alto mando inglés conocer de antemano las órdenes alemanas a sus tropas, aviones y, sobre todo, submarinos, de forma que Inglaterra pudo sobrevivir a la maquinaria militar alemana merced al uso de la información que Turing y sus compañeros facilitaban desde Bletchley Park. Este fue uno de los secretos mejor guardados de la Segunda Guerra Mundial y el secreto que, quizá, acabó costándole la vida a Turing.

Acabada la Segunda Guerra Mundial, Turing, como Von Neumann y otros, dirigieron su atención a la creación de computadoras digitales. En 1946 publicó su primer borrador de “Proposed Electronic Calculator” para la construcción de una de aquellas computadoras digitales. Turing señaló que esas computadoras digitales programables podrían tener un hardware fijo y simple, que deberían disponer de una buena cantidad de memoria y que, merced a los diversos programas, debidamente jerarquizados y divididos en subrutinas, podrían realizar tareas notables e incluso “jugar muy bien al ajedrez”. Incluso manifestó que podrían generarse programas capaces de aprender. Turing no pudo llevar a cabo su idea por sí mismo, la construcción de este ordenador diseñado en “Proposed Electronic Calculator” (conocido como ACE) fue encargado a personas distintas de Turing que se cuidaron muy mucho de que la figura de Turing fuese olvidada.

Turing incluso se planteó la posibilidad de la creación de inteligencia artificial y, para determinar si una máquina la poseía o no, ideó un test que ha pasado a la historia con el nombre de “El Test de Turing”, test que aún hoy día sigue vigente y que aún no ha superado ninguna máquina conocida. Todas estas ideas las vertió en otro de los manfiestos fundacionales de la sociedad de la información “Computing Machinery and Intelligence”, publicado en 1950.

A finales de los 50 la policía británica comenzó a interesarse por la homosexualidad de Turing. Se abrió contra él un procedimiento judicial por “perversion sexual” y se le obligó a seguir durante un año un tratamiento “órgano terápico” que incluyó castración química mediante inyección de hormonas (lo que le produjo un notable engrosamiento de sus pechos). La humillación social y física a la que se le sometió fue extrema; la misma sociedad a la que él había defendido durante años ahora lo hacía trizas. El 7 de junio de 1954 Turing apareció muerto tras comer una manzana envenenada. Tenía 42 años.

La historia de quien puso y por qué veneno en aquella manzana la trataremos otro día.

Los diez auténticos revolucionarios de la sociedad de la información: Tim Berners-Lee

Tim Berners Lee

En mi lista de los diez revolucionarios de la sociedad de la información no podía faltar Tim Berners-Lee.

Para aquellos, espero que pocos, que no sepan quien es, les diré que es la persona gracias a la cual usted usted puede leer esta página en su ordenador.

Tim Berners-Lee fue el creador del lenguaje “html” (hyper-text markup language) que es el lenguaje en el que se escriben las páginas web. Tim Berners-Lee fue también el creador del protocolo http (hyper text transfer protocol) que, para el que tampoco sepa lo que es, es el protocolo que permite transferir archivos html de un ordenador a otro a través de la red; si usted se fija, en la barra de direcciones de su navegador, antes de la dirección, aparece en primer lugar la cadena de caracteres “http”. Tim Berners-Lee nventó incluso los “url” que permiten nombrar y localizar recursos en internet como, por ejemplo, el de este sitio web http://www.josemuelas.com

En fin, Tim Berners-Lee es el creador de la web y del world wide web y, aunque sea sólo por eso, debe estar en mi lista de los verdaderos revolucionarios de las tecnologías de la información.

El sueño de un sistema de información hipertextual (eso es la web) no es privativo de Tim Berners-Lee; antes que él ya soñaron o entrevieron ese sistema visionarios de la talla de Vannevar Bush (Memex) o Ted Nelson (Xanadu) pero, sin duda, corresponde a Tim Berners-Lee el honor de haberlo llevado a la práctica y aún hoy día cuidar de él a través de su trabajo en el World Wide Web Consortium (W3C), organismo que regula los estándares de la web.

Las creaciones de Tim Berners-Lee ilustran a la perfección las paradojas que la sociedad de la información produce en quienes quieren juzgarla con estándares económicos tradicionales. Por ejemplo: La pregunta que más frecuentemente se le hace a nuestro protagonista en las entrevistas es: “¿Es usted rico gracias a su invento?”. Sir Tim Berners-Lee debe responder enfáticamente que no, que no es rico, que si un lenguaje se patenta y se cobra por su uso nunca alcanza a ser usado por todas las personas y esto ilustra muy significativamente hasta qué punto el sistema de patentes es pernicioso para el progreso de la humanidad en general y de la sociedad de la información en particular; por eso, Tim Berners-Lee siempre se ha mostrado un firme detractor de la posibilidad de patentar software.

A principio de los 90 Tim Berners-Lee conoció a Ted Nelson y su “Xanadu“, incluso compró su libro “Literary Machines” y se hizo seguidor de la visión democrática e igualitaria que suponía el proyecto Xanadu: Los recursos de los imperios debían estar al alcance de la mano de los ciudadanos comunes. Tim Berners-Lee consideró posible distribuir la información como las neuronas se distribuyen en el cerebro, de forma descentralizada y semánticamente enlazada, como en una red (web). La propuesta de Tim Berners-Lee era más modesta que el Xanadu de Ted Nelson pero, quizá por ello, tuvo un éxito espectacular. Tim Berners-Lee desarrolló su primera propuesta de la Web en marzo de 1989, pero no tuvo mucho eco, por lo que en 1990 y con la ayuda de Robert Cailliau, hicieron una revisión que fue aceptada por el CERN. Para esto diseñó y construyó el primer navegador (llamado WorldWideWeb y desarrollado con NEXTSTEP) y el primer servidor Web al que llamó httpd (HyperText Transfer Protocol daemon). Incluso fue Tim Berners-Lee quien bautizó a todo el sistema como “World Wide Web” tras abandonar su intención inicial de llamarlo TIM:MOI “The Information Mesh: Mine of Information” por considerarlo demasiado egocéntrico. (N.A. “La traducción del francés de “Tim:Moi” es verdaderamente egocéntrica).

El primer servidor Web se encontraba en el CERN y fue puesto en línea el 6 de agosto de 1991. Esto proporcionó una explicación sobre lo que era el World Wide Web, cómo uno podría tener un navegador y cómo establecer un servidor Web. Este fue también el primer directorio Web del mundo, ya que Berners-Lee mantuvo una lista de otros sitios Web aparte del suyo. Debido a que tanto el software del servidor como del cliente fue liberado de forma gratuita desde el CERN, el corazón de Internet Europeo en esa época, su difusión fue muy rápida. El número de servidores Web pasó de los veintiséis de 1992 a doscientos en octubre de 1995, lo que refleja cual fue la velocidad de la difusión de internet.

El que esto escribe se conectó por primera vez a internet en 1998 usando un Netscape Navigator, apenas siete años después de que el primer servidor web se instalase y, en ese ya lejano 98, los usuarios de internet y más concretamente del World Wide Web éramos legión. Aún sonaban cosas como gopher, pero la www era ya indiscutiblemente el servicio más popular de red.

Por eso, porque el servicio de información hipertextual que es el www ha cambiado nuestras vidas, es por lo que, a mi juicio, Tim Berners-Lee es uno de los auténticos revolucionarios de la sociedad de la información y su “Information Management: A proposal” (1989) y su “Weaving the web” (2000) dos de los manifiestos fundacionales de la sociedad de la información.

Los diez auténticos revolucionarios de la Sociedad de la Información.

Richard Stallman

La reciente muerte de Steve Jobs y la opinión que Richard Stallman emitió inmediatamente después de la misma sobre su figura han generado una agria polémica en las redes sociales. La disputa, extremadamente agria en muchos casos, me ha dejado con la incógnita de determinar cual ha sido el papel verdaderamente desempeñado por Steve Jobs en esta revolución de la información, cuales han sido sus aportaciones a la misma y cual es el lugar que ocupa, si es que ocupa alguno, entre los visionarios, soñadores, teóricos y hombres de negocios que han hecho posible la revolución en curso.

Para tratar de aclarar mis ideas trataré de confeccionar una lista con los nombres de las 10 personas más importantes en la historia de esta revolución. La realizaré tal y como los historiadores hacen con otras revoluciones, por ejemplo la francesa o la americana, estudiando quienes fueron sus precursores, quienes redactaron sus documentos fundacionales y cuales son estos. Trataré así de averiguar quien es el Voltaire, el Rousseau, el Jefferson o incluso el Robespierre de esta revolución contemporánea y trataré asimismo de identificar los documentos inaugurales de la misma.

El trabajo promete ser largo y los resultados no creo que convenzan a casi ninguno de los pocos lectores que me siguen, pero, si algo bueno tiene esto de las listas, es que cada uno tendrá sus candidatos y sus argumentos y, si hay el necesario “feedback”, acabaré aprendiendo mucho.

El orden en que los citaré no necesariamente se corresponde con el orden de importancia, quizá más bien con una difusa cronología que trataré de explicar al final de la lista, pero, porque él comenzó la polémica con sus agrias declaraciones, en el número #10 de la lista de los auténticos revolucionarios de las nuevas tecnologías de la información coloco a:

Richard Stallman

En 1971, un peculiar estudiante neoyorquino, Richard Stallman, ingresó en el laboratorio de Inteligencia Artificial (AI) del Instituto Tecnológico de Massachussets, el famoso MIT. Richard Stallman provenía de la Universidad de Harvard a la que había accedido a pesar de haber sido un estudiante problemático.

Stallman contaba entonces apenas 18 años y parece que el ambiente de trabajo que encontró en el MIT le cautivó y no sólo porque entonces trabajasen allí personalidades científicas de la talla de Minsky y Papert, sino por el particular código ético que regía las conductas de los programadores que allí trabajaban. A diferencia de los profesores y estudiantes graduados que también trabajaban allí, estos “hackers” no se atenían a los convencionalismos imperantes y, careciendo de relevancia oficial, para mantener su posición en el MIT no tenían más argumento que el de la calidad del software que programaban.

Estas personas se respetaban porque todos sabían que eran buenos en lo que hacían y, dentro de su peculiar código ético, resultaba repugnante guardar para uno mismo y no compartir el código que escribían. La medida de su éxito no se medía en dólares sino, muy al contrario, se medía en términos de creatividad y excelencia. No compartir el código provocaba esfuerzos repetidos, estériles reinvenciones de soluciones ya inventadas y un injustificada barrera contra el progreso. En este lugar y en este ambiente se gestaron una buena porción de los trabajos que permitieron la revolución tecnológica que vivimos.

Sin embargo, hacia mediados de los 70, la proliferación de ordenadores ya había creado un mercado con un tamaño suficiente para permitir que los desarrolladores de software pudiesen colocar sus programas. Muchos de ellos pensaron que, si no podían exigir dinero a los usuarios por el uso de sus programas, no podrían aprovecharse de este mercado y es en este contexto en el que vio la luz la famosa carta abierta de Bill Gates a los aficionados a los ordenadores.

Esta “Open letter to Hobbyist” fue redactada en 1975 por Bill Gates con motivo de lo que el consideraba el “robo” del intérprete BASIC que él había escrito para el Altair. En esta carta ya se adjetiva de “robo” la copia no autorizada de código y es un documento que puede servir de hito para señalar el comienzo de todo el debate posterior software propietario-software libre que ha llegado hasta nuestros días.

Durante la década de los 70, en general, el software venía incorporado al ordenador que uno compraba y estaba hecho específicamente para ese dispositivo pero, ya a principios de los 80 el software empezó a ser vendido separadamente de los dispositivos en grandes cantidades, de forma que muchos programadores fundaron exitosas compañías que pronto obtuvieron fabulosos ingresos. Las grandes corporaciones vieron la oportunidad de negocio y abrazaron con entusiasmo la idea de Bill Gates.

Frente a todo este conglomerado de empresas e intereses comerciales Richard Stallman se constituyó en defensor de la causa de la libertad y la cooperación y en 1985 escribió “El Manifiesto GNU”, producto de una genial intuición, y que es uno de los textos imprescindibles para entender quizá el más importante debate que debe resolver la revolución tecnológica que vivimos. Sus implicaciones jurídicas y políticas son enormes y quizá el conjunto de la sociedad aún no se ha percatado de la enorme trascendencia futura de dicho debate.

Como muy a menudo repiten los defensores del software libre las ideas no son una mercancía común. A diferencia de otras mercancías las ideas no se transfieren, sino que se propagan. Si usted le compra a su vecino un abrigo, una vez efectuada la transacción, usted tendrá el abrigo pero él ya no. Con las ideas no ocurre eso, si usted transmite una idea usted adquirirá la idea pero su vecino no la habrá perdido. Es más, es dudoso que usted pueda usar el abrigo de su vecino debido a razones de talla o peso, pero la idea que le transmite su vecino usted podrá adaptarla rápidamente a sus necesidades. Las ideas se propagan, no hay escasez en ellas y por ello estos bienes informaciones no conocen las escasez y es muy difícil comercial con ellos. Sólo una legislación que restrinja su intrínseca vocación de replicación permite establecer un mercado que, incluso desde los más estrictos postulados económico-capitalistas, tiene una malsana tendencia a fomentar el mercado negro.

Stallman, en 1985, publicó la “GNU General Public License” (Licencia Pública General de GNU) orientada principalmente a proteger la libre distribución, modificación y uso de software. Su propósito es declarar que el software cubierto por esta licencia es software libre y protegerlo de intentos de apropiación que restrinjan esas libertades a los usuarios.

Resulta sorprendente que sea precisamente un documento de neto carácter jurídico el que recoja las intuiciones de un programador y que sea precisamente un programador ajeno al mundo del derecho el autor de una de las más sorprendentes y capitales innovaciones jurídicas  contemporáneas.

Todo el pensamiento de Stallman resulta paradójico en un primer momento (¿Cómo puede ser viable un negocio que no cobre por sus productos?, ¿Por qué alguien escribiría programas que no podrá vender?) y, sin embargo, conforme avanza el tiempo sus planteamientos se ven cada vez más confirmados por la realidad. La abrumadora mayoría de los servidorers de páginas web, por ejemplo, son servidores “Apache” (un ejemplo de software libre), su teléfono “Android” en gran parte también lo es, los sistemas Linux cada vez son más frecuentes y, en general, las soluciones de software libre son ya la primera opción de la mayor parte de las estrategias comerciales, de hecho usted, amigo lector, ya no podría vivir un día sin software libre.

La información es el cimiento de la revolución presente y a Stallman le cabe el mérito de haber detectado que a los novedosos fenómenos a que estamos asistiendo no se les pueden aplicar conceptos jurídicos antiguos, que las ideas no pueden ser poseídas de la misma forma que el Digesto regulaba la propiedad de las cosas muebles o el Estatuto de Ana establecía para regular las relaciones de impresores y escritores.

Por eso, porque en la base de las implicaciones jurídicas y políticas de la revolución que vivimos está Richard Stallman es por lo que le doy el número #10 en mi lista de los auténticos padres fundadores de la revolución tecnológica y al “Manifiesto GNU” el número #10 en mi lista de documentos fundacionales.