La verdad es que no dan una

Una de las formas de evaluar la credibilidad de quienes formulan pronósticos es verificar el grado de aciertos que han tenido previamente, de forma que, ahora que la industria del entretenimiento amenaza con horribles cataclismos económicos si no se lleva a la práctica la Ley SINDE en España o SOPA en Estados Unidos, quizá sea bueno comprobar qué nivel de aciertos han tenido estos profetas en casos anteriores. Comprobémoslo.

En los años 20 la industria del disco predijo que la radio acabaría con ellos si no se tomaban medidas. El argumento era que, dado que la radio era gratis, nadie querría comprar sus discos. No necesito decirles que la radio, finalmente, lo que hizo fue aumentar la venta de discos.

En los años 40 las grandes compañías cinematográficas hubieron de prescindir de su principal canal de distribución -poseían el 50% de los cines en Estados Unidos-. Las cinematográficas predijeron que el fin estaba cercano, sin embargo el número de salas de cine creció en los Estados Unidos de 17.000 en 1948. 38.000 en la actualidad.

Cuando apareció la televisión que, como la radio, era gratuita también se afirmó que era el fin del cine. Ya conocen el resultado.

En los 70 aparecieron los Videos que permitían grabar directamente de la televisión. Los empresarios del sector del cine clamaron que ese era el final de su industria. La publicidad de los lobbys del sector en aquella época fue tremenda en USA. La realidad demostró que la aparición del video hizo que los beneficios del sector se multiplicaran exponencialmente. Gracias al nuevo canal de distribución los ingresos por alquiler de videos superaron los de las salas de proyección.

Con este currículum como profetas quizá no sería malo que tuviesen un poquito más de cuidado a la hora de emitir pronósticos y, sobre todo, algo más de respeto con esas personas de las que viven y a quienes llaman «piratas».

Año nuevo, imagen nueva.

Estaba bastante satisfecho con el aspecto que mi blog había mantenido en los últimos tiempos, pero los años pasan y mis amigos encontraban dificultades para leerlo en pantalla. Así pues, año nuevo imagen nueva, más contrastada y con un tamaño de letra mayor, lo importante es que se pueda leer. Feliz año a todos.

¡Feliz año Turing! (Los diez auténticos revolucionarios de la sociedad de la información).

Alan Turing

Dentro de mi ranking de los “auténticos revolucionarios de la sociedad de la información” necesariamente tiene que estar Alan Turing (1912-1954); y no al final de la lista sino probablemente en uno de los tres primeros puestos. Ocurre, sin embargo, que este año, un comité de científicos ha decidió celebrar el “Año de Turing” conmemorando el centenario de su nacimiento y, debido a ello, he decidido alterar el orden de mi lista para dedicar este primer post del año, del año de Turing, a él.

Alan Turing, como comprobará quien tenga la paciencia de seguir leyendo, fue víctima de las mayores humillaciones por parte de la nación que le debía en gran medida a él su victoria en la Segunda Guerra Mundial. Este año, científicos de la nación que tanto le debe y que tan mal le pagó, han organizado este año de Turing en su memoria, para que Inglaterra sepa cuanto de le debe y el mundo conozca a uno de los científicos que más hicieron porque fuese posible la sociedad de la información que hoy disfrutamos.

Turing, conoció en Harvard a personalidades de la talla de Gödel y Von Neumann y en 1936 redactó uno de los manifiestos fundacionales de la sociedad de la información “On computable numbers with an application to the Entscheindungsproblem”, documento que contenía el diseño teórico de una computadora a la que, andando el tiempo, se la conocería como la “Máquina de Turing” (The Turing Machine) al tiempo que resolvía las cuestiones de Hilbert sobre la decidibilidad (Entscheindungsproblem).

En términos lógicosel problema de la decidibilidad se plantea la cuestión de si existe algún algoritmo o proceso definido que pueda determinar si un postulado determinado es susceptible de ser probado o no. Otras formulaciones del problema implican si existe algún método o algoritmo que permita generar los dígitos de “pi”, o de la raíz cuadrada de 2, hasta cualquier nivel de precisión que deseemos.

En aquella época tal tipo de cálculos solían ser efectuados por personas que, provistas de tablas y fórmulas, efectuaban las operaciones siguiendo rigurosamente conjuntos de reglas preestablecidas. A esas personas que realizaban los cálculos, generalmente mujeres, se les llamaba “computadoras” (computers).

Turing sabía que, si el podía sistematizar como trabajaban aquellas “computadoras” humanas el podría atacar el problema de la decidibilidad.

Fundándose en tales observaciones, en “On Computable Numbers” Turing describió una máquina de computación universal que podría computar cualquier secuencia de números que fuese computable escribiendo las correspondientes tablas de instrucciones; la máquina de Turing podría emular a cualquiera de las máquinas de cálculo existentes y sería por ello universal.

Aunque el hecho de que existan máquinas que pueden llevar a cabo diferentes tipos de cálculos parece obvia hoy día, la idea de Turing era revolucionaria en aquellos tiempos. Desde entonces hasta hoy todas las computadoras emulan a la “máquina de Turing”.

Turing que, como yo, era un apasionado del ajedrez, llegó años después a concebir un programa para jugar al ajedrez que, efectivamente, funcionó correctamente; si bien, dado que no existían máquinas capaces de ejecutarlo, los cálculos los efectuaba simplemente usando lápiz y papel. Naturalmente aquel programa no jugaba del todo bien, pero la simple idea de que se crease el algoritmo para una máquina pensante sin que tal tipo de máquina existiese resulta muy ilustrativo para aquellos que desprecian la “teoría”. Un día les enseñaré aquella partida, pero, de momento, sigamos con la vida de Alan Turing.

La publicación en 1936 de “On Computable Numbers” pasó desapercibida pero, diez años después, tras la finalización de la Segunda Guerra Mundial, ya era considerado como uno de los documentos seminales, uno de los manifiestos, de la revolución cibernética.

Durante la Segunda Guerra Mundial Turing fue reclutado como uno de los científicos que, en Bletchley Park, debían tratar de romper los sistemas criptográficos alemanes (la máquina “Enigma”) para descifrar los mensajes del ejército alemán. Las ideas de Turing transformaron por completo la criptografía y el criptoanálisis y dieron lugar a la entrada en escena de cada vez mejores máquinas pensantes. Toda la historia de Alan Turing y sus compañeros en Bletchley Park para desentrañar los secretos de la máquina Enigma es apasionante y, desde luego, no cabe en este post. Para quien quiera ampliar sus conocimientos en esta materia le recomiendo muy vivamente que lea los trabajos de Román Ceano en http://www.kriptopolis.org/la-maquina-enigma le aseguro que disfrutará de la mejor lección de historia posible, no ya sobre criptografía, sino sobre historia de la Segunda Guerra Mundial.

La ruptura del código germano permitió al alto mando inglés conocer de antemano las órdenes alemanas a sus tropas, aviones y, sobre todo, submarinos, de forma que Inglaterra pudo sobrevivir a la maquinaria militar alemana merced al uso de la información que Turing y sus compañeros facilitaban desde Bletchley Park. Este fue uno de los secretos mejor guardados de la Segunda Guerra Mundial y el secreto que, quizá, acabó costándole la vida a Turing.

Acabada la Segunda Guerra Mundial, Turing, como Von Neumann y otros, dirigieron su atención a la creación de computadoras digitales. En 1946 publicó su primer borrador de “Proposed Electronic Calculator” para la construcción de una de aquellas computadoras digitales. Turing señaló que esas computadoras digitales programables podrían tener un hardware fijo y simple, que deberían disponer de una buena cantidad de memoria y que, merced a los diversos programas, debidamente jerarquizados y divididos en subrutinas, podrían realizar tareas notables e incluso “jugar muy bien al ajedrez”. Incluso manifestó que podrían generarse programas capaces de aprender. Turing no pudo llevar a cabo su idea por sí mismo, la construcción de este ordenador diseñado en “Proposed Electronic Calculator” (conocido como ACE) fue encargado a personas distintas de Turing que se cuidaron muy mucho de que la figura de Turing fuese olvidada.

Turing incluso se planteó la posibilidad de la creación de inteligencia artificial y, para determinar si una máquina la poseía o no, ideó un test que ha pasado a la historia con el nombre de “El Test de Turing”, test que aún hoy día sigue vigente y que aún no ha superado ninguna máquina conocida. Todas estas ideas las vertió en otro de los manfiestos fundacionales de la sociedad de la información “Computing Machinery and Intelligence”, publicado en 1950.

A finales de los 50 la policía británica comenzó a interesarse por la homosexualidad de Turing. Se abrió contra él un procedimiento judicial por “perversion sexual” y se le obligó a seguir durante un año un tratamiento “órgano terápico” que incluyó castración química mediante inyección de hormonas (lo que le produjo un notable engrosamiento de sus pechos). La humillación social y física a la que se le sometió fue extrema; la misma sociedad a la que él había defendido durante años ahora lo hacía trizas. El 7 de junio de 1954 Turing apareció muerto tras comer una manzana envenenada. Tenía 42 años.

La historia de quien puso y por qué veneno en aquella manzana la trataremos otro día.

ELEAS

Últimamente oigo con frecuencia a personas que, al referirse a mí, me califican de “experto en derecho de las nuevas tecnologías”, cosa que me llena de profundo pudor. A día de hoy, en el mundo de la abogacía, ser un “experto” en algo no es más que un acto de voluntad pura; uno se autodenomina “experto” en algún campo, se dedica a él y, sin más trámite que ese, es diputado por la comunidad como experto. Por eso, cuando oigo que se me llama “experto”, el pudor me invade y me asalta la sensación de ser un impostor.

Pero alguna vez sí fui “experto”.

Han pasado ya casi diez años desde que en el marco de la Unión Europea se puso en marcha el programa “ELEAS” (Ecommerce Legislation Easily Accesible), un ambicioso proyecto financiado por la Unión Europea y cuyo objetivo era establecer una “knowledge base” que permitiese conocer a cualquier empresario europeo que quisiese dedicarse al comercio electrónico cuáles eran las condiciones en que debía efectuar sus ventas. Para ello se ordenó reclutar a un jurista de cada país de la Unión Europea que, además de ser un reconocido experto en materia de comercio electrónico, tuviese unos mínimos conocimientos de lógica booleana y fuese capaz de escribir, siquiera rudimentariamente, unas cuantas líneas de código en un lenguaje de programación que, en su momento, se nos enseñaría.

No me pregunten por qué ni cómo, pero el jurista español que acabó formando parte de dicho programa fui yo. Cuando acudí a Turín (inolvidable Marco Ciurcina) para las primeras sesiones, estaba consternado y me embargaba la sensación de que yo era un impostor.

Sin embargo, una vez puesto en marcha el programa, resultó que yo no era tan torpe como pensaba. Por aquel entonces yo mantenía actualizada una página web sobre derecho e internet, no me manejaba mal con el lenguaje que se nos enseñó y acabé ayudando a terminar su trabajo a los “expertos” de otros países. Esto hizo que se disipase mi sensación de ser un impostor.

El proyecto fue un éxito. Se establecieron páginas web en todos los idiomas de la Unión Europea con toda la información, nacional y comunitaria, referida al comercio electrónico; las páginas, además, incluían un sistema experto que permitía a los usuarios conocer la regulación jurídica que afectaba a cualquier producto que tratasen de vender “on line”, desde una camiseta a un inmueble, y, en general, el programa cumplió sobradamente todos sus objetivos. Luego pasó el tiempo, los fondos se consumieron, se cubrieron los objetivos y, a día de hoy, es ya casi imposible encontrar información en la red sobre aquel programa ELEAS que hizo que, por una vez, yo me sintiese de verdad experto.

Los diez auténticos revolucionarios de la sociedad de la información: Tim Berners-Lee

Tim Berners Lee

En mi lista de los diez revolucionarios de la sociedad de la información no podía faltar Tim Berners-Lee.

Para aquellos, espero que pocos, que no sepan quien es, les diré que es la persona gracias a la cual usted usted puede leer esta página en su ordenador.

Tim Berners-Lee fue el creador del lenguaje “html” (hyper-text markup language) que es el lenguaje en el que se escriben las páginas web. Tim Berners-Lee fue también el creador del protocolo http (hyper text transfer protocol) que, para el que tampoco sepa lo que es, es el protocolo que permite transferir archivos html de un ordenador a otro a través de la red; si usted se fija, en la barra de direcciones de su navegador, antes de la dirección, aparece en primer lugar la cadena de caracteres “http”. Tim Berners-Lee nventó incluso los “url” que permiten nombrar y localizar recursos en internet como, por ejemplo, el de este sitio web http://www.josemuelas.com

En fin, Tim Berners-Lee es el creador de la web y del world wide web y, aunque sea sólo por eso, debe estar en mi lista de los verdaderos revolucionarios de las tecnologías de la información.

El sueño de un sistema de información hipertextual (eso es la web) no es privativo de Tim Berners-Lee; antes que él ya soñaron o entrevieron ese sistema visionarios de la talla de Vannevar Bush (Memex) o Ted Nelson (Xanadu) pero, sin duda, corresponde a Tim Berners-Lee el honor de haberlo llevado a la práctica y aún hoy día cuidar de él a través de su trabajo en el World Wide Web Consortium (W3C), organismo que regula los estándares de la web.

Las creaciones de Tim Berners-Lee ilustran a la perfección las paradojas que la sociedad de la información produce en quienes quieren juzgarla con estándares económicos tradicionales. Por ejemplo: La pregunta que más frecuentemente se le hace a nuestro protagonista en las entrevistas es: “¿Es usted rico gracias a su invento?”. Sir Tim Berners-Lee debe responder enfáticamente que no, que no es rico, que si un lenguaje se patenta y se cobra por su uso nunca alcanza a ser usado por todas las personas y esto ilustra muy significativamente hasta qué punto el sistema de patentes es pernicioso para el progreso de la humanidad en general y de la sociedad de la información en particular; por eso, Tim Berners-Lee siempre se ha mostrado un firme detractor de la posibilidad de patentar software.

A principio de los 90 Tim Berners-Lee conoció a Ted Nelson y su “Xanadu“, incluso compró su libro “Literary Machines” y se hizo seguidor de la visión democrática e igualitaria que suponía el proyecto Xanadu: Los recursos de los imperios debían estar al alcance de la mano de los ciudadanos comunes. Tim Berners-Lee consideró posible distribuir la información como las neuronas se distribuyen en el cerebro, de forma descentralizada y semánticamente enlazada, como en una red (web). La propuesta de Tim Berners-Lee era más modesta que el Xanadu de Ted Nelson pero, quizá por ello, tuvo un éxito espectacular. Tim Berners-Lee desarrolló su primera propuesta de la Web en marzo de 1989, pero no tuvo mucho eco, por lo que en 1990 y con la ayuda de Robert Cailliau, hicieron una revisión que fue aceptada por el CERN. Para esto diseñó y construyó el primer navegador (llamado WorldWideWeb y desarrollado con NEXTSTEP) y el primer servidor Web al que llamó httpd (HyperText Transfer Protocol daemon). Incluso fue Tim Berners-Lee quien bautizó a todo el sistema como “World Wide Web” tras abandonar su intención inicial de llamarlo TIM:MOI “The Information Mesh: Mine of Information” por considerarlo demasiado egocéntrico. (N.A. “La traducción del francés de “Tim:Moi” es verdaderamente egocéntrica).

El primer servidor Web se encontraba en el CERN y fue puesto en línea el 6 de agosto de 1991. Esto proporcionó una explicación sobre lo que era el World Wide Web, cómo uno podría tener un navegador y cómo establecer un servidor Web. Este fue también el primer directorio Web del mundo, ya que Berners-Lee mantuvo una lista de otros sitios Web aparte del suyo. Debido a que tanto el software del servidor como del cliente fue liberado de forma gratuita desde el CERN, el corazón de Internet Europeo en esa época, su difusión fue muy rápida. El número de servidores Web pasó de los veintiséis de 1992 a doscientos en octubre de 1995, lo que refleja cual fue la velocidad de la difusión de internet.

El que esto escribe se conectó por primera vez a internet en 1998 usando un Netscape Navigator, apenas siete años después de que el primer servidor web se instalase y, en ese ya lejano 98, los usuarios de internet y más concretamente del World Wide Web éramos legión. Aún sonaban cosas como gopher, pero la www era ya indiscutiblemente el servicio más popular de red.

Por eso, porque el servicio de información hipertextual que es el www ha cambiado nuestras vidas, es por lo que, a mi juicio, Tim Berners-Lee es uno de los auténticos revolucionarios de la sociedad de la información y su “Information Management: A proposal” (1989) y su “Weaving the web” (2000) dos de los manifiestos fundacionales de la sociedad de la información.

Los diez auténticos revolucionarios de la Sociedad de la Información.

Richard Stallman

La reciente muerte de Steve Jobs y la opinión que Richard Stallman emitió inmediatamente después de la misma sobre su figura han generado una agria polémica en las redes sociales. La disputa, extremadamente agria en muchos casos, me ha dejado con la incógnita de determinar cual ha sido el papel verdaderamente desempeñado por Steve Jobs en esta revolución de la información, cuales han sido sus aportaciones a la misma y cual es el lugar que ocupa, si es que ocupa alguno, entre los visionarios, soñadores, teóricos y hombres de negocios que han hecho posible la revolución en curso.

Para tratar de aclarar mis ideas trataré de confeccionar una lista con los nombres de las 10 personas más importantes en la historia de esta revolución. La realizaré tal y como los historiadores hacen con otras revoluciones, por ejemplo la francesa o la americana, estudiando quienes fueron sus precursores, quienes redactaron sus documentos fundacionales y cuales son estos. Trataré así de averiguar quien es el Voltaire, el Rousseau, el Jefferson o incluso el Robespierre de esta revolución contemporánea y trataré asimismo de identificar los documentos inaugurales de la misma.

El trabajo promete ser largo y los resultados no creo que convenzan a casi ninguno de los pocos lectores que me siguen, pero, si algo bueno tiene esto de las listas, es que cada uno tendrá sus candidatos y sus argumentos y, si hay el necesario “feedback”, acabaré aprendiendo mucho.

El orden en que los citaré no necesariamente se corresponde con el orden de importancia, quizá más bien con una difusa cronología que trataré de explicar al final de la lista, pero, porque él comenzó la polémica con sus agrias declaraciones, en el número #10 de la lista de los auténticos revolucionarios de las nuevas tecnologías de la información coloco a:

Richard Stallman

En 1971, un peculiar estudiante neoyorquino, Richard Stallman, ingresó en el laboratorio de Inteligencia Artificial (AI) del Instituto Tecnológico de Massachussets, el famoso MIT. Richard Stallman provenía de la Universidad de Harvard a la que había accedido a pesar de haber sido un estudiante problemático.

Stallman contaba entonces apenas 18 años y parece que el ambiente de trabajo que encontró en el MIT le cautivó y no sólo porque entonces trabajasen allí personalidades científicas de la talla de Minsky y Papert, sino por el particular código ético que regía las conductas de los programadores que allí trabajaban. A diferencia de los profesores y estudiantes graduados que también trabajaban allí, estos “hackers” no se atenían a los convencionalismos imperantes y, careciendo de relevancia oficial, para mantener su posición en el MIT no tenían más argumento que el de la calidad del software que programaban.

Estas personas se respetaban porque todos sabían que eran buenos en lo que hacían y, dentro de su peculiar código ético, resultaba repugnante guardar para uno mismo y no compartir el código que escribían. La medida de su éxito no se medía en dólares sino, muy al contrario, se medía en términos de creatividad y excelencia. No compartir el código provocaba esfuerzos repetidos, estériles reinvenciones de soluciones ya inventadas y un injustificada barrera contra el progreso. En este lugar y en este ambiente se gestaron una buena porción de los trabajos que permitieron la revolución tecnológica que vivimos.

Sin embargo, hacia mediados de los 70, la proliferación de ordenadores ya había creado un mercado con un tamaño suficiente para permitir que los desarrolladores de software pudiesen colocar sus programas. Muchos de ellos pensaron que, si no podían exigir dinero a los usuarios por el uso de sus programas, no podrían aprovecharse de este mercado y es en este contexto en el que vio la luz la famosa carta abierta de Bill Gates a los aficionados a los ordenadores.

Esta “Open letter to Hobbyist” fue redactada en 1975 por Bill Gates con motivo de lo que el consideraba el “robo” del intérprete BASIC que él había escrito para el Altair. En esta carta ya se adjetiva de “robo” la copia no autorizada de código y es un documento que puede servir de hito para señalar el comienzo de todo el debate posterior software propietario-software libre que ha llegado hasta nuestros días.

Durante la década de los 70, en general, el software venía incorporado al ordenador que uno compraba y estaba hecho específicamente para ese dispositivo pero, ya a principios de los 80 el software empezó a ser vendido separadamente de los dispositivos en grandes cantidades, de forma que muchos programadores fundaron exitosas compañías que pronto obtuvieron fabulosos ingresos. Las grandes corporaciones vieron la oportunidad de negocio y abrazaron con entusiasmo la idea de Bill Gates.

Frente a todo este conglomerado de empresas e intereses comerciales Richard Stallman se constituyó en defensor de la causa de la libertad y la cooperación y en 1985 escribió “El Manifiesto GNU”, producto de una genial intuición, y que es uno de los textos imprescindibles para entender quizá el más importante debate que debe resolver la revolución tecnológica que vivimos. Sus implicaciones jurídicas y políticas son enormes y quizá el conjunto de la sociedad aún no se ha percatado de la enorme trascendencia futura de dicho debate.

Como muy a menudo repiten los defensores del software libre las ideas no son una mercancía común. A diferencia de otras mercancías las ideas no se transfieren, sino que se propagan. Si usted le compra a su vecino un abrigo, una vez efectuada la transacción, usted tendrá el abrigo pero él ya no. Con las ideas no ocurre eso, si usted transmite una idea usted adquirirá la idea pero su vecino no la habrá perdido. Es más, es dudoso que usted pueda usar el abrigo de su vecino debido a razones de talla o peso, pero la idea que le transmite su vecino usted podrá adaptarla rápidamente a sus necesidades. Las ideas se propagan, no hay escasez en ellas y por ello estos bienes informaciones no conocen las escasez y es muy difícil comercial con ellos. Sólo una legislación que restrinja su intrínseca vocación de replicación permite establecer un mercado que, incluso desde los más estrictos postulados económico-capitalistas, tiene una malsana tendencia a fomentar el mercado negro.

Stallman, en 1985, publicó la “GNU General Public License” (Licencia Pública General de GNU) orientada principalmente a proteger la libre distribución, modificación y uso de software. Su propósito es declarar que el software cubierto por esta licencia es software libre y protegerlo de intentos de apropiación que restrinjan esas libertades a los usuarios.

Resulta sorprendente que sea precisamente un documento de neto carácter jurídico el que recoja las intuiciones de un programador y que sea precisamente un programador ajeno al mundo del derecho el autor de una de las más sorprendentes y capitales innovaciones jurídicas  contemporáneas.

Todo el pensamiento de Stallman resulta paradójico en un primer momento (¿Cómo puede ser viable un negocio que no cobre por sus productos?, ¿Por qué alguien escribiría programas que no podrá vender?) y, sin embargo, conforme avanza el tiempo sus planteamientos se ven cada vez más confirmados por la realidad. La abrumadora mayoría de los servidorers de páginas web, por ejemplo, son servidores “Apache” (un ejemplo de software libre), su teléfono “Android” en gran parte también lo es, los sistemas Linux cada vez son más frecuentes y, en general, las soluciones de software libre son ya la primera opción de la mayor parte de las estrategias comerciales, de hecho usted, amigo lector, ya no podría vivir un día sin software libre.

La información es el cimiento de la revolución presente y a Stallman le cabe el mérito de haber detectado que a los novedosos fenómenos a que estamos asistiendo no se les pueden aplicar conceptos jurídicos antiguos, que las ideas no pueden ser poseídas de la misma forma que el Digesto regulaba la propiedad de las cosas muebles o el Estatuto de Ana establecía para regular las relaciones de impresores y escritores.

Por eso, porque en la base de las implicaciones jurídicas y políticas de la revolución que vivimos está Richard Stallman es por lo que le doy el número #10 en mi lista de los auténticos padres fundadores de la revolución tecnológica y al “Manifiesto GNU” el número #10 en mi lista de documentos fundacionales.

Crisis #15M y Algoritmo Genético

El movimiento #15M ha revitalizado el debate sobre la democracia que tenemos y el sistema político económico que, en general, padecemos o disfrutamos. Desde las posiciones de los críticos al sistema se reclama reflexión, concienciación: pensar en suma. No es por ello extraño que uno de los iconos del movimiento, el escritor, humanista y economista José Luís Sampedro, afirme que, en general, “no estamos educados para pensar” y solicite de los ciudadanos una mayor dosis de pensamiento crítico, más racionalidad, en suma.

La posición de este economista concuerda perfectamente con la postura tradicional de sus colegas economistas a la hora de construir sus modelos: mayoritariamente y desde hace muchos años estos han optado por el criterio de la llamada “elección racional” presuponiendo que es así como se comportan lo seres humanos racionales; sin embargo, no está nada claro que el ser humano aplique esa supuesta estrategia de “elección racional” porque, simplemente, no puede emplearía.

Este criterio de la elección racional es un puro espejismo. Aunque las personas tratan de comportarse racionalmente en general, cuando están inmersas en sistemas complejos, habitualmente carecen de la información y los conocimientos precisos para tomar una decisión acertada. Ni que decir tiene que, cuando la información que se suministra a los indivíduos está manipulada o falsificada, entonces ningún esfuerzo de racionalidad conducirá a un resultado acertado.

En estos entornos complejos la gran cantidad de agentes intervinientes, la gran cantidad de información existente, la gran diversidad de estrategias actuantes, hacen absolutamente imposible formular un pronóstico exacto al respecto de casi nada. En estos entornos complejos los indivíduos no tienen capacidad para analizar la situación hasta sus últimas consecuencias y definir cual es la estrategia óptima; en ese tipo de situaciones los individuos adoptan, al principio, una estrategia más o menos razonable y luego la van modificando en función de los éxitos o fracasos que esta estrategia les va deparando y es así como funciona la vida.

De hecho, la naturaleza, se enfrenta a este tipo de entornos complejos desde que el primer ser vivo apareció sobre la faz de la tierra. Frente a la elección racional (imposible por otro lado para un ser unicelular) la naturaleza suele emplear como medio de actuación una suerte de mecanismo adaptativo que ha demostrado ser bastante eficaz a la hora de resolver estas situaciones complejas. Este mecanismo adaptativo se despliega en forma de procesos que pueden ir desde la adaptación a nivel individual (aprendizaje) hasta la adaptación a nivel de especie a través de los mecanismos evolutivos típicos ligados a la supervivencia y la reproducción. Los efectos de estos procesos son muy difíciles de predecir cuando interactúan muchos agentes con estrategias diferentes y con resultados no lineales, como es el caso, pero, en general sus resultados, si no son los perfectos, se aproximan en gran medida a los óptimos.

Los procesos de adaptación y la evolución biológica presentan paralelismos notables y no puede ser de otra manera pues la leyes de Darwin son aplicables allá donde haya replicación, herencia y mutación;  y eso no sólo ocurre en el campo de los seres vivos sino también en el conjunto de los memes, conjunto del que las estrategias son un subconjunto.

Estos mecanismos que han permitido a la biología ofrecer magníficos resultados adaptativos, han sido también empleados en el campo de la inteligencia artificial; a la técnica utilizada se la ha denominado “algoritmo genético” (Holland 1975). Este “algoritmo genético” es hoy utilizado intensivamente en teoría de juegos y en computación y se ha revelado como una herramienta excelente a la hora de determinar estrategias efectivas en entornos complejos. (Axelrod, “The complexión of cooperation”, Princeton 1997).

La explicación del funcionamiento de éste algoritmo genético escapa de los límites de este post, pero, permítanme señalar que, en medio de todo el ruido informativo y desinformativo existente, donde conviven informaciones veraces con otras “informaciones” que son simplemente pura propaganda y falsedad, las posibilidades reales de tomar “decisiones racionales” en sentido estricto son simplemente nulas para la práctica totalidad de la población. Tendremos pues que aplicar el algoritmo genético, no nos queda otra.