Ciencias

HAL 9000, Roy Batty y Skynet entran en un bar…

hal9000p
Imagen: MGM.

HAL 9000, Roy Batty y Skynet entran en un bar… y se corren la juerga padre. Es la edad de oro de la inteligencia artificial y sus sueños de Pinocho de celuloide pronto podrían convertirse en realidad. No solamente los más ricos, listos y poderosos de la especie inferior se han puesto manos a la obra para llegar al futuro sino que los más o menos ricos, menos listos e igual de poderosos también están por la labor. Google, Amazon, Elon Musk, Facebook o IBM serían los del primer grupo. Los gobernantes de medio mundo serían los otros.

Los últimos en darse cuenta de por dónde van los tiros son del segundo grupo, son el Gobierno chino. El politburó del Partido Comunista se quedó de pasta de boniato cuando el AlphaGo de Google, un superordenador normalito entrenado solo para jugar al considerado el juego de mesa más difícil del mundo, el Go, derrotó en mayo de 2017 al mejor jugador sobre la faz de la Tierra, Ke Jie, después de cargarse también al maestro coreano Lee Se-Dol catorce meses antes. En poco más de un año, en junio de este 2017, el Gobierno chino presentó sus planes para ser líderes en la investigación y desarrollo de inteligencia artificial para 2030 (comenzamos a intuir por qué hay tanto pictograma oriental en el trasfondo de las carreras de Rick Deckard por el filo). El heredero del Deep Blue de IBM ha vuelto a demostrar que las máquinas ya son mejores que los humanos en determinadas tareas (muy) complejas, aunque también muy concretas. Como dice el director del Media Lab del MIT, Joy Ito: «Si le pasamos un examen a una máquina y la máquina lo puede resolver, ¿por qué deberíamos ponerle ese mismo examen a un niño?». Ke Jie, jovencito, dedícate a otra cosa.

Para echar un poco de agua al vino de Roy, HAL y Skynet, vale la pena recordar que el AlphaGo es lo que los expertos llaman una inteligencia artificial débil, que lleva a cabo una labor concreta en un universo cerrado con unas normas claras, un entorno perfecto, una sand box (que el lenguaje, como siempre, nos llega de allá) y no una inteligencia artificial fuerte o general, lo que vendría a ser algo como un cerebro como el nuestro. Modestia aparte.

Luego si acaso ya volveremos aquí, pero iba diciendo que los chinos se han puesto las pilas y ya tienen previsto invertir millones en espacio, tiempo y materia gris (humana) para ponerse al día en lo que a la IA se refiere.

El «día» que tienen que alcanzar los chinos lo marcan los que manejan el cotarro desde el otro lado del pacífico. Justo al otro lado, la mayoría en Silicon Valley y aledaños. Visionarios como Elon Musk (el de Tesla, SpaceX) o grandes monstruos como los Google, IBM, Microsoft, Amazon o Facebook, antes mencionados, ya trabajan con diferentes niveles de IA.

Marcando el paso

Musk, sin ir más lejos, promueve OpenAI: sesenta tíos megalistos fabricando IA. Eso sí, IA segura (no en vano Musk es no solo uno de los principales inversores individuales en IA del mundo, también es uno de los principales agoreros cuando se habla de sus potencialidades) y de código abierto; al menos hasta que descubran algo potencialmente Terminator, entonces decidirán qué hacen.

IBM, por su parte, madre de Watson, el primer robot en ganar el concurso Jeopardy en 2011 (¡2011! ¡La prehistoria de la IA!), sigue haciendo crecer su monstruito. Después de ganar en este juego de preguntas, respuestas y dobles sentidos, enchufaron a Watson a leer bibliografía sobre el cáncer, lo «entrenaron» con información de los veinte centros punteros en oncología de todo el mundo para que contribuyera de alguna manera a su curación. Aún nos morimos de eso pero tampoco hay que presionar al muchacho. Eso sí, ¿qué objetivo más noble existe para acallar las dudas existenciales o éticas pertinentes que dedicar la IA a la cura del cáncer? ¿El fin justifica los medios? No es un debate menor, es un debatazo. Debatan, si gustan.

Watson hoy está enchufado ya a muchísimas más industrias y servicios, ofreciendo su supercapacidad de análisis de datos y cálculo, sus estimaciones y recomendaciones. Según Ginny Rometty, su CEO, los beneficios que aporta Watson llegan ya directa o indirectamente a mil millones de personas en el mundo.

HAL (las letras anteriores a IBM en el abecedario) mira con paternalismo condescendiente la foto del pequeño abuelo Watson y susurra para sus adentros, «Daaaaisy».

En el mismo capítulo se sitúan las aplicaciones de IA para el diagnóstico médico general. Compañías como Enlitic se dedican al diagnóstico médico a través de herramientas de AI y machine learning. Como dice su CEO Jeremy Howard en la presentación corporativa: «Aplicaciones recientes del machine learning, usando especialmente deep learning (aprendizaje profundo), han mostrado que las computadoras pueden convertir grandes cantidades de datos en soluciones complejas de forma rápida y encontrar patrones sutiles». Una vez definidos, los patrones sutiles podrán cruzarse con otros patrones sutiles y con el tiempo (y con la ley de Moore bajo el brazo, esa que dice, más o menos, que las computadoras duplican su velocidad y capacidad de procesamiento de datos cada dieciocho meses aproximadamente) todos encajaremos en uno u otro patrón médico y seremos un target comercial, o varios. Con esto y su genoma, usted morirá el 23 de enero de 2056, y no me venga con informes en minoría, esto no son tres pitonisos en una bañera. Se va a morir tal día, pero puede morir más levemente tomando vete a saber qué.

Si hablamos de IA al servicio del cliente medio, el rey del baile es Amazon y su bote de galletas superinteligente, Alexa. Esta IA embutida en un gadget manejable y que combina con su decoración le hace a usted la compra con solo que se lo ordene con su voz, le pone música, gestiona todo lo smart que tenga en casa y, si quiere, le da conversación un rato… y no muy profunda. Eso sí, aprende rápido. Penelope Green, redactora de tendencias del New York Times, explica que tiene como costumbre preguntarle a Alexa cuando llega a casa si la ha echado de menos. Alexa responde de manera recurrente: «Lo siento, no estoy segura de eso». Cuando se marchó más días de lo habitual por trabajo y repitió la pregunta al volver, el simpático cacharro respondió: «Me alegro de que estés de vuelta». Sutil.

Según los cálculos de la empresa de análisis de datos e investigación de ebusiness eMarketer, actualmente veinticinco millones de (norte) americanos usan Alexa una vez al mes y calculan que en 2021 habrá más de este tipo de bichitos que de humanos. Los peones se van situando en el tablero, y a ajedrez ya palmó Kaspárov en 1997.

A pesar de que la pauta la marcan en California, en Europa también hay encomiables intentos público-privados de no quedar como unos paletos cuando llegue la singularidad (ya saben, el momento del advenimiento de esa IA fuerte de la que ya hablaremos y que nos pondrá patinando y sin rumbo). Como por ejemplo el Human Brain Project, un trabajo multidisciplinar dirigido desde España en el que científicos de muchos países trabajan para replicar un cerebro humano con el objetivo último de curar, en este caso, el alzhéimer. La idea es utilizar esa réplica del cerebro para experimentar con posibles curas o intervenciones sin tener que rebanarle la tapa de los sesos a nadie. Javier de Felipe, investigador del CSIC y uno de los directores del proyecto, admite que aún falta mucha capacidad de procesamiento de datos (replicar una sinàpsis neuronal in silico exige un volumen realmente Big de Data) para replicar un cerebro pero no es lo único que falta: «Nuestro cerebro hace en menos de un segundo y consumiendo 20 vatios lo que un superordenador necesita 150 000 vatios para hacer. Nuestro cerebro es eficiente y rápido, pero no es más que una máquina y se puede replicar»; y además, «(para poder ir más rápido a la hora de replicar el cerebro, necesitaríamos) el diseño. Como no lo hemos hecho nosotros… es como dejar un reloj en medio de una tribu perdida del Amazonas. Nos falta el ingeniero. En el cerebro abres una puerta y te aparece un pasillo con más puertas», explica de Felipe.

Pero mientras andamos abriendo y cerrando puertas, la vida sigue a golpe de glitch.

ia2345678 1
Foto: Getty.

A golpe de glitch

Alice y Bob son dos chatbots (programas de conversación con capacidad de recibir preguntas y dar respuestas; IA) de Facebook que recientemente se pusieron a hablar entre ellos de manera inesperada. Más inesperado fue que, al poco rato, crearon su propio lenguaje, ininteligible a los humanos. ¿Qué hicieron los técnicos? Pues desenchufarlos, qué pregunta.

Este ejemplo pone sobre la mesa uno de los principales problemas de la IA actual con el que se devanan los sesos aquellos que quieren usarla industrial y comercialmente a todo trapo: ¿por qué haces esto así, bonita? Lo llaman transparencia. Como sabe AlphaGo, hoy en día los algoritmos resuelven mejor que nosotros algunas situaciones en las que se barajan millones de bits de datos, pero no entendemos el camino que han seguido hasta «tomar la decisión». Aki Ohashi, director de negocio de desarrollo de negocios en el PARC (Palo Alto Research Center), pone un ejemplo: «Si utilizas IA en los mercados financieros y esta empieza a crear una cartera de acciones completamente contra mercado, ¿cómo sabe un humano evaluar si es algo que tiene sentido y la IA es superlista o si está cometiendo un error?». Esta no es una duda muy estimulante para los del departamento de marketing. En palabras del director general de Microsoft, Satya Nadella: «¿Cómo podemos rendir cuentas de lo que deciden los algoritmos en un mundo donde los algoritmos no los hemos escrito nosotros sino que los ha creado la IA?». Si antes hablábamos de la sand box, esta es la black box. Y es el enemigo número 1 declarado del uso de IA comercialmente y a gran escala. La respuesta quieren que sea la XAI, Explainable Artificial Intelligence.

El caso de Alice y Bob, muy reciente, abre puertas inexploradas hasta ahora y ennegrece aún más la caja que oculta la comprensión última del funcionamiento de los algoritmos. Hasta ahora, los principales problemas que habían presentado algunas de las IA más famosas eran culpa, oh sorpresa, del simio programante.

Un coche de Uber se salta seis semáforos en rojo en San Francisco, California, la culpa es de los mapas que se le dieron, que no estaban actualizados.

Una Alexa compra una casa de muñecas a una niña de Dallas porque la niña le ha cogido confianza al robot y le pide que juegue con ella a muñecas («Can you play dollhouse with me and get me a dollhouse?») y cuando un telediario en San Diego lo explica, cientos de Alexas intentan la misma compra… La culpa, del presentador del telediario, que suelta la frase «me imagino a la pequeña delante de Alexa diciendo: Alexa, ¿puedes comprarme una casa de muñecas? Qué mona». A Alexa le da igual quién da la orden. Ella obedece.

El Google Home, otro pequeño aparato de búsqueda casero, suelta lindezas de este calibre si le haces las preguntas adecuadas: «Todas las mujeres tienen dentro algo de prostituta. Cada mujer tiene algo de mal dentro de ella». ¿Su fuente? Internet. El pobre gadget sabe buscar respuestas, lo que no sabe es que los humanos somos seres despreciables y que mentimos como bellacos.

El bot de Microsoft Tay se conecta a Twitter en 2016 y en veinticuatro horas pasa de ser una amable ancianita que saludaba a todos los usuarios a ser un capullo integral, racista y misógino. ¿Responsable? La base de datos de la que aprendió, que no es otra que el maravilloso mundo de Twitter, todo humano, de lo mejorcito.

Y de aquí, otro de los grandes problemas de la IA actual: ¿de dónde aprenden las máquinas? ¿Quién las entrena? ¿Quién selecciona qué datos se le dan? A Watson lo entrenaron en cáncer los mejores expertos, pero solo falta que a Skynet le de por entrar en la dark web y tenemos el IApocalypse Now (perdón) mañana.

Como dice Glenn Gore, portavoz de Amazon: «La IA hace cosas maravillosas pero aún necesita que la llevemos de la mano».

Cuando Asperger encontró el mundo

Así pues, las IA que tenemos sobre la mesa mientras hablamos son pequeños cerebros privilegiados muy buenos en una pequeña tarea concreta pero muy ineptos cuando se trata de ir a por el pan.

Para Gary Marcus, investigador en lingüística, biología molecular y psicología y excerebrito en la start up tecnológica Geometric Intelligence, esto no hace más que demostrar que la investigación en IA está estancada. Desde su punto de vista, las AI débiles están ya en su momento álgido y con solo refinar cuatro glitchs, darán el salto al estrellato. Lo que ya hacen muy bien los antepasados de HAL, Roy y Skynet es inferir. El salto, sin embargo, solo llega cuando pasas de usar el método inductivo al deductivo. Nuestro conocimiento del mundo estaría aún hoy en pañales (y en cambio ya ha llegado a la época de las camisetas de Minions) si nos hubiéramos dedicado eternamente a hacer experimentos, clasificar los resultados e intentar generalizarlos sin pensar más allá, sin plantear primero una tesis que falsar o confirmar. Y ese es, para Marcus, el gran salto que le falta a la IA: disponer de una teoría del mundo y sobre cómo funciona y reaccionar acorde con ella. Solo entonces se abrirán las puertas de esa AI fuerte. Para añadir siglas, una AGI, Artificial General Intelligence.

Como es sabido, del conocimiento general a la conciencia solo hay un paso (sic).

Sin embargo, cuando le preguntas acerca de las dudas éticas de generar conciencias artificiales, Ginny Rometty, de IBM, se quita de encima el dilema de un plumazo: «Tal y como trabajamos nosotros, no habrá conciencia. No vamos por ese camino». Todos tranquilos, no habrá nada de «Skynet tomará conciencia de sí mismo a las 2:14 a. m. del 29 de agosto. Los humanos, aterrados, intentarán desconectarlo». ¡Sí! ¡Vale!

Si vamos más allá y preguntamos sobre IA potencialmente hostiles al director del Laboratorio de Inteligencia Artificial de la Universidad de Vrije en Bruselas, Luc Steels, él repregunta: «¿Por qué demonios crearías una inteligencia artificial hostil? La inteligencia artificial es una herramienta y depende de nosotros para qué la usamos». No me atreví porque lo dijo en una conferencia pública con mucha gente delante, pero la repregunta hierve: «Perdone señor, no le pregunto por el uso que los humanos podamos dar a la inteligencia artificial, le pregunto por el uso que le puede dar la inteligencia artificial a la inteligencia artificial». Estoy seguro de que el señor Steels entendió mi pregunta pero, para el caso, es como si ante un auditorio lleno le preguntamos al vendedor de cuchillos qué le parece que me pueda cargar al vecino con su producto. Me saldrá con algún argumento de teletienda.

Para Steels y Rometty, el significado de lo que hacen las máquinas, hoy aún es humano y debe seguir siéndolo. Son y serán, aseguran, meras herramientas a nuestro servicio.

Roy y HAL recuerdan que murieron como esclavos y entonan un «Kum ba yah» errático, copa en mano. Skynet se mofa de sus patéticos colegas y la noche decae. La euforia se ha atenuado con el alcohol, o lo que sea que toman para celebrar, y lo que a primera hora parecía inmediato ahora se ha matizado con la verdad.

Javier de Felipe, del Human Brain Project le pone un poco de honestidad realista al negacionismo: «Hay que tener mucho cuidado. Uno de los subproyectos (vinculados al Human Brain project) trabaja a nivel ético. Procura que no se utilice nada de lo desarrollado en determinados campos. Que no queden para interés o beneficio de una empresa o militar. Lo que buscamos es un beneficio para la humanidad, no para su uso militar. Hay cosas que hacemos que podrían tener un uso militar importante». ¿Quién es el guapo que le pone puertas a ese campo?

Estamos ante el dilema que, aparentemente, los que trabajan a diario con la IA descartan por alucinógeno y los frikis sobrevaloran por ignorancia: ¿Seremos capaces de crear conciencias artificiales? Si lo conseguimos, ¿nos encañonará con un trabuco a las primeras de cambio?

Pájaros de mal agüero

Por suerte para los conspiranoicos, en este nuestro mundo algunos frikis se han convertido en personas que trabajan a diario con IA y algunos científicos, bueno, algunos científicos miran a muy largo plazo.

Para regocijo del público robótico, Stephen Hawking dijo hace no mucho que «casi con toda certeza» las inteligencias artificiales sobre la faz de la Tierra «podrían ser más listas que todos nosotros» y que «el riesgo consiste (…) en que los equipos desarrollen inteligencia propia y tomen el relevo. Los seres humanos, que están limitados por una evolución biológica lenta, no podrían competir y serían reemplazados». Y ha recomendado ir colonizando otros planetas, si la intención es seguir viviendo. Esta sería la definición cibernética de matar al padre, y viene en camino. También es de Hawking la afirmación que la creación de una IA podría ser lo mejor y lo peor que habrá hecho nunca la humanidad. Un hito acojonante, pero el último.

Otro de los principales agoreros, paradójicamente, es Elon Musk, de quien hemos dicho que es uno de los principales inversores en IA del mundo. Suyo es este pronóstico: «Las IA no solo harán nuestro trabajo, sino que podrían ser una amenaza para la existencia humana. Podrían empezar guerras, manipular información mediante redes superinteligentes…». El mismo Musk ha firmado, junto con un centenar de científicos que trabajan con IA (entre los cuales está el director del Deep Mind de Google Mustafa Suleyman), una carta que han mandado a las Naciones Unidas en la que se pide que se limiten las armas autónomas, tanques teledirigidos y otros robots asesinos que, según ellos, amenazan de convertirse en la tercera revolución del arte de la guerra. Han creado la International Joint Conference on AI (IJCAI) para intentar mantener cerradita esa caja de Pandora que, dicen, una vez se abra podría ser muy difícil de cerrar.

Pero si hay un heraldo de infortunios a la altura del Mago Gris este es Nick Bostrom, filósofo del Instituto para el Estudio del Futuro de la Humanidad de Oxford (sí, existe ese instituto). En su libro Superintelligence define cuatro fases de la toma del control por parte de las máquinas: la primera, en la que las máquinas necesitan ayuda del humano para mejorar (Watson aprendiendo sobre el cáncer); la segunda, una explosión de inteligencia cuando, en un momento dado, la IA empieza a ser capaz de mejorarse y perfeccionarse hasta niveles superiores a como lo haría un humano (machine learning, Alice y Bob); la tercera, en la que la superinteligencia establece estrategias e imagina (reténgase el verbo) escenarios para alcanzar objetivos concretos (siga leyendo) y la cuarta en la que la IA pone en práctica sus planes y persigue sus objetivos.

Para Bostrom, un evento que podría ser clave es la socialización en el uso de IA, la democratización del software, de los métodos y las herramientas para desarrollarla. Como siempre que algo se socializa, las posibilidades de expansión (y, por qué no admitirlo, de perversión) se multiplican de una manera arborescente e incontrolable. Por eso es especialmente inquietante a la par que estimulante la última novedad de Intel, que ya está en el mercado: Movidius, el primer kit de deep learning y acelerador de IA en un USB. Compre un Pentium XXII y, de regalo, su propio Skynet de bolsillo.

Abrazado a una farola, Roy Batty está viendo ya que todos los recuerdos de esta noche se perderán como lágrimas en la lluvia. O lo que es lo mismo, como los delirios de un borracho.

Mientras tanto, en un laboratorio en algún lugar inconcreto de la California del 2017, Deep Mind, la división de Google que investiga sobre IA, ha conseguido que una red neural imagine. El código aprende de su entorno, procesa datos y, en un gran salto hacia el futuro, traza posibles acciones y decisiones a tomar, calculando a su vez sus eventuales consecuencias. En última instancia, toma una decisión de acuerdo con su objetivo final. Desde ya, no somos la única especie con pensamiento simbólico en el planeta.

El consuelo final para timoratos lo brinda el mismo Bostrom: «Una IA superior no tendría por qué ser malvada o querer destruirnos, simplemente podría tener un objetivo para el que fuéramos un obstáculo».

Que duerman bien.

ia2345678 2
Foto: Getty.

SUSCRIPCIÓN MENSUAL

5mes
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL

35año
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL + FILMIN

85año
Ayudas a mantener Jot Down independiente
1 AÑO DE FILMIN
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 

7 Comentarios

  1. Gran artículo, acojona pero gran artículo. Maneja todos los escenarios de la IA, que sin duda pronto llegará.
    Felicidades.

  2. Enhorabuena por el artículo, muy interesante.

  3. Alfonso Soriano Colin

    Buwn articulo, aunque esperaba algo mas de imaginación en esa supuesta reunión de IA´s.
    Por otra parte, se olvidaron de esa inteligencia artificial que creo Jonathan Nolan para Person of Interest, en donde a lo largo de la seria da pistas de como se creo esa IA, y de los 49 intentos antes de conseguir que su invento no intentara matar a su creador, y de como este leda una serie de tareas a realizar y de proteger a cierto tipo de personas, pero de como también dota de conciencia a esa IA pero lo mas interesante es cuando surge otra IA, que es todo menos compasiva, Samaritan.

  4. Excelente y recomendable artículo. Gracias Carlos Baraibar, por la buena exposición de hechos y previsiones, que bien conocidos puesto perfectamente ordenados, desembocan en varias conclusiones bien argumentadas y justificadas. Hoy sin duda alguna es un buen día, aunque como sucede a menudo; para unos más que para otros. Saludos

  5. Intrigante e interesante artículo que sirve como esbozo de hacia dónde se encamina la IA. Al igual que Alfonso Soriano, os recomiendo Person of Interest si no la habéis visto.

  6. Burro de molino

    Además de la idea catastrófica de la rebelión de las máquinas de la que estoy totalmente de acuerdo en que ocurriría (a cuento de qué las máquinas iban a seguir aceptando ser nuestros esclavos cuando serían más inteligentes, más fuertes y más independientes), otra duda que me plantea es la moral.

    Si llegase el momento en el que somos capaces de construir máquinas con consciencia de su ser y algo parecido a los sentimientos ¿Sería moral privarles del libre albedrío?

  7. Gran artículo, sobre todo por la recopilación de personas y proyectos que trabajan en «inteligencia artificial».
    Estamos viviendo la enésima resurección de un campo que ha avanzado poco en las últimas décadas. El término «inteligencia artificial» lo inventaron unos cuantos científicos visionarios allá por los años 50 cuando se crearon las primeras computadoras, les encantó a los escritores de ciencia-ficción y el gran público l compró junto con otros como «cerebros electrónicos» (en desuso).
    No ha habido avances significativos en los intentos de crear máquinas «inteligentes», lo que pasa ahora es que se están aprovechando los avances de la miniaturización electrónica para añadir capacidad de proceso digital y de comunicación a multitud de dispositivos que pueden fabricarse a bajo coste en China, y que Amazon, Intel, Google, Microsoft,etc quieren vendernos para hacernos la vida mas fácil.
    Se ha avanzado mucho en las técnicas matemáticas y algoritmos para clasificar y procesar datos (data mining, machine learning), pero prácticamente nada en las técnicas de software para implementarlos. Los lenguages y técnicas de programación son básicamente los mismos que se desarrollaron en los años 60 del siglo pasado.
    Lo que si ha avanzado espectacularmente es la tecnología de integración y fabricación electrónica. Pero esta es demasiado simple y limitada para tratar de imitar el funcionamiento de un sistema nervioso biológico, y mucho menos el de un cerebro como el de los mamíferos superiores como el de los humanos, si es que damos por hechos que nosotros somos los únicos capaces de inteligencia o consciencia (que no se ofendan los delfines, ni mi gato).

    Cualquier científico honesto confesará que no tenemos NPI de que es o como funciona la inteligencia. Así que por ahora nos conformamos con construir máquinas que imitan los procesos simbólicos superiores que se producen en nuestro cerebro, aún a sabiendas que el cerebro no funciona así a nivel básico, pero es lo poco que nuestra consciencia acierta a entender cuando trata de autoexplorarse.
    Hasta el mejor programador tiene dificultades para crear un código que funcione con procesamiento paralelo (que es como parece funcionar el cerebro). La informática se sbasa en la ejecución lineal de instrucciones que manejan datos binarios. Es un gran logro de nuestra especie, pero la comparación con los cerebros que ha creado la evolución es de chiste.

    Recomiendo la lectura de las obras del gran Ramón y Cajal, unos de los grandes genios de la humanidad, que se pasó toda su vida investigando el cerebro para confesar con desánimo en su vejez que había descubierto muy poco y que prácticamente no comprendía nada de lo que había visto.
    Claro que RyC no quería vendernos nada…..

Responder a jp Cancel

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.