Entrevistas Ciencias

Francisco Herrera: «Prohibir las herramientas de la inteligencia artificial sería un sinsentido. Ignorar las nuevas tecnologías está a mitad camino entre el miedo y el desconocimiento»

Francisco Herrera para Jot Down

Francisco Herrera (Jódar, 1966) es andaluz, jienense, afincado en Granada, y uno de los científicos más citados en inteligencia artificial (IA), la disciplina que probablemente tenga actualmente la tasa de cambio de conocimiento más alta y también la que está llamada a revolucionar la organización de nuestras sociedades. Colocarse en los primeros puestos de la investigación en este campo es realmente difícil para cualquier investigador, pero especialmente si trabaja fuera del downtown científico. Gracias a este científico y a un puñado de investigadores sobresalientes, la visibilidad y el impacto a nivel mundial de la IA granadina está por encima de cualquier otra universidad española, en tercera posición a nivel europeo y en la treinta y tres a nivel mundial, según el reciente ranking U.S. NEWS.

Paco, tú eres de un pueblo de la provincia de Jaén ¿no? 

Sí, de Jódar, en Sierra Mágina. Mi padre era agricultor, tenía un pequeño huerto junto a su hermano; vendía las hortalizas que cultivaban en el mercado. Mi destino era seguir con eso. 

¿Cómo acaba un niño de campo siendo un gran experto en inteligencia artificial?

Pues a fuerza de empeño, de tesón, y de becas. Mi madre se quedó viuda cuando yo tenía nueve años. Cuando le planteé que quería estudiar, ella no lo entendía y en el mejor de los casos quería que yo estudiara Magisterio en Úbeda y siguiera cerca, pero a mí me gustaban las matemáticas. No cejé en mi empeño y me vine a la Universidad de Granada a estudiar Matemáticas, gracias al sistema de becas de los años ochenta. Aquí empieza mi contacto con la informática en los últimos años de carrera. 

¿Hiciste el doctorado también en Granada?

Sí, ese fue otro dilema en mi vida. Porque al terminar la carrera, Merche, mi mujer, y yo, nos apuntamos a la bolsa de plazas de profesor sustituto de instituto en Ciudad Real, y nos llamaron para participar en el proceso de asignación de vacantes. Yo estaba entre irme de profesor de instituto o quedarme en la universidad a estudiar los cursos de doctorado en inteligencia artificial, como paso previo para trabajar en la empresa. Hasta los últimos días no sabía si hacía la maleta y me iba a Ciudad Real o me quedaba para continuar estudios en Granada. En ese periodo, en septiembre, salieron unas plazas de profesor asociado para el Departamento de Ciencias de la Computación e Inteligencia Artificial, opté a ellas y me convertí al poco de acabar la carrera en profesor asociado, algo que jamás había pensado ser. Y hasta hoy. 

¿Te fuiste al extranjero a formarte como postdoc como es lo habitual? 

No, yo no he seguido ese camino. En aquel momento estábamos cargados de clases con treinta y seis créditos por año. He realizado estancias cortas fuera de España, pero no largas estancias de dos años de postdoc como es habitual ahora. Tiempo después entré en la vorágine de publicar y no teníamos tiempo ni de pensar en salir. Estábamos sacando decenas de papers al año y pronto vinieron a visitarnos muchos colegas extranjeros, que estaban interesados en lo que estábamos haciendo.

Y los estudiantes que están haciendo el doctorado ahora en inteligencia artificial en Granada, ¿se van a estudiar fuera después o los retienen vuestros proyectos y las empresas del sector? 

En inteligencia artificial muchos de los estudiantes de doctorado se van al sector privado, las empresas los demandan, incluso antes de que terminen el doctorado. Los que quieren seguir la senda académica sí que se suelen hacer estancias postdoc en grupos de investigación extranjeros. 

¿Cómo tenéis organizada la investigación en IA en Granada? 

En la Universidad de Granada, por una parte, está el Departamento de Ciencias de la Computación e Inteligencia Artificial, del que soy catedrático, organizado en torno a nueve grupos de investigación. También hay investigación en IA fuera del departamento, tanto en informática como en otras especialidades (telecomunicaciones, matemáticas, ingeniería civil…). Además, tenemos el Instituto Andaluz Interuniversitario DaSCI (Data Science and Computational Intelligence) que aúna los esfuerzos de varios equipos de investigación de Granada, Jaén y Córdoba, con unos doscientos miembros, aproximadamente la mitad de ellos doctorandos. 

Tú eres uno de los científicos más citados en el campo. ¿Por qué? ¿Cuáles son las contribuciones que habéis hecho tú y tu grupo para tener tanto impacto en inteligencia artificial?

Bueno, han sido un conjunto importante de contribuciones. Mi línea de investigación primaria es lo que llamamos inteligencia computacional o soft computing, que consiste en emular el razonamiento tanto humano, mediante computación por palabras, como el de otras especies, para desarrollar sistemas inteligentes imitando a la naturaleza. Por ejemplo, se imita la evolución darwiniana de especies (algoritmos genéticos), o el comportamiento de las colonias de hormigas en el proceso de recoger comida (algoritmos de colonias de hormigas) o el proceso de comunicación neuronal, sinapsis, del sistema nervioso (redes neuronales)…

También la biomimética ha entrado en la IA.

Totalmente. También en este ámbito, utilizando computación por palabras, hemos desarrollado modelos de toma de decisiones, diseñando modelos de consenso entre expertos que evalúan diferentes alternativas. Posteriormente compaginé estas líneas con la ciencia de datos, el aprendizaje automático, el big data, el preprocesamiento de datos para obtener datos de calidad. Y recientemente modelos de «inteligencia artificial fiable» que se apoyan en tres pilares: ética, ley y robustez, es decir, una inteligencia artificial que cumple la ley, basada en principios éticos y que sea segura en su uso.

En estos ámbitos nuestra investigación ha sido bastante de frontera y ha atraído la atención de muchos investigadores con una citabilidad alta en muchos artículos científicos. Algunos artículos con miles de citas, trabajos que proponen modelos metodológicos que han sido muy utilizados por otros autores en sus desarrollos posteriores. Siempre he sido inquieto, he ido buscando salir de la zona de confort, buscar nuevas líneas que expandiesen nuestro trabajo, y hemos acertado en ello si consideramos el impacto de nuestra investigación.

Francisco Herrera para Jot Down

Y ahora, ¿en qué estás más enfocado?

En cuanto a desarrollos metodológicos estoy bastante centrado en temas de inteligencia artificial fiable, en líneas como la «explicabilidad» de los modelos de aprendizaje profundo, la privacidad de los datos, el análisis del sesgo en los datos, la robustez de los algoritmos, y en diferentes aplicaciones. La «explicabilidad» es esencial para poder entender por qué un sistema inteligente toma una decisión, cómo razona internamente. La privacidad de los datos tiene asociada modelos de aprendizaje automático que utiliza diferentes silos de datos, modelos locales que se fusionan para generar un modelo general, esto se denomina aprendizaje federado, preservando la privacidad y sin necesidad de mover los datos, ya que solo se transfieren los modelos de aprendizaje.

En cuanto a toma de decisiones, trabajamos utilizando las opiniones de expertos expresadas en lenguaje natural en redes sociales, utilizamos aprendizaje profundo para procesar las opiniones y extraer la valoración sobre diferentes criterios de calidad para seleccionar recomendaciones, es la construcción de modelos de decisión en escenarios de multitud de expertos opinando sobre cualquier evento, restaurantes, monumentos…

¿Cómo definirías la inteligencia artificial?

La inteligencia artificial es la ciencia e ingeniería para crear máquinas (físicas o software) que se comporten de una forma que llamaríamos inteligente si un humano tuviese ese comportamiento. Esta es la definición que dio John McCarthy en el año 1955 y que sigue vigente. Esas máquinas son hoy en día imbatibles en ajedrez, como Deep Blue, una máquina que ganó al campeón del mundo de ajedrez. El ejemplo más simple podríamos situarlo en un cajero automático, que con un conjunto simple de reglas es capaz de darnos el dinero que solicitamos y es una aplicación de los años 70 y 80. Los robots aspiradora comenzaron a entrar en nuestras vidas en los años 90. Y actualmente interactuamos con asistentes de navegación para guiarnos en una ruta, los sistemas de recomendaciones como los de Amazon para sugerir compras o Netflix para sugerir películas, los asistentes virtuales en los móviles o en nuestras viviendas… Un modelo de sistema inteligente más avanzando conduce de forma autónoma, los coches autónomos sin conductor. Los sistemas inteligentes harán parte de nuestro trabajo, de prácticamente todos nuestros trabajos el día de mañana.

Sí, es impresionante el impacto que va a tener en nuestra forma de vida. Nos sorprendemos de los cambios que han ocurrido entre nuestra generación y la de nuestros nietos, pero serán nimios comparados con los cambios que ocurrirán entre la de ellos y la generación de sus nietos e incluso la de sus hijos. 

Efectivamente. Es difícil de imaginar los cambios que nos esperan en los próximos veinte años y más difícil todavía los que vendrán después. 

Ahora sí es verdad eso de que en vez de ir nosotros hacia el futuro es el futuro el que se nos echa encima.

¡Y de qué forma! Basta ver el avance en el impacto de la inteligencia artificial que se ha dado en el último año. En 2022 ha habido una eclosión de la inteligencia artificial, se volvió creativa. Los modelos de IA ya pueden producir texto, imágenes e incluso vídeos convincentes con solo unas indicaciones de texto: DeepMind Flamingo (Google), DALL-E 2 (OpenAI), Make-A-Scene (Meta), ImagenVideo (Google), ChatGPT (OpenAI), LaMDA (Google), Midjourney… Desde jugar al ajedrez, crear arte, encontrar estructuras de proteínas, o mantener conversaciones… cada vez hay más tareas que pasan el test de Turing, es decir en las que cuesta distinguir si algo ha salido de un cerebro humano o de un sistema inteligente. El ritmo de la innovación en 2022 ha sido tremendo, a veces, abrumador. 

¿Quién podría haberlo previsto? 

Ha sido una eclosión más rápida de lo esperado. La inteligencia artificial está empezando a conquistar dos ámbitos que los humanos siempre hemos considerado un espacio propio, la creación artística de imágenes, con todo lo que esta representa, y el lenguaje. Ambas capacidades han dejado de ser exclusivamente propias, privativas de los humanos.

¿Y por qué ese acelerón en los últimos meses? 

La tecnología y la disponibilidad de datos masivos. En el noventa y mucho por ciento de las aplicaciones de inteligencia artificial lo que impera es aprender a partir de datos, extraer modelos que aportan conocimiento que están en esos datos. Es lo que se llama aprendizaje automático (en inglés machine learning). 

Espera, perdón, ¿qué es el aprendizaje automático?

El aprendizaje automático es un área central de la IA actual. De forma simplificada, podríamos decir que el aprendizaje automático utiliza datos y respuestas para descubrir las reglas o patrones subyacentes a un problema. El aprendizaje automático engloba principalmente tres familias de tecnologías, denominadas aprendizaje supervisado, no supervisado y por refuerzo. En el aprendizaje supervisado el algoritmo aprende a partir de ejemplos o de datos etiquetados. Este proceso de aprendizaje es similar al proceso de aprendizaje humano, el cual requiere que un supervisor (maestro) enseñe el significado de los ejemplos para que el humano los pueda identificar y generar nuevo conocimiento. Por ejemplo, supongamos que queremos distinguir imágenes de gatos de las de perro. Hemos de enseñar al sistema diferentes fotos digitalizadas de gatos y perros, las procesará, aprenderá un modelo que trabajando sobre los pixeles de la imagen pueda posteriormente procesar una imagen y dar como acción la clase asociada a ella (gato o perro). Actualmente los métodos de aprendizaje automático que están marcando el estado del arte en la mayoría de los problemas de clasificación o regresión son las redes neuronales y el aprendizaje neuronal profundo. 

¿Y el aprendizaje no supervisado?

El no supervisado trata de encontrar patrones a partir de datos no etiquetados. Es un proceso de búsqueda de similitudes entre los datos, categorizándolos, para así predecir nuevos comportamientos. Dentro de este tipo de aprendizaje destacan los algoritmos de segmentación (en inglés clustering). Una aplicación clásica es la segmentación de clientes en los bancos, aseguradoras … atendiendo al ingreso y otras variables.

¿Y el aprendizaje por refuerzo? 

Siguiendo con la analogía entre el aprendizaje automático y el humano, el aprendizaje por refuerzo requiere de elementos de refuerzo para premiar el correcto aprendizaje (refuerzo positivo) y para castigar los errores cometidos (refuerzo negativo). Este mismo esquema puede aplicarse al aprendizaje automático, y es lo que se conoce como aprendizaje por refuerzo (en inglés reinforcement learning). Un ejemplo clásico es el uso de estos modelos para diseñar sistemas inteligentes para jugar a los videojuegos. Por ejemplo, el sistema inteligente denominado Agent57 de la empresa DeepMind Google aprende a jugar a cincuenta y siete videojuegos retro de consolas clásicas de Atari (entre ellos el comecocos), logrando en todos ellos superar a la media de los jugadores humanos.

Pero lo que particularmente ha eclosionado dentro del aprendizaje automático es el aprendizaje profundo (en inglés deep learning), modelos neuronales con muchas capas de neuronas artificiales que han permitido procesar las imágenes mejor que los algoritmos de aprendizaje automático clásicos. Fue en el año 2012 cuando se llegó a alcanzar un resultado impresionante en la competición ImagineNet (un problema de clasificación de más de veinte mil clases de imágenes, entrenando con varios millones de imágenes). El modelo de deep learning AlexNet mejoró en un 10 % los resultados previos alcanzados (la llamada medida Top-5); fue el momento de eclosión. AlexNet ha inspirado la creación de nuevos modelos de deep learning durante estos últimos diez años, con una capacidad de procesar imágenes y vídeo tremendas, y esto, como he comentado, ha explotado en el año 2022 (sistemas inteligentes de generación de imágenes a partir de texto como Dall-E 2, Midjourney, Stable Diffusion…). En paralelo, se han desarrollado grandes modelos de procesamiento de lenguaje basados en deep learning, en inglés large language models, que nos han asombrado por su calidad en los últimos meses. 

Todo eso en cuanto a la algorítmica.

Pero además de esos cambios importantes en el desarrollo de los algoritmos que se usan, lo que ha ocurrido es que grandes compañías como Google y OpenAI han olido el negocio y han realizado una enorme inversión económica, metiendo mucho talento, disparando la capacidad de computación y de procesamiento masivo de imágenes y de texto, y poniendo a disposición de los algoritmos enormes bancos de datos. Todo eso tiene una historia de desarrollo y cambio de paradigma en los últimos años. 

Cuéntamela.

Hace más de veinte años se produce uno de los grandes logros de la IA. Ganar un torneo de ajedrez al mejor maestro humano. El reto era tremendo. En el año 1996, el famoso ordenador de IBM Deep Blue, era capaz de evaluar cien millones de posiciones por segundo. Le ganó la primera partida a Garri Kaspárov, pero perdió el torneo. Al año siguiente en el 97, la máquina es mejorada técnicamente con estrategias de IA, y además se duplicó la capacidad de cálculo, para evaluar doscientos millones de posiciones por segundo; Deep Blue derrotó a Kaspárov 3.5-2.5. Era un modelo que usaba el ámbito simbólico de representación, el cálculo simbólico, el procesamiento clásico hasta ese momento, y su potente capacidad de cálculo. 

No neuronal.

Efectivamente, no neuronal, no aprendía de la experiencia, y ahí voy. En este siglo se produce el cambio de paradigma, se produce con la eclosión del aprendizaje profundo y el aprendizaje basado en datos masivos y el cambio de paradigma frente a la inteligencia artificial simbólica. En el año 2014, Google compra una empresa llamada DeepMind que estaba haciendo desarrollo de modelos neuronales para aprendizaje por refuerzo, y estaban teniendo avances muy importantes. Pronto presentaron modelos para jugar a los famosos videojuegos de Atari, el Comecocos y otros juegos. Habían conseguido entrenar a la máquina para jugar a estos videojuegos, y ganar en trece de ellos a los humanos. Por ejemplo, en el juego de los bloques, que tratas de romper un muro de ladrillos con una paleta y una pelota, la máquina había aprendido que si colocas la pelota en la esquina entra en la estructura y entonces empieza a romper ladrillos por dentro, y consigue terminar con una precisión y rapidez mayor que los humanos que tendemos a enviar la pelota al centro, a romper la estructura de ladrillitos por el centro. 

Francisco Herrera para Jot Down

Ese juego se llamaba el Arkanoid ¿no? Yo estaba colgado. Aunque el de Atari era anterior y se llamaba Breakout.

Sí, y esto se hizo con sistemas neuronales aplicados al llamado aprendizaje por refuerzo, reforzando las acciones positivas del sistema inteligente que se estaba entrenando. 

¿Deep learning?

Si, deep learning en la modalidad de aprendizaje por refuerzo. 

Como comentaba, esa empresa, DeepMind, estaba desarrollando modelos de gran calidad, y Google, que vio el negocio, la compró por cuatrocientos millones de libras en el 2014. Eran tres socios. Uno de ellos era Demis Hassabis, un niño prodigio del ajedrez, que fue uno de los grandes maestros a los catorce años, que hizo un doctorado en inteligencia artificial en el University College of London, y acabó montando DeepMind junto con otros colegas. Se plantean entonces a un reto mayor, el juego go, un juego de mesa que requiere más creatividad que el ajedrez. En 2016, su programa AlphaGo le gana a Lee Sedol, coreano, el mejor jugador de la historia del go. Y además gana ¡ojo! con estrategias de juego que no se habían usado nunca, que ningún humano había usado antes.

¿Crea nuevas jugadas, nuevas aperturas?

Efectivamente, aprendió a jugar de una forma diferente y mejor que los humanos. Desde entonces, para los que no lo tenían claro, ya no se puede decir eso de que las máquinas no son creativas. 

Un poco más tarde, en el año 2017 DeepMind crea AlphaZero, un sistema inteligente que juega al ajedrez japonés (shogi), a nuestro ajedrez occidental, y al go y que es capaz de ganar sin duda a cualquier humano y que entrena solo, sin intervención humana, solo conociendo las reglas de cada juego. En estos últimos cinco años DeepMind ha seguido presentando resultados impresionantes, creando sistemas inteligentes en diferentes ámbitos de aplicación, plegamiento de proteínas, generación de código, otros juegos de estrategia… Los resultados impresionaron por su capacidad para resolver los problemas abordados. Ya se comenzaba a vislumbrar una nueva era de la inteligencia artificial en esos años. 

En paralelo, Elon Musk, junto con otros líderes tecnológicos crearon la empresa de inteligencia artificial OpenAI en 2015, aunque Elon Musk salió de ella en el año 2018 y ahora es Microsoft la compañía que más está invirtiendo en ella. Estas dos empresas, DeepMind y OpenAI han estado compitiendo desde entonces. 

OpenAI en 2021 informa de la disponibilidad de su sistema inteligente para crear imágenes a partir de texto que se llama Dall-E, un guiño a Dalí, que es como se pronuncia en inglés. Tú le das un texto descriptivo de lo que quieres y la máquina te dibuja una imagen. Ellos mismos se dan cuenta que tienen algo sorprendente, algo nuevo que va a ser impactante. Es verdad que es un modelo por imitación, que aprende de una gigantesca base de datos de millones de imágenes, cada una de ellas descrita por un texto. El sistema es capaz de aprender utilizando lo que se llaman redes neuronales generativas y por sí sola genera imágenes. El éxito de la versión 2D del software de 2022, Dall-E 2, ha sido tremendo. 

Sí, se ha oído hablar mucho de ese programa.

Y no es solo OpenAI. Hay otras muchas empresas que durante el año 2022 han mostrado sistemas inteligentes capaces de generar imágenes. Por ejemplo, Midjourney, que es una empresa pequeña que presenta en julio de 2022 un software para crear imágenes de una calidad impresionante, incluso más realistas que Dall-E. Tiene ya más de un millón de usuarios. En una competición de arte en Colorado, en la Feria Estatal de Colorado, en agosto 2022, hay una modalidad de arte digital, arte creado o retocado digitalmente. Un tal Jason Allen, un experto de videojuegos, crea con Midjourney dos imágenes y las presenta. Y una de ellas llamada Théâtre d’opéra spatial gana el concurso ¡una imagen creada por un sistema de inteligencia artificial! Se montó la de san Quintín porque fue tan alabado como odiado, por la irrupción que supone en el mundo de las artes. Leí que los jueces se disculparon diciendo que nadie les había avisado que eran imágenes creadas por inteligencia artificial. Pero se trataba justamente de eso, de que fuese evaluada por un jurado que no se percatara de que esa imagen había sido creada por una inteligencia artificial.

Era un concurso de imágenes digitales, claro.

Sí, era un concurso de imágenes digitales creadas o retocadas por humanos, y este concursante coló unas imágenes creadas por Midjourney, por una máquina, a partir de un texto.

¿Creamos una imagen con Midjourney para poder ver de lo que hablamos? Nunca mejor dicho

Venga ¿lo tienes instalado en tu portátil?

Sí, por ejemplo, pongamos «club de jazz en blanco y negro».

Ha generado cuatro. Las primeras suelen ser imperfectas. Por ejemplo, ¿ves aquí las manos de la cantante? Son muy deficientes, y tienes que meterle más instrucciones para mejorarla, pero si eres relativamente habilidoso dándole las instrucciones adecuadas, entonces acabas haciendo un excelente dibujo digital. Por ejemplo, si ponemos: «jazz club, beautiful singer women, hiperrealistic, black and white, drawing by Bernie Wrightson».

Fíjate que en el code le hemos escrito «dibujada por Bernie Wrightson», esa es la forma en Midjourney de decirle que dibuje a su estilo. Aquí tienes ya una ilustración muy buena, perfecta para Jot Down, en blanco y negro. [Nota: Jot Down ha publicado ya artículos traducidos con DeepL e ilustrados con imágenes de Midjourney, véase aquí]. 

imparsifal jazz club beautiful singer women hiperrealistic blac 61ae5631 d8fa 4a6a a33d 7d0a11d4e1c6

Es impresionante. ¿Cómo funciona por dentro? 

Cuando escribes un texto descriptivo para Midjourney, la IA primero reconocerá lo que quieren decir las palabras que le propones. A partir de ahí buscará entre los millones de imágenes etiquetadas «club de jazz» y/o «mujer cantante», seleccionará las más relevantes, seleccionará información de cada una de esas imágenes relevantes, y con ella irá rellenando píxeles de la nueva imagen, que será un cuadro original, diferente que cualquier otro, pero que está realizada con pedacitos de información de otras imágenes. Hay un trabajo de etiquetado previo enorme. Y también es capaz de imitar el estilo de un artista, creando una especie de lienzos que evolucionan como una transformación de la imagen del objeto hacia el estilo del autor, atendiendo a las imágenes de ese autor utilizadas en el entrenamiento y en su base de datos de imágenes. Es complicado de explicar, pero es una especie de sofisticado «copy/paste» fusionando imágenes con las que se ha entrenado y con millones de parámetros a considerar.

Todo es tan simple pero a la vez tan potente y eficaz.

Hoy podemos convertir lo que pensamos en lenguaje y el lenguaje en imagen, impresionante. Y ya existe software para crear video a partir de texto. Y esto es imparable. Y en paralelo se han desarrollado grandes modelos de procesamiento del lenguaje (en inglés large language models) que presentan lo que en nuestra jerga se llaman agentes conversacionales, los chatbots, que en estos dos últimos meses han eclosionado, especialmente con ChatGPT de OpenAI. Le puedes pedir que te escriba un texto sobre prácticamente cualquier tema, y el resultado es muy bueno.

Y generando código para WordPress y para PHP, y juegos de rol.

Si, es impresionante. La IA llega para quedarse, y no hay que tenerle miedo. Leí hace unos días que la Universidad de Sevilla ha prohibido el uso de ChatGPT a los estudiantes para hacer trabajos al igual que otras universidades. Pero estas prohibiciones no se pueden controlar. Hay que vivir con esta tecnología, tendremos que aprender e imaginar nuevas formas de enseñar y de evaluar. Lo que ocurre es que todo van tan rápido que se generan continuas incertidumbres.

Hace unos días me contaron la experiencia de un profesor de Filosofía de instituto que hizo una prueba con un ejercicio de selectividad que le ponía a los chavales, era un análisis comparativo de dos textos de filosofía. La respuesta escrita por la IA estaba para un siete y pico. Y una vez que recibió la respuesta le dice a ChatGPT «no has mencionado tal concepto que es muy importante» y ChatGPT le contesta: «Disculpa, ciertamente se podría haber hecho mejor» rehace el análisis del texto, y el nuevo texto ya era para un nueve. Estamos hablando que este sistema inteligente es capaz entender y razonar sobre nuestra interacción con él. 

Bueno…

A ver, este sistema es capaz de leer los textos, interpretarlos y te hace un análisis comparativo. Aceptemos que eso es razonamiento porque tiene que interpretar lo que se le introduce. No te hablo de comprender, que ese es un verbo que todavía está ahí en la frontera del debate de la IA. Vale, no comprende, pero con este chatbot ya empezamos a tener discusiones muy complicadas sobre la inteligencia. Razona, pero no comprende.

Es decir, la IA actual crea textos originales, pero no sabe cómo lo hace. 

Eso mismo. Hemos de aceptar que procesa los conceptos, que hay un procesamiento en pequeñas partes del texto recibido, llamadas «prompt» y es capaz de enlazar una respuesta aceptable, esto lo podemos llamar razonamiento a partir de nuestra entrada de texto.

Ricard Solé, el director del Laboratorio de Sistemas Complejos en Barcelona, decía hace unos días en una entrevista en El País que detrás de estos programas no hay nada, que están muy lejos de hacer algo que sea realmente bueno.

A ver, el otro día también leí que unos profesores prepararon un examen de selectividad a conciencia para que ChatGPT no lo aprobara, en el que le ponían preguntas de las que era muy difícil interpretar y aun así sacó ¡un 5,3!. Estamos de acuerdo en que no es perfecto. Pero ha abierto una puerta a un futuro que vamos a ver qué capacidades tiene en el año 2025 o en el año 2030. No nos quedemos en la versión actual, que tiene dos meses de historia y es aún una versión beta, analicemos estas herramientas con perspectiva de futuro y serán muy buenas. 

Hace unos días estuve hablando de este tema con Nerea Luis, excelente divulgadora en inteligencia artificial, en una visita que hizo a Granada para dar una conferencia. Coincidíamos en que si en el año 2019 ¡hace solo cuatro años! nos hubieran dicho que en el 2022 se crearían imágenes a partir de texto o tendríamos un chatbot que puede superar la famosa prueba de Turing fácilmente, es decir, que sea capaz de convencer a un evaluador externo de que es un humano conversando (una prueba que ahora mismo ChatGPT la pasa sin ninguna duda), los dos hubiéramos dicho que ni pensarlo, que para ambas cosas habría que esperar más de una década. Nunca nadie hubiera dicho en el año 2019 que todo esto estaría pasando en el 22. Esta es la rapidez que comento, con la que avanzan los desarrollos de IA. 

Francisco Herrera para Jot Down

¿Qué relación hay entre lo que vosotros hacéis en el ambiente universitario con lo que están haciendo estas empresas? O sea, ¿cuál es el nivel de interacción entre la academia y estas empresas?

Ahora mismo estas empresas lideran los avances de IA y no tenemos en la universidad relación directa con ellas. Nosotros desarrollamos estudios, modelos, aplicaciones para diferentes problemas (detección de tráfico ilegal de maderas, ámbito forense, medicina…). 

La realidad es que cuando lo han necesitado, estas grandes compañías han fichado a equipos completos de los centros académicos. Esto ha ocurrido en Estados Unidos, no es raro que se lleven al departamento casi entero de una universidad. Cuando Google empieza con estos temas, había un software que llamaba Caffe, lo desarrollaron en la Universidad de Berkeley. Caffe era el software más popular de deep learning. Llegó Google que quería crear una plataforma en deep learning y fichó al equipo de Caffe, al completo. Gente con inquietudes a los que además de grandes sueldos le pone a su disposición todos los medios del mundo: medios de cómputo, medios de desarrollo, investigación ilimitada de presupuesto. 

Otro ejemplo. IBM no desarrolló Deep Blue desde su inicio. No, existía un software llamado Deep Thought, desarrollado en la Universidad de Carnegie Mellon por un joven equipo de investigadores, liderados por Hsu. Deep Thought en el 89 ganó por primera vez una partida a un gran maestro internacional de ajedrez. Llegó IBM e, igual que Google, fichó a Hsu y gran parte de su equipo, diseñaron un hardware específico, avanzaron en la mejora del modelo de inteligencia artificial, y siete años después IBM presenta Deep Blue, evolución de Deep Thought, y le gana al campeón del mundo. 

¿Qué nos falta en la universidad para hacer frente a estas grandes empresas?

Sus medios a todos los niveles. La capacidad de computación, de acceso a datos, acceso a la compra y uso de datos masivos, aparte de los datos que ellos tienen, porque claro Google tienen un acceso a un fondo de datos que es ilimitado, entre comillas.

Ahora se entiende porque Gmail, Facebook, etc… son gratis ¿no? No hay nada gratis

Desde luego. Y ademas de esos inmensos bancos de datos, nos falta poder competir con los grandes equipos con muchísimo talento que trabajan en estas empresas. Fíjate lo que ha hecho Microsoft ahora tras el éxito de ChatGPT. Ha llegado y le ha dicho a OpenAI, diez mil millones de dólares encima de la mesa, para invertir en las mejoras futuras como GPT4, e integrar GPT3 en el buscador de Bing de Microsoft y en sus productos. Para que directamente, ya no solo te proporcione enlaces, sino que te haga un resumen de la información en los enlaces. Quieren incluir las herramientas de generación de imágenes en el Office. Que tú le digas, oye, en este texto que estoy escribiendo quiero que metas una imagen, que lo ilustres. Y te la genera. Eso lo vamos a ver en breve. 

¿En un año?

Sí, porque se espera que en este año se publique GPT4, que se integre la generación de lenguaje más la imagen y Microsoft lo va a tener en producción rápidamente. Y el acuerdo leí que son veintiocho mil millones de dólares.

El gasto total en Investigación y Desarrollo (I+D) en España fue de algo más de diecisiete mil millones de euros en 2021.

Así es. Esta gente se va a gastar veintiocho mil millones en hacer los modelos de lenguaje e imágenes, para mejorar las herramientas de Microsoft. ¿Podemos competir una universidad con eso? Y luego, ojo, los modelos de selección y captación de personal que estas empresas tienen, contratan a los mejores expertos del mundo, a los jóvenes brillantes, no solo con un salario que no pueden pagar las universidades, sino que les ofrecen estar en un entorno creativo, formar parte de un momento de cambio de la historia, y tener todas las herramientas para poder hacer lo que quieran. Ahora mismo, en inteligencia artificial, y computación en general, estamos en un mundo en el que quien se queda en la universidad como profesor tiene que tener mucho amor a esto.

Y la integración del ChatGPT o GPT4 en el buscador, teniendo en cuenta que los medios de comunicación viven de los resultados de los buscadores, ¿cómo va a afectar al panorama mediático? Porque, claro, puede ser que se elimine la fuente de negocios al tener la respuesta con el ChatGPT u otras herramientas similares.

Bueno, yo creo que te van a dar por un lado unos links más relevantes, como siempre, pero te van a acompañar la opción de un resumen, cojo el texto de los cinco de más peso y te lo refundo y te genero un único texto. Las posibilidades son tremendas, como también las incertidumbres. Podemos hablar de incertidumbre en los medios de comunicación digitales. Actualmente parte del negocio de los medios de comunicación se genera por el tráfico en la red vía enlaces en los buscadores que direccionan hasta sus páginas web. La visita a su web vía enlaces de búsqueda permite la visualización de publicidad y los ingresos. Si se reducen los enlaces y la visita a los medios vía estas búsquedas con los chats que dan respuesta a la consulta sin enlaces, entonces se pierde parte del tráfico en la red. 

Tú crees que, además de todo esto que estamos hablando, de la capacidad de computación, más dinero, el acceso a grandes bancos de datos… desde el punto de vista del software ¿han creado estas compañías algún cambio paradigmático en los algoritmos que haya hecho que esto salte también? 

Paradigmáticos, algo revolucionario, no. Los modelos de deep learning han evolucionado continuamente en estos últimos diez años, con avances importantes. Por ejemplo, los modelos autogenerativos, las GAN, (Generatice Adversarial Nets, o redes generativas antagónicas), y sus modelos de difusión son capaces de fijar los píxeles más relevantes y reconstruir imágenes, rellenando los huecos. Ahí es donde ha estado el avance más importante recientemente, en las GANs, porque estos modelos que te permiten a partir de una imagen sacar por similitud otra. En cierta medida se crea y en cierta medida se imita.

La crítica dice que copia. Ya hay una denuncia de tres ilustradores importantes en Estados Unidos. Han denunciado a OpenAI y a Google, bueno, a Dall-E, porque dicen que están robándole, y han pedido una indemnización ultramillonaria, con la idea de hacer una especie de SGAE para defenderse de estos gigantes.

Estas empresas ya están pagando el acceso a grandes bases de datos, aunque es cierto que se están cogiendo datos de internet en los procesos de creación de bases de datos, y se debe regular todo lo relacionado con los derechos de propiedad. Es verdad, podemos pedir estilos asociados a un pintor porque tienen almacenadas imágenes de estos pintores. Ese es un debate importante, los derechos de autor, porque se está utilizando todo el conocimiento que está abierto en la red para aprender.

Se está imitando a estos autores. 

Cierto, pero fíjate dónde estamos entrando. Se dice que lo que hace la IA es imitar, ¿y el humano? A mí me dicen: dibuja un gato, y cuando lo dibujo no estoy creando otro tipo de gato, yo estoy imitando dibujos previos. Luego está el gran artista disruptivo con un estilo especial y propio, los grandes genios del arte, ahí sí que la IA no llega, a esa creación disruptiva. Pero en la creación de esa imagen que ganó el mencionado concurso en Colorado, Theatre D’Opera Spatial, ahí hubo una acción creativa entre el ingeniero, en el proceso de dar instrucciones a Midjourney y la máquina que usa y genera imágenes con significados asociados al texto de instrucción.

¿Podemos hablar de una nueva profesión? 

Claro, en estos meses está surgiendo esta nueva profesión, se ha denominado el «ingeniero de instrucciones», que sabe qué instrucciones dar para lograr la respuesta deseada de forma rápida y eficaz. La habilidad está en saber darle la instrucción a la máquina para que haga algo original. Es un trabajo creativo conjunto, una creación por imitación basada en las instrucciones adecuadas, instrucciones originales para obtener el trabajo deseado de la IA. 

¿Y cómo afectará en general a nuestras profesiones? 

Un premio nobel de economía, Paul Krugman, publicaba recientemente un artículo alrededor de esta pregunta: ¿nos quitarán el trabajo los robots? Decía que hace unos pocos años creíamos que la IA no iba a afectar a lo que eran los empleos del conocimiento de forma inmediata, que afectaría a otras profesiones como conductores, empleados administrativos… Que afectaría a áreas donde se repetían continuamente las acciones, y que no requerían conocimiento profundo. Pero que esto ha cambiado ya, que ahora los empleos del conocimiento están también amenazados. Decía Krugman que ChatGPT es una tecnología que parece capaz de realizar tareas que requieren una considerable formación académica. Y se preguntaba, a ver, realmente de lo que hacemos en el día a día ¿cuánto requiere alto nivel de creatividad? ¿Dónde está realmente la originalidad del trabajo de los llamados profesionales del conocimiento? O sea, ¿cuánto hay de originalidad y cuánto hay de saber manejar la situación en la que te encuentras? Por ejemplo, si tú le dices al ChatGPT: hazme un artículo de divulgación o un artículo de opinión sobre un tema cualquiera, con algunas palabras concretas que lo orienten. Pregúntale a un chatbot: ¿qué opinas de la IA? Si estas preguntas que me haces a mí se la hiciéramos a ChatGPT a lo mejor te pueden gustar más sus respuestas que las mías (risas). 

Francisco Herrera para Jot Down

Dime cinco retos actuales de la inteligencia artificial.

A ver, el primero los chatbots multipropósito: OpenAI está diseñando GPT4 y parece que puede manejar más que solamente lenguaje, combinando las capacidades de GPT3 y DALL-E 2. Pero los modelos de la próxima generación de lenguaje heredarán la mayoría de problemas de esta generación, como la incapacidad de distinguir los hechos de la ficción y la tendencia hacia los prejuicios. El mayor reto es que nadie ha descubierto cómo entrenar modelos con datos extraídos de internet  sin absorber lo peor de internet (sesgo, discriminación, odio, machismo, homofobia o diatribas racistas, la llamada suciedad de los datos), de momento utilizan filtros para detectar el lenguaje ofensivo integrado en el propio modelo. 

El segundo es la regulación de la IA, leyes y reglas reguladores (líneas rojas de la IA). Ya existe el Reglamento de Inteligencia Artificial de la Comisión Europea, llamado Artificial Intelligence Act. En el futuro se responsabilizará a las empresas de las infracciones de privacidad o decisiones injustas tomadas por los sistemas inteligentes. Es el inicio de una era de desarrollo de una IA más respetuosa con la privacidad y la equidad

En tercer lugar, los grandes modelos de código abierto que pueden favorecer el desarrollo de la IA, más allá de las grandes multinacionales. Hace unos años fueron los modelos de aprendizaje profundo, y ahora los modelos de lenguaje como Stable Difussion, que genera imágenes a partir de texto y rivaliza con DALL-E 2 de OpenAI, BLOOM, modelo de lenguaje de código abierto y multilingüe, creado por un equipo de más de mil investigadores de IA, BigScience. Esto permitiría que la agenda de investigación de la IA esté menos definida por las grandes empresas, porque las grandes compañías tecnológicas desarrolladoras de grandes modelos de lenguaje (Google, OpenAI, Facebook) restringen su uso a personas externas y no han publicado información sobre el funcionamiento interno de sus modelos.

En cuarto lugar, yo diría la entrada de la IA en la medicina y los grandes retos farmacéuticos. Los bancos de proteínas públicos producidos por la IA (AlphaFold de DeepMind, ESMFold de Meta), los fármacos diseñados con IA… Google ha creado una compañía separada para trabajar en IA y biotecnología, Isomorphic Labs. 

En este caso, en mi opinión, la IA abre la posibilidad de soñar con una industria farmacéutica más abierta y transparente, con mayor sensibilidad social.

Probablemente, ojalá.

¿Y el quinto? 

Y el quinto y más apasionante es la creación de una inteligencia artificial de propósito general, que pueda realizar diferentes tareas (multitarea) frente a modelos de una única tarea. Google y OpenAI anuncian que avanzan hacia el objetivo de una inteligencia artificial general a medio plazo. DeepMind presentó hace unos meses el sistema inteligente GATO que aborda realizar aproximadamente seiscientas tareas diferentes. 

Hace tres meses leía una entrevista a Oriol Vinyals, director de investigación de DeepMind, y decía que su generación verá una inteligencia artificial que iguale o supere a la del ser humano.

¿Qué es la inteligencia artificial general?

La inteligencia artificial general o fuerte (AGI, de Artificial General Intelligence) era la idea de los pioneros de la inteligencia artificial de los años sesenta, que se planteaban crear una máquina que superará a los humanos en general. Marvin Minsky y otros pioneros proclamaban que iban a crear máquinas que serían tan inteligentes como los humanos. Stanley Kubrick, el director de 2001: Una odisea del espacio fue asesorado por Minsky, quien inspiró HAL 9000, el ordenador que controla la nave, y que llega a atentar contra los humanos para preservar la misión que era su primer objetivo. Una máquina que incluso tiene sentimientos y conciencia de existir; recuerda cuando dice aquello de «no quiero morir». Esa idea de la AGI fracasó, la idea de un sistema de inteligencia que fuera capaz de igualar al humano globalmente, fue un absoluto fracaso de predicción. Y vino el llamado invierno de la inteligencia artificial con enormes críticas por parte de algunos filósofos como Dreyfus

En los años 80 y 90 se cambiaron los objetivos de desarrollo para resolver problemas concretos, lo que se denominaba inteligencia artificial débil o estrecha. Me centro en un problema concreto y voy a hacer un sistema que sea tan bueno como el humano para superarlo en ese problema concreto. 

Focalizar el problema .

Así es. Por ejemplo, una máquina para ganar al ajedrez, pero la máquina que juega al ajedrez no sabe jugar a las damas. Y la que pretende conducir un coche no sabe hacer otra cosa. Lo que hoy es la inteligencia artificial que conocemos, y eso ha sido un éxito tremendo, como hemos visto. 

Pero hay una línea de desarrollo que sigue pensando en ese modelo que pretende hacer máquinas que lo hacen todo, máquinas que superen a los humanos en muchas cosas. Como dije antes, Google presentó el año pasado GATO, un sistema inteligente que puede abordar hasta seiscientas tareas conjuntamente. Son los llamados modelos multimodales. Estamos en el inicio de estos desarrollos, pero ya se habla de ello, y se tiene el objetivo de desarrollar un algoritmo que pueda hacer múltiples tareas. 

Se está otra vez hablando de Inteligencia Artificial General. Si tú a mí me preguntas por esto hace tres años, te digo que es ficción, que no tenemos los medios matemáticos o computacionales para eso. Hoy te digo que no los tenemos, pero… 

¿Pero?

Lo comentado por Oriol Vinyals, responsable de investigación en Google, o lo que lees en la página web de OpenAI. Entras y lees el enlace de investigación y escriben literalmente «OpenAI lleva a cabo acciones fundamentales de investigación a largo plazo hacia la creación de AGI segura». Dall-E, ChatGPT… por mucho que nos parezcan avances asombrosos, son para OpenAI tan solo una etapa para avanzar hacia el objetivo real, que es crear una IA que englobe todo. Persiguen una IA general. 

Resulta que las grandes empresas en la frontera de la investigación de IA te dicen que van hacia una IA general, y que la van a conseguir dentro de unos pocos años, durante esta generación. Yo, que hace tres años era escéptico ante ese planteamiento, ya no me atrevo a afirmar ahora que la inteligencia artificial general no sea factible en un tiempo razonable. Habrá muchos vídeos míos por ahí en internet, en los que yo decía: no, estamos fuera de este debate, y no merece la pena perder ni un minuto debatiendo sobre la inteligencia artificial general; estábamos en un modelo de desarrollo que está siendo muy exitoso para resolver problemas concretos. Yo decía: esto de la AGI está bien para una charla de café, pero nada más. Pero me equivocaba. Ahora el debate está abierto y hoy no me atrevería a hacer esas afirmaciones que hacía hace tres años.

Y un poquito más allá. Ahora pensamos que construir algo que sea más inteligente que el ser humano, con un tipo de inteligencia quizás diferente pero más eficaz, es un objetivo que está al alcance de la mano, ¿qué pasa con la conciencia? Esas máquinas tan inteligentes, ¿podrían desarrollar la conciencia?

Hoy no, pero ¡qué podemos negar hoy que se pueda hacer en el futuro! Antonio Damasio, el neurólogo que fue premio Príncipe de Asturias, en su libro El extraño orden de las cosas, creo recordar que era el título, decía que la gran diferencia entre los humanos y la máquina estaba realmente en los sentimientos. Cuando se habla del ajedrez se pone un ejemplo muy claro. La máquina nos gana ya al ajedrez, pero no tiene el sentimiento que tú tienes cuando haces una jugada bonita, cuando ganas una partida. Y eso es así. Lo que venga no será la conciencia humana, no será la inteligencia humana. No podemos negar la creatividad actual en las máquinas y los avances continuos.

Francisco Herrera para Jot Down

Pero es que las máquinas van a aprender a mejorarse sin necesidad de que los humanos le digamos cómo. ¿Hacia dónde le puede llevar a la máquina entrar en un proceso de automejora? 

Ese es el planteamiento y la preocupación de Nick Bostrom, el filósofo y director del Instituto del Futuro de la Humanidad de Oxford, que escribió un libro muy famoso, Superinteligencia, en el que analiza los riesgos de la «superinteligencia» de las máquinas, y muestra su preocupación por lo que representa para la humanidad. Él razona que si la máquina es más inteligente que nosotros va a tener capacidad de automejorarse. Ya no seremos los humanos los que haremos los nuevos modelos de machine learning para mejorar la máquina. La propia máquina los va a hacer para automejorarse, y en algún momento nos superará. Tendrá mayores, y mejores capacidades. Si esa máquina tiene como objetivo preservar el planeta, y llega a pensar que somos los humanos los que estamos destruyendo el planeta, a lo mejor decidiría que los que sobran en el planeta son los humanos. Por eso Stephen Hawking decía hace unos años que el mayor peligro para la humanidad era la inteligencia artificial. 

O sea, que no podemos confiar en la inteligencia artificial.

Es un tema interesante de debate y análisis. Europa está liderando este debate. La Comisión Europea está hablando de inteligencia artificial fiable (en inglés trustworthy artificial intelligence). Una IA que cumple con la ley, que es ética, y es robusta en su comportamiento y con un control de fallos. Estamos hablando de que los sistemas inteligentes sean más transparentes, que expliquen qué hacen y cómo lo hacen, que respeten la privacidad, que se evite el sesgo en los datos y la discriminación en la toma de decisiones, la mencionada robustez, etc. Toda una serie de preceptos y con la supervisión, por supuesto, de un humano. El último de ellos es la regulación legal que debe cumplir siempre un sistema inteligente. Regulación y control para evitar llegar a tener una inteligencia artificial pueda decidir lo que hacer o que estuviese fuera del control humano. 

La Comisión Europea ha publicado las primeras normas reguladores que describen los llamados escenarios de riesgo, donde se puede afectar a los derechos fundamentales de las personas o a la seguridad física. En esos escenarios hay que cumplir un conjunto de requisitos para que el sistema inteligente se pueda utilizar, siempre bajo parámetros de supervisión y fiabilidad. Los escenarios de riesgo, incluyen el acceso a la educación y a los servicios públicos, el uso de herramientas de recursos humanos para selección de personas para un trabajo, el control de fronteras, o el uso de la IA en instalaciones críticas, etc. En resumen, se habla de todo un conjunto de espacios donde es importante cumplir con los requisitos de la inteligencia artificial fiable. 

En China hay cientos de millones de cámaras que identifican a los ciudadanos, observan lo que hacen y te dan puntos por tu comportamiento, puntos positivos o negativos. Existe el llamado «ranking social», y si un ciudadano chino pierde puntos y está por debajo de un umbral entonces no podría acceder a ciertos servicios (como comprar un billete de avión, clase especial en tren, o el acceso a otros servicios públicos del Estado). 

Eso aquí no va a pasar porque la Comisión Europea plantea escenarios donde es inaceptable el uso de la IA, como en la identificación biométrica (como la facial) de forma general no se puede utilizar para identificar ciudadanos en cualquier lugar. Se pone el ejemplo de la práctica en China que no es aceptable para su implantación en Europa. España está siendo pionera en el desarrollo de la regulación de acuerdo con la Comisión Europea. Es el país europeo que está creando la primera Agencia Nacional de Supervisión de la IA, con el objetivo de tener el primer escenario de pruebas (los llamados Sandbox). Estamos dando pasos para evitar una inteligencia artificial descontrolada y que podamos tener la confianza necesaria en la IA. 

Que nos afecte lo mínimo posible como humanos ¿no?

Claro, que no sea un peligro para nosotros en ningún ámbito. Está claro que vamos a tener que saber trabajar con máquinas, tomar decisiones con máquinas. Y habrá trabajos que van a desaparecer parcialmente, que donde había diez personas en el futuro puede haber tres trabajando en colaboración con sistemas inteligentes. También se crearán nuevos tipos de trabajo para humanos. El Foro Económico de Davos planteaba en el 2020 una predicción sobre el proceso de automatización de la sociedad y el trabajo. Planteaba que en el 2025 se podrían automatizar el 50 % de nuestras tareas profesionales.

¿En 2025? ¿Dentro de dos años?

Fue una predicción en el inicio de la pandemia, con un horizonte de transformación digital sin precedentes por la situación en la que nos encontrábamos, pero este horizonte de predicción para 2025 se puede extender a esta década y pensar en el 2030 como horizonte.

Pero esa revolución en el mercado de trabajo es inevitable, ¿no?

A nivel puestos de trabajo se predecía que podrían haberse perdido en esta década ochenta y cinco millones de puestos de trabajo y creado noventa y siete millones de nuevos puestos de trabajo asociados a las nuevas tecnologías. Es que en toda revolución tecnológica se destruye un tipo de empleo y se construye otro. Antes de la segunda revolución industrial, a principios del siglo XX, el 95 % de la población americana trabajaba en la agricultura. Llegó primero la máquina de vapor, la electricidad con esta segunda revolución y la mecanización, hay una transformación, se industrializa el campo americano y los campesinos migran a las ciudades. Actualmente la ocupación en la agricultura en Estados Unidos está por debajo del 5 %. 

Pero eso fue un proceso lento.

Esa es la diferencia. La IA entra mucho más rápido en la tecnología, que aquí vamos a tener un proceso rápido. Hoy mismo hay profesiones que en el 2015 no existían. En marketing digital, mánager de redes sociales, conductores de drones, etc… Se dice que el 65 % de los niños actuales van a trabajar en profesiones que hoy no existen. A ver, esto va a ser rápido, pero no inmediato. El taxista de cincuenta años se va a jubilar de taxista, pero un chaval joven que empieza con veinte años de taxista, yo no sé; si fuera mi hijo le diría que se lo piense. Lo que veremos a partir de ahora es que los que trabajamos en crear conocimiento también estamos afectados, como decía Krugman. Ya no es solo los taxistas, los camioneros, los vendedores, las cajeras, etc., ya nos tocará a todos.

Un ejemplo reciente ha sido la resolución de la estructura de decenas de miles de proteínas por la IA de Alphafold. Al contrario de lo que han interpretado algunos periodistas, no es que hayan quitado trabajo a los cristalógrafos estructurales. Al revés, ofrecen una información que ahora los cristalógrafos podemos usar para resolver a alta resolución usando la técnica de reemplazamiento molecular. En mi laboratorio ya se han resuelto estructura de proteínas a alta resolución a partir de la información de Alphafold que es de baja resolución y no fiable al cien por cien.

Interesante reflexión. Tenemos que entender que la IA entra silenciosamente en nuestras vidas. Tenemos que acostumbrarnos a convivir con las máquinas inteligentes, a usar las máquinas y adaptarnos a trabajar con ellas. Insisto, la eclosión en los últimos seis meses de la IA es algo que anuncia que el mundo va a cambiar, por todo lo que hemos hablado. Yo estoy convencido que la realidad va a superar a las expectativas de futuro para la IA en los próximos años. 

Y por supuesto, cambiar el sistema educativo.

Imprescindible. Si hace un año tú me dices a mí que va a existir un generador de lenguaje que va a ser capaz de hacerles los deberes a cualquier chaval para sacarse un 8 o un 9, te hubiese dicho que todavía faltaba un tiempo. Los sistemas inteligentes nos conducen a cambiar nuestra forma de enseñar, de evaluar. Prohibir las nuevas herramientas de la IA o despreciar su capacidad de impacto es un sinsentido. Ignorar lo nuevo, las nuevas tecnologías, está a mitad camino entre el miedo y el desconocimiento. 

Lo que tenemos que pensar es cómo trabajar con esas máquinas, cómo usarlas para mejorar, para aliviar nuestro trabajo. No me la prohíbas, que no le podemos poner barrera a la ciencia. Y no despreciemos la tecnología porque tiene defectos. Piensa que lo que tenemos hoy es la punta del iceberg, que en el 2025 el GPT-5 va a ser tremendo, no fallará en nada. Te sacará un 10 en selectividad. No neguemos el cambio que se está produciendo, porque en tres años va a ser tremendo.

¿Entramos en un nuevo mundo?

Entramos en un mundo que está cambiando rápidamente, se pueden optimizar y automatizar todos los procesos de producción y de negocio. En el ámbito médico, se está hablando de progresos importantes para la salud de las personas, la detección del cáncer, el manejo y análisis de imágenes médicas en el área de radiología del hospital, en la cirugía el uso de robot para hacer intervenciones quirúrgicas. En agricultura se habla de la agricultura de precisión con inteligencia artificial, se va a tener que hacer un control milimétrico del uso del agua, que te mide el estrés hídrico de las plantas, robots que realizan múltiples tareas… En movilidad, la conectividad 5G permitirá la conexión de los vehículos y el control en tiempo real del tráfico, las mejoras en la administración pública con el uso de sistemas inteligentes… Será un cambio global en todos los ámbitos de nuestra sociedad. 

Y es que además para todo ese futuro que se atisba no es necesario ningún descubrimiento paradigmático. Con lo que hay, ya es suficiente para alcanzarlo.  

Y además ha entrado ya en el sistema productivo, en la economía. A saco. Va a ser apasionante. Yo, lo repito, no me atrevo a decir dónde está el límite.

Y si la computación cuántica llega a hacerse realidad, ¿cómo va a afectar a todo esto? 

Hoy por hoy la mayor preocupación de la llegada de computadores cuánticos es en el ámbito de la ciberseguridad, porque tendría la capacidad de romper las claves de muchos modelos criptográficos. Estos podrían ser fácilmente desencriptables, se convierten en problemas fácilmente resolubles, en la clase de los llamados problemas tipo P, es decir, de resolución en un tiempo polinomial con respecto a la entrada, frente a su categorización en computación clásica como problemas NP, no polinomiales. 

En lo que respecta a la inteligencia artificial, la combinación con la computación cuántica puede producir un salto muy importante, se reducen los costes de cálculo, alcanzando capacidades hoy impensables. Podríamos pensar en el entrenamiento de grandes modelos de lenguaje (Large Language Models), hoy muy costoso, que podrían entrenarse muy rápidamente y con la reducción de energía que la computación cuántica puede conllevar, y la posibilidad de procesar modelos aún más complejos y con mayor capacidad de aprendizaje. Muy probablemente sería un salto tan grande que crearía máquinas mucho más inteligentes que los humanos. 

¿Y con consciencia?

¿Quién se atreve hoy a negar técnicamente la imposibilidad de ese futuro? Pero como hemos comentado, será otra forma de inteligencia, de conciencia…

Ahí entraríamos en el campo de los sueños, de la ciencia ficción. ¿Cómo de cerca estamos de cómo la ciencia ficción ve ese futuro de robots, androides, ginoides, etc.?

Ahí tienes Blade Runner con sus replicantes, o ExMachina, o la serie de la detective Bruna Husky de Rosa Montero, Lágrimas en la lluvia (su primer volumen), y tantas películas y libros. He leído recientemente dos libros, Klara y el sol de Ishiguro, una preciosidad de libro, y Máquinas como yo de Ian McEwan, ambos te hablan de la relación entre los humanos y los robots y papel de los sentimientos. Pero pensar hoy en una máquina que pueda comportarse como un humano, un humanoide o replicante, eso no es posible porque los computadores que se requieren son muy grandes, y se necesitarían correr y entrelazar miles de programas distintos. Meter todo lo que hace el cerebro de los humanos en una cajita, eso hoy en día no es viable porque tenemos la limitación del tamaño de computación y la vamos a tener por mucho tiempo. 

¿Por qué todos los robots son antropomorfos, o cuando menos biomorfos? ExoMars, el robot que la ESA pretende enviar a Marte o los Sojourner, Curiosity o Perseverance, de la NASA, todos tienen dos ojos, dos brazos… No tiene mucha lógica ¿no? Lo único que no es biomorfo son las ruedas, porque la vida nunca inventó la rueda. 

Es verdad, hay una tendencia a imitar nuestras formas. Pero es algo que no es necesario, ni siquiera conveniente. De hecho, hay más problemas, más retos para hacer robots en la parte de la ingeniera mecánica que en la parte de IA. Vamos a llegar más rápido a ese nivel de inteligencia artificial avanzado que la bioingeniería al robot que vemos en las películas. Podríamos tener sistemas inteligentes como en la película Her, de Spike Jonze, en la que Samantha, la «robot» de la que se enamora el protagonista interacciona con él solo con la voz, era un sistema operativo inteligente que no tiene forma física. La forma no es relevante en este caso y los robots del futuro no serán seguramente antropomorfos. 

¿Qué podemos hacer los humanos ante las amenazas de la IA? 

Los humanos tenemos la última palabra para utilizar la IA, para regular la IA, para determinar hasta dónde debe llegar y para velar por nuestra privacidad. Tenemos la capacidad para hacer de esta tecnología un vehículo de desarrollo de nuestra sociedad. Una IA centrada en las personas, al servicio de las personas. Hemos de analizar los peligros, como hacemos con otras muchas tecnologías, y regular cómo utilizarla. También hemos de discutir e introducir las medidas correctoras que requiere nuestra sociedad a consecuencia de la IA, medidas de justicia social en todo el proceso de cambio y transformación del trabajo.

Me reconforta que un experto de primera fila como tú tenga esa preocupación social. De hecho, me ha llamado la atención que con un perfil científico tan brillante estás metido en política municipal. ¿Por qué lo haces?

Recibí la propuesta y consideré que podía aportar mi conocimiento y experiencia en ámbitos de la administración de la ciudad, trabajando en el impulso de la innovación y la ciencia como base del modelo productivo, y ayudando en el proceso de transformación digital. Hay una edad en la que dedicar un tiempo de tu vida al servicio público, en el más estricto sentido de la traducción al inglés del término funcionario, «civil servant», es una buena opción personal, y me apeteció hacerlo. Yo tengo dedicación completa en la Universidad de Granada, doy todas mis clases y continuo con la investigación, compaginando con mi trabajo en el Ayuntamiento como concejal. Eso sí, me queda muy poco tiempo libre.

Francisco Herrera para Jot Down

SUSCRIPCIÓN MENSUAL

5mes
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL

35año
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL + FILMIN

85año
Ayudas a mantener Jot Down independiente
1 AÑO DE FILMIN
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 

13 Comentarios

  1. Oswaldo García - Hernán G.

    Grscias a los dos. Muy interesante pero con partes densas para un científico técnico desgrsciadamente poco ducho en estas enormemente intetesan tes áreas. Un abrazo Juanma. Espero que nos vesmos oronto. Oswaldo

  2. Oswaldo García- Hernán G.

    Muy interesante Francisco. Gracias. Juanma, espero que nos veamos pronto. Oswaldo.

  3. Me acuerdo cuando estaba en el colegio y había que escribir un trabajo sobre algún tema y cogía la enciclopedia y hacía un «copiapega» (entonces no se llamaba así, claro) de distintas entradas, cambiando un poco los textos y dándoles coherencia. El resultado no era malo y sacaba buenas notas con ello.

    Pues bien, las veces que he probado ChatGPT me ha dado la sensación de que hace algo similar. Es sorprendente lo bien que entiende el lenguaje, pero cuando le preguntas sobre algún tema la sensación que me da es que te contesta con un refrito de datos bien redactado pero bastante superficial. Desde luego, en los medios de comunicación abundan artículos escritos por personas que son igual de insustanciales que los que escribe la IA, pero creo que aún queda bastante para que las máquinas puedan producir textos incisivos o iluminadores como los que escriben los mejores escritorores o periodistas.

  4. Creo que hay un tema relevante del que no se habla en la entrevista, y es la función de la tecnología, Big Data, IA, etc como generadores de desigualdad. Según se dice, Microsoft va a invertir 28 mil millones de dólares en el desarrollo de IA… ¿a cambio de qué?

  5. Guillermo Bustelo

    Hola Juanma
    Muchas gracias a los dos por ponerme al día con la IA.
    No veo impedimento para que el autoaprendizaje de la IA la conduzca hasta la capacidad de automejorarse a sí misma y ser mucho mas inteligente que el humano.
    Tal vez la IA General no requiera de mucho mas volumen de datos ni de velocidad, pero si de las asociaciones precisas entre las diferentes áreas. De hecho, la atención y el pensamiento humano no implican más de 2-3 procesos en paralelo. Trabaja de forma secuencial intermitente.
    La consciencia humana requiere de varías cualidades que la IA carece, pero no descarto que podamos crearla en un futuro.
    La consciencia requiere de: 1) Un sistema predictivo de comparación; 2) Un sistema emocional de refuerzo; 3) Un sistema de autoconsciencia.
    No es tan fácil implementar estos sistemas. No es lo mismo ser autoconsciente de tu cuerpo físico en el espejo que ser autoconsciente de tu entidad como persona en la imagen reflejada. Al igual que como comentabais, no es lo mismo tener un razonamiento inteligente de unas premisas basadas en conceptos simbolizados y categorizados que comprender el propio algoritmo en base al origen del razonamiento, los posibles fines, sus implicaciones colaterales, ética, etc.
    Creo que si la humanidad sobrevive a este cambio climático artificial podríamos crear androides superinteligentes y conscientes

    • Francisco Herrera

      Interesante Guillermo, yo veo lejano este concepto de consciencia/autoconsciencia de una máquina, será otra acción, pero es cierto que nos encaminamos a alcanza unos retos impensables hace unos años, todavía no podemos decir cuando se alcanzarán, pero el debate está ahi ya.

  6. Brillante entrevista, bravo Paco!

    Eso sí, ante la superación del test de Turing por la IA, ¿podremos volver a tener algo así como un “test de Turing 2.0”, que nos ayude a poder distinguirla de un ser humano? ¿O es una batalla perdida?

  7. Enhorabuena por la entrevista, un repaso a la IA muy interesante y muy bien abordado.
    La IA va a cambiar muchas más cosas y cada vez más importantes en el corto plazo, espero que para bien, eso dependerá de nosotros, como el resto de avances que la ciencia ha ido logrando.
    En lo que respecta al trabajo, desde mi punto de vista, solo cambiará la orientación que le daremos a muchos perfiles actuales, y a la historia reciente me remito. La calculadora no quitó el trabajo a los contables, el Excel no quitó el trabajo a financieros ni matemáticos ni ingenieros, Internet no eliminó las bibliotecas, etc.; todo esto no hizo más que mejorar esos puestos y hacer que se dedicarán a tareas de más alto nivel por decirlo así.
    Este nuevo «verano de la IA» está siendo realmente interesante:-)

  8. Francisco Herrera

    Gracias Sandra. No veo un test de Turing 2, creo que es una batalla perdida, estoy recordando el test de Voigt-Kampf para los replicantes en Blade Runner, obviamente en un mundo distópico. Más creo que el camino adecuado es el que plantea la Reglamentación Europea, AI Act, https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52021PC0206, donde se indica la necesidad de transparencia y comunicar que se está interactuando con un sistema inteligente.

  9. Pingback: Francisco Herrera: «Prohibir las herramientas de la inteligencia artificial sería un sinsentido. Ignorar las nuevas tecnologías está a mitad camino entre el miedo y el desconocimiento» – México Posible

  10. Muy buena entrevista, el tema de las inteligencias artificiales es muy interesante y los debates acerca de su uso me interesan.

  11. Qué maravilloso mundo de las apariencias y de la preponderancia de determinados intereses se nos ha quedado..
    Me recuerda a los ‘avances’ en ingeniería genética, y sobretodo en el asilamiento ‘in silico’ del Covito, llamadme anticuado o viejo-joven como me definió en una ocasión un profesor mío en tercero de carrera en el laboratorio informático, pero yo soy más de asilamiento, purificación e interacción con células vivas ‘in vitro’, soy un nostálgico o tal vez para lo que acontece a lo estrictamente científico como un empirista…
    También podríamos reseñar el papel de la IA en la acientífica teoría del Cambio Climático Antropogénico generando modelos completamente sesgados. Donde cualquiera con una mínima formación y que no viva de ello puedo establecer que obedece más bien a causas político-socio-económicas.
    A fin de cuentas estos algoritmos no dejan de ‘encontrar’ lo que se ‘coloca y ubica’ tendenciosamente lo que se predetermina. Dicho en otros términos: sólo mostrará lo que a un determinado sector le interese mostrar.
    Vivimos tiempos de censura, control y supeditación por órganos de dudosa independencia mediante la tecnología de la información. El retroceso en la libre disertación, la contraposición de distintos conceptos o en la simple investigación independiente son hechos por desgracia evidentes e incontestables.
    El totalitarismo imperante ha podido recalar mediante técnicas sibilinas, encubiertas, eufemismos, neologismos, conductismo, y el resto de vehiculizantes que ramifican de la ingeniería social. Y todo ello, hubiera sido imposible a día de hoy, sin la IA que usted menciona.
    El transhumanismo en ciernes no ocupa ni el más mínimo debate, discernimiento o revisión por parte de los sectores académicos delegados y vendidos desde hace mucho a diversos intereses espurios.
    Considero a la IA uno de los mayores fraudes necesario para sustentar el actual paradigma social…

  12. Gran entrevista, me ha ayudado mucho en esta área del conocimiento,
    Abrazo desde México

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*