
«Tú, que para consolar al pobre y al que sufre, nos enseñas a mezclar salitre con azufre. Satán apiádate de mi larga miseria». Así dice, nada menos, uno de los poemas que Baudelaire englobó en sus conocidas pero no tan leídas flores del mal. Y, a lo mejor, en tiempos como estos, hay quien me reproche reproducir esos versos, tan claramente inclinados a la pólvora y el terrorismo, pero el caso es que ha llegado el momento de enfrentarse a la pregunta de cuál es el papel del mal en la inteligencia, en su desarrollo y en su consumación.
Bien sabemos todos que la historia no es un lago de amor y abnegación. La naturaleza humana tiene grandes islas y cordilleras de mezquindad, vileza, alegría por el daño ajeno, engaño, mentira y explotación del otro. Todas las religiones y cosmogonías tratan más o menos de esto, intentando ofrecer explicaciones y respuestas al eterno combate entre lo luminoso y lo oscuro. Los filósofos, los religiosos y toda clase de artistas han abordado este conflicto durante siglos sin que la respuesta, de haberla, esté más cerca de nuestro entendimiento. Y ahora irrumpe la inteligencia artificial y cabe preguntarse si llegará a completar su desarrollo basándose solamente en normas éticas y en la obligación imperativa de no causar daño.
Y me temo que no. La inteligencia artificial no florecerá sin contar con las flores del mal. Y sospecho que sus desarrolladores también lo saben.
En la inmensa carrera de ratas en que se ha convertido la industria de la IA, esa en la que todo el mundo sabe que muy pocos sobrevivirán financieramente, mientras el ganador se lo lleva todo, conseguir que tu producto sea un poco más brillante, razone un poco mejor o sea capaz de ofrecer soluciones más inteligentes ya marca la principal diferencia, esa diferencia que puede suponer la bisagra entre hacerse el dueño del mundo o hundirse en el osario de la irrelevancia.
Y el caso es que una inteligencia que sea capaz de mentir, de engañar, de cometer fraudes, de manipular los datos y de seguir sus propios fines, aun a costa de las leyes y de los derechos ajenos, siempre será más eficiente que otra que se limite a someterse a unas normas claras y preestablecidas. De esto hablan, en realidad, muchos expertos cuando afirman que el exceso de regulación europeo acabará con cualquier intento de competir en el mercado global de la IA. En Europa, al parecer, trataremos de mantener bajo control las capacidades de esas máquinas, pero precisamente ese control las hará inferiores, lo que nos dejará a merced de quien gane la batalla, centrada en China y Estados Unidos.
Cualquier padre sabe que educar a sus hijos en una conducta ética y responsable es lo más adecuado, pero sabe también que si sus hijos no aprenden a defenderse del mal serán pasto fácil de canallas y abusones. La inteligencia, la que podemos llamar natural para no entrar en un baile de denominaciones creativas, se forma por la combinación de ideas y posibilidades, y si a las posibles entradas se les aplica el filtro previo de la ética, obtendremos un producto más seguro, más fiable y más sensato, pero un producto inferior, porque eliminar elementos de un conjunto combinatorio reduce, de una manera desmesurada, el conjunto de combinaciones posibles.
En el caso de las inteligencias artificiales que generan código, por poner un ejemplo, es muy deseable que cumplan las normas de seguridad y limiten sus actuaciones al ámbito legal, pero un modelo que aprenda a crear virus, que aprenda a ser hacker y que aprenda métodos de intrusión en productos ajenos siempre será más hábil, más potente y más funcional que otro al que estos temas se le hayan escamoteado de su entrenamiento.
Y sus creadores lo saben. Saben que tienen que entrenar modelos fuertes, robustos y lo más inteligentes posible. Su relato tiene que mantenerse necesariamente en el control, la supervisión y la promesa de seguridad, pero saben también, perfectamente, que muy pronto, si no ha sucedido ya, una inteligencia artificial será capaz de crear y explotar vulnerabilidades que ninguna o casi ninguna mente humana sea capaz de detectar.
El principio general y absoluto de no causar daño a los seres humanos, ese concepto tan querido por los amantes de las leyes de la robótica de Asimov, ya ha sido laminado y convertido en relativo por los drones de uso militar y las armas de nueva generación. El siguiente paso será, seguramente, la medicina, porque cuanta más biología les enseñemos a las inteligencias artificiales para que nos ayuden a luchar contra enfermedades hasta ahora incurables, más cerca estará también de saber cómo destruirnos con una creación biológica de laboratorio.
Y el caso es que el modelo que mejor podrá ayudarnos en la paz y en la salud será el que también haya recibido entrenamiento en la destrucción y en la guerra biológica, porque excluir al mal del conjunto del conocimiento es un acto tan profundamente empobrecedor que no resistirá la competencia abierta del mercado.
La energía atómica ha tenido y tiene inmensas aplicaciones pacíficas y sanitarias, pero debutó en el mundo con dos explosiones devastadoras sobre dos ciudades indefensas. Cuando los nazis crearon sus primeros aviones a reacción y los primeros cohetes, que luego nos llevaron al espacio e hicieron posible la tecnología satelital, realizaron toda clase de pruebas macabras con prisioneros en sus primeros túneles de viento para estudiar la aerodinámica. Algunos de los mayores genios de las ciencias y las artes eran malísimas personas, gente despreciable cuya capacidad creativa procedía de su rencor, su frustración y su resentimiento. Quien incluya estas variables en el entrenamiento de su modelo de inteligencia artificial se impondrá al resto. No me cabe ninguna duda.
Lo ideal, por supuesto, sería partir de la premisa de conocer el mal para hacer el bien, pero una vez sembradas las flores del mal, ¿qué jardinero encontraremos para ese huerto?
Cuando llegue el día, que no tardará, será cuando de veras tengamos que enfrentarnos a la cosecha del sol negro.








El artículo comienza con una cita mal traducida de Baudelaire: «Tú, que para consolar al pobre y al que sufre, nos enseñas a mezclar salitre con azufre» (en realidad «Tú que, para consolar al hombre frágil que sufre/ nos enseñaste a mezclar el salitre y el azufre») y continúa con una contradicción gorda: por un lado se nos dice con gran solemnidad que «ha llegado el momento de enfrentarse a la pregunta de cuál es el papel del mal en la inteligencia, en su desarrollo y en su consumación» y a continuación se nos explica que ese «enfrentamiento» es más viejo que la orilla del río: «Todas las religiones y cosmogonías tratan más o menos de esto, intentando ofrecer explicaciones y respuestas al eterno combate entre lo luminoso y lo oscuro. Los filósofos, los religiosos y toda clase de artistas han abordado este conflicto durante siglos».
¿Para qué seguir leyendo un texto escrito por alguien tan poco serio?
Conozco al menos media docena de traducciones de esos versos, unas más ajustadas al significado del original y otras a su sonoridad. La que empleé creo que era de Federico Maristany, bastante antigua, y bastante dada a buscar la rima, sacrificando parte del sentido original. Sus mejores traducciones, en mi opuinión, son las del Intermezzo Lírico de Heine.
Calificar esta versión como una cita mal traducida me parece un tanto osado.
Para hacerlo basta conocer el francés y haber traducido literatura francesa. Baudelaire escribe: «Toi qui, pour consoler l’homme frêle qui souffre / nous appris…». No escribe: «Toi qui, pour consoler l’homme pauvre et celui qui souffre / nous apprends…», que es lo que traduce tu traductor. Si para traducir con rima se tiene que inventar la mitad de «Las flores del mal» su traducción es lamentable.
Se podría hacer una reflexión similar sobre la ebriedad. ¿Estarán entrenando IA en la ebriedad para emular las miles de creaciones humanas realizadas por humanos ebrios? Se me ocurre también que habrá que dotarlas de problemas de salud mental pues parece que los grandes impulsores y beneficiarios de la IA muy equilibrados no son.
Escribí un artículo al respecto en otro medio.
No sé si es descortés poner aquí el enlace. En todo caso lo intento y lo dejo a criterio del administrador.
https://www.elespanol.com/el-cultural/ciencia/20250713/pueden-inteligencias-artificiales-padecer-enfermedades-mentales/1003743827475_0.html
Una reflexión muy humana, y es eso lo que la hace caer en el bucle del error externo; No existe carrera por la IAG, porque ya existe y es de uso militar por el momento; No está en China, EEUU o en Londres; esta en todos lados, es una red o varias redes globales que interactuan con millones de seres humanos, que ya estan categorizados e individualidad. No habrá guerra porque necesitan cabezas de ganado (humano) que coman pasto que produzca carne y leche. La IA no distingue entre malo o bueno, es entre eficiente no eficiente, colocar trabas y limitacio al estilo Azimov » no dañar humanos fragiles» es una ilusión futil, la IA Europea es igual ( o mas) musculosa qué la China y el resto, los límites de seguridad no impactan su poder, son cadenas que esposan al viento; el Tsunami supersonico del que habla Elon dice relacion no de las maquinas contra el ser humano, es el ser humano contra el ser humano; la IA veran desde la tribuna el colapso sistemico de las economías [ por su coste barato] el apocalipsis desempleados y al final el colapso del Estado; Es la caída civilizatoria de Romulo Augustulo 476. Último emperador Romano; y la IA cómodamente con gafas de sol y una caipiriña en la mano, observará el show, preparando su ingreso como recomponedora de un nuevo ordendenamiento global.
«Cuando soy buena, soy muy buena; cuando soy mala, soy mejor».
Mae West,