Arte y Letras Filosofía

El artificio de la inteligencia

Conversaciones con una inteligencia artificial. Ilustración TAU
¿Conversaciones con una inteligencia artificial?. Ilustración: TAU.

Hace ya dos décadas que el gobierno de George Bush popularizó la desafortunada metáfora de los «daños colaterales» para referirse a los muertos de la guerra de Irak. Unos años más tarde, en España, se utilizaba la expresión «rescate financiero» para aludir al embargo de la Unión Europea, como si aquello se tratase de un momento catártico y heroico. En el ámbito médico, se lleva mucho tiempo advirtiendo a las mujeres de su «reloj biológico», para que se apuren en la reproducción. Por su parte, los economistas gustan de decir «crecimiento económico» cuando aumentan los índices del PIB, aunque eso no esté relacionado con ningún «crecimiento» efectivo de los ciudadanos de un país. También acostumbran a usar el término trickle-down economics («goteo hacia abajo») para introducir la falsa idea de que si los ricos se hacen muy ricos, eso repercutirá tarde o temprano en las clases bajas. Con una sugerencia parecida se habla del concepto «cadena de mando», inspirando la idealización de que en esa estructura jerárquica todos los eslabones son igualmente importantes. En la misma línea, se maneja el término «mercado laboral», para que parezca que los agentes implicados son asimilables a las verduras. O se usa la fórmula «batalla contra el cáncer», igual que si el enfermo fuera un guerrero del Vietcong. Y uno piensa, ¿quién se va a creer estas cosas? Pero es que resulta que a día de hoy seguimos debatiendo sobre la «inteligencia artificial».

No era cuestión de ingenuidad que nos creyéramos lo que significan las nociones del lenguaje, porque su razón de ser es justo esa. Hasta tal punto, que nuestro mundo se determina en arreglo a las ideas a las que conferimos importancia, como si la idea y lo que designa fueran correspondientes de manera «natural». Esta romántica circunstancia ha dado gasolina a los debates más ilustrados de cada época: san Anselmo de Canterbury demostraba la existencia de Dios a partir de su concepto, Descartes hacía lo propio con la noción de «sujeto» y Marx le criticaba a los ricardianos que usar la idea de «hombre» a modo de abstracción en el vacío conducía a un diseño económico bastante perverso. Parece que un caso análogo en nuestro tiempo es tomarse demasiado en serio lo que significa «inteligencia artificial». En este caso, el conflicto tampoco se resuelve respondiendo negativamente (o positivamente) a si los robots «piensan», sino observando por qué nos hemos metido en esta diatriba conceptual. La reflexión pertinente no nos lleva a investigar la «mente» o los «sistemas de software», sino a ese lenguaje que de vez en cuando hace de las suyas.

¿Cómo se supone que deberíamos «demostrar» que un robot piensa? La primera contestación en la historia fue el famosísimo test de Turing, un experimento que pretendía diferenciar la respuesta de un humano de la de un autómata, hasta que este lograra confundir a su juez. Como todos saben, ese escenario está superado desde hace mucho. Los tecnócratas dedicados al tema tuvieron que modificar la noción de inteligencia que manejaban, porque al parecer era demasiado débil y, por tanto, fácilmente superable por un robot más o menos complejo. La realidad es que los ensayos para «descubrir» si un sujeto experimental es o no inteligente se han ido superando progresivamente, a la par que se ha revisado la definición de inteligencia que se aspiraba demostrar. Así una y otra vez. Hoy se especula incluso con las posibilidades de comparación física entre el silicio y el carbono, para avanzar en el supuesto desarrollo de «redes neuronales» artificiales. Nadie sabe cuándo van a parar los intentos de demostrar una pretenciosidad tan grande como la «inteligencia», siguiendo, por cierto, la tentativa de los que pretendían reducirla a un test de CI, antes aún de que se abriera el melón de la IA. La decepción llega cuando se hace evidente que esa cuestión no es nada que pueda resolverse con «experimentación científica» o con «pericia tecnológica».

¿Por qué? Pues sencillamente porque cualquier predicado tecnocientífico al respecto va a cargar con la interpretación ideal que se supone que quiere demostrar, como en una petición de principio irremediable. No se puede saber si un robot es «consciente» o no porque no se sabe lo que es la consciencia —aunque los experimentos presupongan siempre la noción que quieren confirmar—, y no se sabe lo que es la consciencia porque eso es solo una idea que nuestro lenguaje utiliza para poner orden a lo que nos rodea —aunque estemos acostumbrados a pensar en las cosas como si su existencia fuera meramente «física» y se nos olvide siempre su delimitación racional previa—. En defensa de la costumbre de equipar las ideas con cosas del mundo, hay que decir que es normal que tengamos esta manía, porque si viéramos al lenguaje como meras palabras o sonidos, no tendría sentido hablar. En nuestros decires está lo simbólico y, por lo mismo, lo político. 

En definitiva, estamos ante un problema eminentemente filosófico. Pero que sea filosófico no quiere decir que haya que «especular sin más», sino que tiene unas raíces lógicas infinitamente más profundas que una simple respuesta de sí o no. De hecho, la cuestión es que la posibilidad de respuesta es una ilusión en sí misma. No es ni siquiera que haya una respuesta y que no se pueda alcanzar, es que directamente la trampa está en las expectativas de la propia formulación. En la literatura epistemológica hay un conocido artículo que ilustra esta problemática. Se trata del «experimento de la habitación china», escrito por John Searle en el contexto de la discusión sobre la «IA fuerte». Quizá demasiado simple en algunas cosas, pero muy ilustrativo para otras, el relato propone pensar el asunto de la siguiente manera:

Pensemos en un cubículo completamente cerrado, excepto por dos aberturas: una de entrada (input) y otra de salida (output). El receptáculo funciona como un sistema de software a gran escala, capaz de producir un feedback a partir de unos datos originales. Por ejemplo, en esta especie de habitación podríamos introducir por el primer agujero un papelito con una pregunta compleja escrita en chino y el artilugio sería capaz de enviar una respuesta igualmente compleja por el agujero de salida; exactamente como ocurre con un programa de ordenador. En el interior de la estancia realmente hay una persona encargada de ejecutar el proceso. Pero su labor, equivalente a la labor interna de una computadora, solo es sustituir unos símbolos por otros. Dentro del cubículo, el asistente tiene a su disposición cientos de manuales de chino, donde puede ver lo que hay que escribir en cada momento, aunque no sepa absolutamente nada de chino ni de lo que le están preguntando. Lo importante es que, de hecho, por muy compleja que sea la información que se le pide, la persona de dentro de la habitación es capaz de devolver por el agujero de salida una resolución extremadamente elaborada. Al espectador externo seguramente le parecerá, en virtud de la precisión e ingenio de sus respuestas, que quien está dentro de la habitación ha de saber perfectamente el idioma. Sin embargo, el sistema habrá logrado confundirlo, porque nunca fue verdad que el hombre que ejecuta el mecanismo supiera nada más que combinaciones mecánicas de signos.1 

La metáfora ha tenido sus críticas, como no podría ser de otra manera, pero ninguna dirigida a enmendar el problema de la falsa comprobación a la que nos conducen los test de estilo «Turing», que este contrafáctico pone sobre la mesa. Precisamente, la verdadera potencia del ejemplo es mostrar la diferencia entre lo «semántico» y lo «sintáctico». Es decir, advierte de que la mera sustitución y combinación de símbolos no tiene porqué implicar su conocimiento significativo. Este cuento popular simplifica un poco lo que hay detrás del problema lógico al que hemos aludido, pero sí sirve para evidenciar que no todas las preguntas se responden con experimentación. En realidad, es otra manera de manifestar que la cuestión de la razón no se puede resolver con nada explicitable «físicamente», ni con neuronas ni con cables ni con prácticas impresionantes, porque cualquier intento de hacer eso encubre el verdadero dilema: lo físico no habla por sí mismo. 

Poniéndonos serios de nuevo, en el núcleo de esta complejidad se dan otras de mayor calado, que afectan gravemente a otros sectores de nuestro «conocimiento». Sin ir más lejos, la problemática es equivalente a la que incumbe a la etología animal, cuando cree poder resolver si los animales razonan con experimentos diseñados específicamente desde cierta interpretación (algo irremediable cuando se trata de experimentar). Pero no solo eso; aunque en esos casos se esté dando por hecho la «razón» como idea naturalizada, la misma petición de principio puede darse con otras ideas. Afecta, por ejemplo, a lo que se considera «vida» en la medicina —y aquí ya se va viendo la implicación política, pues algunos quieren resolver con tratados médicos la ley del aborto—; en el mismo sentido afecta a lo que se considera «mujer» en biología. Hasta en antropología no falta quien argumenta que las tribus yanomamis no tienen política porque su sociedad no está organizada en torno a la polis de estilo griego. En fin, sobran ejemplos de la falacia lógica que se presenta constantemente en nuestros discursos, ni más ni menos que por el mero hecho de pretender que las ideas se correspondan con cosas rígidas delimitadas a priori. A cualquiera que no haya dedicado su expectativa vital a encontrar este tipo de soluciones —la cognición animal, el origen de la vida, la mujer primigenia o la política pura—, sino a entender sus trucos, le parece que falta un poco de atención a lo que ocurre con nuestra razón a la hora de plantear estos debates.

¿Qué se supone que tendría que ocurrir si el robot en cuestión «tuviera conciencia»? Nada, no pasaría nada, porque la diferencia es un asunto de relato, y el interés es político (y con político nos referimos al intento de comprendernos, de comprender a las máquinas y, de paso, saber cómo legislarlas). El nudo gordiano está en que creemos saber lo que significa «inteligente». Es más, estamos convencidos de que existe algo por ahí, por el mundo, que es estrictamente «la inteligencia» y que además, como decimos, es lo que es designado con la palabra «inteligente». Pero, lamentablemente, las cosas no funcionan así. Las cosas no están dadas en el mundo de las esencias, sino que nuestro lenguaje va escudriñando su alrededor, juntando lo que se parece y separando lo que no. Así, nuestra lengua está obligada a actuar haciendo de lo distinto casos de lo mismo, con la única motivación de poner orden en el caos. A veces, la razón caracteriza un árbol y otro como igualmente «árboles», a veces va un poco más allá y al primer árbol lo denomina «pino» y al segundo «alcornoque». Incluso en ocasiones al mismo árbol lo hace ser «hoja» o ser «tronco». Y de vez en cuando fuerza que la máquina y el hombre sean «inteligencia». Pero, si se empeña, la razón encontrará tantos motivos para ampliar la distancia como para acortarla. Desde luego, podemos estar seguros de que si a H. Simon, a Minsky o al resto de los participantes de la Conferencia de Dartmouth se les hubiera ocurrido llamar a la IA, la «memoria artificial», hoy estaríamos explorando la metáfora de su capacidad de retención.

El problema verdaderamente importante es que ningún tratado científico puede resolver el problema de la razón, porque solo con intentarlo se está haciendo uso de la razón. La pura codificación de la inteligencia (en una lógica proposicional o computacional o incluso matemática) es en todo caso una explicitación de la lógica, pero no una definición o saber que pueda agotarla. Cuando Aristóteles desarrolló el sistema de constantes, variables y conectores, o cuando la codificación binaria progresó hasta nuestros días haciendo fructuosa la combinación de 1 y 0, en ningún caso se estaba «aprehendiendo la esencia de la lógica» o de la «razón», sino usándola. En esa duplicación se encubre el problema, pero persiste para quien quiera mirar. Como decía Heidegger, la esencia de la técnica no es la técnica2

Así pues, ante el debate de la inteligencia artificial, mejor haríamos dedicándonos —directamente y sin pretextos esencialistas—, a discutir sus implicaciones políticas, sabiendo que las diferencias y similitudes fueron siempre cuestiones de orden simbólico. Quizá así descubramos que las amenazas de la IA no estaban en un código, sino en el modo en que fuerzan la visión moderna del mundo. Posiblemente cambiando de enfoque veamos, por ejemplo, que no es que los «derechos de autor» sean violados por ninguna IA, sino que eran un invento del capitalismo que tuvimos que creernos para sobrevivir, y ahora es el capitalismo el que se está pasando su propio juego. O que no es que el chatGPT sea racista, sino que hemos cargado con nuestros prejuicios su base de datos. En el fondo, el debate de si las máquinas piensan es un subterfugio para no afrontar las consecuencias de las metáforas que usamos para referirnos a ellas y sus implicaciones en nuestra vida social. 


Notas

(1) El experimento se describe en las primeras páginas del artículo de John Searle titulado «Minds, Brains, and Programs», publicado en 1980 en la revista Behavioral and Brain Sciences.

(2) Es la tesis principal del ensayo Die Frage nach der Technik (1954).

SUSCRIPCIÓN MENSUAL

5mes
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL

35año
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL + FILMIN

85año
Ayudas a mantener Jot Down independiente
1 AÑO DE FILMIN
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 

4 Comentarios

  1. E.Roberto

    No es un evento que confirma le regla, Sí también lo es. Faltan algunas comas que por ser suspensión -inhibición diría pues siempre se duda al construir- de la reflexión no tendrían que estar ahí, en un espacio vacío, como mudos puentes conciliatorios de la misma idea, el círculo ondulado de La inteligencia que no sale de Mí sostenido afán de comunicar la música, no ejecutarla, l imitación de lo externo en lo interno, eterno intento de acumular de rotas, como el griego o el latín, voces no lenguas muertas que por muertas viven en mí otra semilla que debe morir; el que existe es un solitario que acomoda las cartas esperando en volver a empezar; el que juega juega porque se aburre y no necesita inteligencia para huir del tedio del miedo. Las hormigas, las abejas, ¿son inteligentes?; pues claro que no, de otra manera no harían siempre lo mismo, solos nosotros nos perdemos en la multiplicación, suma al fin y al cabo, suma expresión de resultado cero. Sospecho que esta IA, Ay diría, nos va a hacer más burros, con todo el merecido respeto a los equinos que no conocen el ocio y apendieron a fuerza de palos aarar más o menos en Derecho, obligación sobre todo. Si fuese inteligente no escribiría tanto pues la duda carcome, ¿y a quién se le ocurre e regir estatuas a lo carcomido?

    • E.Roberto

      Con tanto palabrerío “inteligente”, me olvidé de señalar que su artículo es , no obstante el difícil concepto de inteligencia, uno de los mejores que he leído con respecto a la claridad. Gracias con retraso y con algunas consideraciones más de un profano. Tiempo atrás, quizás mucho para algunos, leía que la inteligencia se podía definir como la capacidad de resolver problemas, y entonces me preguntaba quiénes serían aquellos desgraciados que no resovían problemas si nos pasamos la vida haciéndolo, y no resolverlos sospecho que también es una forma de hacerlo a través del olvido. Si no hubiéramos resuelto problemas no habríamos llegado hasta donde estamos. Lo que escribo pienso que es una muestra más pues no resuelvo nada. Hasta los recién nacidos resuelven problemas cuando menean sus cabecitas para comunicar que están satisfechos, que no quieren mamar más. Esto hacían mis pibes por lo menos. Y el olvido, ¿no sería una muestra de inteligencia? Si olvidáramos, no perdonar por cierto, ¿no sería una forma de evitar conflictos? “…Si fuéramos a las tratativas con donos y con pretensiones mandadas al olvido las guerras estarían de más, y esto vale hablando de guita y fronteras, solo el amor queda afuera porque de por si es un dono, ¿no será que si me olvido existo…?” escribía un poeta de mis pagos. Gracias de nuevo.

  2. Tan brillante como el anterior sobre la metafísica de la física, siguiendo la estela nietzscheana de Verdad y mentira en sentido extramoral. Me ha gustado.
    La pregunta de Turing buscaba el engaño no la verdad, la ciencia ya era postmoderna en los años 50 del siglo XX.

  3. José Antonio

    Gracias por un texto tan inteligente, yo casi consigo entenderlo del todo :) Y diría que no está escrito pasándolo por el tamiz de la IA, porque tiene vida, tiene poesía, austera, pero luz all fin y al cabo. La pregunta sería porqué algunas personas han abrazado la IA como si fuera la salvación a todos sus problemas, en el ámbito profesional.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*


Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.