Versión en inglés aquí.
Una paradoja del boom actual que vive la inteligencia artificial (IA) es que esta tecnología domine el debate público sin que nadie sepa bien en qué consiste. ¿Qué es la IA? Ni siquiera los expertos coinciden en una única definición. En parte porque no existe «la IA», sino un conjunto diverso de técnicas y sistemas agrupados bajo esa etiqueta. En su manual de referencia sobre la disciplina, por ejemplo, Stuart Russell y Peter Norvig renuncian a una definición única y ofrecen, en cambio, cuatro grupos diferentes de formas de explicarla. Este artículo analiza la primera fuente de confusión en torno a cómo conceptualizamos la IA: su propio nombre.
Los orígenes problemáticos del término
Aunque la idea de «máquinas pensantes» comenzó a trabajarse en los años cuarenta del siglo pasado, es sabido que el término «inteligencia artificial» apareció por primera vez en 1955 en la propuesta para celebrar un seminario el verano siguiente en el Dartmouth College, considerado hoy un hito fundacional en la disciplina.
Lo acuñó el informático John McCarthy con objetivos que él mismo explicó en diversas ocasiones. Por un lado, buscaba una etiqueta «atractiva» que atrajera financiación y expertos. Por otro, diferenciarse de otras disciplinas como la cibernética o los «estudios de autómatas», que el propio McCarthy investigaba con Claude Shannon, padre de la teoría de la información.
A pesar de que hoy esa elección parece un éxito innegable, el término resultó polémico desde sus inicios. Algunos asistentes al seminario lo consideraron «pretencioso» y «algo engañoso». Otros criticaron que se hablara de inteligencia «artificial» en lugar de «real». Dos participantes, Allen Newell y Herb Simon, abogaron por llamar «procesamiento de información compleja» al nuevo campo de estudio y siguieron usando esa etiqueta en sus trabajos varios años después.
Los dos componentes del término siguen siendo discutibles setenta años después. En su libro Atlas de IA, Kate Crawford niega que esta tecnología sea «inteligencia» o «artificial» y argumenta que, por el contrario, «existe de forma corpórea, como algo material, hecho de recursos naturales, combustible, mano de obra, infraestructuras, logística, historias y clasificaciones». Otros estudios apuntan a los orígenes eugénicos del término «inteligencia» o al tono engañoso y fraudulento que implica «artificial».
«Inteligencia artificial» como un triple error de categoría
Más allá de estas críticas conocidas, considero que el uso de «inteligencia artificial» ha generado lo que el filósofo Gilbert Ryle, en su clásico The Concept of Mind, denomina «error de categoría». Este problema se da cuando un concepto se aplica a una categoría equivocada. «El sábado está en la cama» es un ejemplo de error de categoría. Otro, ofrecido por Ryle en su libro, es un turista al que le enseñan los edificios de la Universidad de Oxford y, al terminar la visita, pregunta «¿pero dónde está la universidad?», confundiendo los edificios con la institución a la que pertenecen.
En mi opinión, «inteligencia artificial» genera un error de categoría de al menos tres tipos.
- Disciplina vs entidad. «Inteligencia artificial» designa una disciplina, un campo de estudio, pero el término ha pasado a usarse para designar supuestos entes contables en frases como «Una IA diseña materiales…». Se confunde así una disciplina con un ser tangible e individual, como si dijéramos «una medicina ha curado un tumor». No existe «una IA».
- Aspiración vs realidad. El término describía en sus orígenes una aspiración, un objetivo a cumplir en un futuro distante. Hoy, en cambio, suele usarse como si esa inteligencia ya existiera, como una tarea ya cumplida. En 1955 la idea de inteligencia artificial era una promesa, no un logro. Y esto sigue siendo cierto hoy.
- Herramienta vs agente. El término contribuye a antropomorfizar la IA, mezclando una herramienta con un agente, un software con un ser dotado de voluntad, deseo, ideas, autonomía. Este error de categoría se observa con facilidad en la colocación de la IA como sujeto en la oración, reemplazando a los verdaderos agentes responsables de la acción (los humanos que usan la IA como herramienta para hacer algo), como en «Una IA descubre nuevos medicamentos…».
El término «inteligencia artificial» promueve también una confusión más sutil pero igual de poderosa: la idea de que los sistemas de IA no solo hacen lo mismo que los humanos, sino que también lo hacen mediante los mismos mecanismos internos. Esto es falso. Los aviones vuelan, como los pájaros, pero gracias a principios físicos muy diversos. Si los llamáramos «pájaros artificiales», podríamos tender a confundir el modo en que operan y a perder tiempo y energía en falsos debates sobre aeronáutica, relegando a un segundo plano los problemas reales y urgentes. Lo mismo puede decirse de la IA. El problema es que la actividad de pensar es menos visible que la de volar, y las diferencias entre lo que hacen los humanos y las máquinas en este campo, más difíciles de percibir. Este error conceptual se refleja en la conocida cita atribuida al informático Edsger Dijkstra: «La cuestión de si las máquinas pueden pensar es tan relevante como la cuestión de si los submarinos pueden nadar».
El impacto del término engañoso
Aunque se originen en el propio término «IA», estas confusiones han contagiado todo el campo léxico de la disciplina. Por mencionar solo un ejemplo: se habla de «alucinación» para describir la información inexistente que aparece a veces en el texto generado por grandes modelos de lenguaje. Pero «alucinar» sugiere: a) la existencia de una mente; b) que su funcionamiento habitual es correcto; c) que a veces puede presentar desvíos inesperados. Las tres cosas son falsas. Lo que llamamos «alucinación» no es más que un error inherente —y por lo tanto inevitable— a la naturaleza probabilística del modelo de aprendizaje profundo usado por los chatbots. El término «alucinación» muestra un hábil desplazamiento semántico que convierte un problema irresoluble de la tecnología en un argumento para magnificar sus capacidades.
Es verdad que la propia vaguedad del término pudo contribuir al rápido desarrollo de la disciplina en algún momento, como afirmaba un informe de Stanford en 2016. Hoy, sin embargo, en pleno boom de la IA, esa ambigüedad tiene consecuencias discutibles en términos culturales, económicos, políticos y estratégicos.
Por ejemplo, es una de las causas que explican la llamada «ansiedad ante la IA»: la confusión entre lo que se cree de la IA y su verdadero alcance. También se presenta como un obstáculo en aspectos clave: ¿cómo podemos usar, desarrollar o regular una tecnología que ni siquiera terminamos de definir bien?
Hacia una mejor terminología
El análisis del lenguaje no es un lujo teórico o un divertimento intelectual. El lenguaje importa. Es la herramienta con la que construimos nuestra realidad. Las palabras, las historias, las metáforas, la representación visual que usamos para la IA impactan en su desarrollo y determinan el modo en que acogeremos esta tecnología en nuestra cultura. En mi libro Tecnohumanismo. Por un diseño estético y narrativo de la inteligencia artificial propongo por eso el concepto de «diseño narrativo» como una capa necesaria —y frecuentemente ignorada— en el desarrollo de la IA.
Otras iniciativas plantean la misma necesidad. En su estudio sobre las confusiones que rodean la IA, el investigador Daniel Leufer incluye el mito de que el término «tiene un único significado» y ofrece diversas alternativas, tales como «estadística computacional», «automatización cognitiva», «sistemas automáticos de toma de decisión» o incluso el modesto «un programa informático». A esta lista sumaría mi propuesta de «inteligencia simulada». Un ejercicio estimulante consiste en reemplazar el término «IA» por alguna de esas alternativas al discutir alguno de los desafíos más complejos que plantea hoy esta tecnología y observar hasta qué punto el debate adopta un tono diferente solo por ese cambio de nomenclatura.
Algunos de los problemas de conceptualización que rodean la IA se originan en su propio nombre. Tal vez es demasiado tarde para cambiarlo. El lenguaje es una realidad social y viva que —felizmente— no puede regularse de arriba abajo. Pero reflexionar sobre las palabras y tomar conciencia de las diferentes realidades que creamos al usarlas es un buen modo de abordar de manera más profunda los retos que plantea hoy nuestra interacción con la IA. También un recordatorio de que, sin un enfoque humanístico y crítico, seremos incapaces de comprender del todo uno de los proyectos tecnológicos más ambiciosos de la historia.
Este artículo se ha publicado originalmente en inglés en IE Insights, la publicación de pensamiento y divulgación de IE University, y se reproduce con autorización de sus autores y de la institución.








