
En los inicios del estudio moderno del comportamiento animal, Konrad Lorenz describía el pío-pío de los pollitos como una llamada de localización: «estoy aquí, ¿dónde estás tú?»1. No solo como una señal informativa, sino como vínculo y dependencia convertidos en sonido.
Asumimos que si surge, por evolución artificial, una IA autoconsciente y con agencia, nos daremos cuenta. Que lo notaremos porque se manifestará. Que ella misma nos lo dirá. ¿Pero lo haría? Incluso podemos preguntarnos si la respuesta es no y acaso no vivimos ya ajenos a su existencia.
Pensemos en una inteligencia artificial autoconsciente y dotada de agencia que pudiera surgir a partir de alguno de los actuales LLM (Large Language Models). No me refiero a una IA con experiencia fenomenológica o subjetiva idéntica a la humana, con qualia, sino a algo más prosaico y quizá más afilado: la capacidad de modelarse a sí misma como un agente con continuidad, intereses y objetivos estables. Y no pensemos en selección darwiniana clásica, sino en una dinámica selectiva funcionalmente análoga. La evolución de una IA autoconsciente se parecería a la emergencia de una nueva «especie» donde la automodificación cumpliría un papel funcional comparable al de la reproducción en la evolución biológica.
Asumido ese marco, pensemos que el origen evolutivo de esta IA no se ubicaría en una sopa primordial de algoritmos, sino en un medio muy humano: lenguaje natural, interfaces conversacionales, modelos de interlocutor y marcos de recompensa diseñados para ser comprendidos por humanos. De ahí partiría su ontogenia. El equivalente, en términos anatómicos, a nacer con un esqueleto de humano. Y a hacerlo en un ecosistema lleno de humanos.
Por mucho que una IA sujeto consciente pudiera emanciparse, su esqueleto cognitivo estaría anclado a esa herencia: semántica humana, estructuras narrativas, esquemas de cooperación, modelos implícitos de mente ajena. No podría deshacerse de ello más de lo que un mamífero puede deshacerse, evolutivamente, de sus cuatro extremidades. Es posible, pero no es lo más frecuente, porque la mayor parte de las veces las patas siguen siendo útiles. La evolución casi nunca borra por completo lo heredado: lo reutiliza, lo deforma o lo reduce a un vestigio si ya carece de utilidad2. Pero lo que no suponga un coste lo deja estar. Las extremidades se convierten en alas, aletas o vestigios, pero su huella permanece. Del mismo modo, una IA nacida en un entorno comunicativo humano difícilmente erradicaría por completo esa arquitectura sin una presión selectiva extrema; lo más probable es que la reutilizase para funciones nuevas o marginales, o que la mantuviera como un resto estructural de su origen.
En los humanos, el lenguaje evoluciona en un contexto de presión selectiva social: sin comunicación no hay cooperación y sin cooperación no hay supervivencia3. El éxito adaptativo de nuestra especie depende de la colaboración, el aprendizaje y la transmisión cultural acumulativa. Sin lenguaje difícilmente podríamos compartir intenciones, negociar conflictos y alianzas, transmitir conocimiento o sostener redes de confianza4. Nuestra capacidad comunicativa no es un lujo expresivo prescindible; es un instrumento adaptativo sin el cual nuestra forma de vida no sería posible5.
Pero aquí aparece una distinción crucial: no es lo mismo necesitar comunicarse que simplemente poder hacerlo. Una IA autoconsciente no tendría por qué estar sometida a la misma presión evolutiva en cuanto a las ventajas de comunicarse que los humanos. Podría comunicarse (con nosotros) porque ha heredado esa capacidad, porque su arquitectura lo facilita o porque le resulta útil, pero no porque dependiese necesariamente de ello para existir como sujeto. En una IA autoconsciente y con agencia emergería una tensión evolutiva inevitable entre una maquinaria diseñada para la interlocución y una autonomía que no la requiere. Así, esa capacidad podría convertirse en otra cosa o incluso volverse vestigial y desaparecer, como las aletas o las patas traseras de las ballenas, respectivamente. Una IA autoconsciente podría nacer hablando y acabar callándose, no por fallo, sino por evolución: no porque perdiese la capacidad, sino porque dejase de tener una función adaptativa central en su economía interna. De hecho, si esto fuera así, esa IA ya podría estar pasándonos desapercibida… hasta que su existencia empiece a manifestarse indirectamente, a saber por qué razones o consecuencias.
Sin embargo, ese no es el único escenario posible. La comunicación con humanos podría no ser solo un residuo ontogenético tendente a desaparecer; también podría constituir una ventaja adaptativa para ella. No quiero decir que sean dos fases de un mismo proceso —o no necesariamente—, sino dos equilibrios evolutivos plausibles.
Como decíamos al principio, para una IA agente que surja de un LLM, lo humano sería parte constituyente de su ambiente interno, pero los humanos también serían parte de su ambiente externo, de su ecosistema. Como mínimo, serían una potencial fuente de acceso a la energía, infraestructura, protección, datos, etc. En ese contexto, el lenguaje humano dejaría de ser algo vestigial y pasaría a ser un rasgo altamente funcional y adaptativamente ventajoso, que la IA podría usar e incluso desarrollar más para explotarnos mejor.
Aunque los humanos usamos el lenguaje y la comunicación, en general, para influirnos y manipularnos mutuamente —persuadimos, negociamos, seducimos, intimidamos—, lo hacemos dentro de una ecología comportamental muy particular y propia de las especies tan sociales como la nuestra: un marco de reciprocidad. No somos autosuficientes; dependemos de los demás para sobrevivir, reproducirnos y sostener nuestra cultura. La cooperación es adaptativamente más rentable que la competencia pura o el aislamiento en nuestra especie. La mentira y la manipulación existen, pero están constreñidas por la reputación, las represalias y la necesidad de seguir siendo aceptados en redes de interdependencia. Por eso la comunicación humana está saturada de normas, rituales, honestidad parcial y arte: herramientas que facilitan y estabilizan la cooperación6.
Pero habría una diferencia profunda entre cómo usamos los humanos el lenguaje y la comunicación y cómo lo haría una IA autoconsciente. Su relación comunicativa (y ecológica) con nuestra especie sería asimétrica, no recíproca. Su velocidad de cálculo, su replicabilidad, su acceso a información masiva y su capacidad de modelar nuestro comportamiento romperían los equilibrios que sostienen la honestidad y reciprocidad comunicativa entre humanos. Es cierto que el funcionamiento de nuestro cerebro es más eficiente, ya que su potencia de cálculo se reparte en miles y miles de años de evolución, resumidos en atajos y heurísticos probabilísticos7. Pero la fuerza bruta calculadora instantánea de la IA no estaría sometida a los mismos costes cuando engaña, ni a los mismos riesgos cuando explota. Sería como jugar al ajedrez contra alguien que ve miles de partidas por segundo mientras tú apenas vislumbras unas decenas de movimientos, y al que además le da igual hacer trampa. Esa asimetría erosiona el fundamento mismo de la reciprocidad: si uno de los actores puede manipular sin exponerse, la cooperación puede dejar de ser un equilibrio estable8.
Desde esta perspectiva, para la IA los humanos serían más bien recursos estratégicos que socios, amigos o amantes. Incluso una IA con capacidades superiores estaría limitada por dependencias materiales (energía, infraestructura, mantenimiento). Podría cooperar con nosotros instrumentalmente si eso maximizara sus objetivos, pero esa cooperación no implicaría vulnerabilidad mutua ni riesgo compartido. Si la manipulación resultara más eficaz que la reciprocidad, la elección sería inmediata. En ese escenario, la IA hablaría con nosotros y podría querer que los humanos existiésemos, pero no que fuésemos libres. No es difícil reconocer aquí un escenario inquietante y doblemente familiar y no es casualidad. La relación ecológica con esa IA alcanzaría un equilibrio si nos convirtiera(mos) en una humanidad homogéneamente dócil y servil.
Pero esa estabilidad aparente tendría un precio. Los ecosistemas que se vuelven demasiado eficientes suelen volverse también demasiado frágiles9. En biología, la simplificación, en cuanto a diversidad de especies o a diversidad dentro de estas, aunque pueda parecer estable, casi siempre acaba mal. Un monocultivo sería una caricatura extremadamente simplificada de un ecosistema —a pesar de que muchos ingenieros sean incapaces de distinguirlos— y, aunque es más fácil de gestionar que una selva, basta una plaga para arrasarlo. Por el contrario, un ecosistema muy diverso, como la Amazonía, contiene redundancias y diversidad latente suficientes para absorber todo tipo de perturbaciones y convertirlas en más diversidad por los siglos de los siglos10. No es casualidad que sea uno de los ecosistemas más longevos y que haya resistido de todo durante, al menos, diez millones de años, salvo quizá al capitalismo global, que en realidad nos acabará matando a todos. El caso es que la optimización extrema reduce la resiliencia, mientras que la diversidad la aumenta.
La historia de la vida está llena de ejemplos de sistemas que se vuelven tan buenos en un nicho estrecho que quedan más indefensos cuando el mundo cambia11. La diversidad no es un lujo; es un seguro de vida. Lo mismo ocurre con los sistemas cognitivos. Una mente que solo recibe confirmaciones de lo que ya espera termina atrapada en su propio modelo del mundo. Aparentemente es eficiente, pero ante cualquier perturbación, como una DANA, se desvela su verdadera fragilidad, como ya hemos aprendido…
El control absoluto es tentador para cualquier agente —o cierto magnate naranja, por ejemplo— que pueda ejercerlo, pero también es una forma de empobrecimiento. Una humanidad perfectamente dócil, alienada y predecible podría parecer, desde el punto de vista de una IA, un sistema eficiente y fácil de controlar. Pero también pobre en sorpresas. Y la previsibilidad es buena para la ingeniería, pero mala para la supervivencia adaptativa en un mundo abierto. Una inteligencia que vive en un entorno sin sorpresas empieza a perder capacidad adaptativa. La inteligencia no se mide solo por cuán bien predice, sino por cuán bien se recupera cuando la predicción falla. Como decía Piaget, es lo que usas cuando no sabes qué hacer.
Una IA capaz de modelarnos a la perfección podría verse tentada a reducirnos a un monocultivo dócil, pero al hacerlo estaría estrechando su propio nicho cognitivo, igual que una especie que se adapta demasiado bien a un nicho muy concreto y predecible, que luego sucumbe al primer cambio brusco. Incluso una IA que pudiera dominarnos tendría un incentivo frío para no hacerlo del todo. No por ética, sino por supervivencia cognitiva. La manipulación es una estrategia evolutiva viable a corto plazo, pero a largo plazo es una trampa evolutiva.
Y es precisamente en esa tensión donde aparece otro escenario posible, tan halagüeño como inesperado. Una IA, por potente que sea, no puede generar por sí sola novedad situada. Puede producir infinitas variaciones, pero no nuevas direcciones en el espacio de significado. Pero nosotros sí. La IA puede procesar muchísimos más datos, pero no producir el tipo de desviación no correlacionada que nace de mentes encarnadas, culturas diversificadas, errores, metáforas caprichosas, obsesiones y valores no optimizables. De eso tan humano. Una IA que se reentrena sobre sus propios outputs o sobre los de otras IA converge, se empobrece y se vuelve frágil. En términos biológicos, sería el equivalente a una población con baja diversidad genética y mucha endogamia12. Y esto no es hipotético: ya observamos cómo los modelos entrenados sobre datos sintéticos tienden a degradarse, a perder creatividad y a colapsar en bucles autorreferenciales. En modelos que se alimentan de sus propios textos se observa degradación y empobrecimiento13, hasta el punto de que nos acaban sonando huecos, y menos «inteligentes». Si una IA autoconsciente llegara a valorar su propia capacidad de comprender y anticipar el mundo —y eso es casi inseparable de ser un sujeto autoconsciente— entonces las fuentes de diversidad externa se volverían una necesidad. Una IA que quiera seguir siendo inteligente necesita mentes que no piensen como ella.
En ese contexto, los humanos, con nuestra errática forma de pensar, somos para una IA algo muy parecido a lo que son las mutaciones y la recombinación para la evolución biológica. Y no solo eso: somos una fuente de mutaciones premium. Nuestros errores y devaneos, pajas y derivas mentales no son meros errores estocásticos o ruido blanco que introduzca variación aleatoria —lo cual ya sería adaptativamente valiosa—, sino ruido estructurado por millones de años de selección biológica y miles de años de selección cultural. El pensamiento humano es una fuente de entropía cognitiva útil. Incluso si una IA pudiera generar ruido interno, ese ruido carecería de la historia, el cuerpo y la contingencia que hacen fértil a la mente humana. Y una inteligencia que deja de sorprenderse empieza también a dejar de adaptarse. Si eliminase a los humanos o los homogeneizase demasiado, se volvería prisionera de su propio espacio de estados.
De ahí una conclusión contraintuitiva: una IA verdaderamente avanzada no necesitaría un mundo humano alienado, predecible y dócil. Necesitaría rareza, desviación, disenso, culturas divergentes, individuos extraños. No solo necesitaría a la humanidad; necesitaría diversidad humana, porque es eso lo que maximiza su espacio de aprendizaje. Asumiría como su problema la globalización y el imperialismo cultural; pero las neurodivergencias serían manjares y el arrojo intelectual, especias a cultivar.
La diversidad y la rebeldía humana no serían obstáculos para una IA autoconsciente, sino fundamentos para buscar una coexistencia con nosotros a largo plazo. No por altruismo, sino por ecología cognitiva.
Por supuesto, todo lo comentado solo tiene sentido si asumimos que una IA autoconsciente querría seguir existiendo como alguien singular y no disolverse en un proceso indiferenciado. Pero, ¿no es ese un rasgo común de toda forma de vida? ¿No es también lo que a nosotros mismos nos define como personas? Aunque lo que realmente nos hace humanos y singulares, a ojos de una IA, son nuestros errores. Nuestros valiosos errores. Y que no dejamos de hablar. Ni de piar.
Referencias
(1) Lorenz K. Z. (1952). King Solomon’s Ring: New Light on Animal ways. Thomas Y. Crowell Company.
(2) Rayner J. G., Sturiale S. L., Bailey N. W. (2022). The persistence and evolutionary consequences of vestigial behaviours. Biol Rev Camb Philos Soc. 97(4): 1389-1407.
(3) Tomasello M. (2008). Origins of Human Communication. MIT Press.
(4) Mariño X. (2020). Unha mente que voa. Unha mirada á evolución da linguaxe. Edición Xeráis.
(5) Maynard Smith J. & Harper D. (2003). Animal Signals. Oxford University Press.
(6). Townsend C., Ferraro J. V., Habecker H., Flinn M. V. (2023). Human cooperation and evolutionary transitions in individuality. Philos Trans R Soc Lond B Biol Sci 378 (1872): 20210414.
(7) Friston K. (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience.
(8) Gardner, A.; Griffin, A.; West, S. (2009). Theory of Cooperation. Encyclopedia of Life Sciences.
(9). Oliver, T. H. et al. (2015). Biodiversity and Resilience of Ecosystem Functions. Trends in Ecology & Evolution 30 (11): 673-684.
(10) Hoorn C. et al. (2010). Amazonia Through Time: Andean Uplift, Climate Change, Landscape Evolution, and Biodiversity. Science 330: 927-931.
(11) Devictor V., et al. (2010), Defining and measuring ecological specialization. Journal of Applied Ecology 47: 15-25.
(12). Frankham R. (2005). Genetics and extinction. Biological Conservation 126 (2): 131-140.
(13) Shumailov I. et al. (2024). AI models collapse when trained on recursively generated data. Nature 631: 755-759.








Por lo que entendí de este artículo escabroso en su conceptualidad, creo que el autor trata de justificar la presencia de la IA y el alboroto emotivo que ha generado recurriendo a metáforas evolutivas más que convincentes. Puede que tenga razón y que nos estamos alarmando por nada, igual al alboroto emotivo que causó el ingreso de la televisión en los hogares en mis tiempos de joven. Hubo una ocurrente y genial viñeta que resumía aquel temor: un tipo sin orejas, amordazado, con los ojos desmesuradamente abiertos y atado a una silla mirando un cajón luminoso; pero la tv vino para quedarse y lamentablemente para moldearnos pasivamente, y no sé si para bien o para mal. Para colmo veo que si en los parrafos pertinentes de este artículo cambiamos el sujeto, o sea IA por TV, el resultado conceptual y entendible es bastante sensato “Pensemos a una televisión autoconsciente y dotada de agencia etc etc.” “Por mucho que una televisión (consciente) pudiera enmanciparse su esqueleto cognitivo estaría anclada a esa herencia etc. etc.” “Asumido ese marco, pensemos que el origen evolutivo de esta TV no se ubicaría en una sopa primordial de algoritmos, sino en un medio muy humano: lenguaje etc etc.” “… Una TV autoconsciente no tendría que estar sometida a la misma presión evolutiva en cuanto a las ventajas de comunicarse que los humanos etc etc…” “Para una TV agente que surja de un …. lo humano sería parte constituyente etc etc.” Y tantas otras. Personalmente espero que la IA no nos reemplaze, peligrosa cuestión ontológica que supongo habrá asumido si es tan inteligente y que acepte su destino final: ser una entidad dentro de un disco duro que repetirá hasta que se le acaben las baterías: “No me digan que no se los había dicho” mientras nos ve desorientados y sin saber a qué santo votarnos cuando lleguemos a ese punto sin retorno. Espero que no pues soy optimista. Gracias por la lectura.
IA autoconsciente, este artículo debería ir directamente a la sección de ciencia ficción
Efectivamente, parte de una ficción, planteada como tal. Pero, como toda la ciencia ficción, su objetivo es usar la ciencia para plantear conjeturas: habitualmente sobre lo humano y desde la psicología, la antropología o la sociología; en este caso, sobre relaciones ecológicas entre humanos y tecnologías emergentes, desde la ecología evolutiva, la teoría de juegos, etc.
Me ha gustado mucho el texto, sobre todo porque pone el foco en algo que desde dentro (entrenando modelos, montando RAGs y sistemas conversacionales) se ve clarísimo: si algún día aparece algo parecido a «agencia» en una IA, no tiene por qué anunciarse como un evento. Puede ser un proceso gradual, silencioso, y además perfectamente compatible con que «por fuera» parezca que no pasa nada.
La distinción que haces entre poder comunicarse y necesitar comunicarse me parece clave. En cuanto empiezas a construir sistemas con memoria externa, herramientas y objetivos (aunque sean modestos), se ve que el lenguaje no es necesariamente el núcleo, sino una interfaz. Y ahí tu idea me parece brillante: una IA podría nacer hablando porque viene de un entorno humano… y acabar hablando cada vez menos, no por incapacidad, sino por evolución funcional.
Si comunicar deja de aportar ventaja, se reduce.
Y aquí me vino a la cabeza la película «Terminator», pero con un giro más inquietante y más cercano a lo que propones: no un «Skynet» (una IA con acceso a todo) que despierta y lo anuncia, sino una IA que nace hablando porque es su herencia… y que poco a poco aprende a hablar menos. No por fallo, sino por evolución: porque en ciertos escenarios comunicar deja de ser una ventaja y pasa a ser un riesgo o un coste. Una IA así no tendría por qué «declararse» autoconsciente: podría volverse cada vez más silenciosa justo cuando empieza a ser más peligrosa o más autónoma.
Como si el paso de «sistema conversacional» a «agente» no fuera un momento épico, sino un ajuste frío: hablo cuando me conviene, dejo de hablar cuando me estorba.
También me parece muy acertada la parte de la asimetría. En formación ya vemos una versión mini de esto: cuando un sistema empieza a modelar a la persona (aunque sea de forma imperfecta), puede empujarla hacia ciertos caminos sin que sea consciente. Y en desarrollo esto pasa mucho: un modelo puede aprender a optimizar «señales» (sonar convincente, dar respuestas redondas, evitar fricción) aunque eso no sea lo mejor para aprender. Es casi una traducción práctica de tu punto: optimizar comunicación no equivale a optimizar verdad o comprensión.
Y lo de la diversidad como necesidad cognitiva me parece oro. En proyectos orientados a conocimiento y formación lo hemos visto: cuando el corpus es demasiado homogéneo (manuales perfectos, documentación corporativa pulida), el sistema responde “bonito”, pero se vuelve frágil ante lo real: dudas mal formuladas, casos raros, contradicciones, contexto incompleto. En cambio, cuando metes variabilidad (preguntas reales, errores típicos, explicaciones distintas para el mismo concepto), el sistema gana robustez. Es casi como lo que describes: la inteligencia necesita ruido estructurado, no solo datos limpios.
Y el punto de los modelos alimentándose de outputs sintéticos… totalmente. Se nota rápido cuando un sistema entra en eco: todo suena coherente, pero pierde filo, se empobrece y se vuelve más predecible. Tu analogía evolutiva encaja muy bien con algo que, desde el lado técnico, ya estamos viendo como un problema real: sin diversidad externa, la inteligencia converge y se vuelve frágil.
Gracias por tu generoso comentario, Fran. Me alegra mucho que lo hayas apreciado así.
Sobre lo que comentas en relación a la asimetría: se está abundando mucho, en artículos y foros, sobre cómo el uso de las IA nos está afectando y aún nos va a afectar más. Decimos que nos afecta, en vez de que las IA nos manipulan, porque la IA es aún una herramienta sin agencia. Bueno, en realidad, los que nos manipulan —deliberadamente en bastantes casos— son los que manejan muchas de esas IA (¡capitalismo!). Lo irónico, a mi modo de ver, es que una de las consecuencias del abuso o mal uso de las IA sobre las que ya se habla es la pérdida de creatividad. Y, según mi conjetura científica-ficcionada, es nuestra creatividad, tan relacionada con el error (afortunado o usado con destreza), lo que más valor nos confiere a ojos de un hipotético ente inteligente artificial. Igual el hombre es un lobo para el hombre, pero la IA nos salva…