Arte y Letras Ciencias Entrevistas Filosofía

Antonio Diéguez: «La gobernanza de la tecnología es fundamental porque nos jugamos nuestro futuro»

Antonio Diéguez para Jot Down

Antonio Diéguez Lucena (Málaga, 1961) es catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga y uno de los principales especialistas europeos en transhumanismo. A lo largo de su carrera ha investigado en torno a la filosofía de la biología, el realismo científico y, más recientemente, las implicaciones éticas y epistemológicas de las nuevas tecnologías. Autor de obras como Transhumanismo: la búsqueda tecnológica del mejoramiento humano o Filosofía de la biología, ha formado parte de comités de ética científica, redes de investigación internacionales y ha mantenido una presencia activa en el debate público sobre la transformación tecnológica del mundo contemporáneo. Su último libro es Pensar la tecnología. Una guía para comprender filosóficamente el desarrollo tecnológico actual.

Le entrevistamos en un momento en que esa transformación acelera sin pausa. La sobrecarga de estímulos, la erosión de las fuentes fiables y una tecnología que concentra el poder bajo nuevos cánones dificultan la comprensión serena de nuestro tiempo. La filosofía de Diéguez resulta entonces una brújula para orientarse en esta nueva geografía de lo humano, en la que conviven inteligencia artificial, economía de datos, posverdad y el progresivo deterioro de las democracias liberales. Su pensamiento ofrece claves para entender qué está en juego en la relación entre máquinas y seres humanos en este presente por venir.

Has reflexionado en diversas ocasiones sobre el feminismo, reconociendo tanto sus aportaciones como algunas de sus tensiones internas más recientes. ¿Cómo interpretas la evolución del movimiento en los últimos años y qué papel crees que desempeña hoy en el pensamiento crítico contemporáneo?

Es un tema complejo. Muchos hombres nos sentimos perplejos ante noticias relacionadas con la prevalencia de las actitudes machistas; o cuando las actitudes de desigualdad de género son defendidas como si fueran lógicas e inevitables, actitudes que se suelen justificar bien por la educación que hemos recibido o porque tenemos una sensibilidad diferente. Me parece un discurso equivocado el que atribuye a todos los hombres, por una razón o por otra, una tendencia al comportamiento machista o incluso agresivo hacia las mujeres.

La mayoría de los hombres que conozco, al menos aquellos con los que tengo un trato más próximo y cotidiano, están muy comprometidos y decididos a que los actos machistas no predominen, que no se consideren ni normales ni normalizados. Hay que señalar toda acción discriminatoria e injusta, proveniente de una tradición, basada en una dicotomía radical hombre/mujer, que debería haber sido superada. En esto el pensamiento postmoderno ha hecho una de sus contribuciones más valiosas. Aunque quizá hubo, o ha habido, una interpretación excesiva y, en los últimos años, se ha derivado en posiciones demasiado extremas que han llevado a la propia ruptura del movimiento feminista.

Veremos hasta cuándo, pero, en general, el feminismo ha sido un gran beneficio para las distintas sociedades en las que ha podido ejercer su influencia, porque ha puesto la atención en esa necesidad de no mantener dicotomías radicales en estos temas, que eran dicotomías que se usaban para justificar una posición de dominio del hombre blanco occidental, en este caso, sobre las mujeres. En este sentido, admiro la labor de feministas como Donna Haraway, Evelyn Fox Keller, Helen Longino o Heather Douglas. Creo que su aportación al pensamiento contemporáneo, en materia feminista, es fundamental para ampliar los márgenes e ir más allá de postulados canónicos. Sus tesis sobre la ciencia y la tecnología, que son los temas en los que trabajo, han sido esenciales para algunos de los cambios recientes que ha experimentado nuestra visión del desarrollo tecnocientífico.

Uno de los grandes problemas que está teniendo, desde mi punto de vista, el feminismo es que se está convirtiendo en acontecimiento. Pero no por el propio feminismo, sino por centrarse en el lenguaje de este tiempo, la gramática de este tiempo. Si todo se reduce al campo de lo simbólico, el sentido del feminismo se diluye y sus conquistas se pueden ver amenazadas.

Antonio Diéguez para Jot Down

A partir del pensamiento de autoras como Donna Haraway, ¿qué papel crees que desempeña hoy el poshumanismo en nuestra manera de entender la relación entre seres humanos, tecnología y naturaleza? ¿Qué diferencias destacarías entre el poshumanismo cultural y el enfoque tecnocientífico que tú has estudiado más a fondo?

Como sabes, yo me he dedicado a estudiar sobre todo el que podemos llamar poshumanismo tecnocientífico, que podríamos considerar como el objetivo final del sector más radical del transhumanismo, porque propugna el advenimiento de una especie poshumana —o varias— a base de realizar transformaciones radicales en el ser humano mediante la aplicación directa de las nuevas tecnologías (biotecnologías, robótica e IA, etc.). No conozco tan bien el poshumanismo cultural representado por Haraway, por Rosi Braidotti y por otros autores actuales. Aunque hay paralelismos entre ellos, sus objetivos son distintos. Para el transhumanismo tecnocientífico el objetivo central es el mejoramiento humano y, finalmente, la consecución de una vida de duración indefinida gracias a la tecnología. Para el poshumanismo cultural, en cambio, el objetivo central es mostrar la necesidad de sustituir los ideales periclitados del viejo humanismo.

Si me he interesado por este tema es, como bien dices, porque permite pensar de un nuevo modo la relación entre los seres humanos, la tecnología y la naturaleza, y porque la propia tecnología vuelve a recuperar una importancia filosófica que hasta el momento pocas veces se le había dado —con excepciones como las de Ortega y Heidegger—. El transhumanismo es un síntoma de nuestra época que permite vislumbrar algunos de sus rasgos característicos, en ocasiones no muy evidentes. Es, como dice Michael Hauskeller, la combinación de mitología y tecnología. Es la mitología que se nos ofrece por sus defensores como la más iluminadora de nuestra época y la que, de hecho, impregna las cabezas de los más importantes directivos de Silicon Valley. No hay que creer en ella a pies juntillas, claro está, pero hay que conocer bien sus promesas porque es con ellas con las que se están intentando legitimar los cambios sociales que se avecinan.

En tu trabajo filosófico siempre está presente una atención especial a lo humano, incluso cuando abordas cuestiones ligadas al desarrollo tecnológico o a la inteligencia artificial. ¿Qué papel crees que juegan hoy las emociones en los procesos racionales y cómo condicionan nuestra diferencia frente a las máquinas?

Las neurociencias vienen desmontando, desde hace ya algún tiempo, la idea de que la racionalidad debe ser absolutamente (pre)dominante sobre las emociones. Lo que vienen mostrando es que, más bien, no se razona nunca sin que las emociones se vean implicadas. De hecho, el mundo emocional puede convertirse en uno de los hándicaps de la inteligencia artificial en el futuro —si es que se consigue una inteligencia artificial general—.

Para nosotros, las emociones son muy importantes a la hora de pensar, a la hora de reflexionar: qué nos atrae, qué nos mueve en ese asunto, cómo lo vivimos desde un punto de vista emocional. No es lo mismo reflexionar sobre un tema que detestas o que te causa una gran desazón que sobre un tema que te parece que es agradable o beneficioso o confortable. Por lo tanto, la mera aplicación de la razón exige la implicación de las emociones, y eso es algo que vamos comprendiendo cada vez mejor.

Las máquinas, en cambio, por carecer de un cuerpo biológico, no podrán experimentar emociones, incluso si llegaran a poder simularlas perfectamente. Una cosa es sentir una emoción y otra reconocerla o expresarla. Lo primero solo es posible para un animal, sea o no humano, porque depende del efecto de nuestro sistema nervioso, activado por las correspondientes sustancias químicas, sobre nuestro cuerpo. Esto quiere decir que, si tenemos alguna vez inteligencia artificial general, el modo de pensar de esas máquinas será muy diferente al humano.

En un contexto donde la inteligencia artificial parece cada vez más presente pero también más malinterpretada, ¿cómo deberíamos entender realmente qué es la IA y qué podemos esperar de sus distintas formas de desarrollo?

Bueno, bueno, al parecer, esa es la pregunta clave en la época actual. Yo diría, para empezar, que la inteligencia artificial es una metáfora que se ha salido de madre porque se ha interpretado literalmente, cuando era una propuesta intencionalmente provocadora en la Conferencia de Dartmouth en 1956, que está considerada como el momento fundacional de la disciplina, aunque las investigaciones de tipo conceptual y teórico son muy anteriores. La propuesta inicial de dominación del campo iba a ser «procesamiento complejo de la información». Si se hubiera llamado así, quizás nos habría evitado muchas discusiones filosóficas. Pero a John McCarthy, uno de los presentes, se le ocurrió lo de inteligencia artificial, y se aceptó como la denominación más atractiva, con lo que, ya desde entonces, la idea de que allí había algún tipo de inteligencia no humana quedó grabada para siempre.

En ese mismo congreso se dio una definición del campo, del campo de estudio, que a mí me sigue pareciendo la mejor. No dijeron de forma directa y explícita vamos a crear máquinas inteligentes, sino máquinas que realicen tareas que, cuando las realiza un ser humano, decimos que requieren el uso de su inteligencia.

Pero esta definición no excluye que ellas, las máquinas, puedan hacerlo de forma no inteligente. Y esa definición por eso me sigue gustando, me parece que describe bien lo que hay hoy día. Tenemos máquinas que juegan al ajedrez, que hacen un diagnóstico médico, que pueden mantener una conversación sobre cualquier tema, etcétera, etcétera. Todo eso, cuando lo hace un ser humano, sabemos que lo hace de forma inteligente. Pero yo no diría que por ahora esas máquinas lo estén haciendo de forma inteligente. Desde luego no con la forma de inteligencia que vemos en seres humanos y en animales.

En un tiempo en el que lo virtual parece imponerse, ¿crees que estamos asistiendo a una reivindicación del cuerpo y de la presencia física como elementos fundamentales para entender lo humano? ¿Qué papel desempeña hoy la experiencia encarnada en el pensamiento filosófico y en el desarrollo tecnológico?

En la filosofía actual, efectivamente, el cuerpo ocupa un lugar cada vez más central. Ya en los setenta, Hubert Dreyfus, basándose en la filosofía de Heidegger y de Merleau-Ponty, cifró las limitaciones de la inteligencia artificial simbólica —que era la que existía sobre todo en ese momento— en el hecho de que las máquinas no están en el mundo, no están situadas en la realidad, y esto se debía a su carencia de cuerpo, a que las máquinas o robots que se desarrollaban no eran inteligencias corporizadas, no eran capaces de una experiencia encarnada.

La robótica situada y, posteriormente, la robótica encarnada surgieron en buena medida inspiradas por estas consideraciones. Lo que había que hacer no era poner una computadora, con su correspondiente unidad de procesamiento central ejecutando órdenes, encima de un cuerpo robótico que le proporcionara los inputs, sino construir robots que desde el principio aprendieran cómo es el mundo mediante interacción directa con él, y cómo debe reaccionarse de forma apropiada y versátil a sus desafíos. Solo así puede entenderse el contexto en el que se ha de desplegar la acción y puede adquirirse un conocimiento tácito sobre el entorno. Esa experiencia directa del mundo, cambiante y complejo, no puede sustituirse por una pléyade de datos digitales.

Este es un ejemplo claro, en mi opinión, de cómo la filosofía ha contribuido en algunas ocasiones al avance de la ciencia y la tecnología. Hoy en día seguimos sin tener robots inteligentes que tengan con su cuerpo una relación tan estructurada e íntima como la que tiene cualquier animal con el suyo, y estamos muy lejos de lograr algo así. No se puede decir, por tanto, que los robots o las máquinas estén en el mundo en el sentido heideggeriano.

Son muchos los filósofos que aceptan que la mente solo puede entenderse bien en su funcionamiento como mente corporizada, es decir, que el cuerpo forma parte inextricable de la mente misma y que los procesos mentales dependen de la experiencia corporal. Por otro lado, una corriente influyente de pensamiento insiste en la actualidad en que incluso el entorno, y particularmente los instrumentos y utensilios que empleamos en nuestra relación física con el mundo, forman parte de lo que ha dado en llamarse la «mente extendida». La mente humana no es, por tanto, la de un cerebro en una cubeta —o la de una máquina sin experiencia corporal del mundo—, sino una mente corporizada y en constante interacción instrumental con el mundo.

¿A quién beneficia que una máquina realice una serie de tareas que solicitan de cierta inteligencia humana? Concederle esa especie de poder, o autoridad, legitimarla. De seguir así, una tiene la duda de si, como sucede en el derecho, la máquina no termine convirtiéndose en una suerte de auctoritas. ¿Cuáles podrían ser las consecuencias de alcanzar ese nivel especulativo?

Daniel Dennett hablaba de la actitud intencional que, inevitablemente, los seres humanos aplicamos a los animales, pero también a los objetos inanimados y a las máquinas, incluso a las más simples, como un termostato. Decía él que atribuimos al termostato, de alguna manera, la intención de mantener la temperatura de la habitación. Estamos programados evolutivamente para eso, es de suponer que fue adaptativo en su momento el atribuir intencionalidad a todos los objetos naturales, y probablemente ahí esté el origen de muchos mitos y de la religión. Esa tendencia es tanto más fuerte ahora que estas máquinas hacen cosas que son propias de los seres humanos, porque, claro, mantener una conversación o hacer un diagnóstico médico hasta ahora solo lo hacían los seres humanos.

De ahí que sea casi inevitable antropomorfizar, antropomorfizarlos. Cuando yo chateé por primera vez con el ChatGPT, me quedé impactado, claro, porque estaba dando respuestas a un tema complejo y especializado; le pregunté algo sobre filosofía de la ciencia y me dio una respuesta que no era de manual, que era de relacionar cosas. Me quedé sorprendido del nivel que tenía aquello.

Desde entonces, ya sé cómo funciona básicamente el ChatGPT y no me dejo impresionar tanto, y además me empiezan a parecer más monótonas las respuestas, más repetitivas, también porque se va uno acostumbrando a todo esto. Lo cual no quita para que sean a menudo respuestas muy útiles y atinadas. Yo creo que hay ahí una tendencia inevitable a antropomorfizar, pero luego, claro, también está el hecho de que efectivamente se está poniendo mucho peso en lo que estos sistemas podrían llegar a hacer, y sobre todo se está poniendo en sus manos de forma creciente y poco meditada una capacidad de decisión en muchos temas que afectan a la vida de las personas y pueden dañarlas de forma muy grave, y eso sí que me parece peligroso. Es decir, para mí el debate filosófico importante aquí no es si estas máquinas son inteligentes o no, lo importante es qué decisiones vamos a dejar en sus manos y cómo vamos a controlar eso, cómo lo vamos a controlar los ciudadanos, y no una élite empresarial o gubernamental.

Porque la cuestión de si hay verdadera inteligencia o no, bueno, eso es un debate interminable. Todavía hay muchos que siguen discutiendo si hay inteligencia animal, cosa que a mí me parece evidente, pero hay quien lo sigue negando, o si es posible el pensamiento sin el lenguaje, todavía se discute. Hay quien cree que si no hay lenguaje, no hay pensamiento, por lo que los animales no piensan entonces.

Bueno, si todavía seguimos con esas discusiones acerca de los animales, imagínate para ponernos de acuerdo sobre si lo que hacen las máquinas ahora o harán en el futuro puede considerarse auténtica inteligencia. Este debate, al igual que el debate sobre la inteligencia animal, se convierte en una discusión sin final en gran medida porque ni siquiera tenemos un concepto claro y ampliamente aceptado acerca de qué es la inteligencia. En cambio, lo que sí estamos haciendo es dejar ya decisiones importantes en sus manos, decisiones que pueden ser muy perjudiciales —también muy beneficiosas, es cierto—, pero hay que ir con cuidado.

Hay un libro titulado Armas de destrucción matemática (Capitán Swing, 2020), de Cathy O’Neil, una matemática que trabajó durante años como analista en el ámbito financiero, que cuenta casos verdaderamente duros de cómo las decisiones de la inteligencia artificial han destrozado vidas.

Antonio Diéguez para Jot Down

En este contexto de transformación acelerada, donde la relación entre humanos y máquinas sigue sin resolverse del todo, ¿qué papel deberían desempeñar los derechos digitales y cómo abordar la gobernanza tecnológica en la Europa de los próximos años? ¿Crees que debemos mantener la distinción entre lo humano y lo artificial como una línea ética fundamental?

Fíjate, antes decíamos que el posmodernismo nos había convencido de que algunas viejas dicotomías había que disolverlas. Sin embargo, a mí me parece que esta dicotomía ser humano-máquina es justo la que no hay que disolver, entre otras cosas porque eso es lo que los transhumanistas querrían. Incluso las poshumanistas, como Donna Haraway, tampoco verían mal la ruptura de esa dicotomía.

A mí, sin embargo, me parece que es una dicotomía que hay que mantener en pie todo lo que podamos, porque lo contrario sería convertirnos en algo tan diferente de lo que somos que a mí ya no me interesaría como descendiente de seres humanos que soy. Es decir, el futuro del poshumano, sea un descendiente natural de nuestra especie o un producto de la biotecnología, no me interesa, no tiene nada que ver conmigo y no me veo en el papel de orgulloso ancestro. El cíborg me interesa algo más, pero me interesa solo en la medida en que sigue siendo humano, y no más que un ser humano.

Es muy probable que la fusión parcial con las máquinas, con el uso extendido de interfaces permanentes, por ejemplo, se haga cada vez más común. Es probable también que recurramos de forma cotidiana y fácil a la inteligencia artificial para resolver un gran número de problemas, pero lo que tiene interés real para mí en ese proceso es qué hará todo ello de lo humano. La desaparición del ser humano me parecerá siempre una desgracia, no algo a celebrar, aunque sea sustituido por algo supuestamente mejor. Llámalo especismo, si quieres.

Para mí el cíborg no es una figura de liberación. Debemos mantener con cuidado lo que verdaderamente nos hace humanos. Una de las enseñanzas, para mí, que ha tenido todo el desarrollo actual de la inteligencia artificial ha sido el permitirnos ver cuántas cosas hay que creíamos exclusivas de los humanos y que realmente no lo son tanto. Por ejemplo, esto que decíamos antes: mantener una conversación, jugar al ajedrez, invertir en bolsa, hacer un diagnóstico médico, una prospección o un análisis geológico de un terreno, todo eso lo pueden hacer las máquinas mediante algoritmos.

La pregunta que me planteo ahora es qué hay en una conversación entre dos seres humanos que sea irreproducible de forma algorítmica, qué hay de original, de genuino y de creativo en una conversación normal. Los modelos grandes de lenguaje han sido una cura de humildad, porque nos han mostrado que mucho de lo que decimos en un diálogo normal es predecible y reproducible mediante cálculos probabilísticos de palabras.

Yo creo que eso es un reto también para el pensamiento: volver a fijarnos en qué es lo que nos distingue, en lo que nos hace humanos en realidad. Tú sabes que una respuesta que se ha dado —la dio, por ejemplo, el físico Roger Penrose— consiste en acudir al teorema de Gödel. El argumento viene a decir que, como Kurt Gödel mostró, hay verdades matemáticas que podemos reconocer como tales y que, sin embargo, no son demostrables dentro de un sistema formal consistente lo suficientemente complejo, lo que significa que habría enunciados matemáticos que el ser humano aceptaría como correctos pero una máquina no, porque la máquina no los puede obtener mediante una demostración.

Si eso fuera lo único que hay de humano en los seres humanos, la capacidad de intuir verdades matemáticas, yo me sentiría bastante decepcionado. Tiene que haber más cosas relevantes que nos distingan de las máquinas, y sobre todo de las máquinas del futuro. Los sentimientos, quizá, la autoconsciencia, el ámbito de la moral, o del arte. No lo sé.

Hace unos meses, en la ceremonia de celebración del quincuagésimo aniversario de la Facultad de Filosofía y Letras de la Universidad de Málaga, la decana nos preguntaba a los que estábamos en la mesa cómo sería la facultad dentro de cincuenta años. Mi respuesta fue directa y sencilla: estaremos —estarán— discutiendo los profesores qué decirles a los alumnos que no les puedan decir las máquinas. Y, probablemente, tendría más que ver con los afectos que con lo racional, lo estrictamente racional. La información será importante, pero menos que ahora. La máquina les puede proporcionar la información mejor que el ser humano.

Pero tú me preguntabas también por la cuestión de los derechos y de cómo preservar esos derechos, y ese es un gran reto. Yo creo que el reto más importante que tenemos delante es, como tú decías, la gobernanza de la tecnología. No solo de la inteligencia artificial, pero también, sobre todo, la de la inteligencia artificial, porque ahora mismo es la tecnología más potente, aunque puede que empecemos a ver la curva descendente no dentro de mucho tiempo, como ha ocurrido otras veces.

En todo caso, la gobernanza de la tecnología es fundamental porque ahí nos jugamos de verdad nuestro futuro. Y no puede ser que las decisiones importantes estén en manos de unos pocos, de los grandes magnates de la industria tecnológica en particular. No puede ser.

La regulación tecnológica suele despertar recelos en nombre de la libertad de mercado o la innovación. ¿Cuál crees que debe ser el papel de Europa en este debate y cómo articular una gobernanza democrática de la tecnociencia que equilibre innovación, derechos y control público?

La prueba es que en la industria aeronáutica y en la industria biotecnológica hay regulaciones muy estrictas y la innovación no ha sufrido nada por eso. A veces la regulación puede incentivar la innovación, como ha sucedido, por ejemplo, con las restricciones legales del uso de animales en la experimentación, que han propiciado la búsqueda de nuevas y muy efectivas técnicas in silico o in vitro para la investigación en medicamentos.

Quienes desconfían de la regulación normalmente ponen sobre la mesa no solo la cuestión de la innovación, sino que añaden que estamos atentando contra la democracia, al ir contra la libertad de investigación y contra la libertad de mercado, cuando justamente la regulación de la tecnología, yo creo, es la estrategia más sensata en el siglo XXI y puede ser todo lo democrática que se quiera si se hace bien, aunque imponga ciertos límites en casos puntuales a la libertad de investigación (en armas biológicas, por ejemplo) o de mercado (en la venta y uso de tecnologías de vigilancia, por ejemplo). Se trata de un acuerdo social que implica una colaboración público-privada que beneficia no solo a los ciudadanos de muchos países —piénsese en el «efecto Bruselas»—, sino que permite encauzar el futuro de acuerdo con los deseos de las personas que reciben los beneficios, y también pueden sufrir los posibles perjuicios, del desarrollo tecnológico.

Para que esto funcione razonablemente bien, el público debe estar bien informado de los objetivos y de los peligros potenciales de ese desarrollo. Hay que luchar contra el desconocimiento y la desinformación, que la propia tecnología contribuye a extender. Y nuevamente volvemos casi a lo que comentábamos al principio. Es decir, estamos ante un momento en el que la verdad, la información veraz y lo más completa posible, es un requisito para el buen funcionamiento del sistema tecnológico. Tras un cuestionamiento del concepto de verdad por parte del postmodernismo en décadas pasadas, parece que es una noción que recobra su prestigio en el pensamiento actual. No porque se quiera rescatar algo así como la idea de que hay verdades absolutas que todo el mundo debe aceptar, sino simplemente porque, aunque se reconozca su carácter siempre falible, la alternativa a la verdad objetiva es o bien el escepticismo o bien el relativismo, y ninguna de las dos parecen buenas filosofías para afrontar los retos que la sociedad tecnológica nos plantea.

Mira, estoy completamente de acuerdo con lo que has dicho de que el control es parte fundamental de la democracia. Uno de los aspectos fundamentales de la democracia es que todo poder ha de tener su contrapeso. Que no pueda haber un poder que domine sin que nadie pueda contrarrestarlo. Y, obviamente, eso significa que hay que integrar en una sociedad democrática el poder de la tecnología y de la ciencia. O de la tecnociencia, si quieres, porque, en la actualidad, lo que vemos es una simbiosis de difícil separación. Esa etiqueta y su vinculación con la ciencia también genera cierta polémica.

Sigue habiendo ciencia pura, obviamente. Hay quien se dedica a la biología evolutiva, por ejemplo, y no contempla ni ha contemplado nunca la posibilidad de su implementación tecnológica. O a la bioquímica, no sé, si se trata del estudio de moléculas que no tengan mucho que ver con la tecnología, pues también lo sería. Pero, en general, hoy día la ciencia es tecnociencia.

Pero la tecnociencia lleva consigo un enorme poder de transformación y de generación de recursos de interés para la industria, para la sanidad, para la geoestrategia, etcétera, y en una sociedad democrática eso tiene que estar bien integrado y articulado con el resto de los poderes públicos. Todavía no sabemos bien cómo llevarlo a cabo, porque es un tema reciente en el que, digamos, se ha empezado a pensar con detenimiento a principios de este siglo. Hay antecedentes, como el de Feyerabend o el de la Escuela de Frankfurt, pero han sido sobre todo autores de principios del siglo XXI los que lo han convertido en un tema central.

Antonio Diéguez para Jot Down

¿Crees que la resistencia a regular tiene que ver con una crisis en torno al conocimiento y la verdad? ¿Hasta qué punto la desinformación y la saturación de discursos afectan a los valores democráticos y al deseo de entender el mundo con curiosidad y sentido crítico?

La cuestión de la verdad, el aprecio por el conocimiento, la falta de curiosidad… ahí quizás habría más que matizar. Por ejemplo, yo creo que curiosidad por estos temas hay cada vez más; lo que ocurre es que la gente está bastante desorientada y, sobre todo, las fuentes de información se han diversificado mucho.

Lo cual significa que la calidad de alguna de ellas es mucho peor que la media de lo que había antes. Es decir, antes las fuentes de información, además de los libros, eran fundamentalmente los periódicos, la radio y las televisiones, y ahí solía haber un cierto control de calidad. Mientras que, en las redes sociales, donde hoy día se informan muchos jóvenes, no hay ese control de calidad; entonces ahí hay mucha basura, mucha.

Sin embargo, en la cuestión de la verdad a lo mejor estamos pecando de pesimistas, y me incluyo en esto. En el libro de mi amigo Manuel Arias Maldonado, «(Pos)verdad y democracia» (Página indómita, 2024), su autor nos indica que, por un lado, esto de la posverdad no es algo tan nuevo como a veces creemos —la mentira se ha utilizado siempre como medio para satisfacer intereses o alcanzar objetivos políticos— y, por otro lado, hoy tenemos más posibilidades de obtener una información a partir de distintas fuentes, si queremos. Cuando las televisiones norteamericanas nos daban, en los sesenta, noticias sobre Vietnam, lo que decían los noticiarios por lo general iba a misa. ¿Quién iba a contrastar eso? En cambio, hoy día, cualquier noticia que aparezca en un telediario es contrarrestada inmediatamente en las redes sociales por los que no están de acuerdo con ella o con el enfoque. De ese modo puede uno obtener puntos de vista diferentes. Lo que ocurre es que se utiliza en política una táctica que también es anterior a la época de la llamada posverdad, y es inundar de información y de desinformación hasta que, finalmente, nadie sepa muy bien qué es lo verdadero y lo falso, con lo cual deja de creer en todo. Y eso es peligroso, claro. Eso puede desembocar en un escepticismo, pero también en un desapego generalizado frente a la política. En definitiva, creo que sigue importando la verdad y que la gente sigue queriendo oír verdades y les molestan las mentiras.

Para terminar, ¿podrías recomendarnos una lectura que creas especialmente útil o reveladora para quienes quieran adentrarse en los grandes debates contemporáneos sobre ciencia, tecnología y condición humana?

Es difícil encontrar libros introductorios que aúnen un análisis filosófico de la ciencia y de la tecnología simultáneamente, así que recomendaré dos lecturas. Para adentrarse en los debates actuales en filosofía de la ciencia, recomiendo el libro de Gillian Barker y Philip Kitcher Filosofía de la ciencia. Una nueva introducción (Madrid: Guillermo Escolar, 2024). Para los problemas filosóficos de la tecnología, recomiendo un clásico a quien no lo haya leído aún: el libro de Hans Jonas El principio de responsabilidad (Barcelona: Herder, 1995).

Antonio Diéguez para Jot Down

SUSCRIPCIÓN MENSUAL

5mes
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL

35año
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL + FILMIN

105año
Ayudas a mantener Jot Down independiente
1 AÑO DE FILMIN
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 

4 Comentarios

  1. “ […]cosas relevantes que nos distingan de las máquinas, y sobre todo de las máquinas del futuro. Los sentimientos, quizá, la autoconsciencia, el ámbito de la moral, o del arte. No lo sé.”

    Y si,,, lalocura

  2. E.Roberto

    Con este tema de la IA, tan tironeado por las mangas, finalmene una reflexión sensata que se agradece infinitamente. Con tanta resignación, o pesadumbre por el hoy y el pasado, ultimamente me preguntaba si la Filosofía, en sus diferentes aplicaciones al quehacer humano no hubiese llegado a un declive, a un ocaso, como tantas otras sobre el conocimiento del pasado, ´pues solo analizan y no resuelve nada, desde hace milenios. Pero no, esta vivita y coleando. Y no es solo “amor por el conocimiento”. Y disculpen la simplificación pero sería como la orquesta del Titanic. Sin esa generosidad incomprensible que nos invita a la música, a lo lúdico pues pensar también es una forma de diversión aquella película, nuestra Historia sería insulsa, solo una historia del trillado amor romántico con tantos malvados y gente del montón. Una tragedia más. Todo lo mejor para usted, estimado. Gracias JD.

  3. La ciencia no sabe hacer reir, la inteligencia artificial nunca dará un brinco sobre sus botines (acepción 1) para rompernos la cabeza diciendo «condemor» y si sigue acaparando información sobre nosotros ya nadie lo hará, la ciencia no sabe hacer chistes, pero tampoco belleza, poesía, que no creo que sea muy diferente. Conocerlo todo de mí quizá consiga que llegue a los 120 años. El costo es incalculable, condemor. Regulemos ya en todos los ámbitos.

Responder a [email protected] Cancel

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*