Entrevistas Humanismo digital Tecnología

Álvaro Antoñanzas: «La realidad mixta es el primer intento serio de unir el espacio físico con la información virtual con un nivel de precisión admirable»

Esta entrevista es un adelanto de nuestra nueva revista Humanismo Digital 3, ya disponible en nuestra tienda online.

Álvaro Antoñanzas para Jot Down

La realidad extendida (XR) está cambiando la forma en que nos relacionamos con lo digital, acercando cada vez más el mundo físico y el virtual. Desde experiencias inmersivas en museos hasta nuevas soluciones para el comercio, la realidad virtual, aumentada y mixta ganan terreno en ámbitos muy diversos. En esta entrevista hablamos con Álvaro Antoñanzas, cofundador de Deusens, una de las empresas españolas más destacadas del sector, para conocer su visión sobre el presente y el futuro de estas tecnologías, los retos de desarrollar proyectos XR de alto nivel y cómo dispositivos como las Vision Pro de Apple o la inteligencia artificial están ampliando las posibilidades creativas en este campo.

Cuéntanos, a grandes rasgos, la trayectoria de Deusens hasta el día de hoy y cómo habéis llegado a convertiros en la empresa puntera en España en la realización de experiencias XR.

Deusens nace en el año 2014 como el sueño y el proyecto final de carrera de tres jóvenes que estudiaban Comunicación Audiovisual en Zaragoza. Con el plan Bolonia debían crear, como proyecto final, una empresa, un business model viable, basado en la comunicación, que fuera rentable e innovador. Estos tres jóvenes plantean y sueñan con montar una empresa en la que crear experiencias y contenido de todo tipo basado en la realidad virtual.

Estamos hablando del año 2014, cuando Facebook compra Oculus mientras era todavía un proyecto en desarrollo. Yo conocía este proyecto por los videojuegos gracias a una revista y estaba enamorado de la idea. Desde joven soñaba con la realidad virtual y pensaba que era ciencia ficción, algo propio de las películas de los 80, de niños muy ricos con acceso a una tecnología que no estaba a mi alcance.

Basamos la idea de esta empresa en crear contenido para la realidad virtual y así fundamos la compañía justo al salir de la universidad. Desde esos orígenes, sin financiación, sin apoyo de bancos, sin ningún inversor ni ningún business angel, hemos llegado donde estamos de un modo sencillo pero constante. No teníamos experiencia técnica: ninguno de los fundadores sabíamos programar ni hacer 3D. Lo único que sabíamos hacer era contenido audiovisual.

Vimos que lo único que podíamos producir era vídeo 360 para realidad virtual, que entonces era algo muy incipiente y artesanal. Hicimos proyectos tremendamente humildes al principio, porque tampoco teníamos contactos empresariales ni clientes. Reinvertimos todo lo que ganamos durante dos años. Teníamos que facturar desde el minuto uno, aunque fuera poco. El dinero que ingresábamos se reinvertía constantemente.

Desde Zaragoza el alcance comercial era más limitado; las grandes marcas estaban en Madrid y Barcelona. Sin portfolio, sin fondos ni avales, al principio era muy difícil convencer a grandes marcas. Íbamos pasito a pasito: un proyecto con una empresa modesta nos servía para convencer a otra un poco menos modesta y así sucesivamente. Siempre hemos sido bastante austeros, siempre en esa búsqueda de la rentabilidad y de la solvencia financiera.

En diez años, el resultado ha sido el fruto de esas pequeñas decisiones y de esos pasitos de hormiguita que han hecho que estemos donde estamos, generando confianza de un player más grande tras otro. Hacer bien nuestro trabajo para que pudiera abrirnos la puerta a un proyecto mayor ha sido la clave.

Entiendo que parte del expertise lo habéis logrado en los trabajos con grandes empresas para las que habéis desarrollado muchos proyectos. ¿Es así?

En efecto, la experiencia que hemos ganado ha sido fundamentalmente a base de caernos y levantarnos, fruto de la necesidad. Siempre hemos estado obsesionados con ser viables económicamente, rentables desde el minuto uno. Por tanto, oportunidad que teníamos encima de la mesa, oportunidad que intentábamos ganar.

Eso nos llevó a no centrarnos solo en la realidad virtual, porque estas tecnologías inmersivas han tenido altibajos constantes. La realidad virtual tuvo un hype muy grande y sabemos cómo funcionan los medios y el márquetin: se da un bombo tremendo a estas tecnologías como si fueran a cambiar el mundo de la noche a la mañana. Y, al año siguiente, sucede lo contrario: la tecnología se presenta como un fiasco, un bluff. Evidentemente, la realidad casi siempre demuestra que no era ni una cosa ni la otra.

Cuando la realidad virtual estaba en un valle, incluso algunos clientes la rechazaban porque ya habían hecho algún intento y les había salido mal. Tuvimos que reinventarnos rápidamente y disponer de otras tecnologías que poder ofrecer. Así pasamos de trabajar únicamente con realidad virtual a hacerlo también con realidad aumentada, realidad mixta, entornos web y entornos 3D. En 2020 nos reinventamos con la pandemia lanzando una plataforma de eventos virtuales con avatares, tipo Second Life.

Nos hemos ido metiendo no solo en nuevas tecnologías, sino también en proyectos más grandes y de sectores complejos, como el patrimonio, que evidentemente es un ámbito muy exigente. Con humildad, pero siempre con valentía, evitando decir que no y buscando el encaje de nuestra oferta de valor en cada proyecto.

El expertise que tenemos viene al cien por ciento de nuestro trabajo. Nuestro bagaje audiovisual ha influido mucho en nuestra forma de trabajar, tendiendo puentes entre el cliente —que generalmente viene del márquetin o del ámbito experiencial— y el equipo de desarrollo, que es cien por ciento técnico.

Es una de las cosas que más me gustan de mi trabajo: lo mismo un día estás colaborando con L’Oréal y Coca-Cola que, al siguiente, con el Santo Grial, con el Museo Reina Sofía o filmando el fondo marino de Ceuta.

Álvaro Antoñanzas para Jot Down

En 2024 habéis trabajado a fondo con las gafas Vision Pro de Apple. ¿Qué me puedes contar del proyecto Alice Spatial y cómo ha evolucionado desde Alice AR?

Alice Spatial es la evolución conceptual de Alice AR. Hemos trabajado mucho con las Vision Pro desde que salieron. Las gafas de Apple son, fundamentalmente, un dispositivo de realidad mixta más que de realidad virtual o realidad aumentada, aunque pueden desempeñar ambas funciones.

La realidad mixta, sin ponerme muy técnico, consiste en que, cuando te pones las gafas, ves el entorno que te rodea a través de un conjunto de cámaras del propio dispositivo. No solo las Vision Pro: también las Meta Quest 3 y otras, como Pico, llevan integrado passthrough, que es básicamente ver el entorno real a través de unas gafas que te tapan completamente los ojos, pero que disponen de cámaras exteriores que generan una vista completa en tiempo real, de modo que puedes moverte libremente por el espacio.

Las Vision Pro son unas gafas de realidad mixta. Puedes interactuar con el entorno virtual y existe una correlación entre ambos mundos: puedes colocar objetos 3D en el entorno físico que estás ocupando y que estos sean reactivos. Gracias a sensores LiDAR, entre otros, puedes coger, por ejemplo, una pelota con físicas y, cuando la tiras contra una pared real, rebota, porque el dispositivo detecta el suelo, la pared, la mesa, la silla, el techo… y la información virtual puede interactuar con el entorno real.

Hemos realizado bastantes proyectos, desde pruebas de concepto interactivas —como una para una conocida marca de comida de mascotas— en la que, en un stand de feria, el visitante se ponía las gafas, veía lo que le rodeaba y tenía una pistola virtual para abrir portales. Apuntabas a una pared física, la pistola la detectaba y podías abrir un portal que te transportaba a un entorno virtual de naturaleza, donde aparecía un perro con el que podías jugar.

Otro de los proyectos estrella fue para Palacio de Hierro, que es básicamente el equivalente de El Corte Inglés en México, donde trabajamos con su línea de decoración de interiores utilizando Alice Spatial.

Alice AR nace en 2017 dentro del programa de aceleración Open Future de Telefónica, que buscaba una solución tecnológica para diversas problemáticas del sector del retail. Creamos una herramienta que solucionaba dos problemas fundamentales. En 2017 la realidad aumentada no estaba democratizada: había pocos dispositivos capaces de detectar superficies y de anclar objetos 3D sin necesitar marcadores.

Desarrollamos una plataforma con una aplicación pública y agnóstica en la que un equipo comercial podía iniciar sesión y acceder a su catálogo digitalizado en 3D para decorar diversos espacios. Esta herramienta tuvo un gran éxito y fue utilizada por equipos comerciales de Pernod Ricard, Red Bull y Telefónica.

Por ejemplo, Red Bull debía vender y posicionar mobiliario en el punto de venta. Con esta aplicación colocaban neveras mediante una tableta y mostraban al gestor del comercio cómo quedaría la promoción y sus dimensiones. La conversión era altísima: era muy novedoso que el equipo comercial utilizara realidad aumentada y, además, era útil porque se veía exactamente cómo quedaría todo, ya que el mobiliario estaba hecho a escala real.

Alice AR tuvo una vida útil de unos tres años y cayó en desuso cuando la realidad aumentada se democratizó y apareció la realidad aumentada web.

Sin embargo, con la llegada de las Vision Pro, que inauguran esta nueva era de la realidad mixta, rescatamos el concepto. Por ejemplo, en Palacio de Hierro, con todo su catálogo de mobiliario, un decorador puede acudir a casa del cliente con las gafas, ver el catálogo disponible y permitir que el propio cliente elija y «vista» su salón de forma completa.

¿Cuál es la diferencia con un móvil? Un avance tecnológico enorme: la persistencia de los objetos, el reconocimiento preciso de paredes, suelos y techos, el anclaje espectacular de los objetos y un nivel de claridad y resolución extraordinario. Es el mismo concepto, pero mucho más evolucionado.

Hablando de las Vision Pro, ¿qué características diferenciales tienen respecto a las Meta Quest u otras gafas del mercado? ¿Qué papel van a jugar los de Cupertino en el mundo de las XR?

Las Vision Pro son un dispositivo de realidad mixta y nacen con una vocación totalmente orientada a ese uso, frente a Meta, que nace como un dispositivo de realidad virtual. Aunque ambos poseen capacidades de realidad virtual y mixta, la diferencia radica en su propósito. Las Meta Quest están pensadas principalmente para realidad virtual, y las Vision Pro, esencialmente, para realidad mixta.

Las Vision Pro son un dispositivo de alrededor de 4000 euros, mientras que las Meta Quest son un dispositivo de consumo pensado para el gran público, con un precio entre 500 y 600 euros. Las diferencias son evidentes: a nivel tecnológico, las Vision Pro son muchísimo más precisas. Las tecnologías de reconocimiento del entorno son espectaculares. Disponen de un sistema completo de rastreo mediante pupilas, de tal forma que puedes interactuar prácticamente con toda la interfaz guiándote con los ojos (eye tracking), lo cual es impresionante.

Meta ofrece un dispositivo de realidad virtual pensado principalmente para el entretenimiento y, concretamente, para videojuegos. Las Vision Pro, en cambio, son el primer ejercicio de Apple en el mundo de las XR y nacen con la vocación de ser un dispositivo profesional, muy Pro, como lo que quiso ser el iPhone respecto al teléfono móvil.

Con las Vision Pro puedes combinar el MacBook o el iMac con el dispositivo de realidad mixta, de tal forma que puedes tener la pantalla proyectada mediante las cámaras. El nivel de fidelidad es tan alto que puedes estar escribiendo en el teclado del ordenador sin dificultad. Puedes disponer de múltiples pantallas virtuales, es una especie de extensión tipo Iron Man de tu espacio de trabajo: puedes anclar información virtual en el espacio físico y moverte libremente con las gafas puestas.

La vocación de las Vision Pro es precisamente esa: unir el espacio físico con la información virtual, y lo hace con un nivel de precisión admirable. Sin embargo, son dispositivos extremadamente caros y pesados, hechos de cristal y metal; materiales excelentes, pero que los hacen menos cómodos.

La apuesta de Meta es completamente distinta: un dispositivo de buena calidad, pero asequible para la mayor cantidad de público posible, con el foco puesto en el videojuego y el entretenimiento.

En cuanto al futuro o al papel de Apple, es difícil de saber. Con las Vision Pro hicieron una apuesta enorme; evidentemente, no ha habido una adopción masiva, pero la tecnología es muy avanzada. Han aplazado la salida de las Vision Pro 2, previstas inicialmente para este año, y parece que están desarrollando un dispositivo más parecido a las nuevas Ray-Ban Meta con display: algo mucho más ligero, similar a unas gafas convencionales, con funciones de realidad aumentada o algún tipo de display híbrido, más llevable y cotidiano.

Las Vision Pro pueden tener sentido en casa o en una oficina, pero no para llevar por la calle. Meta, en cambio, con su colaboración con Ray-Ban, apuesta por llevar el smartphone a un wearable que puedas usar cómodamente en cualquier momento.

Alvaro Antonanzas para Jot Down 2

¿Cómo veis el mercado de los wearables? ¿Y las Ray-Ban Meta? ¿Las habéis probado?

Las primeras Ray-Ban Meta eran simplemente unas gafas con inteligencia artificial, algunas funciones de grabación y fotografía, reconocimiento y comandos por voz. Ahora, recientemente —han salido en septiembre de 2025—, las Meta con display, que sí tenemos y hemos probado. Nos las compramos en Miami en el último viaje.

La diferencia con el modelo anterior es que ahora sí incorporan un display. Las primeras Ray-Ban Meta ofrecían únicamente comandos y funciones básicas. Ahora disponen de un pequeño display en la pantalla y puedes interactuar mediante un brazalete en la muñeca que detecta los gestos que haces con los dedos. Tienes un pequeño display, tipo smartphone, con funciones como navegador, música, fotografía, vídeo o traducción simultánea.

Esta es la evolución natural hacia un dispositivo cómodo de llevar, utilizable por la calle y con funcionalidades que hoy nos ofrece el móvil, pero integradas en la visión. Es una visión futurista: el día que esto sean lentillas será la panacea. De hecho, ya hay empresas con patentes de lentillas de realidad aumentada. El mercado vive en una innovación constante; llevamos unos once años en este sector y no deja de desarrollarse, mejorar la tecnología y seguir innovando.

La tendencia es clara: todos utilizamos constantemente nuestros smartphones como herramienta vital; si puedes hacer lo mismo integrado en el entorno, con realidad aumentada, realidad mixta y asistencia de todo tipo —traducción simultánea, navegador integrado en la visión…—, es evidente que todo va hacia ahí.

Mi apreciación particular es que las Ray-Ban Meta con display están bien, pero no veo una adopción masiva a corto plazo, porque siguen siendo unas gafas más o menos voluminosas. La traducción simultánea quizá es lo más interesante: poder conversar con alguien mirándole a la cara y disponer de un asistente haría la experiencia más humana que estar usando ChatGPT en el móvil. Pero, por lo demás, hoy por hoy no veo una utilidad real más allá del efecto «es chulo» o «mola».

El mercado tiene un interés enorme y no va a desaparecer, pero aún estamos lejos de una adopción masiva.

¿Qué papel juega la IA en vuestros proyectos?

La IA juega un papel importante en dos vías. Como todos, a nivel productivo, la IA ha llegado para ayudarnos a potenciar, ser más rápidos y más eficientes. La hemos integrado en nuestro proceso productivo: desde ChatGPT como herramienta de ayuda en redacción de documentación y propuestas, hasta la mejora de la eficiencia en el ámbito comercial.

En el pipeline de producción, la IA generativa nos permite crear concepts y propuestas para clientes. Antes había que hacer mockups en Photoshop; ahora esta fase creativa y comercial es mucho más sencilla.

En producción, a nivel 3D, es verdad que todavía no existe una herramienta definitiva, pero es cuestión de tiempo. Utilizamos IA generativa en audio, vídeo y texto, tanto en la producción como en el ámbito creativo. Hace un par de años hicimos una campaña nacional de Navidad basada en IA generativa, con un output cien por ciento generado por IA. Con Grandes Vinos también hicimos una experiencia con IA generativa. Para un cliente aún no anunciado hemos generado un tráiler de cómo podría ser un producto audiovisual utilizando IA al cien por ciento, con el diseño de personajes, atrezo y ambientación tal como se imaginaban, para atraer inversión al proyecto.

Es una tecnología que ha venido para quedarse y tiene un papel potente, también como un nuevo tipo de servicio para nuestros clientes. Otra línea dentro de nuestro portfolio son los avatares con inteligencia artificial para asistir en entornos comerciales, hoteles o puntos de venta, donde puedes hablar de forma natural con un avatar que te responde con información acotada al negocio para el que hemos desarrollado la solución.

Me llevé un alegrón al saber que Deusens, junto con Integra Tecnología, estabais detrás del proyecto Dive into Heritage, cuyo objetivo es crear una experiencia interactiva para visitar los lugares Patrimonio de la UNESCO en los países árabes. ¿Cuál ha sido vuestro papel en el proyecto?

Nosotros respondimos a una solicitud de propuesta —una RFP, por sus siglas en inglés— que nos trajo la empresa Integra para trabajar en ella. Una RFP es un concurso que lanzan entidades gubernamentales y al que accedes solo por invitación. Fuimos invitados a participar y, a nivel mundial, resultamos ser una de las dos empresas seleccionadas.

En una RFP el cliente ya pide un proyecto específico y, en este caso, se trataba de continuar con la evolución de un piloto: una web interactiva, una web inmersiva que aprovecha modelos fotogramétricos de hasta quince entornos patrimoniales en el mundo árabe, integrando abundante información arqueológica y cultural con un storytelling inmersivo.

¿Cuál es nuestro papel? Integra trabajó con los modelos fotogramétricos capturados previamente por la UNESCO, realizando la retopología y adaptación de dichos modelos para su consumo en entorno web. Nosotros hemos construido todo el proyecto. Consta de un entorno front con una landing y un globo terráqueo desde el que se pueden seleccionar los sites —actualmente quince, aunque está pensado para crecer—, y de una parte backend mediante la cual la propia UNESCO puede crear nuevos sites inmersivos. Es decir, hemos creado una especie de CMS de entorno web inmersivo.

El diferencial no es una web convencional: cada site es una experiencia 3D. Entras, haces scroll y la cámara se mueve por distintos planos. La integración de información gráfica 3D —líneas del tiempo, diagramas, etc.— se combina con los elementos tridimensionales para lograr una visión inmersiva de lugares completamente capturados mediante fotogrametría.

No es un modelo 3D modelado, sino una captura fotogramétrica a partir de miles de fotografías que generan una geometría 3D exacta, tanto en tamaño y escala como en su apariencia visual.

La parte front ofrece una navegación inmersiva por todos los sites. Hemos diseñado la estética del UI y cada storytelling inmersivo está hecho ad hoc para cada uno de los quince sites. Al mismo tiempo, se ha creado el backend, la herramienta que permite a la UNESCO ser autosuficiente y crear nuevos sites conforme disponga de modelos fotogramétricos e información.

El gran diferencial es haber creado un backend que permite componer retail inmersivo en entorno web: varias capas de complejidad para un entorno cien por ciento experiencial e inmersivo, pero accesible desde cualquier dispositivo gracias a ser web.

Álvaro Antoñanzas para Jot Down

¿Qué recorrido va a tener Dive into Heritage? ¿Se convertirá en un metaverso transitable de sitios Patrimonio Mundial?

Puedo decirte que no, no se va a convertir en un metaverso transitable. Ojalá, pero no. Ese sería otro proyecto, pero este no tiene esa vocación, porque no se ha concebido dentro de un marco tecnológico que permita hacerlo. Se ha diseñado como un entorno web de 2025, no de 2030; su scope no contempla ese objetivo.

Pero sí tiene un largo recorrido: su vocación es poder albergar, idealmente, todos los sites Patrimonio de la Humanidad que se vayan documentando y capturando mediante modelos fotogramétricos tridimensionales, y que puedan tener su storytelling inmersivo.

El futuro depende también de la UNESCO. Al ser una organización sin ánimo de lucro, perteneciente a Naciones Unidas, sus procesos de contratación son extremadamente transparentes y objetivos. Cada contrato se vuelve a sacar a concurso. Deusens e Integra fuimos seleccionados para dar continuidad al proyecto y presentamos la mejor propuesta.

Hemos creado un entorno que pueda sobrevivir a Deusens; era parte del objetivo: un proyecto con backend y una herramienta de creación y autogestión que la propia UNESCO pueda usar sin perfiles expertos. Por tanto, nuestra misión está cumplida. El futuro de Dive into Heritage es seguir creciendo e integrando nuevos espacios; que sea con Deusens o no dependerá de nuevos concursos en los que volveremos a competir.

¿Qué otros proyectos relacionados con el patrimonio cultural habéis desarrollado en el pasado y cuáles tenéis previstos para el futuro?

En el último año y medio hemos llevado a cabo numerosos proyectos culturales. Por ejemplo, estamos desarrollando varias experiencias para el Monasterio de San Juan de la Peña. Hemos realizado una experiencia de realidad virtual para un centro de interpretación en La Sotonera, en Huesca, que narra el viaje del Santo Grial desde la Última Cena hasta su llegada a España, pasando por Roma y Francia.

También hemos creado una experiencia de realidad mixta para La Almunia sobre el proceso de fabricación del papel destinado al monasterio de la zona. Trabajamos asimismo con Calahorra en una proyección inmersiva a cuatro paredes que muestra cómo era la ciudad romana, reconstruyendo las termas, una domus y el trazado de sus calles. Además, colaboramos con la Oficina de Turismo de Ciudad Rodrigo y hemos desarrollado varias experiencias inmersivas en showrooms.

En resumen, son bastantes proyectos vinculados al patrimonio y al turismo, ámbitos que en nuestro país suelen ir de la mano.

Una pregunta práctica. Si alguno de los lectores quiere convertirse en desarrollador XR, ¿qué tipo de formación le recomendarías?

El desarrollador XR es un concepto muy amplio. Nuestro equipo se compone de dos áreas: el equipo de arte y el equipo de desarrollo. Dentro del equipo de arte tienes desde modeladores 3D, animadores, especialistas en espacios, texturización, personajes, fotogrametría, captura de movimiento e iluminación. Hay muchísimas ramas que intervienen en el proceso artístico, sin hablar de User Experience, la ideación de cómo debe ser una experiencia de realidad extendida de principio a fin, y de UI, todo lo relacionado con el diseño gráfico dentro de las experiencias inmersivas.

A nivel de programación hay un montón de lenguajes y varios motores. Nosotros utilizamos Unity, Unreal Engine y diversos motores web. Es difícil decir qué estudiar. Dentro de nuestro equipo tenemos varios ingenieros informáticos con especialización en videojuegos, pero, al final, lo principal es dominar la programación orientada a objetos o la programación específica de motores gráficos.

Si pudiera dar un consejo, en España hay pocos perfiles especialistas en Unreal Engine, porque generalmente la gente suele empezar por Unity, especialmente los programadores. Unreal tiene una programación nodal, y esto no es el modelo clásico de aprender a programar.

A quien quiera trabajar en XR, lo primero que tiene que entender es si le atrae más la parte artística o la de desarrollo, y hacia qué quiere orientarse. En Unreal hay una demanda importante en España: no hay muchos perfiles buenos y, sin embargo, es un motor que funciona muy bien para VR. Para realidad aumentada, en cambio, conviene usar un motor como Unity o trabajar directamente en nativo, ya sea para iOS o para Android.

Una idea utópica que tengo es ver desarrollado un metaverso en el que se pueda visitar virtualmente edificios y lugares del pasado recreados en 3D, con varias capas de información. ¿Lo veis viable a medio plazo?

Técnicamente es viable. No paramos últimamente de hacer reconstrucciones de todo tipo. Por ejemplo, hemos reconstruido la ciudad de Calahorra tal como se piensa que era. Lo hicimos para un render artístico en 360 grados, pero trasladarlo a realidad virtual en un motor gráfico en tiempo real es factible.

Si hablamos de un metaverso con escala global en el que puedas ver el Antiguo Egipto en distintas épocas, evidentemente estamos mucho más lejos; no porque no pueda hacerse técnicamente, sino por un tema de escala. Eso hay que desarrollarlo. Por mucha inteligencia artificial que exista, se necesitan manos, conocimiento y un propósito. Al final, alguien tiene que pagarlo.

Una cosa es la viabilidad técnica —perfectamente viable— y otra la motivación y financiación necesarias. UNESCO, por ejemplo, invierte cuando tiene sentido para sus objetivos. Pero habría que definir cómo debe ser ese metaverso: ¿época romana?, ¿Egipto antiguo?, ¿Egipto ptolemaico? Hablamos de una cantidad de trabajo enorme que llevaría muchísimo tiempo y que prácticamente nunca se acabaría.

Sí, es viable; sí, es factible. Pero también es cierto —y lo digo por experiencia trabajando con la UNESCO en Dive into Heritage— que deben invertir en los soportes que actualmente llegan al mayor número de personas. A día de hoy, el medio masivo más accesible es la web y, concretamente, el móvil. Eso limita mucho la experiencia.

Estas experiencias, sin embargo, van a más: ponerte unas gafas y estar en el mundo antiguo, dentro de un templo romano o en el Coliseo, no va a dejar de crecer. Ahora bien, un metaverso que contenga todo el mundo antiguo, con posibilidad de viajar de cultura en cultura y de reconstrucción en reconstrucción en un único entorno… creo que aún estamos lejos, porque debe existir una motivación económica suficiente para que alguien decida desarrollarlo.

Álvaro, muchas gracias por compartir con tanto detalle vuestra trayectoria y vuestra visión sobre las XR, la inteligencia artificial y el patrimonio cultural. Ha sido un verdadero placer conversar contigo y asomarnos, de tu mano, a los retos y oportunidades que se abren en este cruce entre tecnología y memoria del mundo.

Álvaro Antoñanzas para Jot Down

SUSCRIPCIÓN MENSUAL

5mes
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL

35año
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL + FILMIN

105año
Ayudas a mantener Jot Down independiente
1 AÑO DE FILMIN
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 

Un comentario

  1. Hay dos conceptos del hablar cotidiano que todavía me causan desorientamiento: ¿Inteligencia? Artificial y últimamente Realidad ¿Aumentada? Debe ser un problema mío que vengo de otra época, acostumbrado a identificar la Inteligencia -siempre dentro del reino animal o vegetal- dentro de recintos bien precisos y delimitados. ¿Cómo se puede ¿Aumentar? la Realidad? Vaya uno a saber. Y la semántica no ayuda. Por el resto, es una alegría ver a estos pibes ocupados en crear bellezas… sin manos con callos. Todo lo mejor para ellos. Gracias JD

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*