
Hace unas semanas publicábamos en Jot Down «¿Qué hacer cuando nadie nos busca?», donde advertíamos que el viejo sueño digital de «si publicas, vendrán» estaba decayendo a ojos vista. Lo que entonces era una información basada en nuestros propios datos ahora se confirma con los números aplastantes que presenta SimilarWeb: la puerta de entrada que durante años representaron los buscadores se está desplomando, y con ella el modelo editorial que sostenía a medios y plataformas. El periodismo, acostumbrado a medir su éxito en clics y páginas vistas, se enfrenta a una realidad brutal en la que la audiencia ya no pasa por la casilla de salida que antes garantizaba Google.
Las cifras de mayo son inapelables: el tráfico procedente de búsquedas en el sector de viajes se hundió un 20% interanual; el comercio electrónico perdió un 9%; las noticias y medios de comunicación vieron evaporarse un 17% de su tráfico orgánico, mientras finanzas, alimentación y estilo de vida encadenaron descensos de más del 10% en varios meses consecutivos. Las gráficas son demoledoras, y marcan un punto de no retorno para toda una generación de editores que confiaron en el buscador como su gran aliado.
Gráficos: tasas de crecimiento del tráfico de búsqueda en Estados Unidos. Fuente SimilarWeb
Turismo y viajes
Noticias y medios
Comercio electrónico
Finanzas
Alimentación y bebidas
Estilo de vida y moda
No es un fenómeno espontáneo, ni tampoco casual. Tal y como recuerda Cloudflare, «los editores de contenido acogieron con satisfacción los rastreadores y los bots de los motores de búsqueda porque ayudaban a dirigir el tráfico hacia sus sitios web». Esa confianza funcionó mientras el usuario hacía clic para leer más allá del titular, pero la irrupción de la inteligencia artificial ha cambiado las reglas del juego: los nuevos bots no solo indexan, sino que absorben el contenido y lo transforman en resúmenes inmediatos que evitan la visita al sitio original. El mismo análisis de Cloudflare constata que apenas unos pocos usuarios hacen clic tras recibir estas respuestas empaquetadas, una proporción mínima frente al volumen de rastreos con que los sistemas de IA alimentan sus modelos.
Para los editores, este intercambio es perjudicial: producen información de calidad que la inteligencia artificial exprime para presentarla sin necesidad de visita, destruyendo el retorno económico que hacía viable su trabajo. Cloudflare ha puesto números a esta fractura con una nueva métrica publicada en su servicio de análisis de tráfico, Cloudflare Radar, que monitoriza el comportamiento de bots y usuarios en la red: una relación abrumadora de solicitudes de contenido frente a referencias efectivas que ilustra el desequilibrio en la balanza. Dicho en plata, las IA beben a placer de la web mientras apenas devuelven tráfico, una sangría que se extiende de forma silenciosa. Las cifras que muestran con crudeza el desequilibrio: plataformas de inteligencia artificial como Claude de Anthropic realizaron casi 71.000 solicitudes de páginas HTML por cada referencia efectiva que enviaron de vuelta a la web original, mientras que otras, como Mistral, llegaron a generar diez veces más referencias que rastreos. Es decir, algunos modelos apenas devuelven tráfico después de capturar enormes volúmenes de contenido, mientras que otros mantienen una proporción más equilibrada.
Mientras tanto, Google intenta proteger su feudo añadiendo sus propios resúmenes automáticos —los célebres AI Overviews— en lo alto de las búsquedas, reduciendo aún más el margen para que el lector haga clic. El resultado es la tormenta perfecta: el buscador canibaliza su propia audiencia y las inteligencias artificiales terminan de empobrecerla. Ante esto, empresas como Reddit o Stack Overflow ya han optado por negociar licencias millonarias para permitir que su contenido entrene modelos generativos, garantizando al menos una parte del retorno económico que de otro modo se perdería.
Como cuentan en este artículo de Barrown’s, en la última presentación de resultados de Google, en abril, un analista de J.P. Morgan preguntó directamente a los ejecutivos por el efecto que estos resúmenes automáticos estaban teniendo sobre la tasa de clics. Philipp Schindler, responsable de negocio de la compañía, salió por la tangente: «No creo que sea el momento de entrar en los detalles de tasas de conversión y clics», despachó. Y añadió, con un optimismo impenetrable: «En general, estamos contentos con lo que estamos viendo».
Principales destinatarios del tráfico de chatbots de IA. Tráfico impulsado por consultas de chatbots de IA, en todo el mundo, mayo de 2025. Excluye las referencias a chatgpt.com, openai.com y google.com. Fuente SimilarWeb.
Queda claro que no bastará con ajustar el SEO o producir mejores titulares. La batalla será, a partir de ahora, por los acuerdos de cesión de contenidos y las negociaciones de visibilidad dentro de los entornos de IA. El riesgo es tan simple como inquietante: que solo puedan sobrevivir los medios capaces de blindarse con paywalls o de pactar licencias ventajosas, mientras el resto asiste a la evaporación de su relevancia.
Hace apenas un puñado de meses, el mapa de los medios internacionales ha empezado a reordenarse a golpe de acuerdos millonarios con las grandes tecnológicas que pilotan la inteligencia artificial. News Corp, Axel Springer y otros gigantes del papel reciclado en binario han pactado con OpenAI el permiso para alimentar a ChatGPT con sus titulares, a cambio de visibilidad de marca y un jugoso cheque. La jugada es clara: si no puedes detener al monstruo, mejor alquilarle tu voz. Associated Press tampoco ha querido quedarse fuera de este festín de concesiones, marcando con ello un viraje histórico: ya no basta con conquistar al buscador; la nueva guerra se libra en la mesa de negociación de licencias, donde se discute quién entra —y quién se queda fuera— de los resúmenes generados por la IA.
En España, la coreografía es similar. Prisa Media, Vocento y compañía andan negociando con Microsoft y Google para fijar un precio, aunque sea simbólico, al uso de sus contenidos en estos nuevos ecosistemas de respuestas automáticas. Asociaciones sectoriales también mueven ficha para diseñar marcos colectivos que garanticen alguna compensación. El problema —ya se sabe— es el de siempre: los grandes pueden blindarse tras muros de pago y contratos blindados, mientras los pequeños ven difuminarse su ya menguada capacidad de monetización, sin red, y atrapados por algoritmos que reparten la atención a su antojo.
En medio del bullicio aparece Perplexity AI, decidida a diferenciarse. A diferencia de otras plataformas, ha cerrado acuerdos concretos con medios y agencias, tanto aquí como fuera. En territorio español ya presume de pactos con Prisa Media, Atresmedia o la Agencia EFE, con los que se asegura acceso a contenidos a cambio de repartir ingresos publicitarios y ofrecer servicios tecnológicos avanzados. En el escenario global, la lista incluye a Time, Fortune, Der Spiegel, Los Angeles Times y The Independent, que han aceptado participar en el reparto con la promesa de APIs gratuitas y cierta soberanía sobre su marca. Un modelo de colaboración que, según sus promotores, intenta garantizar que los medios no desaparezcan del mapa mientras la inteligencia artificial se come todo lo que publican.
Las gráficas las elaboradas a partir de datos de Similarweb y Cloudflare Radar no dejan lugar a la duda: la caída se repite en todos los sectores, con una pendiente descendente que parece irreversible. El lector ya no viaja al enlace, se conforma con la respuesta del chatbot. Un océano de contenidos se convierte en pasto de inteligencias artificiales que devuelven apenas un hilillo de visitas, insuficiente para sostener redacciones, periodistas, editores y todo el ecosistema que da forma a la información.
Así se consuma, sin apenas aspavientos, el hundimiento de la búsqueda tal y como la conocíamos. Y con ella, una parte esencial del periodismo digital que, durante dos décadas, confió su destino al clic.
Me atrevo a pronosticar el siguiente paso: de alguna manera habrá que monetizar lo que devoran esas IAs, y me refiero a sus propietarios. No tradaremos en ver, en el caso del comercio eléctrónico, cómo las Ia sugieren unos artículos en vez de otros, y cómo incorporan a sus consejos las preferencias de sus dueños.
La IA no se va a salvar de la publicidad. No hay objetividad posible, tampoco en la inteligencia artificial. El publirreportaje generado artificialmente está al caer.
El capitalismo en su faceta digital se devora a sí mismo.
Creo que en este tema es como en cualquier otro, las grandes empresas podrán negociar por sus contenidos con las de las IAs pero las pequeñas empresas no podrán hacer nada. Solo queda estructurar bien la información, hacer párrafos autoconclusivos para que la IA los saque en sus respuestas después del comentario a tu búsqueda e intentar promocionarte en las páginas de estos buscadores, a pagar, como siempre. Es un negocio sobre todo para los buscadores con IA, para salir en la primera página de búsqueda ya no será temas de SEO, si no de pagar a ese buscador.
Se me ocurre que, igual que en un artículo científico se debe referenciar en el texto la bibliografía utilizada y luego añadir dicha bibliografía al final. Se podría impulsar una IA que detecte «plagios» sin referenciar y se penalice. Si un buen argumento está debidamente citado o referenciado, tiene más posibilidades de que el lector quiera visitar esa fuente original.
Con ZeroGPT ya puedes detectar si algo está escrito por una IA https://www.zerogpt.com/es/ Da falsos positivos en el caso de ensayos científicos.
Y para verificar y obtener fuentes puedes usar Perplexity https://www.perplexity.ai/