Tecnología

Cuando el slop mató internet y convirtió en lujo la piel humana

Imagen promocional de Black Mirror, 2011

Abro cualquier red social en mi teléfono y todo se parece. No solo hablo de temas, también me refiero a formas de contar. Titulares sin propósito comunicativo, imágenes que parecen correctas pero que no dicen nada, videos que existen para rellenar el siguiente segundo en el que te aburres. En 2025, el diccionario Merriam Webster confirmó que slop era la palabra del año y la definió como todo aquel contenido digital de baja calidad producido en grandes cantidades a través de inteligencia artificial (IA). Aunque no hay una traducción exacta al español podría ser bazofia, heces o desechos de comida. Slop funciona como un concepto porque describe una sensación física dentro del mundo digital: comer sin hambre, consumir sin pensar.

¿De dónde viene este desecho, este slop?

Conocido como contenido sintético no es un monstruo nuevo, es sencillamente un monstruo que escaló y se hizo más grande. Esta tipología de contenidos es un paraguas que incluye imagen, audio, video, texto y voz generados total o parcialmente por IA. La escalabilidad, que está intrínsecamente ligada a la aceleración de los procesos, es una promesa conocida dentro de muchas empresas digitales: velocidad, reducción de costes, personalización, accesibilidad. La consecuencia de esta escalabilidad son deepfakes, fraude, pornografía no consentida, campañas políticas contaminadas, y sobre todo, un desgaste lento de la confianza humana y lo auténtico. No hace falta el gran video falso que tumbe una elección; basta con que el público empiece a dudar de todo, incluso de lo real o, que sencillamente, crea todo lo que aparece en sus dispositivos.

Lo que vuelve particular a este momento es que la fábrica no solo produce, también la consume y se retroalimenta. El informe anual de la empresa de CDNs y seguridad, Cloudflare, se muestra un universo web donde humanos y bots compiten por el mismo espacio. A día 2 de diciembre de 2025, el tráfico humano generaba el 47% de las solicitudes HTML y los bots basados en IA el 44% ¿Polarización? ¿Guerra? Ummmm lo sabremos en el futuro, pero los bots de IA promediaron el 4,2% de solicitudes HTML y Googlebot, por sí solo, el 4,5%. En otras palabras, una parte visible del internet ya es una conversación entre máquinas, con el humano como pretexto o como estadística.

Estamos en un contexto donde la creación de contenido sintético es un negocio ante la gran ansiedad humana que necesita producir para monetizar o consumir por automatismo y, es por ello que Cloudflare, estima un crecimiento del 19% del tráfico global en 2025, pero una porción significativa es actividad automatizada. Esa inflación tiene consecuencias directas para medios de comunicación, marcas y creadores no solo digitales también tradicionales, porque el volumen no siempre se recupera como visitas reales. Quien revise Google Analytics sabe de que hablo. Se puede tener más tráfico y menos engagement. En el ecosistema del slop, incluso el éxito estadístico puede ser un espejismo y pocas plataformas miden correctamente.

Ante este clima, las marcas ensayan su plot twist capital: vender humanidad. No te rías, pero si ya vendimos nuestra atención, como no íbamos a terminar vendiendo nuestra identidad cerebral dentro de nuestro cuerpo animal. En la actualidad muchas compañías adoptan políticas de “contenido garantizado humano” o prometen no usar piezas generadas por IA para recuperar confianza. Por ejemplo, una reciente investigación interna (2026) de iHeartMedia explica que el 90% de sus oyentes prefiere medios creados por humanos, incluso entre quienes usan herramientas de IA. Quizás sí estamos hartos de estar frente a la pantalla y algunos buscan significado y conexión.

Pero aquí entra la trampa, porque cuando lo humano se vuelve etiqueta, también se vuelve marketing y si es marketing es un producto capitalizable. El Substack de WHAT’S ANU, el investigador Philip Teale y Anu llaman a esto humanwashing, un uso oportunista de la estética artesanal, orgánica y nostálgica que simula la calidez humana en un mercado de contenidos digitales saturados de producción sintética. Esto se convierte en una idea que duele porque se parece demasiado a la economía actual: una jerarquía de la humanidad, donde la creación de contenidos hecha por personas se vuelve un bien escaso y caro, lo “humanizado” es una capa de estilo y, el slop, queda como dieta masiva. No es una fantasía moral, es McDonalds frente a la comida casera de tu madre. Es un posible modelo de mercado donde la palabra escrita, la creación musical y video-cinematográfica se convierten en un lujo. ¿Qué supondría esto para futuro? Espero sus respuestas en los comentarios.

La cultura pop ya está acusando recibo. En música, por ejemplo, el problema no es solo que exista una canción generada por IA, sino una marea. TechRadar reporta datos de la plataforma Deezer, en donde el 34% de la música nueva que se sube a la plataforma sería completamente generada por IA, con más de 50.000 canciones al día. Y quizás la producción de música como churros no sea lo más inquietante de este asunto, sino lo que desvela un propio estudio de la plataforma donde se sugiere que el 97% de los usuarios no distingue entre música creada por humanos y música generada por IA en pruebas a ciegas. Si hace años ya podíamos ver la perdida del gusto debido a los algoritmos de las redes sociales, esta es la confirmación de una perdida de criterio, contexto, confianza y procedencia. Si quieren indagar en este aspecto, el periodista Kyle Chayka tiene un excelente libro llamado Mundo filtro (Gatopardo ediciones, 2024) donde hasta el mundo fuera de las pantallas se está viendo afectado.

En paralelo, la industria y el mercado —en esta necesidad de generar dinero y escalar— debe poseer datos para justificarse y es ahí cuando la discusión se vuelve más técnica, política y algo loca. MIT News explica en una entrevista con Kalyan Veeramachaneni, fundador e investigador de —pillen el nombre— DataCebo, que la expansión de los datos sintéticos promete proteger la privacidad, reducir costes y, claro está, acelerar el desarrollo, pero también advierte de los límites, ya que se requiere evaluación y controles para evitar que los modelos pierdan rendimiento al enfrentarse a la realidad. La paradoja de esta década es perfectamente literaria: entrenamos sistemas con sustitutos del mundo real y luego les pedimos a esos sistemas que actúen en el mundo como si fuera real, otra constatación más que el mundo digital en el que vivimos en una simulación.

¿Humanos versus máquinas?

Esta problemática no deviene en discusión sobre si el contenido sintético es una guerra moral entre humanos y máquinas. No, es una responsabilidad única de los humanos y sus sistemas y se resuelve con reglas de legibilidad. Ejemplos, la oficina del comisionado de privacidad de Canadá sobre el informe del Canadian Digital Regulators Forum lo plantea a través de cuatro departamentos que rara vez se sientan en la misma mesa a debatir: comunicaciones y cultura, competencia, copyright y privacidad. La línea común es transparencia y responsabilidad, con ideas como etiquetado y claridad sobre uso de información personal en la creación de deepfakes, por poner un caso. Caso que vale de ejemplo porque entre diciembre y enero le ha explotado en la cara a Elon Musk con Grok y los deepfakes pornos, lo que me lleva a pensar en una cita del libro de Jennifer Walshe, 13 maneras de ver la IA, el arte y la música (Alpha Decay, 2025):

La IA es reflexionar sobre si el entusiasmo de los friquis de las tetas, o la generosidad de las empresas que facilitan la creación de tetas a los friquis de las tetas, es extensible a que las empresas o los friquis de las tetas donen su tiempo de computación para que las tetas de verdad y las dueñas de esas tetas vivan más tiempo. La IA es entender que es improbable que esto suceda. La IA es tener que tener estas cosas en la cabeza. Que la IA son tetas, pero también no tetas.

Más allá de los libros, les dejo un ejemplo personal: hace unas semanas hice match con un hombre en una app de citas y durante cuatro días pensé que por fin algo bueno podría salir de estas apps hasta que leí varios mensajes en diferentes tiempos verbales, lo que me demostró algo que ya venía oliéndome, esta hablando con un perfil de estafas que me estaba cocinando el ego y que seguía un guión escrito por una IA. Inmediatamente descargue el chat y ChatGPT verificó mis sospechas. La retroalimentación de la IA es tal que una IA debe verificarme que la estafa la produce ella misma. La IA no miente, así como cualquier capítulo de la maravillosa serie de Apple TV, Pluribus.

Dudar o morir vacío

La pregunta ya no es si la tecnología existe, si es mala o no, dejemos lo naif, sino cómo se sostiene una esfera pública donde ver, escuchar, crear y comunicar siga significando algo. ¿Queremos seguir significando algo para los demás? y la pregunta más importante que debemos hacernos al ver todos estos contenidos es: ¿Eso que vemos significa algo para mi?¿Realmente debo actuar ante eso? ¿Eso que estoy viendo me interesa? ¿Esta información que está divulgando este Youtuber, Tiktoker, Instagrammer por qué me lo dice de la misma forma que lo leí el otro día en el periódico? ¿Será humano ese match que hice en Hinge / Tinder? ¿Por qué me habla como si fuese una entrevista de trabajo y solo me dice cosas bonitas sin fricción en las que únicamente está de acuerdo conmigo?

Yo lo resumo así para esta newsletter, pero debemos entender que estamos entrando en una crisis de textura, piel y cerebro humano en la creación. En esta necesidad por ser más rápidos y querer ser máquina, el slop no solo ha bajado la calidad, ha bajado la fricción que nos separa lo real humano. Ya no sentimos cuerpos calientes, nos topamos con cuerpos cuadrados, fríos, duros y es que cuando todo parece perfecto, lo humano gana por ser contradictorio. Esto me recuerda a la novela Los empleados (Anagrama, 2023), de la escritora Olga Ravn, donde uno de sus personajes anónimos afirma: “¿Habré de proseguir con mi trabajo sabiendo que lo que hago podría oponerse potencialmente al programa? ¿O acaso me hallo tan impregnado del programa que haga lo que haga siempre actuaré conforme a los deseos del programa?”

Tal vez lo más valioso este 2026 no sea producir o hacer más, sino poder decir de dónde viene algo, cómo se hizo, quién lo responde y, sobre todo, que si vamos a crear o decir algo, tomarnos el tiempo necesario, aunque de igual forma, no sea perfecto. Este será el guiño básico para no vivir en modo duda frente a los otros y poder ser nosotros más auténticos e imperfectos —como humanos con nosotros mismos.


Este artículo fue publicado originalmente en el substack de Ariana Basciani. Si te ha gustado, suscríbete a su boletín para recibir cada semana contenidos completos, inteligentes y afilados sobre cultura, política y sociedad.

SUSCRIPCIÓN MENSUAL

5mes
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL

35año
Ayudas a mantener Jot Down independiente
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 
 

SUSCRIPCIÓN ANUAL + FILMIN

105año
Ayudas a mantener Jot Down independiente
1 AÑO DE FILMIN
Acceso gratuito a libros y revistas en PDF
Descarga los artículos en PDF
Guarda tus artículos favoritos
Navegación rápida y sin publicidad
 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*