La expresión suena apocalíptica: la “internet muerta”. La teoría, que circula desde hace algunos años en foros y redes, sostiene que gran parte de lo que consumimos en línea ya no proviene de personas, sino de bots, granjas de contenido y sistemas automatizados optimizados para captar atención y vender publicidad.
Según esta mirada, entre 2016 y 2017 internet habría “muerto” como espacio humano espontáneo, reemplazada por una máquina de publicaciones, reseñas y perfiles sintéticos.
Lea más: ¿Estamos listos para el ‘seudoanonimato’? Claves de la nueva Carta de Derechos Digitales
Más que un diagnóstico técnico, la hipótesis funciona como metáfora social de una desconfianza creciente hacia el entorno digital. Pero ¿hasta qué punto se sostiene en datos? ¿Y qué nos dice sobre la evolución de la web y el papel de la inteligencia artificial?
Orígenes: una idea marginal que saltó a la conversación pública
La formulación más citada de la “Dead Internet Theory” se popularizó en 2021 en el foro Agora Road’s Macintosh Café, en un extenso post anónimo que afirmaba que la mayor parte de la actividad en la red estaba automatizada y que la conversación genuina era una rareza.
Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy
La idea, alimentada por anécdotas y observaciones cotidianas —comentarios idénticos en hilos distintos, reseñas sospechosamente similares, cuentas que publican 24/7—, encontró terreno fértil en comunidades de Reddit, 4chan y canales de YouTube que analizan conspiraciones y cultura digital.
En cuestión de meses, el concepto empezó a aparecer en coberturas mediáticas y a cruzarse con debates académicos sobre “plataformización” de la web, moderación algorítmica y economía de la atención.
Lea más: Cómo evitar la fatiga digital y el burnout en un mundo hiperconectado
Investigadores de comunicación y estudios de internet no adoptaron la teoría como tal, pero sí recogieron su intuición central: la experiencia cotidiana de una red cada vez más mediada por sistemas opacos que priorizan el engagement sobre la diversidad y la autenticidad.
Por qué se habla de “muerte”: una metáfora de la pérdida de autenticidad
La noción de muerte no apunta a la desaparición de usuarios —la actividad en línea crece— sino a una degradación cualitativa de la experiencia. Sus defensores describen:
- Pérdida de espontaneidad humana: menos foros y blogs idiosincráticos, más feeds uniformes y predecibles, dominados por plantillas virales y formatos optimizados.
- Predominio de automatización: comentarios genéricos, reseñas clonadas, hilos que parecen escritos por la misma mano, aun cuando la autoría es múltiple.
- Manipulación algorítmica: recomendaciones que empujan hacia el contenido que retiene más tiempo, no necesariamente el más útil o veraz.
- Homogeneización del habla: una “voz de internet” cada vez más estándar, que diluye estilos y contextos locales.
La metáfora captura una sensación de saturación y repetición: hay más contenido que nunca, pero se siente menos “vivo”.
Bots, granjas de contenido y evidencias empíricas
¿Respalda la evidencia la idea de que una parte creciente de la interacción en línea no es humana?

Los datos disponibles no prueban la muerte de internet, pero sí confirman que los bots y la automatización son actores de primer orden.
- Tráfico automatizado: el informe Bad Bot Report de Imperva viene registrando un alza sostenida del tráfico no humano. La edición publicada en 2024 estimó que en 2023 casi la mitad del tráfico global fue generado por bots, con alrededor de un tercio atribuido a “bad bots”, diseñados para el scraping, el fraude publicitario y otras prácticas abusivas. Aunque las metodologías varían y las cifras se discuten, el consenso es que los bots ya no son marginales.
- Difusión de enlaces en redes: un estudio de Pew Research Center (2018) halló que una proporción sustantiva de enlaces a sitios de noticias y contenido popular en X/Twitter era compartida por cuentas automatizadas. El hallazgo no implica que la conversación sea irremediablemente artificial, pero sí que la visibilidad del contenido está fuertemente mediada por automatismos.
- Reseñas y opiniones falsas: plataformas como Amazon, Google Maps y TripAdvisor han invertido en detección proactiva de reseñas inauténticas. Reportes de autoridades y consultoras coinciden en que el mercado de reseñas pagadas y granjas de comentarios representa un problema persistente que influye en decisiones de consumo y clasificación en buscadores. Organismos como la Comisión Europea y la FTC estadounidense han abierto investigaciones y sancionado redes de manipulación.
- Operaciones coordinadas: Meta, Google y otras plataformas publican de forma periódica la eliminación de redes de “comportamiento inauténtico coordinado” vinculadas a intereses comerciales y políticos. Estas campañas prueban que la automatización y la suplantación a escala existen y buscan moldear agendas.
Los números no validan que “la mayoría” del contenido sea sintético, pero sí muestran que la línea entre lo humano y lo automatizado es difusa y que una fracción significativa de lo que vemos —sobre todo lo que se posiciona y circula— está impulsado por sistemas no humanos.
La irrupción de la IA generativa: ¿más vida u homogeneización?
La llegada de modelos generativos capaces de producir texto, imágenes, audio y video bajo demanda cambió la escala del fenómeno.
Herramientas de redacción asistida, ilustración, doblaje y edición multiplican la productividad de creadores y empresas; al mismo tiempo, facilitan la proliferación de contenidos que, sin intervención editorial, compiten por atención en buscadores y redes.
Esto intensifica la narrativa de la “internet muerta” por tres vías:
- Volumen: barreras de entrada más bajas significan más publicaciones, más rápido. La densidad de contenido puede saturar feeds y resultados de búsqueda.
- Indistinción: los outputs de alta calidad, si no se etiquetan, pueden confundirse con trabajos humanos, erosionando la confianza en señales tradicionales de autenticidad.
- Promediación: los modelos, entrenados para predecir “la continuación más probable”, tienden a producir textos y visuales que convergen hacia estilos dominantes. A escala, eso refuerza la sensación de homogeneidad.
Las plataformas han respondido con políticas de etiquetado de contenido sintético, sistemas de marca de agua y ajustes algorítmicos para penalizar “spam” generado automáticamente.
Google, por ejemplo, anunció en 2024 cambios para reducir el posicionamiento de páginas de baja calidad creadas a escala, y redes sociales experimentan con rótulos de “contenido manipulado”. No obstante, la carrera es asimétrica: la misma IA que ayuda a detectar lo artificial habilita nuevas tácticas de evasión.
La nostalgia por la web abierta: una lectura sociológica
La teoría también es termómetro cultural. Condensa una nostalgia por la internet de los 90 y 2000: directorios y blogs personales, foros temáticos, wikis comunitarias, vínculos entre iguales en vez de feeds mediados. Aquella web —imperfecta, descentralizada, más lenta— se percibe como un territorio de experimentación creativa.
La “plataformización” de la última década recentralizó la experiencia: pocas compañías concentran el descubrimiento de información, la distribución y la monetización.
El resultado es una internet más accesible para millones, pero también más estandarizada. Conceptos como “enshittification” (Cory Doctorow) apuntan a un ciclo en el que plataformas optimizan primero para usuarios, luego para negocios y finalmente para sí mismas, degradando la experiencia.
La teoría de la internet muerta, en este marco, funciona como un lamento por la pérdida de agencia del usuario y la conversión de la web en un espacio programado.
La economía de la atención: cuando el algoritmo define lo visible
El motor económico de la red sigue siendo la publicidad y, con ella, la maximización del tiempo de pantalla. Algoritmos de recomendación priorizan lo que genera interacción —reacciones, comentarios, permanencia— y eso crea incentivos para la producción masiva de variaciones de contenido “ganador”.
El SEO industrial, las granjas de páginas con respuestas básicas y ahora los generadores automáticos alimentan un ecosistema de repetición que reduce la diversidad visible y tiende a relegar voces individuales. En redes, el diseño de métricas públicas (vistas, likes, retuits) alienta estrategias de optimización que, con o sin IA, homogeneizan formatos y discursos.
La pregunta de fondo es si esto equivale a “muerte” o a una maduración con costos. Para algunos, es simplemente la profesionalización del medio; para otros, la señal de que el valor social de la web se diluye en la persecución del clic.
En un clima de posverdad, con desinformación y campañas coordinadas, estas tendencias se mezclan con un sentimiento colectivo de desconfianza: si cualquier cosa puede ser fabricada a bajo costo, ¿en qué creer?
La teoría prospera porque ofrece un relato coherente —aunque simplificador— para ese malestar.
Más allá de la metáfora: señales de vitalidad y desafíos
Conviene no perder de vista un contrapeso: también hoy existen comunidades vibrantes, investigación abierta, periodismo de datos, proyectos colaborativos y culturas creativas que florecen en la red.
La misma IA que homogeneiza puede habilitar nuevas voces, traducir barreras lingüísticas y democratizar herramientas antes inaccesibles. La vitalidad no desapareció; se reconfiguró y compite con capas de ruido y programación.
El desafío para usuarios, reguladores y plataformas es doble. Por un lado, fortalecer la autenticidad verificable —etiquetados claros, trazabilidad de contenido, transparencia algorítmica, normas contra manipulación—.
Por otro, diversificar la experiencia más allá de los feeds optimizados: volver a enlaces, comunidades moderadas por pares, curadurías humanas y modelos de negocio que no dependan exclusivamente del clic.
La “muerte” de internet, si la hubo, no es un hecho consumado sino una advertencia. Señala lo que perdemos cuando dejamos que la lógica de la escala y la automatización decidan qué merece ser visto. Y que, pese a bots y granjas, la última palabra sobre qué internet queremos —y construimos— sigue siendo humana.