El 35% de los sitios web de mayo de 2023 fueron generados por IA: Wikipedia bloquea hasta 2.000 millones de bots al día

La web se está llenando de texto sintético: un estudio cifra en 35% los sitios generados por IA en mayo de 2023 y Wikipedia llegó a bloquear hasta 2.000 millones de solicitudes diarias de bots.

05 de mayo de 2026 a las 12:48h
El 35% de los sitios web de mayo de 2023 fueron generados por IA: Wikipedia bloquea hasta 2.000 millones de bots al día
El 35% de los sitios web de mayo de 2023 fueron generados por IA: Wikipedia bloquea hasta 2.000 millones de bots al día

La red que conocíamos está desapareciendo bajo una marea de texto sintético. Lo que antes era un archivo humano se convierte ahora en un ecosistema dominado por algoritmos.

El 35% de los sitios web publicados en mayo de 2023 fueron generados por inteligencia artificial según datos recientes. Esta cifra marca un punto de inflexión en la composición digital global.

La invasión silenciosa del contenido automático

Todo comenzó con el lanzamiento de ChatGPT en noviembre de 2022. Desde entonces la producción de textos automatizados ha crecido a una velocidad vertiginosa.

Jonas Dolezal, Sawood Alam, Mark Graham y Maty Bohacek analizaron este fenómeno en su estudio The Impact of AI-Generated Text on the Internet. Publicaron sus hallazgos el 14 de abril de 2026.

Su investigación revela cómo la IA ha colonizado la publicación web en tiempo récord. La barrera entre lo humano y lo artificial se difumina cada día más.

El internet efímero y la pérdida de memoria

No solo cambia quién escribe. También desaparece lo escrito. El Pew Research Center cuantificó en 2024 la desaparición del 38% de las páginas web existentes una década antes.

Esta erosión digital complica cualquier intento de preservar el conocimiento. La web se vuelve líquida e inestable.

Los bots no solo generan contenido. También lo consumen agresivamente.

Wikipedia levanta muros contra los robots

La Fundación Wikimedia tuvo que actuar ante el aumento masivo del tráfico automatizado. Implementó medidas para priorizar a los visitantes humanos sobre las máquinas.

En el primer trimestre se bloqueaban diariamente hasta 2.000 millones de solicitudes procedentes de robots en Wikipedia. Esta defensa fue necesaria para salvaguardar la infraestructura.

Birgit Mueller, Chris Danis y Giuseppe Lavagetto detallaron esta crisis en el informe Quo Vadis, Crawlers? Progress and what’s next on safeguarding our infrastructure. Lo publicaron el 26 de marzo de 2026.

El documento expone la lucha técnica por mantener la accesibilidad humana. Los servidores colapsan bajo la presión de los rastreadores.

La batalla por la autenticidad en la red apenas comienza.

Navegar hoy implica filtrar constantemente ruido sintético. La utilidad práctica de la web depende ahora de nuestra capacidad para distinguir la voz humana entre miles de millones de peticiones automáticas.

Sobre el autor
Redacción
Ver biografía