Imagina un lugar en internet donde todo el conocimiento estuviera al alcance de cualquiera, escrito no por expertos en un despacho, sino por personas comunes que aportan su tiempo y su experiencia. Ese lugar existe se llama Wikipedia. Pero ahora, justo cuando la inteligencia artificial parece estar lista para escribirlo todo, Wikipedia ha decidido poner un freno. Y no de forma tímida por 40 votos a favor frente a solo 2 en contra, la versión en inglés de la enciclopedia ha prohibido el uso de modelos de lenguaje para generar o reescribir sus artículos.
Una prohibición con fundamentos
La decisión no es caprichosa. Wikipedia no se opone a la IA por miedo al cambio, sino por fidelidad a sus principios. Desde sus inicios, la enciclopedia libre ha basado su credibilidad en tres pilares la neutralidad, la verificabilidad y la prohibición de investigación original. En otras palabras, lo que se escribe debe ser imparcial, estar respaldado por fuentes confiables y no inventar conclusiones que no existan en ningún otro lugar. El texto generado por grandes modelos de lenguaje, según las nuevas directrices, suele infringir estas reglas.
Los algoritmos, por muy avanzados que sean, no entienden el significado de lo que dicen; solo predicen palabras. Eso los hace peligrosamente hábiles para inventar datos con apariencia de verdad, citar fuentes inexistentes o introducir sesgos ocultos. Y aunque el resultado final pueda parecer fluido, incluso brillante, esa fluidez a menudo enmascara errores, omisiones o desviaciones del tono neutral que Wikipedia exige.
¿Dónde sí se permite la ayuda de la IA?
No todo está prohibido. Wikipedia reconoce que la inteligencia artificial puede ser útil, pero solo en tareas auxiliares. Se permiten sugerencias estilísticas básicas, como correcciones gramaticales o ajustes de claridad, siempre que el modelo no introduzca contenido propio. También se autoriza el uso de IA para traducir artículos entre idiomas, pero con una condición clave una persona competente en ambos idiomas debe revisar y validar cada línea. No basta con que suene bien; debe ser fiel.
Esta excepción no es gratuita. En el pasado, la enciclopedia ha sufrido consecuencias por confiar demasiado en traducciones automatizadas. Textos malinterpretados, matices perdidos, errores conceptuales. La IA, en esos casos, no solo falló corrompió. Así que ahora, cuando se traduce un artículo del francés al azerí, por ejemplo, no basta con que el traductor entienda ambos idiomas; debe entender también el contexto, la intención, el rigor. La máquina puede ayudar, pero la responsabilidad sigue siendo humana.
El fantasma de la imitación
Una de las partes más reveladoras del debate interno es la conciencia de que detectar el uso de IA no es tan sencillo. Wikipedia reconoce que "es posible que algunos editores tengan estilos de redacción similares a los de los modelos de lenguaje grande". Es decir no se puede castigar a alguien solo porque escriba como una máquina. El estilo no es prueba. Y por eso, las directrices son claras para justificar sanciones se necesitan más pruebas que meros indicios estilísticos o lingüísticos.
Es una advertencia casi filosófica no estamos en un juicio por sospecha. Estamos en una enciclopedia que defiende el conocimiento, no en una caza de brujas tecnológica. El riesgo no es el estilo; es el origen del contenido. Si un texto no puede rastrearse a una fuente verificable, si no puede justificarse como una síntesis fiel de la evidencia, entonces no tiene cabida con IA o sin ella.
Un gesto en medio del caos digital
Esta decisión no ocurre en el vacío. Mientras Wikipedia endurece sus normas, en otros rincones de internet la IA se despliega sin freno. En plataformas como Etsy, por ejemplo, se ofrecen retratos estilo Ghibli por 20 euros, generados automáticamente. Son bonitos, sí, pero también cuestionan qué significa crear, qué es auténtico. Y fuera del mundo de las imágenes, empresas y medios comienzan a etiquetar su contenido con insignias como "Not by AI", como si la intervención humana fuera ahora un distintivo de lujo.
Wikipedia, en este contexto, no está rechazando el futuro. Está eligiendo qué tipo de futuro quiere. No se trata de evitar la tecnología, sino de no dejar que la comodidad de la generación automática socave la seriedad del conocimiento.
Esta frase no es un desprecio a la IA, sino una advertencia fundada cuando el texto no puede rastrearse, cuando no hay una fuente que lo respalde, cuando el significado puede deslizarse sin control, el conocimiento se vuelve frágil."El texto generado por grandes modelos de lenguaje (...) suele infringir varias de las políticas fundamentales de contenido de Wikipedia" - Comité editorial de Wikipedia (versión en inglés)
Quizá lo más valioso de esta decisión no sea la prohibición en sí, sino el recordatorio silencioso que envía que hay cosas que no deben automatizarse, no porque no podamos, sino porque no deberíamos. En un mundo donde todo parece acelerarse, Wikipedia elige ir más despacio, con más cuidado, con más personas detrás de cada palabra. Y en ese gesto, quizás, reside su mayor acto de modernidad.