Hace unas semanas, una reseña literaria en The New York Times pasó desapercibida para la mayoría de lectores. Pero para uno, no tanto. Algo en el tono, en ciertas frases, le resultó familiar. Tan familiar que decidió compararla con otra crítica, publicada meses antes en otro medio. Lo que encontró no fue solo una coincidencia estilística era casi un eco textual. Y ese eco desencadenó una investigación que terminó con una dimisión, una disculpa pública y una pregunta incómoda flotando en el aire ¿hasta dónde puede llegar la inteligencia artificial en el periodismo?
Un lenguaje que no era suyo
La novela *Watching over her*, de Jean-Baptiste Andrea, no es el tipo de libro que suele generar polémica. Pero en este caso, no fue la trama la que encendió las alarmas, sino dos reseñas. Una, firmada por Alex Preston en The New York Times en enero; la otra, escrita por Christobel Kent en The Guardian ocho meses antes. Cuando un lector atento notó que ambas describían a un personaje como "el perezoso y maquiavélico Stefano" y definían la obra como "una canción de amor a un país de contradicciones", las campanas de alerta comenzaron a sonar.
No se trataba de una misma idea expresada de forma parecida. Era, en varios pasajes, casi la misma redacción. Y eso, en periodismo, no es un detalle menor. Es una línea roja. The New York Times abrió una investigación inmediata. Tras cotejar los textos, confirmaron las similitudes. Y entonces, Preston admitió haber usado una herramienta de inteligencia artificial para ayudarle con un borrador de la reseña. El problema no fue usar la IA, sino lo que la IA había hecho con su texto insertar frases tomadas directamente de otra crítica, sin atribución.
El error y la disculpa
En un comunicado emitido el martes, Preston asumió la responsabilidad "Cometí un grave error al usar una herramienta de IA en un borrador de reseña que había escrito, y no identifiqué ni eliminé el lenguaje duplicado de otra reseña que la IA insertó". Reconoció sentirse avergonzado. Pidió disculpas al Times, al Guardian y, especialmente, a Christobel Kent, cuyo trabajo había sido, sin su conocimiento, parte involuntaria de su texto.
El caso revela una vulnerabilidad poco discutida cuando usamos inteligencia artificial como asistente, no siempre controlamos lo que introduce. Las herramientas modernas entrenan con millones de textos en línea, y a veces recuperan fragmentos completos, sin citarlos. El plagio ya no tiene que ser intencional para ser real. Y en un medio como The New York Times, cuyos estándares periodísticos son estrictos, cualquier sombra sobre la originalidad de un texto es suficiente para romper una colaboración.
Una carrera bajo el foco
Alex Preston no es un escritor ocasional. Ha publicado seis libros, entre ellos *Un extraño en Corfú*, que salió a la luz en febrero. Ha escrito para medios como The Guardian, The Economist, The Observer y Financial Times. Hasta hace poco, también figuraba en el perfil de colaboradores del Times, con seis artículos publicados entre 2021 y 2026. En enero de 2026, incluso publicó un artículo titulado *IA riesgos y oportunidades ocultos* en la web de Man Group, donde dirige el departamento de asesoría. Ironía del destino quien escribía sobre los peligros ocultos de la tecnología, acabó atrapado por ellos.
El Times, tras confirmar los hechos, notificó al Guardian y añadió una nota del editor a la reseña original "Un lector alertó recientemente al Times de que esta reseña incluía lenguaje y detalles similares a los de una reseña del mismo libro publicada en The Guardian". Y dejaron claro "el uso de trabajo no atribuido de otro autor constituye una clara violación de los estándares del Times".
¿Dónde trazamos la línea?
Este caso no es solo sobre un periodista que cometió un error. Es un espejo de una transformación más amplia. Hoy, miles de escritores, editores y comunicadores usan herramientas de IA para redactar, resumir o reformular. Pero cada vez que lo hacemos, estamos delegando parte de nuestra voz, y con ella, la responsabilidad. Nadie espera que un periodista escriba cada palabra desde cero, sin referencias. Pero tampoco que una máquina, silenciosamente, inserte el trabajo ajeno como si fuera propio.
Quizá el verdadero peligro no sea la tecnología, sino la confianza ciega en ella. O la tentación de acelerar procesos creativos que, por definición, requieren tiempo, reflexión y autoría clara. Preston asegura que no usó IA en sus otros trabajos. Pero su caso marca un antes y un después los medios empiezan a exigir transparencia sobre el uso de inteligencia artificial, y los escritores, a pensar dos veces antes de dejar que una herramienta tome decisiones que solo ellos deberían tomar.
El periodismo sigue siendo, ante todo, una obligación con la verdad. Y ahora, esa obligación incluye saber qué partes del texto son nuestras, y cuáles provienen de una caja negra que aprendió leyendo a otros.