Las fotos ya no son prueba de nada. Lo decimos con una mezcla de preocupación y resignación, como si estuviéramos aceptando un nuevo estado del mundo. Hasta hace poco, una imagen era el testimonio irrefutable de un hecho. Un huevo roto. Una taza agrietada. Un cepillo oxidado. Ahora, cualquiera puede fabricar ese testimonio con solo pedírselo a una inteligencia artificial, en cuestión de segundos y desde el móvil.
El fraude visual
En la encimera de un baño, una usuaria toma una foto de un cartón de huevos. Luego abre una herramienta de generación de imágenes y le pide al modelo que simule más daños. Más cáscaras rotas. Más yema esparcida. El resultado es indistinguible de una escena real. Tanto que, si no fuera por un pequeño logo en la esquina, nadie lo cuestionaría. Y ese logo, claro, se puede borrar con un par de toques.
Este no es un experimento aislado. Es un patrón. Clientes en distintos países están usando inteligencias artificiales como Nano Banana o Gemini para alterar o crear imágenes que justifiquen devoluciones. Y lo están haciendo con éxito.
En India, un cliente pidió huevos a domicilio. Uno estaba roto. Hizo una foto, pidió a Gemini que generara más roturas y envió la imagen al servicio de atención. Recibió el reembolso sin más trámites. En China, durante el gran festival de compras del 11.11, varias tiendas reportaron reclamaciones con imágenes de productos dañados que nunca habían sido enviados así ropa deshilachada, tazas partidas, cepillos de dientes corroídos. Todo generado por IA.
La era del espejismo digital
Lo curioso no es que esto ocurra. Lo curioso es que nos sorprenda. Hace apenas unos años, las primeras imágenes generadas por IA que se viralizaron ya nos advertían de esta nueva realidad. Las imágenes generadas por IA son cada vez más indistinguibles de las reales. Pero seguíamos tratándolas como curiosidades técnicas, como trucos de feria. Hoy son herramientas cotidianas, al alcance de cualquier persona con un smartphone.
Un caso especialmente revelador fue el de unos cangrejos vivos enviados por mensajería. El cliente reclamó porque muchos habían llegado muertos, y envió fotos y un vídeo como prueba. Pero los vendedores notaron algo raro los cangrejos tenían más patas de las que deberían. Un error típico de la IA, que a veces se inventa anatomías cuando no entiende bien el objeto. El fraude fue descubierto. Pero cuántos no lo han sido.
"Las imágenes ya no son prueba de nada, lo vimos con las primeras imágenes generadas con Nano Banana Pro que se viralizaron, y vamos a tener que aprender a vivir con ello." - testigo de casos de fraude con imágenes de IA
China, con el mayor mercado de comercio online del mundo, fue uno de los primeros en detectar este fenómeno. Pero la tendencia no tiene fronteras. El caso de los huevos fue en India. En Estados Unidos, también se han registrado devoluciones con imágenes falsas. El fraude con IA no distingue entre culturas ni sistemas económicos.
La economía del engaño barato
Esto no sucede con productos de lujo ni con compras de alto valor. Ocurre con artículos frágiles, perecederos o de bajo coste huevos, frutas, tazas, ropa básica. Justo aquellos productos en los que las tiendas prefieren devolver el dinero antes de pedir que se devuelva físicamente el objeto. Es más rápido, más barato, más amable con el cliente. Pero también más vulnerable.
Según la firma de detección de fraudes Forter, el uso de imágenes generadas por IA para reclamaciones falsas ha aumentado un 15% en 2025. Coincide con la llegada de modelos de generación de imágenes más precisos, más rápidos, más accesibles. La tecnología ha superado la capacidad de verificación de las plataformas.
Y el impacto no es menor. Cada reembolso fraudulento es una pequeña pérdida. Pero multiplicado por miles de casos, se convierte en una fuga sistémica. Peor aún erosionan la confianza. Si cualquier imagen puede ser falsa, ¿cómo saber quién miente y quién no? ¿Qué pasa con los clientes honestos que sufren un verdadero problema y envían una foto real? ¿Serán sospechosos por defecto?
¿Cómo se para lo que no se ve?
Algunas empresas ya exploran soluciones técnicas. Una de las más prometedoras obligar a que las fotos para devoluciones se tomen directamente desde la app del servicio, no desde el carrete del dispositivo. Así, se podría verificar la metainformación de la imagen, como la hora, la ubicación o el modelo de cámara. Sería un primer filtro. No infalible, pero un paso adelante.
Pero también hay que preguntarse si estamos preparados para vivir en un mundo donde la evidencia visual ya no basta. Donde ver no es creer. Donde el testimonio más convincente puede ser una ilusión. No es solo un problema de comercio electrónico. Es un desafío para la verdad misma.
Las imágenes generadas por IA no son malas. Son herramientas. Pero como todas las herramientas, pueden usarse para construir o para romper. Y ahora, mientras aprendemos a distinguir lo real de lo simulado, también debemos aprender a reconstruir la confianza. Poco a poco. Con reglas nuevas. Con ojos más atentos. Con la certeza de que, en esta era, una imagen ya no vale más que mil palabras, sino que necesita mil pruebas para ser creída.