Abres una plataforma de alquiler y aparece ese piso soñado. La cocina impecable, el salón con luz natural perfecta, la terraza con una piscina turquesa rodeada de césped cuidado. Todo parece sacado de una revista de diseño de interiores. Sólo hay un detalle es falso. No el piso, quizás, pero sí la imagen. Lo que ves no existe. O mejor dicho, existe solo en el disco duro de una inteligencia artificial.
Cuando la realidad no es suficiente
En España, plataformas como Idealista o Fotocasa están llenándose de anuncios que utilizan imágenes alteradas con inteligencia artificial. No se trata de retoques sutiles, como ajustar el brillo o eliminar un cable molesto. Aquí se recrean piscinas llenas en casas donde el vaso está vacío, se añade césped a jardines descuidados, se amueblan habitaciones vacías o se convierten trasteros en despachos de estilo escandinavo.
Un usuario en X mostró indignado cómo una piscina en estado de abandono aparecía en el anuncio como un oasis de agua cristalina, con reflejos brillantes y sin una hoja seca a la vista. Otro denunció una vivienda cuyo jardín pedregoso se transformaba digitalmente en un prado verde y frondoso. En ambos casos, la justificación era la misma "Para que veas cómo quedaría".
Es una promesa visual que no está obligada a cumplirse. Esa frase suena inofensiva, casi amable. Pero funciona como un pasaporte para el engaño permitir que lo virtual pase por lo real, al menos durante los primeros segundos de atención.
IA: La normalización del falso realismo
Lo más llamativo no es que se usen estas herramientas, sino cómo se están convirtiendo en una práctica habitual, incluso promovida. En 2023, Idealista publicó un artículo explicando cómo los agentes inmobiliarios podían aprovechar la inteligencia artificial para mejorar sus anuncios. La guía incluía ejemplos prácticos ordenar habitaciones desordenadas, llenar piscinas vacías o añadir muebles a estancias desangeladas. En aquella publicación, la IA no era un atajo ético discutible, sino una oportunidad de negocio.
Hoy, la misma plataforma alerta sobre el mal uso de estas tecnologías. Un giro que no pasa inadvertido.
"Debemos proteger a los usuarios de imágenes falsas generadas por IA" - CEO de Idealista
La contradicción es evidente. Primero se enseña cómo hacerlo, luego se advierte que no se debe. Pero entre medias, el daño ya está hecho. La confianza, una vez rota, es difícil de reconstruir.
La tecnología que no deja rastro
El avance técnico ha sido fulminante. Hace apenas un año, las ediciones con IA dejaban artefactos evidentes sombras raras, texturas imposibles, objetos que flotaban. Hoy, herramientas como Nano Banana permiten realizar cambios consistentes con la imagen original, respetando la perspectiva, la luz y los materiales. La manipulación es invisible al ojo inexperto.
En septiembre, aparecieron en Idealista anuncios con una marca de agua de Gemini, el modelo de IA de Google. Un descuido revelador. Como si el sistema hubiera olvidado borrar las huellas de su origen. Pero incluso esas pistas están desapareciendo. La tecnología aprende rápido, y con ella, los métodos para ocultar su intervención.
Algunos anuncios incluyen ahora una pequeña nota "Imagen generada con inteligencia artificial". Pero el truco está en el orden. Primero aparece la foto perfecta, la que atrapa la atención, la que provoca el clic. Luego, casi como una advertencia tardía, llega la aclaración. El daño emocional ya está hecho el deseo se encendió con una ilusión.
Es el mismo principio que usan las redes sociales mostrar lo más atractivo primero, aunque no sea real. Y mientras tanto, el comprador o inquilino medio no sabe distinguir entre lo que fue y lo que podría ser. Entre el presente y la promesa.
¿Y si la confianza también se alquila?
Este fenómeno no es exclusivo de España, pero aquí ha encontrado un terreno fértil. El mercado inmobiliario, bajo presión por la escasez de vivienda y los altos precios, se ha vuelto competitivo hasta la exageración. Y en esa carrera por destacar, la honestidad visual parece un lujo del que muchos prescinden.
Pero las consecuencias no son solo éticas. Son prácticas. ¿Qué ocurre cuando alguien alquila un piso tras ver una terraza con jacuzzi digital y encuentra un espacio con techos agrietados y baldosas sueltas? La frustración, el sentimiento de estafa, el desgaste de un proceso ya de por sí estresante.
La inteligencia artificial no es mala por naturaleza. Puede ordenar, mejorar, ilustrar. Pero cuando se usa para vender una realidad que no existe, deja de ser una herramienta y se convierte en un arma de manipulación masiva. Y en ese juego, todos perdemos. Porque al final, no solo alquilamos o compramos una casa. También alquilamos confianza. Y esa, lamentablemente, no se puede generar con un prompt.