Las selfis con IA ya 'hacen el trabajo de los estafadores', advierten expertos en ciberseguridad

23 de febrero de 2026 a las 09:15h
las selfis con ia ya hacen el trabajo de los estaf 2026 02 21 08 01 36
las selfis con ia ya hacen el trabajo de los estaf 2026 02 21 08 01 36

Una sonrisa frente a la cámara, el logotipo de la empresa en la camiseta, un fondo que delata la oficina. Nada raro. Pero cuando esa imagen se sube a un chatbot de inteligencia artificial para convertirla en una caricatura colorida, algo cambia. De pronto, no es solo un juego. Es una huella digital que queda procesada, almacenada, posiblemente reutilizada. Y aunque parezca inofensivo, los expertos advierten que esta moda puede estar facilitando el trabajo de los ciberdelincuentes.

El reto que no sabías que estabas aceptando

En redes sociales, el reto está de moda subes una foto, pides a un asistente de inteligencia artificial que cree una versión animada de ti y tu trabajo, y compartes el resultado. Colores vivos, estilo cartoon, un toque de humor. Pero detrás de esa imagen entrañable, hay un proceso invisible. El sistema analiza cada detalle tu expresión, el entorno, los objetos a tu alrededor, incluso el corte de pelo o la ropa que llevas. Todo eso se convierte en datos que la IA puede usar para entrenarse.

Y ahí está el problema. Porque si llevas una tarjeta de identificación, un uniforme, un cordón de acceso o simplemente el logo de tu empresa, estás entregando sin querer información que podría usarse para suplantar tu identidad. No es ciencia ficción. Es lo que ya sucede en estafas sofisticadas donde los atacantes generan deepfakes realistas con solo unas imágenes.

¿Quién ve lo que subes?

Cuando subes una foto a una herramienta de IA, no desaparece. El sistema la procesa, la descompone, la estudia. Y aunque no la veas publicada, puede quedar almacenada durante un tiempo indeterminado. Incluso si ChatGPT aclara que no cada imagen se incluye directamente en sus bases de datos públicas, sí utiliza los patrones que extrae para mejorar sus modelos. Es decir, tu rostro, tu entorno, tus gestos, pueden convertirse en parte del entrenamiento de futuras imágenes generadas por IA.

Y si alguna vez hubo una brecha de seguridad en una empresa como OpenAI, esos datos podrían caer en manos de actores malintencionados. No hace falta un escenario apocalíptico. Basta con una filtración menor para que una sola imagen en alta resolución sirva para abrir cuentas falsas, engañar a colegas o familiares, o incluso acceder a sistemas corporativos.

Es por eso que Bob Long, vicepresidente de la empresa de verificación de edad Daon, no duda en señalar

"Están haciendo el trabajo de los estafadores, les dan una representación visual de quiénes son"

Y va más allá

"suena como si lo hubiera iniciado deliberadamente un estafador que quiere facilitarse el trabajo"

La selfie que revela demasiado

Charlotte Wilson, responsable del área empresarial en Check Point, lo resume con claridad

"Las selfis ayudan a los delincuentes a pasar de estafas genéricas a suplantaciones de identidad personalizadas y muy convincentes"

Hasta hace poco, las estafas eran genéricas correos con errores ortográficos, llamadas sospechosas. Hoy, con solo unas imágenes y datos personales, pueden crear perfiles tan detallados que incluso engañan a quienes te conocen.

Y no solo es la foto. Es lo que dices al pedir la caricatura. Si escribes "soy ingeniero en una empresa de energía en Madrid", acabas de entregar tres datos clave profesión, ubicación y sector. Con eso, un atacante puede diseñar un ataque de phishing altamente personalizado que parece legítimo.

¿Cómo protegerte sin dejar de participar?

No se trata de vivir como ermitaños digitales. Pero sí de actuar con conciencia. Wilson recomienda recortar al máximo la imagen, usar fondos neutros y evitar cualquier detalle que revele tu identidad laboral o tu rutina. Un fondo blanco, un rostro sin insignias, sin logos ni tarjetas colgando del cuello.

Y antes de subir cualquier cosa, revisa la configuración de privacidad. OpenAI permite excluir tus datos del entrenamiento de la IA mediante un portal específico. Basta con activar la opción "no entrenar con mi contenido". También puedes desactivar el ajuste que permite que tus conversaciones de texto ayuden a mejorar el modelo. No es magia, es control.

Jake Moore, consultor de ciberseguridad, subraya esta necesidad

Cuando un usuario sube una imagen a un chatbot de IA, el sistema la procesa para extraer datos como la emoción de la persona, el entorno o cualquier información que pueda desvelar su ubicación

Y añade esa información puede almacenarse durante un tiempo indeterminado.

Legislación, pero con matices

En la Unión Europea, los usuarios tienen derecho a solicitar la eliminación de sus datos personales. Es un paso importante. Pero incluso ahí hay límites. OpenAI advierte que puede conservar parte de la información tras su supresión, por ejemplo, para prevenir fraude o abuso. Es un equilibrio delicado entre privacidad y seguridad. Y en ese margen, siempre hay espacio para que algo quede registrado más tiempo del que creemos.

La moda de las caricaturas con IA es un ejemplo perfecto de cómo lo lúdico y lo tecnológico se entrelazan sin que nos demos cuenta del costo. Queremos divertirnos, compartir, participar. Pero cada vez que subimos una imagen, estamos dejando una pieza del rompecabezas. Y no siempre controlamos quién lo está completando.

Sobre el autor
Redacción
Ver biografía