El historial de conversaciones con un asistente virtual revela más de lo que aparenta. Una investigación preliminar demuestra que la inteligencia artificial predice rasgos de personalidad con hasta un 61% de acierto al analizar los textos que los usuarios comparten.
Este hallazgo proviene de un equipo de la Escuela Politécnica Federal de Zúrich (ETH Zurich). Los científicos solicitaron a 668 participantes de Estados Unidos y Reino Unido que entregaran copias de sus interacciones con ChatGPT para someterlas a escrutinio.
El algoritmo analiza más de 62.000 chats para perfilar a los usuarios
La base de datos resultante superó los 62.000 mensajes. El sistema clasificó estas conversaciones según sus temáticas centrales y las contrastó con los resultados de pruebas psicológicas estándar que completaron los mismos voluntarios.
El objetivo consistía en estimar la presencia de los "cinco grandes" rasgos psicológicos: amabilidad, responsabilidad, estabilidad emocional, extraversión y apertura a la experiencia. La tecnología logró identificar patrones consistentes en la mayoría de estas dimensiones.
"Existen grandes riesgos a gran escala si actores malintencionados aprovechan estos datos de personalidad." - Investigadores de la ETH Zurich
La precisión del modelo varió según el trait evaluado. La IA mostró mayor eficacia al detectar la amabilidad y la estabilidad emocional, mientras que encontró obstáculos significativos para determinar el nivel de responsabilidad de los interlocutores.
Cuanto más extenso es el historial mayor resulta la exposición personal
La cantidad de datos disponibles influye directamente en la exactitud del perfil. Los investigadores observaron que los historiales de chat más largos facilitaban una identificación mucho más nítida de las características individuales.
Esta correlación implica que el uso frecuente de estas herramientas aumenta la vulnerabilidad del usuario. Cuanto más interactúa una persona con el sistema, más fácil se vuelve para la máquina descifrar su psicología.
Las implicaciones sociales de esta capacidad técnica generan alarma entre los autores del estudio. Advierten que esta información podría alimentar campañas de manipulación masiva diseñadas para difundir desinformación o propaganda política dirigida.
El equipo suizo propone usar estos hallazgos como base defensiva. Su intención es desarrollar sistemas capaces de eliminar automáticamente la información identificativa antes de que los datos abandonen el dispositivo del usuario.
La frontera entre la utilidad del asistente y la privacidad psicológica se estrecha con cada mensaje enviado.