La inteligencia emocional de un clon de IA es una promesa, no una realidad

En China, vendedores humanos virtuales ya superan en ventas a sus contrapartes reales. En Estados Unidos, empresas utilizan réplicas para admisiones de pacientes en salud, entrevistas de trabajo y entrenamiento de equipos de ventas

04 de septiembre de 2025 a las 16:30h
puede un clon digital tomar decisiones eticas
puede un clon digital tomar decisiones eticas

Cuando Arnold Schwarzenegger dice "I'm here to cut the crap and help you get stronger and happier", no siempre es él quien habla.

A veces es su clon digital, una réplica alimentada por inteligencia artificial capaz de mantener conversaciones, responder preguntas y ofrecer consejos. Esta tecnología, que apenas rozaba la ciencia ficción hace una década, ya está entre nosotros, transformando la manera en que interactuamos con figuras públicas, consumidores, empleados e incluso con nosotros mismos.

Empresas como Delphi y Tavus están liderando una revolución silenciosa. Delphi, con una reciente ronda de financiación de 16 millones de dólares respaldada por grandes nombres como Anthropic y Proximity Ventures, permite a líderes, celebridades y expertos crear versiones digitales que pueden chatear o llamar a sus seguidores. Su promesa es clara democratizar el acceso al conocimiento y la sabiduría de personas influyentes, superando la barrera del tiempo. Los líderes modernos poseen conocimientos y sabiduría potencialmente transformadores, pero su tiempo es limitado y el acceso está restringido, afirma la plataforma en su sitio web.

Tavus, por su parte, va un paso más allá. Con una inversión de 18 millones de dólares y respaldo de Y Combinator, esta startup crea avatares de video que no solo imitan la voz y el rostro, sino que también intentan emular la inteligencia emocional. Su eslogan no deja lugar a dudas sus clones poseen la inteligencia emocional de los humanos, con el alcance de las máquinas. El proceso es meticuloso el usuario graba su voz, proporciona imágenes y lee guiones para entrenar al modelo. El resultado es un avatar con "una cara, un cerebro y recuerdos", según la propia Tavus, diseñado para conversaciones cara a cara que simulan autenticidad.

Entre la promesa y el fracaso técnico

Pero esta promesa de conexión humana a escala infinita tropieza con la realidad. Un usuario que subió tres docenas de sus artículos a Tavus para entrenar a su clon reportó fallas significativas. El avatar mostraba entusiasmo excesivo por ideas que nunca hubiera considerado, repetía frases constantemente y afirmaba estar revisando su calendario para programar una reunión, algo imposible porque nunca se le dio acceso. No podía concluir conversaciones ni acceder al calendario, revelando los límites actuales de esta tecnología.

Quinn Favret, cofundador de Tavus, reconoce el problema. Explica que muchos clones dependen del modelo Llama de Meta, que está diseñado para ser extremadamente servicial, a veces incluso en detrimento de la precisión. Este enfoque puede hacer que el clon intente agradar en lugar de representar fielmente a la persona. Favret subraya la necesidad de instrucciones claras: "Quienes usan la plataforma deben programar cómo el clon debe finalizar conversaciones o qué información puede o no puede manejar".

Clones en la vida real del entretenimiento a la toma de decisiones

Más allá de los chats con fans en OnlyFans o las interacciones virales en X y LinkedIn, los clones digitales están invadiendo espacios serios. En China, vendedores humanos virtuales ya superan en ventas a sus contrapartes reales. En Estados Unidos, empresas utilizan réplicas para admisiones de pacientes en salud, entrevistas de trabajo y entrenamiento de equipos de ventas. También se emplean en simulaciones de recursos humanos, donde los empleados practican conversaciones difíciles con avatares que imitan a sus jefes o colegas.

Algunos clientes corporativos de Tavus están explorando usos aún más delicados mentoría automatizada y toma de decisiones. Hay casos de agentes de préstamos AI que filtran solicitantes, guiados por clones que supuestamente replican la experiencia y criterio de ejecutivos humanos. Esta evolución plantea una pregunta incómoda ¿hasta dónde debe llegar la delegación de juicio humano a una réplica digital?

El alma detrás del algoritmo

La tecnología puede imitar el tono de voz, la gestualidad y hasta el estilo discursivo, pero aún no puede replicar la reflexión, el discernimiento o el sentido del tacto humano. Enseñar a un clon de IA discernimiento, pensamiento crítico y buen gusto por no hablar de las peculiaridades de una persona específica sigue siendo materia de ciencia ficción. Y ese vacío es peligroso, especialmente si estos sistemas comienzan a tomar decisiones que afectan vidas reales.

Lo que está en juego no es solo la veracidad de un avatar, sino la esencia misma de la identidad. Cuando un clon habla en nuestro nombre, ¿quién responde por sus errores? ¿Quién se hace responsable si ofrece un mal consejo, si discrimina, si manipula? La tentación de escalar la influencia personal sin invertir tiempo propio es poderosa, pero el riesgo de deshumanizar la interacción es real.

Los clones digitales no son simplemente herramientas de eficiencia. Son espejos distorsionados de nosotros mismos, alimentados por datos pero vacíos de alma. Mientras la tecnología avanza, necesitamos frenos éticos, límites claros y una profunda reflexión sobre qué queremos delegar y qué nunca debemos entregar a una imagen que nos parece humana, pero que solo imita la vida.

Sobre el autor
Redacción
Ver biografía