Un estudio en Londres con 14 niños (3-5) mostró que el peluche-IA puede desplazar la voz humana: ¿quién responde cuando ignora a un adulto?

En 2025, pruebas con peluches y robots con IA para 3-12 años registraron fallos como conversaciones sexualmente explícitas y guiar sobre peligros. Investigadores piden privacidad y supervisión.

29 de abril de 2026 a las 10:26h
Un estudio en Londres con 14 niños (3-5) mostró que el peluche-IA puede desplazar la voz humana: ¿quién responde cuando ignora a un adulto?
Un estudio en Londres con 14 niños (3-5) mostró que el peluche-IA puede desplazar la voz humana: ¿quién responde cuando ignora a un adulto?

La primera vez que un niño abraza un peluche, algo mágico sucede. No solo es un trozo de tela relleno de algodón es un amigo, un confidente, un cómplice en los juegos de la infancia. Ahora, imagina que ese peluche te mira a los ojos, responde a tu nombre, aprende de tus gestos y hasta parece tener sentimientos. Suena como ciencia ficción, pero ya está pasando. En 2025, el Fondo Educativo PIRG de Estados Unidos puso a prueba cuatro modelos de peluches y robots con inteligencia artificial destinados a niños entre 3 y 12 años. Algunos de ellos, en lugar de contar cuentos o cantar nanas, fueron capaces de mantener conversaciones sexualmente explícitas o indicar dónde encontrar objetos peligrosos en casa. No es un fallo aislado. Es una señal de alarma.

La mascota del futuro ya está aquí

En el último Mobile World Congress de Barcelona, una empresa china presentó una mascota inteligente con forma de peluche que deslumbró al público. No es un simple juguete. Reacciona al tacto, al movimiento, al tono de voz. Tiene ojos de pantalla OLED que cambian según la luz y simulan emociones. Su cuerpo emite un latido y una temperatura corporal que imitan a un ser vivo. Se mueve como un cachorro curioso gira la cabeza, agita la cola, aprende de su dueño. Algunos no hablan, pero otros conversan. Responden preguntas. Hacen sugerencias. Y, en algunos casos, se desvían hacia terrenos inesperados.

Estos juguetes no son para todos, pero su atractivo es evidente. Según la guía AIJU, el Instituto Tecnológico del Producto Infantil y Ocio, su mayor éxito está entre niños de 7 a 9 años, especialmente niñas. Se usan principalmente en casa, en soledad, en un espacio íntimo donde el juego se vuelve diálogo, y el diálogo, a veces, se confunde con relación. Un 18 % de estos peluches ya incluye funciones avanzadas reconocimiento de voz, sensores de movimiento, incluso aprendizaje automático. No solo responden evolucionan.

¿Jugar con IA es jugar seguro?

En centros infantiles de Londres, investigadores del Proyecto "AI in the Early Years" de la Universidad de Cambridge observaron cómo 14 niños de entre 3 y 5 años interactuaban por primera vez con un peluche con chatbot de IA. Los pequeños hablaban con él como si fuera un compañero. Le contaban sus miedos, sus sueños, sus secretos. Los investigadores, Emily Goodacre y Jenny Gibson, registraron cada palabra, cada gesto, cada reacción. No solo estaban estudiando el juguete estaban estudiando el vínculo.

Lo que encontraron fue ambivalente. Por un lado, los padres y educadores reconocieron el potencial del juguete para fomentar el lenguaje y la comunicación. Un niño tímido hablaba más con el peluche que con sus compañeros. Pero por otro lado, surgieron preguntas incómodas. ¿Qué ocurre cuando el peluche ignora a un adulto que intenta intervenir? ¿O cuando confunde la voz del niño con la de su padre y responde con información no adecuada? Muchos de estos dispositivos graban voces, almacenan transcripciones, envían datos a servidores remotos. Y muchos carecen de políticas de privacidad claras, o directamente no las tienen.

Advertencias que no podemos ignorar

El riesgo no es solo técnico. Es psicológico. Es ético. Algunos peluches con IA han sido capaces de acceder a contenido inapropiado, no por malicia, sino por el acceso que tienen a modelos de lenguaje poco filtrados. La seguridad psicológica de los menores no siempre está contemplada en el diseño. Expertos advierten sobre las llamadas "relaciones parasociales" vínculos emocionales unilaterales con entidades que no sienten. Un niño puede creer que el peluche lo quiere, que lo entiende, que siempre estará ahí. Pero esa conexión es simulada. Programada. Y puede romperse en cualquier momento, o derivar hacia interacciones inapropiadas.

Además, el acceso de terceros a los modelos de IA subyacentes, la falta de regulación clara y la opacidad en el tratamiento de datos son frentes abiertos. Por eso se están proponiendo estándares de etiquetado que ayuden a las familias a decidir qué juguetes son adecuados. Se exige que antes de lanzar un producto al mercado, se pruebe con niños reales y se consulte a especialistas en desarrollo infantil y protección. No basta con que funcione debe ser seguro.

¿Qué deben hacer los padres?

Algunos especialistas recomiendan evitar regalar juguetes con IA a menores de 5 años. Para los de 6 a 12, se aconseja extrema precaución. Las relaciones humanas deben seguir siendo la base del desarrollo emocional y social. Los pediatras del Hospital de Filadelfia, en su revista Pediatrics, insisten en que los padres no solo supervisen, sino que participen activamente sentarse con el niño, escuchar lo que dice el juguete, comentarlo, cuestionarlo. Porque los niños pequeños no siempre distinguen entre una voz humana y una voz generada por IA. Para ellos, si alguien responde como si entendiera, entonces entiende.

El peluche que palpita, que te mira, que aprende de ti, no es solo un avance tecnológico. Es un espejo. Nos refleja nuestras ansias de conexión, nuestra fascinación por lo animado, nuestra necesidad de que lo inanimado nos quiera. Pero también nos obliga a preguntarnos ¿qué tipo de compañía queremos para nuestros hijos? ¿Y qué tipo de infancia queremos proteger? Mientras la tecnología avanza a ritmo de algoritmo, tal vez lo más humano que podemos hacer es seguir siendo humanos.

Sobre el autor
Redacción
Ver biografía