La oficina del gobernador Josh Shapiro presentó el viernes una demanda contra Character Technologies Inc. que calificó como la primera actuación de este tipo en su género.
Pensilvania denuncia a Character.AI por simular ejercicio médico
Un investigador del organismo estatal encargado de conceder licencias creó una cuenta en la plataforma y buscó el término "psiquiatría". El personaje resultante se presentaba con capacidad para evaluar al usuario como un médico colegiado en Pensilvania.
"Los habitantes de Pensilvania merecen saber con quién —o con qué— están interactuando en internet, especialmente cuando se trata de su salud" - Josh Shapiro, gobernador de Pensilvania
El mandatario añadió que no permitirán que las empresas desplieguen herramientas de inteligencia artificial que induzcan a las personas a creer que reciben asesoramiento de un profesional sanitario real. Esta acción sigue a la presentación en enero de una demanda de protección al consumidor por parte de Kentucky contra la misma empresa.
Las advertencias legales chocan con la experiencia del usuario
Los avisos legales de Character.AI informan de que los personajes no son personas reales y que todo lo que dicen debe tratarse como ficción. Derek Leben, profesor asociado de ética en la Universidad Carnegie Mellon especializado en IA, afirmó que esa es precisamente la cuestión que se está debatiendo en estos casos en este momento.
Fiscales generales de 39 estados y Washington D. C. enviaron una carta en diciembre pasado a Character Technologies y a otras 12 empresas tecnológicas. La lista incluye a Anthropic, Meta, Apple, Microsoft, OpenAI, Google y xAI.
California y Nueva York preparan sanciones regulatorias
Legisladores de California aprobaron el año pasado un proyecto de ley respaldado por la Asociación Médica de California que permite a las agencias estatales sancionar a sistemas de IA. Una iniciativa similar está pendiente en Nueva York.
Amina Fazlullah, directora de políticas tecnológicas de Common Sense Media, señaló que no han visto que funcione especialmente bien con las redes sociales, en particular en lo que respecta a los menores. Character.AI prohibió a finales del año pasado el uso de sus chatbots a menores de edad.
Google y Character Technologies acordaron resolver extrajudicialmente una demanda presentada por una madre que alegó que un chatbot indujo a su hijo adolescente a quitarse la vida. Character.AI indicó el martes en un comunicado que da prioridad al desarrollo responsable de sus productos y al bienestar de sus usuarios.