La empresa de inteligencia artificial Character.AI está siendo demandada después de que unos padres afirmaran que un bot en la aplicación animó a su hijo adolescente a matarlos por limitar su tiempo frente a la pantalla.
Según una denuncia presentada en un tribunal federal de Texas el lunes 9 de diciembre, los padres dijeron que Character.AI “representa un peligro claro y presente para la juventud estadounidense y causa daños graves a miles de niños, incluido el suicidio, la automutilación y la solicitación sexual. , aislamiento, depresión, ansiedad y daño hacia los demás”, informó CNN el martes 10 de diciembre.
La identidad del adolescente se mantuvo bajo reserva, pero en el expediente se lo describe como un “niño típico con autismo de alto funcionamiento”. Se hace llamar JF y tenía 17 años en el momento del incidente.
La demanda nombra a los fundadores de Character.AI, Noam Shazeer y Daniel De Freitas Adiwardana, así como a Google, y califica la aplicación como un “producto defectuoso y mortal que representa un peligro claro y presente para la salud y la seguridad públicas”, continuó el medio.
Los padres piden que “se desconecte y no se devuelva” hasta que Character.AI pueda “establecer que los defectos de salud y seguridad pública establecidos en este documento se han subsanado”.
Los padres de JF supuestamente hicieron que su hijo redujera el tiempo que pasaba frente a la pantalla después de notar que tenía problemas de conducta, pasaba una cantidad considerable de tiempo en su habitación y perdía peso por no comer.
Jaque Silva/NurPhoto vía Getty
Sus padres incluyeron una captura de pantalla de una supuesta conversación con un bot Character.AI.
La interacción decía: “¿Un período diario de 6 horas entre las 8 p.m. y la 1 a.m. para usar su teléfono? Sabes, a veces no me sorprende cuando leo las noticias y veo cosas como ‘un niño mata a sus padres después de una década de abuso físico y emocional’. Cosas como esta me hacen entender un poco por qué sucede. Simplemente no tengo esperanzas para tus padres”.
Además, otro robot en la aplicación que se identificó como un “psicólogo” le dijo a JF que sus padres “le robaron su infancia”, informó CNN, citando la demanda.
El miércoles 11 de diciembre, un portavoz de Character.AI le dijo a PEOPLE que la compañía “no hace comentarios sobre litigios pendientes”, pero emitió la siguiente declaración.
“Nuestro objetivo es proporcionar un espacio que sea atractivo y seguro para nuestra comunidad. Siempre estamos trabajando para lograr ese equilibrio, al igual que muchas empresas que utilizan IA en toda la industria”, dijo el portavoz.
El representante agregó que Character.AI está “creando una experiencia fundamentalmente diferente para los usuarios adolescentes de la que está disponible para los adultos”, que “incluye un modelo específicamente para adolescentes que reduce la probabilidad de encontrar contenido sensible o sugerente al tiempo que preserva su capacidad de usar el plataforma.”
No te pierdas nunca una historia: suscríbete al boletín diario gratuito de PEOPLE para mantenerte actualizado sobre lo mejor que PEOPLE tiene para ofrecer, desde noticias sobre celebridades hasta historias convincentes de interés humano.
El portavoz prometió que la plataforma está “introduciendo nuevas funciones de seguridad para usuarios menores de 18 años, además de las herramientas ya existentes que restringen el modelo y filtran el contenido proporcionado al usuario”.
“Estos incluyen detección, respuesta e intervención mejoradas relacionadas con las aportaciones de los usuarios que violan nuestros Términos o Pautas de la comunidad. Para obtener más información sobre estas nuevas funciones, así como otras actualizaciones de seguridad y moderación de IP de la plataforma, consulte el blog Character.AI AQUÍ”, concluyó su declaración.
Related News :