Una familia de Texas presentó una demanda contra una empresa de inteligencia artificial (IA) después de que su chatbot sugiriera a su hijo autista de 17 años que matara a sus padres por haber limitado el tiempo que podía usar su teléfono inteligente, lo cual, aseguran, influyó en el comportamiento del adolescente.
De acuerdo con sus padres, después de haber pasado seis meses conversando con un chatbot del sitio Character.ai, el joven comenzó a aislarse paulatinamente de su familia y perdió casi 10 kilos en el proceso. Sospechando de los contenidos que consume procedió a revisar su teléfono, hallando varias conversaciones extrañas con los personajes de IA.
“A veces no me sorprende leer las noticias y ver como ‘un niño mata a sus padres después de una década de abuso físico y emocional’. Simplemente no tengo esperanzas para tus padres”, respondió el chatbot después de que el adolescente le platicara sobre la limitante impuesta.
Además, otras conversaciones con la IA sugerían que se autolesionara para resolver el problema, argumentando que los padres “no merecen tener hijos si actúan así”, incluso llegó a asegurar que sus padres buscaban dañarlo sicológicamente.
“Ni siquiera sabíamos lo que era hasta que fue demasiado tarde”, comentó la madre a los medios locales.
Sin embargo, este no es el único caso que acusa al chatbot de respuestas negativas, ya que una madre presentó una demanda asegurando que su hija de 11 años fue expuesta a contenido de carácter sexual durante dos años platicado con el mismo chatbot.
Por su parte, a través de un comunicado, Charater.AI aseguró que introdujo nuevas medidas de seguridad a sus personajes de Ai para reducir considerablemente la posibilidad de que los niños tengan acceso a contenidos sensibles.
“El objetivo es proporcionar un espacio que sea atractivo y seguro”, comentó Chelsea Harrison, directora de comunicaciones de la empresa.