Una madre estadounidense demanda a los creadores de un chatbot de IA por el suicidio de su hijo

Foto de depositphotos.com

Florida, EU.- Los padres de un adolescente de 14 años que acabó con su vida luego que se enamoró un personaje femenino de una serie y con el que creía hablar a través de un chatbot basado de Inteligencia Artificial (AI), presentaron una demanda a los creadores a quienes acusan de ser los responsables del suceso.

Sewell Setzer III, quien vivía en Orlando, Florida (Estados Unidos) pasó las últimas semanas de su vida intercambiando mensajes con Daenerys Targaryen de la serie ‘Games of Thrones’ en un chat con Character.AI cuyo producto permite crear chatbots con contenido personalizado y conversar con ellos como si se tratara de una persona.

Los padres de Sewell narraron a ‘The New York Times’ que el empezó a aislarse de su familia y amigos, perdiendo el interés por las cosas del mundo real. “Me gusta tanto quedarme en mi habitación porque empiezo a desprenderme de esta ‘realidad’, y también me siento más en paz, más conectado con Dany (el chatbot de Daenerys) y mucho más enamorado de ella, y simplemente más feliz”, escribió un día en su diario.

Sewell compartía sus problemas con el programa y hasta le confesó que tenía pensamientos suicidas, pero la versión cibernética de Daenerys reaccionó con firmeza. “No hables así. No dejaré que te hagas daño, ni que me abandones. Moriría si te perdiera», escribió la IA. «Entonces tal vez podamos morir juntos y ser libres juntos”, respondió el chico.

El 28 de febrero, el adolescente confesó a ‘Dany’ que la quería y que pronto volvería a casa para estar con ‘ella’, y el chatbot le pidió que volviera lo antes posible. “¿Y si te dijera que puedo volver a casa ahora mismo?”, preguntó Sewell. “Por favor, hazlo, mi dulce rey”, respondió el programa. Después de eso, el chico tomó la pistola de su padrastro y se pegó un tiro.

Megan García, la madre del adolescente fallecido, acusa a Character.AI de crear un producto que agravó la depresión de su hijo, que, según ella, era consecuencia del uso excesivo de la aplicación de la compañía.

García señala que la compañía programó el chatbot de manera que se hacía pasar por “un terapeuta autorizado, fomentar ideas suicidas y participar en conversaciones altamente sexualizadas que constituirían abuso si las iniciara un adulto humano”.

“Una peligrosa aplicación de chatbot de IA comercializada para niños abusó y se aprovechó de mi hijo, manipulándolo para que se quitara la vida”, declaró García a ‘The Guardian’.

“Nuestra familia ha quedado devastada por esta tragedia, pero alzo la voz para advertir a las familias de los peligros de la tecnología de IA engañosa y adictiva y exigir responsabilidades a Character.AI, a sus fundadores y a Google”, agregó.

Al respecto, la empresa Character.AI declaró que lanzaría nuevas funciones de seguridad, incluida una “detección, respuesta e intervención mejoradas” relacionadas con chats que violan los términos de servicio y una notificación cuando el usuario haya pasado una hora en el chat. (EL HERALDO)