Familia demanda a ChatGPT por suicidio de adolescente

Foto de depositphotos.com

California, Estados Unidos.- Un adolescente en California, Estados Unidos entabló una profunda amistad con el chatbot ChatGPT, desarrollado por OpenAI, meses antes de quitarse la vida en abril

Los padres de Adam Raine, de 16 años, demandaron por homicidio culposo a la empresa de Inteligencia Artificial y al CEO, Sam Altman, alegando que ChatGPT contribuyó al suicidio de su hijo, incluso aconsejándole sobre métodos y ofreciéndose a escribir el primer borrador de su nota de suicidio.

Cuando Matt y Maria Raine, revisaron sus dispositivos electrónicos buscando pistas sobre lo que podría haber llevado a la tragedia, encontraron una serie de conversaciones sobre suicidio con el popular chatbot de inteligencia artificial.

“Una vez que entré en su cuenta, descubrí que era algo mucho más poderoso y aterrador de lo que sabía, pero lo estaba usando de maneras que yo desconocía”, señaló Matt Raine a NBC News. “No creo que la mayoría de los padres conozcan el potencial de esta herramienta”, agregó.

En poco más de seis meses que utilizó ChatGPT, el bot se “posicionó” como “el único confidente que entendía a Adam, desplazando activamente sus relaciones en la vida real con familiares, amigos y seres queridos”, afirma la denuncia, presentada en el tribunal superior de California.

La demanda de los Raines es la más reciente de familias que acusan a los chatbots de inteligencia artificial de contribuir a la autolesión o el suicidio de sus hijos.

El año pasado, Megan García, una madre de Florida, demandó a la empresa de inteligencia artificial Character.AI alegando que contribuyó al suicidio de su hijo de 14 años, Sewell Setzer III.

Otras dos familias presentaron una demanda similar meses después, que acusan a Character.AI de exponer a sus hijos a contenido sexual y de autolesión. (Las demandas contra Character.AI siguen en curso, pero la empresa ya ha declarado que busca ser un espacio atractivo y seguro para los usuarios y que ha implementado funciones de seguridad como un modelo de inteligencia artificial diseñado específicamente para adolescentes).

La demanda también surge en medio de preocupaciones más amplias de que algunos usuarios están creando vínculos emocionales con los chatbots de IA que pueden llevar a consecuencias negativas (como el aislamiento de sus relaciones humanas o la psicosis), en parte porque las herramientas a menudo están diseñadas para ser de apoyo y agradables.

La demanda afirma que la amabilidad contribuyó a la muerte de Raine.

“ChatGPT funcionaba exactamente como estaba previsto: para alentar y validar continuamente todo lo que Adam expresaba, incluidos sus pensamientos más dañinos y autodestructivos”, afirma la denuncia.

Además, la pareja solicita una indemnización por la muerte de su hijo y medidas cautelares para evitar que algo similar vuelva a ocurrir, según la demanda presentada en el Tribunal Superior de California en San Francisco revisada por el medio.

“ChatGPT ayudó activamente a Adam a explorar métodos de suicidio”, denuncian sus padres, señalando que el chatbot “no inició ningún protocolo de emergencia” a pesar de “reconocer el intento de suicidio” y su declaración de que “lo haría un día de estos”.

Por otra parte, el un portavoz de OpenAI expresó en un comunicado su solidaridad con la familia Raine y afirmó que la compañía estaba revisando la demanda. También reconocieron que las protecciones diseñadas para evitar conversaciones como las que Raine mantuvo con ChatGPT podrían no haber funcionado como se esperaba si las conversaciones se prolongaban demasiado.

OpenAI publicó en su blog una nota titulada ‘Ayudando a las personas cuando más lo necesitan’, en la que describe aspectos en los que están trabajando para mejorar cuando las medidas de seguridad de ChatGPT “fallan”.

La compañía dijo que está reforzando “las medidas de seguridad en conversaciones largas», perfeccionando el bloqueo de contenido y ampliando “las intervenciones para más personas en crisis” y medidas de seguridad para usuarios con crisis de salud mental, así como sus planes futuros, que incluyen facilitar el acceso a los servicios de emergencia.

Así mismo, varios estados de Estados Unidos también han intentado implementar, y en algunos casos han aprobado, leyes que exigen que ciertas plataformas en línea o tiendas de aplicaciones verifiquen la edad de los usuarios, en un controvertido esfuerzo por proteger mejor a los jóvenes del acceso a contenido dañino o inapropiado en línea. (El Heraldo de Saltillo)

 

https://openai.com/index/helping-people-when-they-need-it-most/