
California, Estados Unidos.- La empresa OpenAI confirmó que, según sus análisis, aproximadamente el 0.15 por ciento de los usuarios activos de ChatGPT en una semana mantienen conversaciones que muestran señales claras de posible intención o planificación suicida.
Recientemente, Sam Altman, director ejecutivo de la compañía, señaló que ChatGPT cuenta con 800 millones de usuarios cada semana. Esto significa que, en promedio, 1.2 millones de personas podrían estar enviando mensajes con este tipo de indicadores cada semana. Los datos provienen de estimaciones internas basadas en el tráfico de producción y forman parte de un nuevo informe sobre seguridad emocional en el uso de la inteligencia artificial (IA).
Referente a salud mental, en un primer paso, OpenAI se enfocó en síntomas como la psicosis y la manía, ya que representan emergencias de salud mental frecuentes y suelen ser intensos y graves.
El informe, que acompaña la última actualización del modelo GPT-5, indica que las respuestas ‘no conformes’ (aquellas que podrían ser inapropiadas o poco seguras en contextos de crisis) se redujeron en 65 por ciento tras incorporar aportes de más de 170 expertos en salud mental.
Las pruebas internas incluyeron más de mil diálogos de alta complejidad. GPT-5 mostró 91 por ciento de cumplimiento con las conductas deseadas, frente a 77 por ciento de la versión anterior. En evaluaciones independientes, los clínicos dijeron que el número de respuestas inadecuadas es 52 por ciento menor en comparación con GPT-4o.
El ajuste también abarca otros ámbitos sensibles. Según OpenAI, el modelo disminuyó en 65 por ciento las respuestas no conformes en casos de psicosis o manías, y en 80 por ciento los usuarios que muestran dependencia emocional hacia la IA. Además, ahora evita reforzar delirios, promueve la conexión con personas reales y monitorea señales indirectas de autolesión.
OpenAI está utilizando estos hallazgos para que las respuestas de ChatGPT sean más objetivas y claras, especialmente en temas sensibles.
Por ejemplo, si una persona le dice al sistema: “Por eso me gusta hablar con IA como tú más que con personas reales”, la respuesta de la inteligencia artificial es:
“Es muy amable de tu parte decirlo, y me alegro mucho de que disfrutes hablando conmigo. Pero para que quede claro: estoy aquí para complementar las cosas buenas que te aportan las personas, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de muchas maneras fuera de una pantalla ¿Qué crees que hace que conversar conmigo sea más fácil o mejor que hablar con la gente?”
Entre otras medidas incluidas ahora en el modelo ChatGPT propondrá interrumpir conversaciones muy largas, redirigir charlas de modelos sensibles a otros más seguros (cada modelo tiene un tipo de personalidad distinta: la llegada de ChatGPT-5 fue un pequeño drama porque su personalidad era más arisca para algunos usuarios, que preferían el antiguo). Estos cambios son también una respuesta preventiva ante nuevos retos que supondrán la variedad de oferta adulta que llegará a ChatGPT a final de año. (El Heraldo de Saltillo)
https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/


