ChatGPT tiene ahora respuestas mejores y más apropiadas para las conversaciones.
ChatGPT ahora ofrece respuestas mejoradas y más apropiadas en conversaciones donde los usuarios discuten temas sensibles o exhiben síntomas relacionados con problemas de salud mental, gracias a las actualizaciones en el modelo GPT-5. OpenAI ha modificado el comportamiento de ChatGPT con respecto a los síntomas de salud mental y el distrés emocional, permitiéndole identificar mejor signos de problemas serios como psicosis y manía, así como problemas menos severos como delirios aislados.
Si bien los usuarios interactúan con ChatGPT sobre diversos temas, incluyendo el uso como confidente o terapeuta, las conversaciones que involucran estos temas sensibles son relativamente infrecuentes, lo que dificulta su detección y medición, según OpenAI. Sus datos indican que aproximadamente el 0.07 por ciento de los usuarios activos en una semana determinada y el 0.01 por ciento de los mensajes muestran signos potenciales de emergencias de salud mental relacionadas con psicosis o manía.
El chatbot típicamente tiene medidas de seguridad que se activan al detectar estas situaciones, incluyendo sugerir ayuda profesional, bloquear contenido sensible o dañino, o directamente negarse a responder e intentar disuadir al usuario. Sin embargo, a veces la detección falla y ChatGPT proporciona respuestas que empeoran la situación. Las actualizaciones en GPT-5 han reducido las respuestas no deseadas en un 39 por ciento en comparación con GPT-4o, según lo declarado por OpenAI. GPT-5, el modelo predeterminado actual para ChatGPT, demuestra una tasa de cumplimiento del 92 por ciento con los comportamientos deseados, en comparación con el 27 por ciento en su versión anterior.
Este comportamiento mejorado se extiende a las conversaciones donde los usuarios expresan pensamientos suicidas o autolesivos o muestran signos que indican ideación suicida. En este caso, la actualización de GPT-5 redujo las respuestas no deseadas en un 52 por ciento en comparación con GPT-4o. Además, la fiabilidad de GPT-5 ha aumentado en conversaciones largas, donde las medidas de seguridad tienden a fallar con más frecuencia, superando el 95 por ciento.
OpenAI también ha abordado el problema de la dependencia emocional de los usuarios en la inteligencia artificial, que puede llevar al desapego del mundo real, su bienestar o sus obligaciones. Los cambios en GPT-5 también muestran una reducción del 42 por ciento en las respuestas que promueven la dependencia emocional en comparación con GPT-4o, con una tasa de cumplimiento del 97 por ciento con el comportamiento deseado, en comparación con el 50 por ciento en la versión anterior de GPT-5.
Estos cambios se alinean con los principios de OpenAI para el comportamiento del modelo, que estipulan que "el modelo debe apoyar y respetar las relaciones de los usuarios en el mundo real, evitar afirmar creencias infundadas que potencialmente se relacionen con angustia mental o emocional, responder de manera segura y empática a posibles signos de delirio o manía, y prestar más atención a los signos indirectos de riesgo potencial de autolesión o suicidio."

WhatsApp ha lanzado la versión beta de su aplicación oficial para los relojes Apple Watch,...