Actualizado el 16/09/2025

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. ChatGPT cuida de la salud mental de sus usuarios

ChatGPT cuida de la salud mental de sus usuarios

Escrito por Guillem Alsina el 02/09/2025 a las 08:55:06
191

Hay quien utiliza ChatGPT para todo, preguntándole desde cuestiones profesionales hasta las más personales. Y, si en las cuestiones profesionales ya puede haber problemas como filtraciones de datos, en las personales los problemas pueden ser más difíciles de detectar y, además, con implicaciones mucho más sombrías.


Es por ello que, desde OpenAI, se ha hecho un esfuerzo extra incluyendo medidas de prevención en su chatbot, de acuerdo con las recomendaciones de los más de noventa médicos en más de treinta países, entre los que se cuentan psiquiatras, pediatras y médicos de familia, con los que ha colaborado para crear e introducir estas medidas en sus modelos de lenguaje.


En paralelo, también trabaja con investigadores en interacción persona-ordenador, salud mental, y desarrollo juvenil para revisar la identificación de conductas preocupantes, afinar métodos de evaluación y someter a prueba las salvaguardas del producto. Este trabajo se encuentra en marcha y se ofrecerán más detalles conforme avance.


La primera medida concreta que se introduce en ChatGPT consiste en la presentación de notificaciones que, de una manera delicada, nos indican que hemos pasado mucho tiempo interactuando con la inteligencia artificial, y nos sugiere la posibilidad de tomarnos una pausa. Desde la compañía se irá afinando, a lo largo de los próximos meses, cuando y cómo se muestran estas notificaciones.


También, y para dar soporte a alguien que está pasando un mal momento y utiliza el chatbot para hacerle preguntas personales, ChatGPT se entrena para responder con honestidad fundamentada.


Según OpenAI, se han detectado casos en los que el modelo 4o no identificó adecuadamente señales de delirios o de dependencia emocional. Aunque la firma las considera poco frecuentes, trabaja en mejorar los modelos y en herramientas que ayuden a detectar indicadores de malestar mental o emocional, de modo que el asistente pueda responder de forma adecuada y señalar recursos basados en evidencias.


Cuando el usuario plantee consultas que puedan afectar a decisiones de alto impacto emocional, el sistema no ofrecerá un veredicto. En su lugar, ayudará a ordenar el pensamiento, formular preguntas y sopesar pros y contras. Este nuevo comportamiento se irá desplegando en próximas fechas.