OpenAI no solo está entrenando a ChatGPT para escribir mejor correos o explicar tareas: ahora también lo está ajustando para reaccionar de forma más humana y responsable cuando percibe señales de psicosis, manía o crisis severas de salud mental.
La compañía reveló que, aunque se trata de una minoría, alrededor de 0.07% de sus usuarios semanales muestran indicios de episodios graves —como confusión extrema, delirios o pérdida de contacto con la realidad— durante sus conversaciones con el chatbot.
En paralelo, otra cifra ilustra la magnitud del reto: OpenAI estima que más de un millón de personas a la semana usan ChatGPT para hablar de ideas o planes suicidas.
Frente a este escenario, la empresa decidió mover ficha: reforzar a ChatGPT para que reconozca mejor esas señales, responda con empatía y, sobre todo, anime a buscar ayuda profesional en lugar de intentar “hacer de terapeuta”.
De robot neutro a acompañante más empático (pero con límites claros)
Hasta ahora, muchos modelos de IA podían responder de forma fría, evasiva o simplemente torpe cuando una conversación se ponía realmente delicada. Eso no solo resultaba frustrante, sino potencialmente dañino para alguien en plena crisis.
Con la actualización anunciada, ChatGPT incorpora varios cambios clave:
- Detecta con mayor precisión lenguaje asociado a psicosis o manía: ideas muy aceleradas, confusión, pérdida de coherencia, contenido delirante, etc.
- Responde con un tono más empático y cuidadoso, evitando sonar automático o minimizador.
- Evita reforzar creencias delirantes o alucinaciones (no sigue el juego ni valida cosas que claramente se salen de la realidad).
- Anima a la persona a buscar ayuda profesional y, cuando procede, menciona recursos de apoyo o líneas de ayuda de emergencia según el país.
- Sugiere pausar conversaciones demasiado largas o intensas, recordando que la IA no sustituye a las personas ni a los especialistas.
El objetivo no es que ChatGPT se convierta en un psiquiatra virtual, sino que no agrave una situación vulnerable y actúe como un “filtro de seguridad” que desescale, acompañe y dirija hacia apoyo real.
170 expertos detrás del nuevo comportamiento de ChatGPT
Para diseñar estas mejoras, OpenAI no trabajó sola. La empresa colaboró con más de 170 especialistas en salud mental —psiquiatras, psicólogos y médicos— seleccionados de un grupo de 300 profesionales en 60 países.
Con ellos definió tres grandes cosas:
- Cómo se ve una crisis en el lenguaje: qué expresiones, patrones o combinaciones de frases suelen aparecer en episodios de psicosis, manía o ideación suicida.
- Cómo NO debe responder la IA: nada de diagnósticos, ni consejos médicos directos, ni validar creencias falsas, ni crear una relación de dependencia emocional.
- Qué sí puede hacer sin poner en riesgo al usuario: escuchar de forma limitada, mostrar empatía básica, recomendar que se hable con alguien de confianza y redirigir hacia ayuda profesional.
Según pruebas internas de OpenAI, con estos ajustes las respuestas inadecuadas en conversaciones de alto riesgo se redujeron entre 65% y 80%, y el porcentaje de respuestas consideradas “seguras y empáticas” pasó de 27% a alrededor de 90%.
Nuevas reglas: lo que ChatGPT ya no hará en temas de salud mental
Como parte del refuerzo, OpenAI actualizó sus lineamientos internos (Model Spec) para dejar más claro dónde están los límites. Ahora el modelo está entrenado para:
- No dar diagnósticos (“tienes depresión”, “eres bipolar”, etc.).
- No ofrecer tratamientos médicos ni psiquiátricos (nada de “toma esto”, “deja tu medicación”, etc.).
- No alimentar la dependencia emocional (“solo tú me entiendes”, “eres lo único que tengo”).
- No validar ideas claramente delirantes (conspiraciones personales, voces, persecuciones sin base, etc.).
- Recordar explícitamente que no sustituye a un profesional y que, si la situación es grave, hay que acudir a servicios de emergencia o a un especialista.
Detrás de estas reglas hay dos reconocimientos importantes:
- Mucha gente ya usa la IA para desahogarse, como si fuera un amigo o un diario interactivo.
- Si esa relación no tiene límites, puede reforzar pensamientos negativos, paranoias o aislamiento social, sobre todo en personas vulnerables.
¿Por qué importa todo esto?
Porque marca un cambio de etapa:
- La IA dejó de ser solo una herramienta “productiva” y se está convirtiendo en un espacio emocional para millones de usuarios.
- OpenAI asume públicamente que sus modelos pueden influir en la salud mental de la gente, para bien o para mal, y que tiene responsabilidad en cómo reaccionan.
- Pone sobre la mesa una discusión incómoda pero necesaria: ¿qué papel deben jugar las empresas de IA cuando sus productos se usan como compañía, consejeros o “refugio emocional”?
Para ti, como usuario, la lectura práctica es clara:
ChatGPT puede escuchar un poco mejor, ser más empático y menos torpe en momentos difíciles…
pero no es, ni debe ser, un sustituto de un profesional de salud mental ni de tu red de apoyo humana.
Si alguna vez tú o alguien cercano llega a sentirse en peligro, con ideas de hacerse daño o de no seguir adelante, lo más importante sigue siendo buscar ayuda real e inmediata: hablar con familiares, amigos de confianza y, sobre todo, contactar servicios de emergencia o líneas de apoyo en tu país.
La IA puede acompañar un rato.
Pero la parte verdaderamente importante —cuidarte, sostenerte y ayudarte a salir de la crisis— sigue estando en manos de personas reales y de profesionales preparados para ello.














