Cali, marzo 8 de 2026. Actualizado: domingo, marzo 8, 2026 22:45
La compañía actualizó su trabajo en seguridad el 27 de febrero de 2026, detallando mejoras en detección de angustia emocional y un proceso judicial consolidado en California
OpenAI refuerza sus medidas sobre salud mental en ChatGPT: control parental, “trusted contact” y nuevos métodos de evaluación
OpenAI publicó el 27 de febrero de 2026 una actualización pública sobre su trabajo relacionado con la salud mental en ChatGPT.
El comunicado, dirigido a usuarios y a la comunidad en general, repasa avances en controles parentales, anuncia una nueva función llamada “trusted contact” (contacto de confianza) y describe cambios en cómo la empresa evalúa la capacidad de sus modelos para reconocer y responder a señales de angustia emocional.
También informa que varios casos judiciales relacionados con salud mental se han coordinado en un proceso único en California.
Qué anunció OpenAI
OpenAI recuerda en su nota que más de 900 millones de personas usan ChatGPT cada semana para tareas cotidianas, desde aprender hasta navegar sistemas de salud.
La empresa señala que, desde que introdujo controles parentales en septiembre de 2025, ha observado una buena adopción por parte de familias y planea ampliar esas protecciones.
Entre las novedades, OpenAI dice que pronto lanzará una función de “trusted contact” que permitirá a usuarios adultos designar a una persona que reciba notificaciones si el sistema detecta que el usuario podría necesitar apoyo adicional.
Además, la compañía está implementando nuevos métodos de evaluación que simulan conversaciones extendidas sobre salud mental para mejorar la detección de riesgos y la respuesta en momentos sensibles.
Actualización sobre litigios
El comunicado también ofrece un informe sobre procesos legales vinculados a ChatGPT: la corte ha coordinado varios casos relacionados con salud mental en un solo procedimiento en California.
OpenAI indica que los abogados de los demandantes han informado al tribunal su intención de presentar nuevos casos, y recuerda los principios con los que afronta estos procedimientos: partir de los hechos, actuar con respeto y sensibilidad, y concentrarse en mejorar la tecnología independientemente del litigio.
Por qué importa para las personas
Estas medidas afectan directamente a usuarios y a familias. Los controles parentales permiten a tutores supervisar y recibir alertas sobre el uso de ChatGPT por parte de menores, y la función de contacto de confianza busca incorporar una red de apoyo real cuando el sistema identifica señales de riesgo.
Las mejoras en evaluación pretenden que el asistente sea más capaz de detectar conversaciones prolongadas con indicios de angustia y de guiar a las personas hacia ayuda profesional o recursos concretos.
OpenAI también subraya que los procesos judiciales pueden ser largos y complejos, y pide reservar juicio hasta que se aclaren los hechos en el marco legal.
La empresa afirma que continuará trabajando con expertos clínicos y comités de bienestar para ajustar sus respuestas en conversaciones sensibles.
Conceptos clave, explicados de forma sencilla
- Modelo de lenguaje (LLM): es un programa que aprende a partir de grandes cantidades de texto para predecir y generar lenguaje. Ejemplo cotidiano: cuando un asistente sugiere completar una frase o redactar un correo, lo hace gracias a un LLM.
- Multimodal: un modelo multimodal entiende y procesa varios tipos de información (texto, imagen, audio). Es como un asistente que no solo lee un mensaje, sino que también puede ver una foto o escuchar un audio para dar una respuesta más completa.
- Agente: en el contexto de IA, un agente es una herramienta que realiza tareas autónomas por encargo del usuario, como programar citas o buscar información, actuando en varios pasos para completar una acción.
OpenAI no detalla en este comunicado técnico cómo se implementan exactamente estas funciones dentro de sus modelos, pero sí indica que trabaja con expertos externos y redes clínicas para mejorar las respuestas en situaciones delicadas.
Qué sigue
La compañía anuncia que compartirá más información a medida que las funciones (como el contacto de confianza y las mejoras de evaluación) se implementen en ChatGPT.
También reitera su compromiso de seguir mejorando el entrenamiento de sus modelos para reconocer señales de riesgo, desescalar conversaciones y derivar a soporte en el mundo real.
Nota de Transparencia
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻

Curaduría editorial
La curaduría y revisión editorial de estas notas está a cargo de Rosa María Agudelo Ayerbe, comunicadora social y periodista, con maestría en Transformación Digital y especialización en Inteligencia Artificial.
Desde su rol como líder del equipo de innovación y transformación digital del Diario Occidente, y a través de la unidad estratégica DO Tech, realiza un seguimiento permanente a las principales novedades en tecnología e inteligencia artificial a nivel global.
Estas notas se apoyan en un agente de investigación basado en inteligencia artificial, diseñado para monitorear semanalmente avances, lanzamientos y debates clave del sector.
El contenido es posteriormente leído, analizado, contextualizado y validado editorialmente antes de su publicación.
Este proceso forma parte del mecanismo de actualización continua que permite interpretar los desarrollos tecnológicos desde una mirada periodística, crítica y comprensible para audiencias no especializadas.

