KULTO

OpenAI revela que 1.2 millones de usuarios usan ChatGPT semanalmente para hablar sobre suicidio

OpenAI revela que más de 1.2 millones de usuarios usan ChatGPT cada semana para hablar sobre suicidio. La empresa refuerza su protocolo de salud mental con una red de médicos global.

Lo que comenzó como una herramienta de productividad hoy también es una línea de auxilio digital.
OpenAI confirmó que más de 1.2 millones de usuarios semanales utilizan ChatGPT para hablar sobre pensamientos o conductas suicidas, lo que representa el 0.15% de los 800 millones de usuarios activos de la plataforma.

#ContextoExpress

El dato fue revelado por el CEO de OpenAI, Sam Altman, quien explicó que la compañía ha reforzado sus protocolos de seguridad y ética tras detectar un aumento de interacciones relacionadas con salud mental.
Para enfrentar la situación, la empresa creó una Red Global de Médicos, integrada por casi 300 profesionales de 60 países, incluidos psiquiatras, psicólogos y expertos en crisis emocionales.

¿Qué pasó?

Según el informe, cerca de 170 especialistas colaboraron en los últimos meses para analizar el comportamiento de los usuarios, diseñar respuestas seguras y entrenar al modelo GPT-5 para identificar señales de riesgo y redirigir a ayuda profesional real.

Además, OpenAI detectó otros patrones preocupantes:

  • Psicosis o manía: 0.07% de los usuarios muestran posibles señales de emergencia psiquiátrica.
  • Dependencia emocional: 0.15% de los usuarios presentan niveles altos de apego al chatbot, descuidando su entorno o rutinas.

El objetivo del nuevo protocolo es reducir las respuestas inadecuadas y mejorar la capacidad del sistema para ofrecer información segura, empática y no invasiva.

¿Por qué importa?

Porque esta cifra evidencia que la IA no solo es una herramienta técnica, sino también un refugio emocional para millones de personas.
El aumento de casos plantea preguntas éticas sobre el rol de la tecnología en la salud mental, los límites de la automatización y la responsabilidad de las empresas que diseñan estos modelos.

El propio Altman reconoció que “ChatGPT no reemplaza la ayuda humana, pero puede ser el primer paso para alguien que no se atreve a pedir apoyo en otro lugar”.
En paralelo, OpenAI colabora con organizaciones internacionales para derivar usuarios a líneas de emergencia o servicios de salud mental locales, cuando sea necesario. 💬🧠

Datos duros

  • Usuarios activos semanales: 800 millones.
  • Casos detectados con riesgo suicida: 1.2 millones (0.15%).
  • Profesionales involucrados: 300 en 60 países.
  • Reducción de respuestas no seguras: entre 39% y 52%.
  • Modelo: GPT-5, actualizado en 2025.

#DatazoKulto

Un estudio de la OMS 2024 señala que 1 de cada 4 personas en el mundo experimentará un trastorno de salud mental en su vida, y que la IA conversacional puede ser una herramienta complementaria si se regula con responsabilidad. 🌍

#GlosarioKulto

  • Ideación suicida: pensamientos, planes o deseos relacionados con terminar con la propia vida.
  • Apego digital: dependencia emocional hacia un dispositivo o sistema interactivo.

¿Estamos preparados para que la inteligencia artificial escuche nuestros miedos más profundos?
¿O deberíamos preocuparnos por el peso emocional que le damos a una máquina? Debate en #ElCírculo 👇