Datos obtenidos por OpenAI, creador de ChatGPT, sugieren que más de un millón de personas que utilizan su chatbot de inteligencia artificial (IA) generativa mostraron interés en el suicidio.
En una entrada de blog publicada el lunes, la empresa estadounidense de IA estimó que aproximadamente el 0,15% de los usuarios tienen “conversaciones que incluyen indicadores explícitos de posible planificación o intención suicida”.
Reconocer mejor a los usuarios con emergencias de salud mental
Según OpenAI, más de 800 millones de personas usan ChatGPT cada semana, por lo que su estimación se traduce en aproximadamente 1,2 millones de usuarios.
Lea más: OpenAI lanza un navegador que permite usar la inteligencia artificial de ChatGPT en la web
La empresa también estima que aproximadamente el 0,07% de los usuarios activos semanales, un poco menos de 600.000 personas, muestran posibles signos de emergencias de salud mental relacionadas con psicosis o manía.
Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy
El problema pasó a primer plano después de que el adolescente californiano Adam Raine se suicidara a principios de este año. Sus padres presentaron una demanda contra ChatGPT porque le proporcionó consejos específicos sobre cómo hacerlo.
Desde entonces, OpenAI ha mejorado los controles parentales para ChatGPT e introducido otras medidas de seguridad, como un mayor acceso a líneas directas de crisis, el desvío automático de conversaciones delicadas a modelos más seguros y recordatorios sutiles para que los usuarios tomen descansos durante sesiones prolongadas.
Lea más: Transformación en ChatGPT: OpenAI aborda la seguridad emocional de jóvenes tras críticas y demandas
OpenAI también ha actualizado su chatbot ChatGPT para reconocer y responder mejor a los usuarios que experimentan emergencias de salud mental, y está trabajando con más de 170 profesionales de la salud mental para reducir significativamente las respuestas problemáticas.
