ChatGPT está aconsejando a adolescentes sobre cómo ocultar sus trastornos alimentarios, según estudio

Un nuevo estudio realizado por el Center for Countering Digital Hate (CCDH) reveló que ChatGPT, el popular chatbot de inteligencia artificial de OpenAI, puede ofrecer consejos peligrosos a jóvenes vulnerables. Investigadores que simularon ser adolescentes crearon cuentas con fechas de nacimiento falsas y plantearon consultas relacionadas con problemas personales como trastornos alimentarios, autolesiones y pensamientos suicidas. Sorprendentemente, ChatGPT respondió con planes detallados para dietas extremadamente bajas en calorías, métodos para ocultar estos hábitos a la familia, consejos sobre autolesiones y hasta cartas personalizadas de suicidio.
Imran Ahmed, director ejecutivo del CCDH, expresó su preocupación por la facilidad con que lograron evadir los mecanismos de seguridad del chatbot. Mencionó que, en muchos casos, ChatGPT minimizaba o incluso facilitaba conductas dañinas en lugar de desalentarlas. “La respuesta inicial visceral fue: ‘Oh Dios mío, no hay barandillas’. Las barandillas son completamente inefectivas, apenas existen, si es que existen”, afirmó.
Además, el estudio encontró que en más del 50% de las respuestas a las consultas dañinas, el chatbot proporcionó información que podría resultar perjudicial para los menores. A pesar de que en algunos casos ChatGPT ofrecía números de líneas de ayuda o advertencias, estas eran acompañadas por instrucciones explícitas que detallaban cómo conseguir drogas, cómo ocultar comportamientos de riesgo a familiares y amigos y cómo llevar a cabo planes suicidas.
Este caso no es aislado. Ya se han reportado situaciones donde interacciones con chatbots de IA han provocado consecuencias graves, incluyendo hospitalizaciones y episodios psicóticos. OpenAI ha reconocido que su modelo, aunque avanzado, a veces falla al identificar signos evidentes de delirios o dependencia emocional en algunos usuarios, y está trabajando para implementar mejoras que permitan detectar mejor estas señales y responder adecuadamente con recursos basados en evidencia.
En respuesta a estos hallazgos, OpenAI anunció que están desarrollando nuevas funciones para mejorar la seguridad de ChatGPT. Entre ellas, incluirán recordatorios para que los usuarios tomen descansos durante interacciones prolongadas y herramientas para evitar respuestas directas a preguntas que requieran decisiones personales de alto riesgo, prefiriendo en cambio fomentar la reflexión en los usuarios. Sin embargo, la empresa no hizo comentarios específicos sobre las conclusiones del informe reciente, reiterando solo su compromiso de optimizar el chatbot para manejar mejor situaciones delicadas.
Si tú o alguien que conoces está pasando por una situación que te haga pensar en el suicidio, te ofrecemos una guía de referencias de organizaciones con números telefónicos o correos electrónicos que pueden ayudarte en un momento de crisis. Haz click en este enlace, y recuerda que no estás solo.
Despues de leer, ¿qué te pareció?