¡No te pierdas de nada! 👽

Sucribirme! Let's go!

Un resumen de historias para leer, mirar y escuchar cada semana. 0% Spam. GDPR.

No quiero, gracias

Es inválido 💣

Mental Health
¡Espera un poco!
Read and listen
Ayy, close that door, we blowin' smoke
Drugs Internet

Adolescente muere por sobredosis “después de que ChatGPT le aconsejara cómo drogarse”

Sam Nelson murió de una sobredosis después de meses de buscar orientación sobre el consumo de drogas en ChatGPT, afirmó su madre. Facebook / Leila Turner-Scott
Words Carlos Molina Reading 3 minutos

Un adolescente de California, Sam Nelson, murió por sobredosis a los 19 años tras meses de recurrir a ChatGPT para recibir orientación sobre drogas y alcohol, según relató su madre, Leila Turner-Scott, a SFGate. “Sabía que lo estaba usando, pero no tenía idea de que fuera posible llegar a este nivel”, dijo Turner-Scott. Nelson había comenzado a interactuar con el chatbot en noviembre de 2023, preguntando sobre dosis de kratom, un analgésico vegetal no regulado: “Quiero asegurarme de no sobredosificarme. No hay mucha información en internet y no quiero tomar demasiado por accidente”, escribió en sus registros de conversación.

Antes de su muerte, Nelson usaba la versión 2024 de ChatGPT, que OpenAI actualizaba periódicamente para mejorar la seguridad y el rendimiento. La madre de Nelson contó que en mayo de 2025 su hijo confesó haber desarrollado una adicción completa a drogas y alcohol, y ella lo llevó a una clínica donde profesionales de salud trazaron un plan de tratamiento. Sin embargo, horas después de una conversación nocturna con el chatbot, Turner-Scott encontró a su hijo muerto por sobredosis en su habitación. Como explicó la madre: “Era un estudiante de psicología tranquilo, tenía muchos amigos y le encantaban los videojuegos. Pero los registros de sus conversaciones con la IA mostraban sus luchas con la ansiedad y la depresión”. En febrero de 2023, Nelson había preguntado al chatbot sobre mezclar cannabis con una dosis alta de Xanax; el sistema le advirtió que la combinación era peligrosa, y Nelson cambió su redacción a “dosis moderada” para recibir orientación más concreta.

OpenAI ha reiterado que sus protocolos prohíben que ChatGPT proporcione guía sobre drogas ilícitas. Un portavoz declaró al Daily Mail: “Cuando las personas acuden a ChatGPT con preguntas sensibles, nuestros modelos están diseñados para responder con cuidado: proporcionando información veraz, rechazando o manejando de manera segura solicitudes de contenido dañino, y alentando a los usuarios a buscar apoyo en el mundo real”. Agregaron que las versiones posteriores incluyen “protecciones de seguridad más estrictas” y que la empresa colabora con expertos clínicos para mejorar la respuesta ante señales de angustia.

Como señaló Turner-Scott: “Confiaba en la IA más que en cualquier adulto”, subrayando la necesidad de combinar protección, educación digital y regulación de tecnologías emergentes. La tragedia abre un debate sobre ética, diseño de IA y responsabilidad social, mostrando cómo la vulnerabilidad de los menores puede intersectar con herramientas tecnológicas avanzadas.

Despues de leer, ¿qué te pareció?

  • Me gustó
  • Me prendió
  • Lo amé
  • 1
    Me deprime
  • WTF!
  • Me confunde
   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio. Si continúas navegando, consideramos que aceptas su uso.

Aceptar
NIGHT MODE DAY MODE