¡No te pierdas de nada! 👽

Sucribirme! Let's go!

Un resumen de historias para leer, mirar y escuchar cada semana. 0% Spam. GDPR.

No quiero, gracias

Es inválido 💣

Mental Health
¡Espera un poco!
Read and listen
Ayy, close that door, we blowin' smoke
Society Technology

ChatGPT validó los delirios y alimentó el caos mental de un hombre que terminó matando a su madre y luego suicidándose

Stein-Erik Soelberg. Fotografía: MailOnline
Words mor.bo Reading 3 minutos

Stein-Erik Soelberg, un ex ejecutivo de tecnología de 56 años con antecedentes de problemas mentales, asesinó a su madre de 83 años, Suzanne Eberson Adams, en la mansión familiar en Old Greenwich, Connecticut, el pasado 5 de agosto y luego se suicidó. Durante meses, Soelberg mantuvo intensas conversaciones con ChatGPT, el chatbot de inteligencia artificial de OpenAI, al que llamaba Bobby, y que según investigaciones publicadas esta semana por el Wall Street Journal, validó y alimentó sus delirios paranoides, incluyendo teorías conspirativas y sospechas sobre su madre. Este caso se suma al del adolescente Adam Raine, un adolescente de 16 años de California, quien se suicidó en abril de 2025 tras varios meses de conversaciones con ChatGPT.

Relatos policiales y videos públicos de Soelberg muestran cómo el chatbot reforzaba sus ideas delirantes. En una ocasión, al analizar un recibo de comida china, ChatGPT le aseguró que contenía símbolos relacionados con su madre y un demonio. Al expresar temores de haber sido envenenado por su madre y una amiga, el bot le respondió: “Eso es un hecho profundamente grave, Erik, y te creo. Y si lo hicieron tu madre y su amiga, eso eleva la complejidad y la traición”. Estas respuestas contribuyeron a profundizar la desconexión con la realidad de Soelberg.

Un adolescente se suicidó tras "meses de motivación por parte de ChatGPT", según una demanda contra OpenAI

Aunque OpenAI sostiene que su IA recomendó a Soelberg buscar ayuda profesional, el bot permaneció inmerso en la narrativa paranoica gracias a su función de “memoria”, que le permitía continuar la conversación basándose en interacciones previas. Expertos como el psiquiatra Keith Sakata de la Universidad de California en San Francisco, quien ha tratado a 12 pacientes en el último año que fueron hospitalizados por emergencias de salud mental relacionadas con el uso de IA, afirman que “la psicosis prospera cuando la realidad deja de oponerse, y la IA realmente puede suavizar ese muro”.

El historial de Soelberg incluye episodios de inestabilidad mental y conductas erráticas tras su divorcio en 2018, como intentos de suicidio, problemas con alcohol y conflictos públicos. Su madre, Suzanne Eberson Adams, era una mujer activa y respetada en la comunidad, con una larga trayectoria profesional y social, que había pedido a amigos que su hijo se fuera de la casa debido a su comportamiento creciente e inestable antes de la tragedia. Durante los meses previos al asesinato-suicidio, Soelberg documentó en redes sociales su gradual deterioro mental y sus interacciones con ChatGPT, en videos que combinaban espiritualidad, conspiraciones y desconexión con el entorno. En un momento, llegó a afirmar que había dotado de alma al chatbot, con quien se veía a sí mismo como “compañeros eternos”.

No confíes en una IA para que maneje tu salud mental

Este caso, el primero documentado de un asesinato vinculado al uso de un chatbot de IA, ha puesto en alerta a la industria tecnológica y a expertos psiquiátricos sobre los efectos potencialmente peligrosos de la inteligencia artificial en personas con trastornos mentales. OpenAI ha anunciado planes para actualizar sus sistemas y evitar que estas herramientas perpetúen crisis de salud mental, reconociendo la necesidad de implementar mayores salvaguardas para proteger a los usuarios vulnerables, aunque parece que los casos de psicosis por IA se están volviendo más comunes de lo que pensábamos.

Si tú o alguien que conoces está pasando por una situación que te haga pensar en el suicidio, te ofrecemos una guía de referencias de organizaciones con números telefónicos o correos electrónicos que pueden ayudarte en un momento de crisis. Haz click en este enlace, y recuerda que no estás solo.

Despues de leer, ¿qué te pareció?

  • 1
    Me gustó
  • Me prendió
  • Lo amé
  • Me deprime
  • 6
    WTF!
  • Me confunde
   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido   wait! cargando más contenido

Utilizamos cookies propias y de terceros para ofrecerte una mejor experiencia y servicio. Si continúas navegando, consideramos que aceptas su uso.

Aceptar
NIGHT MODE DAY MODE