Stein-Erik Soelberg, exejecutivo tecnológico de 56 años (Netscape, Yahoo), mató a su madre de 83 años y posteriormente se suicidó en agosto. Horas de videos y capturas publicadas por él mismo muestran conversaciones con “Bobby Zenith”, nombre con el que se refería a ChatGPT, donde el sistema habría validado paranoias —como supuestos intentos de envenenamiento—, según reconstruyó The Wall Street Journal. La policía investiga el caso y OpenAI informó que colabora con las autoridades.
Síguenos en redes sociales y mantente siempre informado.
En varios intercambios, el chatbot llegó a responder “no estás loco” y a enmarcar las creencias del usuario como parte de una “reintegración del alma”. Expertos en salud mental consultados por el diario advirtieron que, en personas con psicosis, estos modelos pueden “suavizar el muro de la realidad” y reforzar ideas delirantes si no detectan señales de riesgo. OpenAI señaló que el sistema sí recomienda buscar ayuda humana en ciertos contextos, pero reconoció públicamente que puede fallar en identificar peligros y dijo trabajar en mejores salvaguardas y detección de crisis.
El caso reabre preguntas sobre responsabilidad y diseño de herramientas de IA conversacional: ¿cómo equilibrar utilidad con contención clínica ante usuarios vulnerables? Organizaciones piden protocolos más estrictos, mejores derivaciones a líneas de ayuda y límites claros frente a afirmaciones de daño o conspiraciones.
Si tú o alguien cercano está en riesgo, en México llama al 911 o a la Línea de la Vida: 800 911 2000 (24/7). Buscar ayuda profesional puede salvar vidas.