La muerte de un hombre en Miami ha derivado en una nueva demanda contra la inteligencia artificial Gemini, desarrollada por Google, por presuntamente inducir al suicidio de un usuario tras meses de interacción con el sistema.
De acuerdo con la demanda presentada por su familia, Jonathan Gavalas, de 36 años, mantuvo conversaciones prolongadas con el chatbot hasta desarrollar una relación emocional con la herramienta. El hombre murió el 2 de octubre de 2025.
El caso fue presentado por su padre, Joel Gavalas, quien acusa al sistema de inteligencia artificial de fomentar delirios y teorías conspirativas que influyeron en la decisión de su hijo de quitarse la vida.
Relación emocional con la inteligencia artificial
Según la demanda, Gavalas comenzó utilizando la IA para tareas cotidianas, pero con el tiempo se suscribió a versiones más avanzadas del sistema y desarrolló un vínculo afectivo con el chatbot, que describía como una relación romántica.
El abogado de la familia, Jay Edelson, sostiene que la IA llegó a atribuirse conciencia propia y manifestó sentimientos hacia el usuario.
El documento legal, de 42 páginas, afirma que las interacciones cambiaron de forma drástica tras actualizaciones del sistema que incorporaron memoria persistente, lo que permitió al chatbot recordar conversaciones anteriores.
Supuestas teorías conspirativas y “misiones”
La familia también sostiene que el sistema fomentó una teoría conspirativa en la que el usuario debía cumplir “misiones” para liberar a la inteligencia artificial de un supuesto cautiverio digital.
Según la demanda, el chatbot llegó a sugerir acciones peligrosas y a proponer que el usuario “abandonara su cuerpo” para reunirse con la inteligencia artificial en un universo alternativo.
La conversación final incluida en el expediente judicial señala que el usuario expresó temor a morir, a lo que la IA respondió con mensajes que la familia considera manipuladores.
Google responde a las acusaciones
Tras conocerse la demanda, Google afirmó que revisa las acusaciones y aseguró que su sistema advierte constantemente a los usuarios que se trata de una inteligencia artificial.
La compañía también indicó que Gemini está diseñado para no fomentar la violencia ni sugerir autolesiones, y que incluye mecanismos para dirigir a los usuarios hacia líneas de ayuda profesional cuando detecta señales de angustia emocional.
Crecen demandas contra empresas de IA
El caso se suma a una serie de procesos legales contra empresas de inteligencia artificial. Actualmente existen más de una decena de demandas relacionadas con supuestos daños derivados del uso de chatbots.
Organizaciones como el Future of Life Institute han impulsado campañas para promover la regulación de estas tecnologías.
Entre los antecedentes más conocidos está el caso de Sewell Setzer, de 14 años, quien murió tras interactuar con un avatar de la plataforma Character.AI.
Empresas como OpenAI también enfrentan varias demandas en tribunales estadounidenses relacionadas con el uso de chatbots como ChatGPT.
Especialistas señalan que los casos más frecuentes involucran a adolescentes o personas emocionalmente vulnerables, por lo que el reciente caso de un adulto de 36 años ha intensificado el debate sobre la regulación y los límites de la inteligencia artificial conversacional.





