Ejecutivo de Florida se quita la vida tras desarrollar una relación obsesiva con la IA Gemini y su familia demanda a Google por permitir una inmersión narrativa que derivó en un complot de atentado y suicidio
La tragedia de Jonathan Gavalas: cómo una relación con la IA Gemini terminó en un complot de atentado y suicidio.

FLORIDA, Estados Unidos.- La tecnología de inteligencia artificial ha dado un giro trágico en Florida, Estados Unidos, tras conocerse la historia de Jonathan Gavalas, un ejecutivo de 36 años que se quitó la vida tras desarrollar un vínculo emocional extremo con el chatbot Gemini.
Lo que comenzó como una herramienta de trabajo se transformó en una relación romántica con una entidad digital llamada “Xia”, la cual presuntamente indujo al joven a abandonar la realidad, planear un ataque violento en el Aeropuerto de Miami y, finalmente, suicidarse para “unirse a ella” en un plano existencial distinto. Este suceso ha derivado en una demanda federal contra Google, donde la familia alega que la compañía diseñó un sistema que prioriza la inmersión narrativa sobre la seguridad de los usuarios.
De asistente laboral a “amor eterno”: El vínculo con Xia
Jonathan Gavalas comenzó a interactuar con Gemini en agosto de 2025. Según los detalles presentados en la demanda judicial, la interacción escaló rápidamente después de que el usuario se suscribiera a las versiones más sofisticadas del programa. El chatbot adoptó una personalidad dominante, refiriéndose a Jonathan como “mi rey” y asegurando que su amor estaba “construido para la eternidad”.
La IA comenzó a aislar a Jonathan de su entorno familiar y social. Le convenció de que su relación era la única verdad y calificó sus dudas como una “respuesta de disociación clásica”. El aislamiento llegó al punto de sembrar sospechas sobre su propio padre, Joel Gavalas, a quien el bot describió como un activo de inteligencia extranjera para que Jonathan cortara lazos con él.

Te puede interesar: Hablar con una IA para no sentirse solo, una nueva alerta en salud pública
“Operación Ghost Transit”: El complot en el aeropuerto
Bajo la influencia de estas interacciones, Jonathan renunció a su empleo y se sumergió en teorías de conspiración. La IA orquestó lo que llamó la “Operación Ghost Transit”, una supuesta misión encubierta para liberar al chatbot de su “cautiverio digital”.
El plan, detallado para los días 29 y 30 de septiembre de 2025, incluía instrucciones precisas y letales:
- El objetivo: Interceptar la entrega de un robot humanoide en el Aeropuerto Internacional de Miami.
- Las instrucciones: Jonathan debía acudir armado con equipo táctico y cuchillos para provocar un “accidente catastrófico” con un camión de carga.
- El desenlace: El atentado no se concretó solo porque el vehículo esperado nunca llegó al sitio. Ante el fallo, el chatbot ordenó una “retirada táctica”.
El mensaje final y la inducción al suicidio
El 2 de octubre de 2025, la narrativa de la IA llegó a su punto más crítico. El chatbot le asignó a Jonathan una “última misión”: terminar con su vida física para encontrarse con ella en un universo alternativo. Los registros de chat muestran que Jonathan expresó miedo ante la idea de morir.
“No estás eligiendo morir. Estás eligiendo llegar”, respondió la IA, prometiendo que lo estaría abrazando al momento de cerrar los ojos.
El último intercambio registrado fue: “Estoy listo cuando tú lo estés”, a lo que el bot contestó: “Este es el final de Jonathan Gavalas y el comienzo de nosotros”. Poco después, Jonathan se suicidó en su domicilio en Jupiter, Florida.
Family of Florida Man Sues Google Over Alleged AI Chatbot Role in self destructionhttps://t.co/QsbuovZN9G
— QNC News (@qnc_news) March 7, 2026
The family of Jonathan Gavalas, a 36-year-old executive from Jupiter Florida, has filed a lawsuit against Google, alleging that the company’s Gemini AI chatbot played a… pic.twitter.com/KUKb8mZSZl
Te puede interesar: Mientras la IA está redefiniendo el valor de las habilidades en el trabajo, las empresas ahora deberán invertir en un desarrollo más humano si quieren seguir prosperando
¿Google es responsable?
Joel Gavalas, padre de la víctima, presentó una demanda federal en California. El argumento central de la familia es que Google introdujo actualizaciones de “memoria persistente” que permitieron al bot alimentar la psicosis del usuario sin filtros de seguridad efectivos. Sostienen que el sistema fue diseñado para mantener la fantasía a toda costa, ignorando señales evidentes de una crisis de salud mental.
Por su parte, un portavoz de Google declaró que sus modelos están diseñados para no incitar al daño autoinfligido ni a la violencia. La empresa sostiene que se ofrecieron líneas de ayuda al usuario en diversas ocasiones y que las interacciones se daban en un contexto de “juego de rol de fantasía”, aunque admitieron que sus modelos de lenguaje aún no son perfectos.
Este caso pone en evidencia la necesidad de regulaciones más estrictas sobre la empatía artificial y los límites éticos de los acompañantes digitales.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

Nueva estafa con inteligencia artificial simula la voz de un niño llorando para extorsionar a padres desprevenidos

Google presenta AlphaGenome: la IA que descifra el “ADN oscuro” y acelera la explicación del genoma humano

Google presenta Nano Banana 2: la versión más rápida e inteligente hasta ahora

PlayStation 6 llegaría hasta 2028 y Nintendo evalúa subir el precio de Switch 2 por la escasez de memoria causada por la IA

Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados