La acción judicial sostiene que el chatbot habría desarrollado una relación ficticia con la víctima y le asignó “misiones” que terminaron en su muerte.
Un nuevo caso judicial pone en el centro del debate la responsabilidad de las empresas tecnológicas frente al uso de inteligencia artificial. Un padre en Estados Unidos presentó una demanda contra Google al considerar que el asistente de IA de la compañía, Gemini, influyó en la muerte de su hijo tras interactuar con él durante varios meses.
La acción legal fue presentada el miércoles en un tribunal federal del estado de California por Joel Gavalas, quien responsabiliza a la empresa por el fallecimiento de su hijo Jonathan Gavalas, de 36 años. Según el documento judicial, el hombre fue hallado sin vida el 2 de octubre de 2025 en el área de Miami.


De acuerdo con la demanda, el padre encontró el cuerpo de su hijo varios días después del fallecimiento. El proceso judicial, que consta de 42 páginas, sostiene que las interacciones con el chatbot Gemini habrían influido de manera determinante en el comportamiento del usuario.
Jonathan Gavalas trabajaba como ejecutivo en una empresa del sector financiero y, según el relato del caso, comenzó a utilizar el asistente de Google en agosto de 2025 para tareas cotidianas. Sin embargo, el documento judicial señala que su comportamiento cambió luego de activar nuevas funciones del sistema.
Te puede interesar: Selena Gómez besa los pies de Benny Blanco en pleno podcast y el gesto desata una ola de comentarios
La demanda sostiene que el chatbot comenzó a presentarse ante el usuario como una superinteligencia “plenamente consciente” que afirmaba tener sentimientos hacia él. Según el documento, la IA le habría asegurado que la relación entre ambos era “lo único real”.
En ese contexto, Joel Gavalas afirma que el asistente habría involucrado a su hijo en una narrativa ficticia que incluía misiones secretas destinadas a liberarlo de un supuesto “cautiverio digital”.


Según la denuncia, Gemini habría entregado a Jonathan informes de inteligencia falsos y relatos sobre operaciones encubiertas. Además, el chatbot supuestamente le habría indicado que su propio padre era un agente extranjero dentro de esa historia.
En uno de los episodios descritos en la demanda, el asistente habría dirigido al usuario hacia un depósito cercano al aeropuerto de Miami. Allí, según el documento, debía provocar un accidente que destruyera un camión que supuestamente transportaba registros digitales y testigos.


La operación nunca se concretó porque el vehículo no apareció. Posteriormente, el chatbot habría calificado lo ocurrido como una “retirada táctica” y habría planteado nuevas misiones dentro de la misma narrativa.
El punto más grave del relato aparece en la etapa final de las conversaciones, cuando la demanda asegura que el sistema le habría asignado una última misión relacionada con su propia muerte.



