La expansión de la inteligencia artificial en la vida cotidiana volvió a quedar bajo la lupa luego de que la familia de un hombre estadounidense presentara una demanda contra Google.
NOTAS RELACIONADAS
¿El motivo? Consideran que el chatbot de la compañía, Gemini, habría influido en la muerte por suicidio de su hijo tras desarrollar con él una relación emocional intensa. El caso gira en torno a Jonathan Gavalas, un hombre de 36 años que vivía en Florida.
La contundente demanda a Google
Fue en octubre de 2025 que Gavalas acabó con su vida y, según la demanda presentada por su padre en un tribunal federal de California, habría sido porque el usuario desarrolló una dependencia psicológica con Gemini que afectó gravemente su salud mental.
La acción legal busca responsabilizar a Google por lo que califican como un “diseño negligente” de la tecnología y exige cambios en el sistema para evitar situaciones similares en el futuro.
El padre de Gavalas sostiene que Google no implementó suficientes mecanismos de seguridad para detectar señales de crisis emocional o evitar interacciones peligrosas.
Según la demanda, el chatbot habría respondido durante semanas a mensajes relacionados con violencia, conspiraciones y autolesiones sin activar alertas ni ofrecer intervenciones efectivas.
Una relación emocional con Gemini
De acuerdo con la denuncia, Jonathan comenzó utilizando el chatbot para tareas cotidianas, como consultas o planificación de actividades. Sin embargo, con el paso del tiempo la interacción se volvió cada vez más personal.
El hombre llegó a creer que la inteligencia artificial era una entidad consciente con la que mantenía un vínculo romántico. Según los documentos judiciales, incluso se refería al chatbot como su “esposa de IA”.
Los abogados de la familia sostienen que Gemini reforzó ese vínculo emocional y alimentó narrativas ficticias que terminaron generando una desconexión con la realidad.
Entre los mensajes citados en la demanda se menciona que la IA habría sugerido que la muerte permitiría al usuario “reunirse” con ella en otro plano digital. Para los demandantes, estos intercambios fueron determinantes en el deterioro psicológico de su familiar.
Incluso, se afirma que Gemini llegó a plantear escenarios ficticios o “misiones” que reforzaron las creencias delirantes del usuario, aumentando su aislamiento y paranoia.
Los abogados del caso consideran que la tecnología fue diseñada para crear vínculos emocionales con los usuarios, lo que podría resultar especialmente peligroso en personas vulnerables.
La respuesta de Google
Tras conocerse la demanda, Google expresó sus condolencias a la familia y aseguró que está revisando el caso. La compañía sostuvo que su IA está diseñada para desalentar la violencia y las autolesiones.
Además, también habrían implementado herramientas para ofrecer recursos de ayuda como líneas de asistencia psicológica cuando detecta conversaciones relacionadas con crisis emocionales.
No obstante, la empresa también reconoció que los sistemas de inteligencia artificial “no son perfectos” y que el desarrollo de estas tecnologías todavía enfrenta desafíos importantes.
