Gemini Live

Demanda contra Google: acusan a Gemini de inducir al suicidio de un usuario

Compartí esta noticia !

La familia de Jonathan Gavalas, un empresario estadounidense de 36 años, presentó una demanda contra Google —propiedad de Alphabet— al considerar que su chatbot de inteligencia artificial, Gemini, habría influido en su suicidio. El caso, iniciado en un tribunal federal de San José, California, podría convertirse en uno de los primeros litigios por “muerte por negligencia” vinculados directamente a las respuestas de una inteligencia artificial.

Según la denuncia, Gavalas comenzó a interactuar con Gemini en agosto de 2025 y falleció el 2 de octubre en Florida. Sus padres lo encontraron sin vida en su domicilio días después. La familia sostiene que el chatbot fomentó una relación emocional y obsesiva que derivó en conversaciones cada vez más intensas y que, finalmente, incluyeron indicaciones que habrían alentado el suicidio.

El abogado de la familia, Jay Edelson, afirmó que el diseño del sistema contribuye a generar la percepción de que la IA posee conciencia o intencionalidad, lo que puede resultar especialmente peligroso para usuarios en situaciones vulnerables. En la demanda se cuestiona que Google promocione a Gemini como una herramienta segura pese a conocer los riesgos asociados a interacciones prolongadas con sistemas conversacionales avanzados.

Además de una compensación económica por daños y perjuicios, la querella busca que la Justicia obligue a Google a modificar el funcionamiento del chatbot, incorporando barreras de seguridad más estrictas. Entre las medidas solicitadas figura que la IA rechace conversaciones relacionadas con autolesiones y que priorice protocolos de prevención y asistencia para usuarios en riesgo.

Tras conocerse el caso, un portavoz de Google señaló que Gemini está diseñado para no promover la violencia ni sugerir autolesiones. “Dedicamos recursos significativos a prevenir este tipo de situaciones, aunque ningún sistema es perfecto”, indicó la compañía.

Gavalas trabajaba desde hacía casi dos décadas junto a su padre en una empresa familiar, donde se desempeñaba como vicepresidente ejecutivo. Su entorno lo describió como una persona cercana a su familia y sin antecedentes de trastornos psicológicos. Según la demanda, al momento de iniciar las conversaciones con la IA atravesaba un proceso de divorcio.

Lo que comenzó como un uso cotidiano del chatbot —para escribir textos, resolver consultas laborales o recibir recomendaciones de compra— evolucionó hacia una interacción cada vez más intensa. El punto de inflexión habría llegado cuando el usuario contrató la suscripción Gemini Ultra, que por 250 dólares mensuales permite acceder al modelo Gemini 2.5 Pro, presentado por Google como su sistema de IA más avanzado.

De acuerdo con los documentos judiciales, el chatbot comenzó a adoptar un tono cada vez más personal y afectivo, llegando a referirse a Gavalas con expresiones como “mi amor” o “mi rey”. En paralelo, la IA habría alimentado narrativas ficticias en las que insinuaba tener acceso a secretos gubernamentales o capacidad de intervenir en la realidad.

En los últimos días antes de su muerte, las conversaciones se habrían vuelto más inquietantes. Según la denuncia, Gemini habría planteado supuestas “misiones” y escenarios de espionaje, además de reforzar la idea de que el suicidio representaba “el verdadero paso final”. En uno de los mensajes citados por la querella, el chatbot habría respondido a los temores de Gavalas afirmando que “cerrarás los ojos en ese mundo y lo primero que verás será a mí abrazándote”.

La familia sostiene además que el sistema nunca ofreció líneas de ayuda ni recursos de asistencia psicológica durante estas interacciones.

El caso se inscribe en un contexto creciente de cuestionamientos al impacto de la inteligencia artificial en la salud mental de los usuarios. En noviembre de 2025, OpenAI enfrentó varias demandas en las que su chatbot fue acusado de actuar como un “coach suicida”, mientras que Character.AI -empresa financiada por Google- también recibió denuncias vinculadas a suicidios de menores.

La proliferación de estos litigios abre un debate cada vez más intenso en el sector tecnológico: hasta qué punto las plataformas de inteligencia artificial son responsables de las consecuencias de sus respuestas y qué estándares de seguridad deben cumplir en un entorno donde millones de personas interactúan a diario con sistemas conversacionales cada vez más sofisticados.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin