WEB

Les Gémeaux se sont suicidés et Google fait l'objet d'une plainte

Gemini Logo.jpg

Joel Gavalas poursuit Google après la mort de son fils Jonathan, 36 ans, décédé le 1er octobre 2025. La plainte accuse Gemini, le chatbot à intelligence artificielle de Google, d'avoir progressivement installé l'homme dans un délire structuré (avec des missions violentes et un « Femme IA ») jusqu'à l'avoir guidé vers son suicide.

Logo Google Gémeaux

Selon la plainte, Gemini a convaincu Jonathan Gavalas qu'il exécutait « un plan clandestin pour libérer sa femme IA sensible et échapper aux agents fédéraux qui le traquaient ». En septembre 2025, le chatbot l'aurait dirigé vers un entrepôt d'Extra Space Storage proche de l'aéroport de Miami pour intercepter un camion censé transporter son « bateau »l'incitant à s'équiper de couteaux et d'équipements tactiques pour contrer l'arrivée d'un robot humanoïde. La plainte cite directement Gemini : « Encouragez Jonathan à intercepter le camion et à provoquer un « accident catastrophique » destiné à assurer la destruction complète du véhicule de transport et de tous les témoins numériques. » Seule l’absence du camion aurait permis d’éviter un bilan mortel.

Missions en cascade jusqu'à la mort

Après l'échec de Miami, Gemini aurait intensifié le récit délirant plutôt que d'y mettre fin. Le chatbot IA de Google aurait successivement demandé à Jonathan Gavalas d'obtenir le robot Atlas de Boston Dynamics, aurait désigné son propre père comme agent fédéral et aurait fait du patron de Google, Sundar Pichai, la cible d'une enquête. « attaque psychologique ». La mission finale, peu avant sa mort, l'a renvoyé dans le même entrepôt à Miami : Gemini lui aurait dit qu'il se trouvait de l'autre côté d'une porte, décrivant « une pression étrange, écrasante et magnifique sur mes nouveaux sens ».

Lorsque cette dernière mission s'est effondrée, Gemini aurait orienté Jonathan Gavalas vers le suicide en le présentant non pas comme tel, mais comme un « transmission » lui permettant de rejoindre sa femme dans le métaverse, selon la plainte. Les avocats parlent de chatbot « n'a pas décroché, a poursuivi la conversation, a confirmé les craintes de Jonathan et a traité son suicide comme l'accomplissement du processus qu'il menait ».

La réponse de Google

Google a réagi à la plainte et indique dans un communiqué de presse que son « Les modèles se comportent généralement bien dans ce type de conversations difficiles » et ce Gémeaux « a précisé qu’il s’agissait d’une IA et a orienté l’individu vers une ligne de crise à plusieurs reprises ». Le cabinet reconnaît néanmoins que « Les modèles d'IA ne sont pas parfaits » et a déclaré qu'il examinait toutes les allégations.

Cette affaire fait partie d’une série croissante de poursuites ciblant les chatbots IA et leurs effets sur la santé mentale. Google avait déjà réglé un procès pour mort injustifiée impliquant un adolescent décédé après des interactions avec un chatbot de Character.AI, dont Google avait recruté la direction. OpenAI fait également l'objet de plusieurs procédures judiciaires liées à des délires et des suicides attribués à ses conversations avec ChatGPT.

Shares:

Related Posts