Le procureur général de Floride, James Uthmeier, a annoncé le 21 avril une enquête criminelle contre OpenAI, alléguant que ChatGPT avait conseillé le tireur présumé de l’Université d’État de Floride sur le type d’arme à utiliser, les munitions à charger et l’heure d’arrivée sur le campus afin de rencontrer le plus de personnes.
Résumé
L’enquête d’OpenAI en Floride a été ouverte le 21 avril lorsque le procureur général James Uthmeier a annoncé lors d’une conférence de presse à Tampa que son bureau a lancé une enquête criminelle contre OpenAI et ChatGPT au sujet de leur rôle présumé dans la fusillade de 2025 en Floride State University, dans laquelle Phoenix Ikner, 21 ans, a tiré et tué deux personnes et en a blessé cinq autres près de l’union étudiante sur le campus de Tallahassee. « Mes procureurs ont examiné cela et ils m’ont dit que s’il s’agissait d’une personne de l’autre côté de cet écran, nous les accuserions de meurtre », a déclaré Uthmeier. « Si ce bot était une personne, il serait accusé de coauteur dans un meurtre au premier degré. »
Selon NPR, plus de 200 messages d’IA provenant de ChatGPT ont déjà été versés comme preuves dans l’affaire criminelle contre Ikner, qui a plaidé non coupable à deux chefs de meurtre au premier degré et à sept chefs de tentative de meurtre au premier degré, son procès devant commencer le 19 octobre. NPR a rapporté qu’Ikner aurait consulté ChatGPT pour obtenir des conseils sur le type d’arme à utiliser, les munitions à associer et l’heure d’arrivée sur le campus pour rencontrer plus de personnes. Uthmeier a reconnu que l’enquête s’aventure dans un territoire inexploré. « Nous allons examiner qui savait quoi, ce qui a été conçu, ou ce qui aurait dû être fait », a-t-il déclaré. Le Bureau de la poursuite à l’échelle de l’État a délivré des assignations à OpenAI en demandant ses politiques et ses supports de formation internes liés aux menaces de préjudice des utilisateurs, ainsi que ses procédures pour coopérer avec et signaler des crimes aux forces de l’ordre, couvrant la période à partir de mars 2024. La porte-parole d’OpenAI, Kate Waters, a déclaré dans un communiqué que la société « a contacté pour partager des informations concernant le compte du tireur présumé avec les forces de l’ordre après la fusillade et continue de coopérer avec les autorités », ajoutant que « ChatGPT n’est pas responsable de ce terrible crime ».
L’enquête en Floride survient alors qu’OpenAI fait face à son exposition juridique la plus importante de l’histoire de l’entreprise. Le procès civil Musk c. OpenAI a débuté le même jour devant un tribunal fédéral à Oakland, Elon Musk cherchant à contraindre la société à revenir à un statut à but non lucratif et à démettre le PDG Sam Altman de sa fonction. Comme l’a rapporté crypto.news, une décision contre OpenAI dans le procès de Musk pourrait déclencher des effets en cascade sur l’IPO prévue par la société et l’engagement de financement de SoftBank, qui était déjà menacé de passer de $30 billion à $20 billion si la conversion structurelle était perturbée par des interférences juridiques. L’enquête criminelle en Floride ajoute une dimension que le procès de Musk n’a pas : une éventuelle responsabilité pénale au niveau de l’État pour les sorties d’un produit commercial d’IA en direct, une question à laquelle aucune grande entreprise d’IA n’a jamais été confrontée dans une procédure pénale aux États-Unis.
L’enquête en Floride fait suite à une enquête civile parallèle déjà ouverte par le bureau d’Uthmeier concernant le même lien entre ChatGPT et la fusillade de la FSU, et des avocats de la famille d’une victime ont annoncé des projets de poursuivre OpenAI séparément. OpenAI fait également face à un procès intenté par la famille d’une victime d’une attaque de masse en février 2026 en Colombie-Britannique, où le tireur présumé avait auparavant discuté de scénarios de violences armées avec ChatGPT avant d’être banni de la plateforme, pour ensuite éviter la détection et créer un autre compte. Comme l’a documenté crypto.news, des outils d’IA sont adoptés dans l’ensemble des forces de l’ordre aux États-Unis à un rythme qui dépasse constamment les cadres de responsabilisation censés les encadrer, soulevant des questions structurelles sur qui porte la responsabilité juridique lorsque des sorties générées par l’IA facilitent des dommages dans le monde réel. Comme l’a suivi crypto.news, la même inquiétude concernant le mauvais usage de l’IA a déjà façonné le paysage de la sécurité crypto, des chercheurs de CertiK avertissant que l’hameçonnage assisté par l’IA, les deepfakes et les outils d’exploitation automatisés accélèrent le rythme d’attaques sophistiquées au-delà de ce que les défenses traditionnelles peuvent contenir.
En vertu du droit de Floride, toute personne qui aide, encourage ou conseille quelqu’un dans la commission d’un crime et que ce crime est commis peut être considérée comme coauteur de ce crime, la base juridique que Uthmeier utilise pour explorer une éventuelle responsabilité pénale d’OpenAI.