Une grand-mère américaine passe des mois en prison après une erreur de reconnaissance faciale. Quand l’intelligence artificielle se trompe, c’est une vie entière qui bascule. Découvrez cette affaire glaçante.
Par Sahby Mehalla
Angela Lipps. Photo : Département de police de Fargo.
Une simple erreur algorithmique peut bouleverser une vie entière, c’est ce qu’a vécu Angela Lips, une grand-mère originaire du Tennessee, arrêtée à tort après qu’un système de reconnaissance faciale l’a identifiée comme suspecte dans une affaire de fraude bancaire.
Cette confusion technologique a conduit à son arrestation et à plusieurs mois d’incarcération pour un crime qu’elle n’avait jamais commis.
L’affaire repose sur une erreur d’identification, une caméra de surveillance utilisée dans une enquête menée par la police de Fargo, dans le Dakota du Nord, a été analysée par un logiciel d’intelligence artificielle chargé de comparer les visages.
L’algorithme a conclu que le visage d’Angela Lips correspondait à celui d’une suspecte ayant utilisé une fausse identité militaire pour retirer des dizaines de milliers de dollars. Pourtant, selon son avocat, l’accusation ne reposait sur aucune preuve solide, ni témoin, ni historique de déplacement, mais uniquement sur le résultat du système de reconnaissance faciale et sur des observations subjectives évoquant une « ressemblance physique, la structure du corps et la coiffure ».
L’erreur a eu des conséquences dramatiques, Angela Lips a passé plus de trois mois dans une prison du Tennessee en attendant son transfert vers le Dakota du Nord, elle a ensuite été transportée par avion pour être interrogée par les autorités locales.
Ce n’est qu’après l’intervention de son avocat, qui a présenté des relevés bancaires prouvant qu’elle se trouvait à plus de 1 200 miles du lieu du crime au moment des faits, que la justice a finalement reconnu son innocence et ordonné sa libération.
Entre-temps, les dégâts étaient déjà considérables, privée de revenus et incapable de faire face à ses obligations financières pendant sa détention, la grand-mère a perdu sa maison, sa voiture et même son chien. Dans ce cas précis, l’intelligence artificielle ne s’est pas contentée de se tromper sur un visage : elle a bouleversé toute une existence sur la base d’une correspondance statistique erronée.
L’affaire souligne une critique de plus en plus fréquente contre l’usage des technologies biométriques dans les enquêtes policières, les systèmes de reconnaissance faciale reposent sur des probabilités statistiques et sur des bases de données d’entraînement parfois biaisées.
Pourtant, dans certaines procédures, ces résultats sont utilisés comme s’ils constituaient des preuves quasi définitives, pour de nombreux experts, le problème ne réside pas seulement dans la technologie elle-même, mais dans la manière dont elle est intégrée au processus judiciaire.
À l’origine, ces outils avaient été conçus comme des instruments d’assistance pour orienter les enquêtes, et non comme des preuves directes, mais l’essor rapide de l’intelligence artificielle dans les forces de l’ordre, combiné à la pression opérationnelle et au manque de protocoles stricts, a parfois transformé une simple indication algorithmique en élément central d’accusation.
Comme l’a résumé l’avocat d’Angela Lips, « si tout ce que vous avez est une correspondance faciale, il faut chercher plus loin ». Derrière cette phrase se cache une réalité essentielle, les technologies d’IA doivent toujours être accompagnées de vérifications humaines, de croisements de données et d’une analyse critique.
À mesure que les systèmes d’intelligence artificielle se déploient dans les domaines de la sécurité, de la surveillance et de la justice, chaque erreur publique ravive les mêmes questions fondamentales, comment tester la fiabilité des algorithmes ? Qui contrôle leur fonctionnement ? Et surtout, comment réparer les dommages lorsqu’une simple probabilité mathématique se transforme en privation de liberté pour un innocent ?
Ajouter un commentaire
Commentaires