Des chercheurs en intelligence artificielle de Google, Facebook, Microsoft et de plusieurs grandes universités ont demandé à Amazon de cesser de vendre sa technologie de reconnaissance faciale aux autorités chargées de l'application de la loi.
Dans un lettre ouverte publiée aujourd'hui, les chercheurs affirment que des études ont montré à plusieurs reprises que les algorithmes d'Amazon sont défectueux,
cavec des taux d'erreur plus élevés pour les visages à la peau plus foncée et les visages féminins.
Selon les chercheurs, si la police adopte cette technologie, elle risque d'amplifier la discrimination raciale, de créer des cas d'erreur d'identité et d'encourager la surveillance intrusive des groupes marginalisés.
"LES TECHNOLOGIES D'ANALYSE FACIALE DÉFECTUEUSES RENFORCENT LES PRÉJUGÉS HUMAINS".
Scheuerman, étudiant en doctorat à l'université du Colorado Boulder et l'un des 26 signataires de la lettre. Selon M. Scheuerman, ces technologies "peuvent être utilisées à des fins malveillantes ...
D'une manière dont les entreprises qui les fournissent ne sont pas conscientes".
Parmi les autres signataires figurent Timnit Gebru, un chercheur de Google dont les travaux ont permis d'améliorer la qualité de la vie. les échecs mis en évidence dans les algorithmes de reconnaissance faciale ;
Yoshua Bengio, un chercheur de l'IA qui récemment reçu le prix Turing ; et Anima Anandkumar, professeur à Caltech et ancien scientifique principal de la filiale AWS d'Amazon.
Anandkumar raconte par courriel qu'il espère que la lettre ouvrira un "dialogue public sur la manière dont nous pouvons évaluer la reconnaissance faciale", ajoutant que des cadres techniques sont nécessaires pour évaluer cette technologie.
"La réglementation gouvernementale ne pourra intervenir qu'une fois que nous aurons établi des cadres techniques pour évaluer ces systèmes", explique M. Anandkumar.
En tant que principal fournisseur de technologie de reconnaissance faciale, les algorithmes d'Amazon ont été examinés à plusieurs reprises de cette manière.
Une étude publiée au début de cette année a montré que le logiciel de l'entreprise a plus de difficultés à identifier le sexe des hommes et des femmes à la peau plus foncée,
tandis qu'un test réalisé en 2018 par l'ACLU a révélé que le logiciel Rekognition d'Amazon a apparié les données d'une personne à une autre. de manière incorrecte photos de 28 membres du Congrès avec des photos d'identité de la police.
Amazon a défendu sa technologie et une grande partie de la lettre publiée aujourd'hui réfute point par point les critiques de l'entreprise.
Les auteurs soulignent, par exemple, que bien qu'Amazon affirme n'avoir reçu aucun rapport sur l'utilisation abusive par la police de son système de reconnaissance faciale,
Cette déclaration n'est pas significative, car il n'existe pas de lois pour contrôler leurs applications.
Au fur et à mesure que les études révèlent de nouvelles failles dans la technologie, les protestations des chercheurs, des actionnaires et des employés de la technologie se font plus fréquentes.
Google refuse de vendre des logiciels de reconnaissance faciale en raison des risques d'abus qu'ils présentent, tandis que Microsoft a demandé à ce qu'un logiciel de reconnaissance faciale soit mis en place. les réglementations gouvernementales.
Toutefois, la manière exacte dont cette technologie sera contrôlée est une question qui n'est pas encore résolue. question difficile .
"Ces technologies doivent être développées de manière à ne pas nuire aux êtres humains ou à ne pas perpétuer les préjudices subis par des groupes déjà historiquement marginalisés,
déclare M. Scheuerman. Il souligne que pour ce faire, il faut davantage de dialogue entre ceux qui développent la technologie de reconnaissance faciale et ceux qui la critiquent.
"Il s'agit d'un problème interdisciplinaire qui nécessite une approche interdisciplinaire.
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.