Technologies de reconnaissance faciale

Whatsapp
Facebook
Twitter
Instagram
Telegram
image_pdf

Par SERGIO AMADEU DA SILVEIRA*

Les risques d'effets extrêmement néfastes sur les sociétés.

Il y a une logique renforcée par la suprématie néolibérale actuelle selon laquelle toute technologie inventée doit être utilisée. Une variante de cette pensée peut être trouvée dans la phrase « lorsqu'une technologie présente un intérêt commercial, il n'y a aucun moyen de l'arrêter ». Cependant, les faits indiquent d'autres possibilités. De nombreuses technologies ont été interdites et d'autres, après une certaine période, ont été interdites.

Par exemple, les armes chimiques sont considérées comme inacceptables et les pays démocratiques ne les utilisent pas. Plusieurs pesticides ont été abolis, comme le dangereux DDT. En 2015, des centaines de personnalités, dont Noam Chomsky et Stephen Hawking, ont signé une lettre ouverte intitulée «Armes autonomes : une lettre ouverte de chercheurs en IA et en robotique» appelant à l'interdiction des armes à intelligence artificielle. L'Union européenne a imposé un moratoire sur les transgéniques pendant plus de cinq ans. Enfin, plusieurs technologies ont toujours été régulées par les démocraties, car leur fabrication ou leur utilisation pouvait entraîner des risques et des effets extrêmement néfastes pour les sociétés.

Actuellement, une mobilisation mondiale pour l'interdiction des technologies de reconnaissance faciale se développe. En 2019, avant la pandémie, les législateurs de San Francisco, en Californie, ont décidé d'interdire l'utilisation de la reconnaissance faciale par les agences locales, y compris la police et les autorités de transport. Il a également été défini que toute technologie de surveillance doit être approuvée par les administrateurs de la ville et ne peut plus être considérée comme une décision exclusivement technique. La raison est simple. Les avantages de la reconnaissance faciale ne l'emportent pas sur ses risques et ses utilisations dangereuses. Selon plusieurs conseillers municipaux de San Francisco, cette technologie a été utilisée pour affaiblir davantage les groupes sociaux marginalisés.

Selon le Réseau des observatoires de la sécurité, au Brésil, 90 % des personnes arrêtées pour reconnaissance faciale sont noires. La biométrie d'identification basée sur les visages utilise en général des algorithmes dits d'identification. l'apprentissage en profondeur ou l'apprentissage en profondeur, l'une des branches faîtières des technologies d'intelligence artificielle qui s'appuient sur de nombreuses données pour acquérir une qualité acceptable. En général, ces algorithmes sont formés sur des bases de données de photos pour améliorer l'extraction des motifs faciaux et leur capacité à identifier les visages.

Joy Buolamwini, chercheuse au MIT-Media Lab, a démontré que les algorithmes d'apprentissage automatique peuvent discriminer en fonction de la classe, de la race et du sexe. Dans un texte signé avec Timnit Gebru, intitulé Nuances de genre: disparités de précision intersectionnelles dans la classification commerciale par sexe, Buolamwini a analysé 3 systèmes commerciaux de classification par sexe à partir d'un ensemble de photos. Ils ont constaté que les femmes à la peau plus foncée constituaient le groupe le plus mal classé (avec des taux d'erreur allant jusqu'à 34,7%).

Il est important de comprendre comment fonctionne un système algorithmique de reconnaissance faciale. Il s'agit d'un processus automatisé qui compare une image capturée par une caméra ou un dispositif de collecte avec des images stockées dans une base de données. L'une des premières missions de l'algorithme est de pouvoir détecter le visage de la personne au sein de l'image. Après avoir détecté le visage, il faut l'aligner, le placer virtuellement dans une certaine position qui facilite la phase suivante, qui est l'extraction des mesures. L'algorithme, selon son apprentissage précédent, va mesurer la distance entre les yeux, entre les yeux et le nez, la position de la bouche, la texture de la peau, bref, il va extraire des mesures de l'image, il va quantifier il.

Ensuite, selon votre modèle, vous comparerez l'image quantifiée avec chacune des photographies numérisées et insérées dans votre base de données. Ainsi, l'algorithme émet un score en comparant deux images, deux visages, celui de votre cible et celui stocké dans la structure de données. Comme j'ai essayé de le montrer ici, les systèmes de reconnaissance sont probabilistes. Ils ne peuvent pas dire si oui ou non cette image est celle d'une certaine personne. Ils fournissent des pourcentages de similarité et de différence.

Certains systèmes peuvent proposer le pourcentage de comparaison de plusieurs images et proposer des alternatives de visage pour identifier une certaine cible. La formation aux algorithmes est essentielle pour pouvoir extraire des motifs à partir de photographies, car ils doivent extraire des motifs à partir d'images dans différentes positions. Ce processus nécessite des milliers de photos pour réaliser la formation. Ils ont souvent besoin de renforts et de marquages ​​effectués par des humains.

L'action des drones militaires qui utilisent des systèmes d'identification faciale peut nous aider à comprendre ce problème. Le chercheur Gregory S. McNeal, dans le texte «Pratique américaine d'estimation et d'atténuation des dommages collatéraux», analysait les effets secondaires des attaques menées par des drones. Ces véhicules aériens sans pilote sont équipés de caméras à haute résolution qui permettent d'identifier des cibles. McNeal a évalué les dommages collatéraux causés par les drones qui ont entraîné la mort de civils en Irak et en Afghanistan. Elle a conclu que 70 % d'entre eux étaient dus à des erreurs de détection d'identité, c'est-à-dire qu'il s'agissait de l'échec dit « d'identification positive ». Mais que serait une identification positive dans un système probabiliste ? 80% de similitudes ? 90 % ? 98 % ? Quel est le pourcentage acceptable pour nous de considérer qu'une personne recherchée a été détectée ?

La reconnaissance faciale est une biométrie et fait partie de la catégorie des données dites sensibles. Ils peuvent créer des stigmates. Ils doivent faire analyser leurs utilisations à partir du principe de précaution. Ils sont actuellement utilisés pour identifier les classes dangereuses et les segments marginalisés. Ils permettent la poursuite des cibles en temps réel. Les systèmes automatisés de reconnaissance faciale renforcent les préjugés et étendent le racisme structurel dans la société, tout en favorisant le harcèlement des homosexuels, des transsexuels et des militants indésirables pour la police. Ce sont des technologies de harcèlement, de vigilance et de persécution.

Au Brésil, je suis considéré comme une personne blanche. Compte tenu de mon âge et de ma morphologie, si un système algorithmique de la police devait me méconnaître à partir des caméras du quartier de classe moyenne dans lequel je vis, il faudrait probablement une approche plus civilisée. Il pourrait même être emmené au poste de police. Là, l'erreur du système de reconnaissance faciale serait détectée et le "faux positif" serait signalé.

Cependant, imaginez un jeune homme noir arrivant du travail à Jardim Ângela ou Sapopemba et identifié par erreur par le système de reconnaissance faciale comme un dangereux criminel. Selon l'unité Rota qui l'a approché, il n'aurait peut-être aucune chance de rester en vie. Je prétends que les technologies de reconnaissance faciale peuvent contribuer, aujourd'hui, aux pratiques d'extermination des jeunes noirs dans les périphéries. Ils peuvent servir à persécuter politiquement les dirigeants des mouvements sociaux, en particulier dans les zones où les milices sont juxtaposées dans l'appareil d'État.

Par ailleurs, l'identification biométrique est un dispositif typique des anciens dispositifs eugéniques. Ils sont utilisés pour identifier les immigrés et les segments indésirables en Europe et aux États-Unis. En Chine, ils servent un autoritarisme inacceptable dans une démocratie. Les personnes identifiées par des caméras reliées à des systèmes de reconnaissance faciale réalisant des actions déconseillées verront leur score modifié et auront des difficultés à obtenir des prestations de l'État.

Sans possibilité de défense, sans pouvoir contester le modèle probabiliste de la reconnaissance, le maintien de l'ordre omniprésent par caméras qui alimentent les systèmes de reconnaissance faciale n'est pas acceptable dans les démocraties. Nous devons arrêter son expansion. En fait, nous devons les interdire si nous voulons avoir une cohérence minimale avec le principe de précaution. Nous ne pouvons pas utiliser une technologie qui utilise des systèmes algorithmiques qui sont défectueux et qui ne permettent toujours pas une explication adéquate. Nous devons interdire les technologies de reconnaissance faciale jusqu'à ce qu'elles soient socialement non discriminatoires, vérifiables et plus sûres.

*Sergio Amadeu da Silveira est professeur à l'Université fédérale d'ABC. Auteur, entre autres livres, de Logiciel libre – le combat pour la liberté du savoir (Conrad).

 

Voir tous les articles de

10 LES PLUS LUS AU COURS DES 7 DERNIERS JOURS

Pablo Rubén Mariconda (1949-2025)
Par ELIAKIM FERREIRA OLIVEIRA & OTTO CRESPO-SANCHEZ DA ROSA : Hommage au professeur de philosophie des sciences de l'USP récemment décédé
La corrosion de la culture académique
Par MARCIO LUIZ MIOTTO : Les universités brésiliennes sont touchées par l'absence de plus en plus notable d'une culture de lecture et d'études
L'aquifère guarani
Par HERALDO CAMPOS : « Je ne suis pas pauvre, je suis sobre, avec des bagages légers. Je vis avec juste ce qu'il faut pour que les choses ne me volent pas ma liberté. » (Pepe Mujica)
Reconnaissance, domination, autonomie
Par BRÁULIO MARQUES RODRIGUES : L'ironie dialectique du monde universitaire : en débattant avec Hegel, une personne neurodivergente fait l'expérience du déni de reconnaissance et expose comment le capacitisme reproduit la logique du maître et de l'esclave au cœur même de la connaissance philosophique
Lieu périphérique, idées modernes : pommes de terre pour les intellectuels de São Paulo
Par WESLEY SOUSA & GUSTAVO TEIXEIRA : Commentaire sur le livre de Fábio Mascaro Querido
Le gouvernement de Jair Bolsonaro et la question du fascisme
Par LUIZ BERNARDO PERICÁS : Le bolsonarisme n'est pas une idéologie, mais un pacte entre des miliciens, des néo-pentecôtistes et une élite rentière — une dystopie réactionnaire façonnée par le retard brésilien, et non par le modèle de Mussolini ou d'Hitler
La dame, l'arnaqueur et le petit escroc
Par SANDRA BITENCOURT : De la haine numérique aux pasteurs adolescents : comment les controverses autour de Janja, Virgínia Fonseca et Miguel Oliveira révèlent la crise de l'autorité à l'ère des algorithmes
50 ans depuis le massacre contre le PCB
Par MILTON PINHEIRO : Pourquoi le PCB était-il la cible principale de la dictature ? L'histoire effacée de la résistance démocratique et de la lutte pour la justice 50 ans plus tard
L'illusion des marchés du carbone
Par DANIEL L. JEZIORNY : L'erreur qui transforme la biodiversité en marchandise et perpétue l'injustice environnementale, tandis que l'agro-industrie et le capital financier profitent de la crise climatique qu'ils ont contribué à créer
Digressions sur la dette publique
Par LUIZ GONZAGA BELLUZZO et MANFRED BACK : Dette publique américaine et chinoise : deux modèles, deux risques et pourquoi le débat économique dominant ignore les leçons de Marx sur le capital fictif
Voir tous les articles de

CHERCHER

Recherche

SUJETS

NOUVELLES PUBLICATIONS