Par FLAVIO AGUIAR*
Les chercheurs découvrent une utilisation répandue de l’IA parmi les groupes d’extrême droite et les organisations terroristes
Le 29 juillet, vers midi, dans la ville de Southport, au nord-ouest de l'Angleterre, un garçon de 17 ans a fait irruption dans une fête d'enfants dans une école de danse et de yoga, organisée par l'un de ses professeurs. Armé d'un couteau, le jeune homme a tué trois enfants âgés de six, sept et neuf ans, en a blessé huit autres et deux autres adultes qui tentaient de les protéger, dont l'enseignant qui avait organisé l'événement.
La police et les ambulances sont arrivées en quelques minutes. Arrêté sur le fait, le jeune homme a été identifié comme étant Axel Rudakubana, 17 ans, citoyen britannique, dont les parents étaient originaires du Rwanda, d'Afrique. Comme il était mineur, pour des raisons juridiques, la police n'a pas immédiatement révélé son identité.
Par la suite, de fausses spéculations ont commencé à circuler sur les réseaux sociaux.
En 24 heures, 27 millions de visites ont proliféré vers un message identifiant l'agresseur comme étant musulman (ce qui n'est pas vrai) et lui donnant un faux nom. D'autres messages l'identifiaient comme un réfugié illégal, arrivé en Angleterre par bateau et demandant l'asile. "Influenceurs» et un site Internet identifié comme Canal3Maintenant (qui s'excusera plus tard) a rapidement diffusé de tels messages. L'un d'eux "influenceurs» s'écria que « l'âme de l'homme occidental est déchirée lorsque les envahisseurs tuent ses filles ».
Un autre message – généré par l’intelligence artificielle – présenté sur la plateforme protège nos enfants.
Immédiatement, à Southport, selon la police, une foule, encouragée par des personnes qui ne vivent pas dans la ville, a commencé à attaquer une mosquée et à se battre avec la police. Les attaques contre des mosquées et des centres d'accueil pour réfugiés et immigrants se sont propagées dans plusieurs villes d'Angleterre, notamment les très populeuses Londres et Manchester.
L’affaire a attiré l’attention des chercheurs sur les relations entre les groupes extrémistes, notamment d’extrême droite, et l’utilisation de l’intelligence artificielle.
Chercheurs de Recherche sur les médias au Moyen-Orient, des États-Unis, a attiré l’attention sur son rapport qui recense des dizaines de cas similaires. Le rapport montre que ces groupes, utilisant des outils d’intelligence artificielle, enregistrent les voix et les images d’artistes, d’hommes politiques et d’autres personnalités. Ensuite, ils ont diffusé de faux messages comme s’il s’agissait des leurs, affirmant la suprématie blanche et attaquant les Noirs, les musulmans et les juifs.
Selon le chercheur du groupe NETLab, de l'Université fédérale de Rio de Janeiro, des groupes d'extrême droite diffusent des messages contenant des instructions allant jusqu'à illustrer la fabrication d'armes et d'explosifs, toujours en utilisant des outils d'intelligence artificielle. En Amérique latine, les cibles privilégiées de ces messages ont été le Mexique, la Colombie, l'Équateur et l'Argentine.
Les chercheurs sur le sujet attirent l’attention sur le fait que cette utilisation de l’intelligence artificielle est également répandue au sein d’organisations terroristes telles que l’État islamique et Al Qaïda.
En Angleterre, les attaques se sont atténuées après que de grandes manifestations antiracistes se soient déroulées dans les rues de dizaines de villes britanniques. Des enquêtes ont montré que 85 % de la population rejetait la violence. Cependant, 42 % des personnes interrogées reconnaissent la légitimité des manifestations ayant ces motivations, à condition qu'elles soient pacifiques.
* Flavio Aguiar, journaliste et écrivain, est professeur à la retraite de littérature brésilienne à l'USP. Auteur, entre autres livres, de Chroniques du monde à l'envers (Boitetemps) [https://amzn.to/48UDikx]
Initialement publié sur Radio França Internacional.