Par TARCISIO PERES*
Avec l’avènement du « meilleur des mondes » de l’IA, le déficit linguistique est bien plus grave et urgent que la souffrance mathématique.
1.
Au début des années 2000, l’arrivée des moteurs de recherche comme Google a profondément transformé notre façon de rechercher des informations. Auparavant, trouver un contenu fiable impliquait de longues recherches dans des livres, des bibliothèques et des collections physiques, dépendait d’une connaissance préalable des annuaires de sites Web ou nécessitait l’achat d’encyclopédies sur CD-ROM. L’adoption d’algorithmes de classement, tels que PageRank, a permis d’obtenir des résultats plus pertinents en quelques secondes seulement, libérant les utilisateurs de processus chronophages et ouvrant la voie à un accès plus rapide et plus direct à une multitude de sujets.
La croissance du haut débit et la plus grande capillarisation des réseaux ont également contribué à cette démocratisation du savoir, car elles ont réduit drastiquement les coûts d’accès à Internet et élargi la portée des moteurs de recherche. Ainsi, l’habitude de « se rendre à la bibliothèque » ou de s’appuyer sur des collections physiques a cédé la place à une simple recherche en ligne, de plus en plus accessible même dans des régions auparavant exclues de l’univers numérique. Ce phénomène a accéléré la diffusion d’une variété de contenus – des explications sur des sujets scolaires aux articles scientifiques de pointe – et a rendu le processus d’apprentissage beaucoup plus dynamique et agile pour les étudiants, les professionnels et les curieux de tous les domaines.
Ces dernières années, la monétisation croissante de ces outils a toutefois modifié le scénario de l’accès complet à l’information. De nombreux moteurs de recherche ont commencé à donner la priorité aux publicités et aux liens sponsorisés, obligeant les utilisateurs à parcourir plusieurs pages avant d'atteindre les résultats organiques qui répondent réellement à leurs questions. Ce mouvement commercial affecte la neutralité et la fonction pédagogique du moteur de recherche, car il privilégie le profit à la connaissance directe, ce qui fait que la promesse initiale de démocratisation est partiellement éclipsée par l’intérêt économique.
Entre-temps, la diffusion de l’intelligence artificielle générative a favorisé un phénomène historique particulier, en sauvant, grâce à la technologie, deux idées initialement proposées au XIXe siècle par Francis Galton. Connu pour ses études pionnières en génétique et en anthropométrie, Francis Galton a créé le concept de « régression vers la moyenne » lorsqu’il a remarqué, par exemple, que les enfants de parents très grands avaient souvent une taille plus proche de la moyenne de la population, plutôt que de maintenir la taille exceptionnelle de leurs parents. Ce phénomène illustre que les caractéristiques extrêmes ont naturellement tendance à revenir à des niveaux intermédiaires à mesure que les générations passent.
L’eugénisme fait référence à un ensemble d’idées et de pratiques visant à « améliorer » les caractéristiques génétiques des populations humaines par la sélection et l’exclusion de certains groupes ou individus. Apparu officiellement avec les travaux de Francis Galton, l'eugénisme a gagné en force dans différents pays au début du XXe siècle, notamment par le biais de politiques de stérilisation forcée, de lois d'immigration restrictives et d'autres mesures discriminatoires.
Ces pratiques, justifiées sous prétexte d’améliorer la « qualité » de la population, ont entraîné de graves violations des droits de l’homme et ont tragiquement influencé les régimes totalitaires, comme le nazisme, qui ont poussé ces idées à l’extrême avec des programmes d’extermination de masse. Actuellement, l’eugénisme est largement condamné par la communauté scientifique et la société en général, tant d’un point de vue éthique que scientifique, reconnaissant les dangers et les injustices inhérents à toute tentative de manipuler la diversité génétique humaine de manière coercitive. Francis Galton est devenu célèbre pour avoir défendu les idées eugéniques, affirmant que la population humaine pouvait être artificiellement améliorée en sélectionnant les individus les plus aptes.
Aujourd’hui, bien que de manière moins évidente et plus subtile, il est possible de percevoir un processus analogue dans le fonctionnement et l’utilisation de l’intelligence artificielle générative. Cette technologie fonctionne grâce à une interaction directe avec les utilisateurs, produisant des résultats (textes, réponses ou connaissances) basés sur des instructions initiales, appelées invites. Il s'agit des commandes ou des questions posées par les utilisateurs au logiciel d'intelligence artificielle (généralement un chat). Voici un détail technique fondamental : la qualité des réponses obtenues dépend directement de la clarté, de la précision, de la complexité et de la portée de ces commandes initiales.
2.
Lorsque des individus ayant peu de succès dans les constructions et les articulations linguistiques et une érudition limitée – comme par exemple les analphabètes fonctionnels – utilisent des chats avec intelligence artificielle, ils ont tendance à formuler des invites plus vagues, imprécises ou simplifiées. Étant donné que l’intelligence artificielle a besoin d’informations claires pour générer des réponses qualifiées, ces invites mal structurées donnent lieu à des réponses superficielles et limitées qui explorent rarement la richesse potentielle des connaissances stockées dans la base de données du système.
Dans ces cas, l’intelligence artificielle renvoie à l’utilisateur un résultat moyen, un peu meilleur que ce que l’utilisateur obtiendrait seul, mais restreint et sans grande profondeur. Cette dynamique s'apparente à l'idée de régression vers la moyenne formulée par Francis Galton : les utilisateurs qui sont bien en dessous de la moyenne finissent par améliorer légèrement leur répertoire, mais restent bloqués à un niveau intermédiaire. Ce lieu moyen, limite ou médiocre, nous rappelle le « Mediocristan » défini par Nassim Taleb.
De plus, l’intelligence artificielle, lorsqu’elle tente de reproduire les intentions et les préférences de l’utilisateur, peut générer des réponses incorrectes ou inexactes, même si elle dispose d’une vaste collection de données fiables. Les invites saturées d’hypothèses erronées, de biais ou d’ambiguïtés conduisent le système à reproduire de telles distorsions, car le but ultime est de satisfaire la demande formulée, même si cela donne lieu à un contenu médiocre ou factuellement discutable. Dans ce processus, la technologie renforce les erreurs possibles et consolide les croyances erronées, limitant la profondeur des informations produites et rendant irréalisable le rôle éducatif attendu d’un outil de grande portée.
Par exemple, un utilisateur qui se base sur des prémisses erronées et écrit quelque chose comme « C’est Dom Pedro II qui a découvert le Brésil en 1500, n’est-ce pas ? » peut inciter l’intelligence artificielle à produire une réponse qui corrobore cette information historiquement erronée, car la formulation de l’invite conduit le système à valider la question au lieu de la corriger de manière incisive. Même si l'intelligence artificielle a accès à des documents fiables indiquant Pedro Álvares Cabral comme responsable de l'arrivée des Portugais en 1500, la construction ambiguë de la demande peut aboutir à un texte final qui répète ou adoucit la distorsion initiale, soulignant comment l'outil reflète les lacunes et les idées fausses de l'utilisateur. Dans ce cas, l’acronyme AI peut être remplacé par « Automated Idiot ». «Merde dedans, merde dehors», criaient les enthousiastes technocrates de service.
En revanche, les utilisateurs qui disposent déjà d’un bon bagage culturel, d’une bonne maîtrise de la langue et de capacités argumentatives sont capables de formuler des questions plus précises, détaillées et intellectuellement sophistiquées. Par exemple, alors qu’un utilisateur ayant une faible maîtrise de la langue pourrait demander à l’intelligence artificielle quelque chose comme « qui a découvert le Brésil ? », un utilisateur plus préparé culturellement pourrait formuler une question plus riche et plus contextualisée, comme « de quelle manière le processus de colonisation portugaise a-t-il influencé la formation culturelle et sociale du Brésil contemporain ? ».
Cette deuxième invite génère des réponses plus complètes, détaillées et pertinentes, car elle fournit à l'IA des indications claires sur le niveau de profondeur souhaité. Ces utilisateurs reçoivent ainsi un contenu plus riche et plus élaboré, capable d’élargir encore davantage leur répertoire intellectuel. Ils se trouvent donc dans une position privilégiée ou « Extremistan » en opposition au Médiocristan taliban. Il existe même un nouveau marché pour les « ventes rapides » des plus fortunés aux moins fortunés.
De cette façon, ce qui se passe, c’est que les utilisateurs qui sont déjà culturellement privilégiés sont en mesure d’accroître encore leurs avantages, tandis que ceux qui sont confrontés à des difficultés antérieures n’obtiennent que des améliorations marginales, ou même intensifient leurs déficiences dans le pire des cas. Cette logique illustre parfaitement ce qu’on appelle « l’effet Matthieu », tiré de Gospel d'après Matthieu, selon lequel « à celui qui a, on donnera davantage, et il sera dans l'abondance ; tandis qu'à celui qui n'a pas, on ôtera même le peu qu'il a ». Appliqué au contexte de l’intelligence artificielle, les utilisateurs culturellement préparés accumulent encore plus de connaissances et approfondissent leurs compétences, tandis que les utilisateurs culturellement fragiles progressent peu et restent bloqués aux niveaux de base ou intermédiaires.
3.
Quand on évoque les résultats des élèves brésiliens au Programme international pour le suivi des acquis des élèves (PISA), c’est déjà un cliché de souligner leurs faibles performances en mathématiques. Il ne faut cependant pas oublier qu’en lecture, la performance moyenne des élèves brésiliens était de 410 points, inférieure à la moyenne de l’OCDE de 476 points (données de la dernière édition, en 2022). La moitié des élèves brésiliens n’atteignent pas le niveau de base de compétence en lecture, alors que dans les pays de l’OCDE, ce pourcentage est de 26 %. Comme nous le soulignerons ici, avec l’avènement du « meilleur des mondes » de l’IA, le déficit linguistique est bien plus grave et urgent que la souffrance mathématique.
L’idée selon laquelle la maîtrise du langage précède et conditionne d’autres domaines de la connaissance humaine n’est pas une innovation récente, ayant été largement débattue et soutenue par différents penseurs tout au long de l’histoire de la philosophie. Parmi les auteurs classiques qui défendent cette primauté, se distingue Aristote, pour qui le langage était la base fondamentale de la logique et, par conséquent, de toute pensée rationnelle. Il a soutenu qu’une compréhension rigoureuse des mots et leur application correcte constituaient le fondement indispensable de toute recherche intellectuelle ultérieure.
Cette perspective a été renforcée et réinterprétée plus tard au Moyen Âge, notamment par des auteurs scolastiques tels que Thomas d’Aquin. Pour Thomas d’Aquin, la maîtrise de la langue était considérée comme une étape essentielle vers la connaissance de la vérité, puisque le raisonnement philosophique et théologique dépendait de la clarté conceptuelle et linguistique. Sans maîtrise du discours et définitions précises, la pensée serait piégée dans la confusion terminologique et les ambiguïtés conceptuelles. Dans la scolastique médiévale, la dialectique – l’art de la discussion et de l’argumentation basé sur le langage – était considérée comme une priorité, précédant le développement des disciplines mathématiques ou scientifiques, car elle garantissait le fondement logique et la solidité nécessaire à toute connaissance.
À l’époque moderne, cette primauté du langage a été reprise par des auteurs comme Wilhelm von Humboldt, qui a souligné le rôle crucial du langage dans la construction de la réalité humaine. Humboldt croyait que le langage façonne la pensée et la perception de la réalité, déterminant la manière dont un individu comprend et interagit avec le monde. Cette idée anticipait les approches philosophiques et épistémologiques ultérieures, qui souligneraient l’importance des structures linguistiques dans la formation des formes de pensée humaine.
Au XXe siècle, Ludwig Wittgenstein a encore consolidé ce point de vue en affirmant que les limites du langage représentent les limites mêmes du monde intelligible. Wittgenstein a soutenu que de nombreux problèmes philosophiques découlaient de confusions linguistiques, indiquant que la clarté conceptuelle était une condition pour résoudre les dilemmes fondamentaux dans divers domaines de la connaissance. De cette manière, il apparaît clairement que l’idée selon laquelle le langage précède les autres connaissances et définit l’horizon intellectuel des individus a des racines historiques profondes, consolidées par différentes traditions philosophiques bien avant son appropriation contemporaine.
Dans ce sens, une situation paradoxale se crée : une technologie souvent considérée comme capable de démocratiser la connaissance finit par fonctionner comme un outil qui creuse les inégalités. Sans besoin de coercition ou d’intervention explicite, l’intelligence artificielle générative effectue une sélection cognitive et culturelle indirecte, similaire aux idéaux originaux défendus par Francis Galton, en privilégiant les individus déjà favorisés socialement par la qualité supérieure des commandes initiales qu’ils sont capables de formuler.
*Tarcísio Peres Il est professeur de sciences aux Écoles Technologiques de l'État de São Paulo. Auteur, entre autres livres, de Profiter des requins : les pièges boursiers et comment les utiliser à votre avantage (Editeur Novatec) [https://amzn.to/3TKlVwU]
Références
AGENCE BRÉSIL. Moins de 50 % des étudiants connaissent les bases des mathématiques et des sciences. 2023. Disponible ici.
Aristote. Organon : catégories, interprétation, première analyse, deuxième analyse, sujets, réfutations sophistiques. Traduction et notes par Edson Bini. Paris : Gallimard, 2016.
Thomas d'AQUIN, Thomas d'AQUIN. Somme théologique. Traduction par Alexandre Corrêa. Paris : Gallimard, 2016.
SAINTE BIBLE. Édition pastorale. Matthieu 1990:13.
GALTON, François. Régression vers la médiocrité dans la stature héréditaire. Journal de l'Institut anthropologique de Grande-Bretagne et d'Irlande, Londres, v. 15, p. 246-263, 1886.
GALTON, François. Enquêtes sur les facultés humaines et leur développement. Londres : Macmillan, 1883.
HUMBOLDT, W. von; HUMBOLDT, A. von. À propos des inconvénients de la parole humaine : et de leur influence sur la compréhension positive de la parole humaine. Berlin : Imprimerie de l'Académie royale des sciences, 1836.
TALEB, Nassim Nicolas. Logique du cygne noir : l'impact de l'improbable. New York : Best-seller, 2008.
WITTGENSTEIN, Louis. Tractatus Logico-Philosophicus. Traduction de Luiz Henrique Lopes dos Santos. New York : Oxford University Press, 3.
la terre est ronde il y a merci à nos lecteurs et sympathisants.
Aidez-nous à faire perdurer cette idée.
CONTRIBUER