Impacts négatifs de l’utilisation des chatbots dans l’éducation

Whatsapp
Facebook
Twitter
Instagram
Telegram

Par ÉLÉONORA ALBANO*

La popularisation inconsidérée des chatbots pourrait mettre à mal les traditions éducatives qui reposent sur la pensée critique

Les attaques du capitalisme contre la pensée critique affectent directement l’avenir de l’université. Elles se produisent, au moins, depuis la financiarisation du trépied enseignement-recherche-vulgarisation – que les Big Tech ont récemment usurpé, s’établissant comme des « mécènes ».

Cet article se concentre sur la forme de mécénat qui rend disponibles sur Internet les robots dits conversationnels ou « chatbots ».

Technoscience attribue de l'intelligence à ces robots, affirmant qu'ils sont capables de préparer des cours à tout niveau et d'accélérer la recherche, d'automatiser les revues bibliographiques et de réduire le temps de collecte et de traitement des données.

Il est démontré ici que la pertinence de ces allégations dépend entièrement de la formation critique des utilisateurs de chatbots.

Il est essentiel que vous sachiez que ces personnes ne font que rééditer des « raisonnements » à haute fréquence sur Internet. Il faut aussi comprendre que cela se fait à travers une simulation simpliste de la machine de Turing – qui prédit le prochain symbole dans une séquence continue et exhaustivement interconnectée – qui en fait ne crée rien.

Ainsi, sa vulgarisation acritique et sans discernement risque de porter atteinte aux traditions éducatives dont l’efficacité repose sur des siècles d’exercice de la pensée critique.

Cet article traite des outils proposés par Big Tech aux étudiants et aux enseignants, en se concentrant sur l'attribution d'intelligence aux plus populaires d'entre eux, à savoir les grands modèles linguistiques (ci-après, GML, comme dans les LLM en anglais). grands modèles de langage, dont l’exemple le plus connu est ChatGPT). À cette fin, il reprend et développe les arguments contre de telles allégations. publié sur le site la terre est ronde en décembre 2023.

Les étapes à suivre sont au nombre de six.

Dans un premier temps, je discute, à la lumière des analyses des sciences sociales, des transformations incessantes du capitalisme depuis la financiarisation. Certains auteurs contemporains, comme par exemple Tsoukalis,[I] soutiennent que le terme néolibéralisme perd son sens, compte tenu de la multiplication des moyens actuels d’obtenir du profit.

Mon attention sera toutefois centrée sur le comportement, c’est-à-dire que je tenterai de comprendre l’inconfort, l’angoisse et l’insécurité provoqués par ce changement incessant du système de production.

Je procède ensuite à l’examen des conséquences néfastes de cette situation sur l’exercice de la critique, en pointant certaines menaces qui pèsent déjà sur elle.

Je continue de montrer comment l’appropriation sans restriction du contenu Internet par les Big Tech leur a ouvert la voie pour s’établir comme mécènes de l’éducation, promettant d’équiper les enseignants, les étudiants et les chercheurs d’une variété d’outils.

Ensuite, j’analyse le plus important d’entre eux, à savoir la technologie linguistique des assistants personnels (comme Alexa d’Amazon ou Copilot de Microsoft). Tout d’abord, je montre que simuler le ton poli et discret d’une secrétaire standard suscite toutes sortes de fantasmes sur les capacités cognitives – et même socio-affectives – des machines à écrire/lire (ou des locuteurs/auditeurs).[Ii]). Je vais maintenant montrer comment de tels fantasmes affectent et déstabilisent la vie quotidienne des personnes et des institutions concernées.

Le premier fantasme est celui de la sensibilité de la machine, c’est-à-dire la croyance en sa capacité à éprouver des sensations et des sentiments, ainsi qu’à en prendre conscience.

Un autre roman fantastique ressuscite le mythe antique des oracles de pierre, considérés dans l'Antiquité comme animés, sensibles et intelligents. Sa version actuelle prétend que l’émulation du raisonnement humain par la machine permet d’atteindre une homologie parfaite. Je démontrerai la fausseté de cette présomption en expliquant étape par étape l’architecture comportementaliste, basée sur le conditionnement opérant, des GML derrière les chatbots.

Ce qui suit est une démonstration que les « nouvelles » significations créées par les robots linguistiques ne sont pas en fait nouvelles, car elles se fondent exclusivement sur des analogies que l’on peut trouver, grâce à des fonctions statistiques sophistiquées, dans le gigantesque corpus constitué par Internet.

La critique, parce qu’elle exige l’exercice constant du doute, ne rentre pas dans cette limite. Le fait que la rapidité et l’efficacité des moteurs de recherche permettent à la machine de donner des réponses acceptables, très bonnes, voire excellentes, ne lui permet pas pour autant de poser de bonnes questions. Les questions restent donc de la seule responsabilité de l'utilisateur.

Enfin, je souligne quelques pièges de ces outils qui peuvent désorienter les utilisateurs qui souhaitent les utiliser pour accélérer et mécaniser des tâches académiques telles que la préparation des cours, la révision de textes et l’organisation des données de recherche.

Je conclus donc qu’il s’agit de ressources très utiles – mais seulement pour ceux qui savent les soumettre à un examen critique rigoureux.

Les transformations vertigineuses du capitalisme

Depuis la financiarisation, le capitalisme crée de nouvelles façons d’obtenir du profit qui vont bien au-delà de l’exploitation des travailleurs. Avec l'avènement et la popularisation d'Internet, les consommateurs ont commencé à travailler gratuitement pour les propriétaires de plateformes, car, lorsqu'ils les utilisent, ils créent automatiquement un profil de leurs relations sociales et de leurs habitudes de consommation, à vendre, sans leur consentement, aux annonceurs intéressés. Comme l’a souligné Shoshana Zuboff,[Iii] Cette surveillance continue viole la vie privée des utilisateurs et est, en fait, au service d’un puissant système de surveillance.

Aujourd’hui, ce commerce de données ne se limite plus aux clics des internautes. Il existe des entreprises qui, n'ayant pas les ressources pour créer et maintenir des espaces sur Internet, stockent leurs bases de données dans les clouds contrôlés par les Big Techs. Ce changement radical, qui a détruit les marchés en les transférant vers ce qu’on appelle le « cloud computing », est justement appelé « technoféodalisme » par Yanis Varoufakis.[Iv]

Le technoféodalisme exploite les consommateurs et les capitalistes en exploitant une armée de travailleurs précaires et externalisés qui classent et étiquettent les données dans une structure hiérarchique rendue possible uniquement par des machines gigantesques.

Il s’agit d’une main-d’œuvre hautement qualifiée et spécialisée. Certains sont des scientifiques exacts qui collaborent à la production de la structure algorithmique du réseau. D’autres sont des scientifiques naturels et humains qui scrutent le contenu publié et produisent une grille de classification complexe et hiérarchique pour guider non seulement les moteurs de recherche, mais aussi les grands modèles linguistiques – dont les applications, en expansion continue, séduisent et contrôlent de plus en plus les utilisateurs.

La penseuse féministe Nancy Fraser[V] a inventé le terme de « capitalisme cannibale » pour désigner cette forme de prestation de services, qui touche un nombre toujours croissant d’individus et d’institutions. De manière congruente, le journaliste et analyste politique Raul Zibechi[Vi] Il a proposé le terme de « capitalisme mafieux » pour le cas où cette gorge vorace aurait des liens avec la corruption, le trafic de drogue et le crime organisé en général.

Réfléchissons maintenant aux effets de l’abus de ce pouvoir anonyme sur notre esprit et notre corps. Les corps fatigués de l’utilisation incessante des écrans, des claviers et des souris tournent leur esprit vers des connexions virtuelles complètement dépourvues des stimuli vocaux, gestuels et tactiles qui donnent cohésion et cohérence à la coexistence physique. Poussés par cette routine, ils finissent par naturaliser l’inéluctable privation de contact socio-affectif.

Chez ceux qui vivent de ces activités, on observe encore un désenchantement face à la précarité du marché du travail et une inquiétude quant au nombre d’heures nécessaires pour gagner un revenu de base. Le résultat est la multiplication des cas de stress chronique – pour lesquels la psychiatrie, sans reconnaître la complexité du phénomène, propose le terme de « burn-out », en les traitant par médicaments.

Dans ce scénario, la soi-disant « société de la connaissance » serait mieux dite dans l’autre sens, c’est-à-dire « société de l’ignorance ». Au lieu de favoriser les Lumières promises par ses prétentions éclairés, il inonde souvent le public de connaissances spécialisées qu’il fabrique, diffuse et dissipe au gré de la mode. L’explosion du vocabulaire qui en résulte contribue à une confusion encore plus grande.

D’autres menaces pour la santé mentale de la population résident dans la propagande trompeuse incessante sur les avantages de la richesse, du luxe et de l’ostentation. Dernièrement, les personnes à très faibles revenus ont risqué le peu qu’elles avaient dans l’engouement pour les paris en ligne. L’immersion dans la mécanique disruptive et répétitive des réseaux sociaux les prive du raisonnement le plus élémentaire et de l’empathie la plus simple envers les autres. Petit à petit, la brutalité s’empare des esprits et des cœurs avec une force imparable.

Le déclin de la critique

L’image ci-dessus n’est certainement pas la cause, mais la conséquence de l’engourdissement progressif de la critique. La cause est plus lointaine : elle réside dans des décennies d’attaques, ouvertes ou secrètes, menées par des versions successives du capitalisme contre les institutions qui protègent la pensée critique.

En une cinquantaine d’années, la financiarisation dictée par le néolibéralisme a fragilisé l’éducation publique partout dans le monde.[Vii] Les écoles de tous les niveaux ont dû rechercher des partenariats et/ou des parrainages pour éviter de facturer des frais de scolarité – ou du moins pour maintenir leurs valeurs viables. Ceux qui ont réussi à préserver l’offre pédagogique gratuite ont multiplié le nombre de cours de perfectionnement et de spécialisation payants et ont élargi la gamme d’activités parascolaires également rémunérées.

Les gouvernements contribuent à payer très mal les enseignants, les obligeant à accepter plusieurs emplois pour survivre. Cela compromet non seulement votre forme physique, mais également votre dévouement à l’entraînement continu.

En revanche, les écoles privées vendent aux familles de belles promesses, qu’il s’agisse de professionnalisation et d’insertion sur le marché du travail, ou de formation encyclopédique et/ou multidisciplinaire qui prépare à un monde en constante évolution. Le but de l’apprentissage n’est pas, en général, de réfléchir sur la réalité mais d’agir en conséquence.

Dernier bastion de la pensée critique, l'université publique pallie son sous-financement en ouvrant la voie à la privatisation. Les études postuniversitaires et la spécialisation fusionnent de plus en plus et la recherche fondamentale cède la place à une recherche appliquée sur mesure.

Naturaliser cette situation revient à nier que la liberté de pensée doit être indépendante de tout parrainage privé. Dans une démocratie, il est nécessaire de préserver l’autonomie des chercheurs. Ainsi, les travaux sur les problématiques soulevées par la trajectoire de chaque champ de connaissance doivent être financés par des sources publiques.

La privatisation à la marge a rendu les écoles – même publiques – vulnérables aux critères d’efficacité du monde des affaires. Cela les conduit souvent à faire appel à des sociétés de gestion d’actifs pour contrôler leurs actifs physiques et symboliques afin d’« optimiser » leur utilisation, leur performance et leur valeur. Parmi les actifs gérés figurent les données de tous les acteurs impliqués. Et c’est ainsi que l’éducation s’enfonce, sans méfiance, dans l’une des pratiques les plus agressives du capitalisme actuel. L’hypothèse est que tout bien physique ou informationnel est vendable et peut donc être utilisé pour générer des profits.

Le mythe ancien du robot intelligent

Bien avant les automates qui divertissaient la royauté et l’aristocratie européennes au siècle des Lumières, il existait déjà des légendes sur des machines intelligentes, capables d’obéir à leurs maîtres. Dans le OdysséeHomère raconte que le dieu de la métallurgie et de l'artisanat, Héphaïstos, et ses serviteurs en or utilisaient des soufflets pour effectuer des tâches mécaniques répétitives. Il mentionne également que les Phéniciens avaient des navires qui obéissaient aux ordres de leurs capitaines et se déplaçaient à la vitesse de la pensée pour éviter les dangers de la navigation.

Les personnages artificiels, les animaux et les êtres mythiques sont restés populaires tout au long de l’Antiquité, du Moyen Âge et de l’époque moderne. Ces créatures en verre, en argile ou en métal étaient généralement considérées comme des esclaves ou des serviteurs, voués à satisfaire les besoins les plus divers, y compris sexuels.

Ce n’était pas une simple imagination : les Hellènes possédaient une technologie mécanique avancée, qui permettait la construction d’automates actionnés par des ressorts, des cordes et/ou des leviers. Cet art a été partiellement préservé dans l'Europe médiévale et s'est répandu dans le monde entier, atteignant d'abord l'Islam puis se déplaçant vers l'Est.

Les cultures orientales ont également conçu des automates gardiens, chargés de palais ou de reliquaires, comme celui de Bouddha.

Ces mécanismes constituaient de puissants instruments de contrôle social. Ils cherchaient à susciter à la fois fascination et peur. Dans le même temps, les poupées courtisanes, support physique des fantasmes masturbatoires, alimentaient la croyance en une supposée « âme » des machines.

De tels fantasmes ont également été popularisés par la littérature. Par exemple, dans les voyages de GulliverJonathan Swift décrit l’Engine, une machine qui constituait « un projet d’amélioration des connaissances spéculatives par des opérations pratiques et mécaniques ». En le louant à des prix modiques, « toute personne ignorante, avec un minimum d’éducation et sans mentor », ne pouvait que mobiliser son bras « pour écrire des livres de philosophie, de poésie, de politique, de droit, de mathématiques et de théologie ».

L'effet Eliza banalisé

La découverte selon laquelle les humains transfèrent facilement l'affection aux machines a été faite par Joseph Weizenbaum[Viii], un juif allemand dont la famille a émigré en Amérique au début de la montée du nazisme. Le traumatisme de la persécution et les difficultés d’adaptation au nouvel environnement n’ont pas inhibé son talent exceptionnel pour les mathématiques et l’informatique. Malgré le manque de soutien de sa famille, il a eu une brillante carrière académique, qui l'a conduit à occuper un poste de professeur au MIT.

Il est connu comme l'un des pères de l'intelligence artificielle, bien qu'il ait rejeté ce surnom, car il croyait que les machines ne sont capables que de calculer, pas de raisonner.

Après l’avoir aidé à surmonter des traumatismes passés, la psychanalyse a eu une influence décisive sur sa carrière. Parallèlement, son adhésion au socialisme l’a conduit à explorer la possibilité de démocratiser la psychothérapie par des moyens numériques. À cette fin, il a étudié les courants disponibles et mis au point une expérience audacieuse avec le plus simple à émuler informatiquement, à savoir : le Rogerien, nommé en l'honneur de son inventeur, le psychologue américain Carl Rogers.

Il s’agit d’une psychothérapie non directive, que Carl Rogers définit comme « centrée sur la personne ». Il s'agit essentiellement d'insérer la déclaration du patient dans des phrases telles que « vous m'avez dit que… », suivies d'autres clichés vagues mais encourageants, tels que : « Et comment pouvons-nous gérer cela ? Il s’agit en substance d’un pari sur le pouvoir thérapeutique du lâcher prise.

Bien qu'il ait été conçu par Joseph Weizenbaum comme un outil de recherche sur la faisabilité d'un robot conversationnel, Eliza est rapidement devenu un succès public surprenant, qui a fini par affecter la conception de l'étude. La raison est que les participants ont affirmé que leurs conversations avec la machine étaient privées et ont refusé de partager leur contenu avec le chercheur.

De toute évidence, Joseph Weizenbaum était convaincu qu’Eliza ne pouvait pas être vive ou intelligente. Il a alors compris que l’attachement des participants au thérapeute numérique était une forme de transfert, au sens psychanalytique.

Il s'avère que, dans les années 1960-70, le lobby de ceux qui s'intéressaient à l'informatisation et à l'automatisation de la société était déjà fort aux États-Unis et suscitait l'implication émotionnelle des utilisateurs envers les machines. Joseph Weizenbaum s'opposa à cette campagne en écrivant des livres et des articles dans lesquels il examinait la différence entre le raisonnement humain et le calcul symbolique.

Mais il a rapidement récolté les fruits amers d’un rejet violent, mené par ses propres collègues du MIT, en particulier John McCarthy, aujourd’hui considéré comme le père de l’intelligence artificielle. Le terme a en fait été inventé par lui comme un stratagème marketing pour attirer des fonds du ministère américain de la Défense pour un symposium qu'il a organisé en Dartmouth College en 1956. De toute évidence, l’armée était enchantée par la promesse tacite de la surveillance numérique.

Le malaise était si grand que Joseph Weizenbaum préféra retourner en Allemagne et continuer à travailler avec ses interlocuteurs là-bas – tous jeunes, critiques et enthousiastes.

Cependant, à cette époque, la puissance économique américaine se tournait de plus en plus vers Internet comme moyen de contrôle et de manipulation des comportements. Il a ainsi utilisé tous les espaces disponibles pour populariser l’idée que les ordinateurs étaient capables de penser. Les défaites infligées successivement par des robots joueurs à des champions du monde d’échecs de renom ont été déterminantes pour le succès de cette propagande.

L’avènement des GML a donc été la goutte d’eau qui a fait déborder le vase et qui a permis à l’effet Eliza de submerger Internet, encourageant les utilisateurs à s’attacher à leurs ordinateurs personnels. Ses performances conversationnelles sont si bonnes qu’elles conduisent le profane à identifier son résultat avec le langage naturel. Il est difficile pour la plupart des gens de croire qu’il s’agit simplement d’un calcul logico-symbolique qui n’a rien à voir avec la structure et la fonction des langues humaines.

Voyons ci-dessous comment fonctionne cette tromperie.

La mécanique behavioriste des grands modèles de langage

L’énorme capacité de concaténation de mots affichée par les grands modèles linguistiques comporte trois composantes : (i) l’appropriation de l’intégralité du contenu d’Internet par les Big Techs ; (ii) l’avènement d’un type de réseau neuronal récurrent capable de calculer plusieurs associations entre mots en temps réel – le soi-disant transformateurs, c'est-à-dire des transformateurs ; et (iii) l’effort incessant d’organisation de légions de travailleurs précaires mais hautement qualifiés issus de divers domaines du savoir.

Il faut noter que les langues humaines naturelles contiennent des discontinuités syntaxiques importantes, par exemple dans les propositions relatives. Une phrase comme « La grenouille qui a mangé l’insecte est morte » parle de la mort de la grenouille, pas de l’insecte. Cela se produit également en morphologie, dans des verbes comme « enraizar », qui sont formés en ajoutant un préfixe et un suffixe à la racine.

Le fonctionnement des grands modèles linguistiques est cependant purement linéaire, c'est-à-dire qu'il consiste toujours à prédire le mot suivant. Comment alors ces discontinuités sont-elles traitées ? La réponse est simple : grâce à un calcul sophistiqué de probabilités. Le transformateur obtient en temps réel les probabilités de cooccurrence entre les paires de mots de l'ensemble de la base de données Internet, choisit le meilleur pari et passe à autre chose.

Il convient donc de se demander comment des opérations aussi simples peuvent composer des séquences qui ont du sens pour le lecteur.

C'est juste que la simplicité n'est qu'apparente. Les probabilités de cooccurrence ne sont pas calculées uniquement pour le vocabulaire. Le corpus est annoté à plusieurs niveaux d’analyse, qui incluent des informations syntaxiques, sémantiques et même pragmatiques. Une fonction d’optimisation sélectionne l’ensemble des paires ayant la plus grande chance d’intégrer de manière cohérente tous ces aspects.

Les annotateurs linguistiques étiquettent les propriétés structurelles du texte : les règles de conjonction et de disjonction – c'est-à-dire la syntaxe – ; significations de base et associatives – c’est-à-dire sémantique – ; et la référence au texte lui-même et/ou au contexte, comme dans le cas des pronoms personnels et des adverbes de lieu et de temps – en d’autres termes, la pragmatique.

Les annotateurs d’autres sciences humaines et sociales ajoutent plusieurs couches de contenu et de balises stylistiques. De même, les annotateurs des sciences naturelles et exactes ajoutent du contenu balisé provenant de leurs domaines. Finalement, des informaticiens familiers des transformateurs introduisent dans le feedforward du réseau la hiérarchie des niveaux d’analyse qui en résulte.

Il est essentiel de noter que le fonctionnement des transformateurs est comparable à la forme la plus radicale du behaviorisme, le conditionnement opérant.[Ix]. Les combinaisons ayant la plus grande probabilité de succès sont renforcées, devenant plus probables à chaque fois qu’elles sont sélectionnées – ce qui renforce les autres connexions impliquées et affecte la sélection de la paire suivante. Cette procédure génère de nouveaux exemples de paires de la même classe, contribuant ainsi à augmenter leur fréquence dans le réseau.

Il ne fait aucun doute qu’il s’agit d’une excellente méthode de simulation informatique du langage naturel. Cependant, confondre le résultat du transformateur avec des énoncés naturels, c’est attribuer aux humains un esprit qui fonctionne par une succession d’associations continuellement quantifiées et recalculées.

D'ailleurs, dans les années 1930-40, Burrhus F. Skinner, le père du conditionnement opérant, a répondu aux accusations de fascisme de ses collègues en affirmant que sa méthode de contrôle du comportement avait pour seul objectif de former de meilleurs citoyens. La discussion a atteint le New York Times, où, en fait, une version en ligne d'un rapport de 1972 du journaliste Robert Reinhold est disponible[X] à propos d'un symposium tenu à Yale, au cours duquel les idées skinneriennes ont été condamnées par la majorité de la communauté universitaire de psychologie.

Skinner a échoué dans ses projets éducatifs, mais a été sauvé par Big Tech pour rapprocher les humains des machines. Aujourd’hui, malheureusement, l’utilisation indiscriminée de l’algorithme qui implémente le conditionnement opérant affecte déjà le comportement des utilisateurs. Les gens imitent de plus en plus les chatbots, abusant des clichés. De même, ils acceptent sans esprit critique les clichés qu’ils reçoivent en réponse aux questions qui leur sont posées.

En bref, les transformateurs ne produisent pas de nouvelles connaissances, car ils ne peuvent rien faire de plus qu’imiter, avec un pastiche, la forme superficielle du raisonnement simple. Par conséquent, ils ne fonctionnent comme moteurs de recherche que lorsque l’objectif est de compiler des informations provenant de sources Internet fiables sur un sujet donné. Comme vous le savez, certains sites rares sont modérés et/ou organisés par des experts.

D’un autre côté, les grandes entreprises technologiques ne s’intéressent plus aujourd’hui qu’à l’embauche de preneurs de notes, et non de modérateurs. Tout ce qui sort d’un transformateur est réinjecté dans le corpus d’entrée. Récemment, les quelques humains qui filtraient et rejetaient les réponses inexactes ou fausses des chatbots ont été licenciés par X et Meta. Microsoft maintient toujours certains filtres, mais ne révèle pas les détails de leur fonctionnement. Alors que la modération devient de plus en plus faible et opaque, les erreurs factuelles s’accumulent – ​​et le Web se retrouve inondé d’inexactitudes, de mensonges et de contradictions.

De plus, les questions et commentaires des utilisateurs, aussi naïfs, sectaires ou offensants puissent-ils paraître, sont automatiquement intégrés à la base de données, ce qui en fait une source inépuisable de biais potentiellement dangereux. Le vrai cède la place au faux ou cohabite avec lui, étant donné le manque d’indices pour les distinguer.

De cette façon, le ton cordial et didactique des chatbots séduit et embrouille l’utilisateur, et mine progressivement sa capacité à reconnaître les facteurs impliqués dans la question elle-même et à évaluer ou à douter de la réponse. Il est facile de se familiariser avec un mécanisme qui fournit des réponses immédiates et apparemment simples, car elles sont faciles à répéter.

Cette facilité a cependant un côté téméraire. Joseph Weizembaum aurait certainement été déprimé s'il avait été parmi nous en 2023, lorsqu'un père de famille belge a protesté contre l'effondrement environnemental en se suicidant avec le soutien d'une version d'Eliza implémentée par Eleuther AI basée sur Chat GPT. Selon sa femme, il avait utilisé le chatbot pour traiter une dépression.

Un équilibre dangereux : le transfert de responsabilité vers les utilisateurs

Revenons maintenant à la question de la qualité de vie des enseignants surmenés, qui sont pourtant majoritaires, y compris dans l’enseignement supérieur.

À l’université, les chatbots envahissent l’administration, entraînant des réductions conséquentes dans le service public en face à face. Des expériences de personnalisation de robots à des fins académiques sont également en cours. Même dans ce cas, où le contenu est soumis à des filtres, la modération n'est pas satisfaisante, en raison de l'architecture feedforward des transformateurs.

Ainsi, les services de recherche, de compilation et d’organisation de textes mis à disposition par les Big Tech aux travailleurs de l’enseignement de base et supérieur ne font qu’accroître leur confusion et leur malaise.

Les documents compilés à partir de ces ressources ont tendance à contaminer l’enseignement avec des évidences et de la désinformation, car ils n’encouragent pas la réflexion, mais seulement une reproduction non critique. Le plagiat, déjà si répandu sur Internet, prend désormais une nouvelle forme : le pastiche aveugle, indiscriminé, sans critères de sélection.

À une époque où les livres imprimés sont sur le point de disparaître, les chatbots menacent de mettre fin à une tradition éducative dont les racines remontent à l’Antiquité.

Quel avenir pour les fondements anciens de la pensée critique ? Nous ne le saurons qu’en identifiant et en analysant soigneusement les effets – en particulier les moins transparents – des technologies linguistiques sur tous les secteurs de la société qui ont un impact sur l’éducation formelle et informelle. Pour ceux qui étudient cet horizon obscur, il reste encore une myriade de questions à éclaircir.

* Eleonora Albano, professeur retraité de l'Institut d'études linguistiques de l'Unicamp, est psychologue, linguiste, essayiste ; coordonné le premier projet brésilien sur la technologie vocale.

notes


[I] Ici.

[Ii] Comme je l'ai montré dans le premier article cité, il est possible de donner des voix personnalisées aux assistants 

[Iii] Sophie Larouche. Autre grand sujet : le capitalisme de surveillance et les perspectives d’une civilisation de l’information. Journal des technologies de l'information, 30, 75-89, 2015.

[Iv] Yanis Varoufakis. Technoféodalisme : qu’est-ce qui rend le capitalisme si spécial ? Londres : Vintage Books, 2023.

[V] Nancy Fraser.Le capitalisme cannibale. São Paulo : autonomie littéraire, 2024.

[Vi] Ici.

[Vii] J'ai analysé cette situation dans article publié sur le site la terre est ronde.

[Viii] Joseph Weizembaum. Puissance informatique et raison humaine : du jugement au calcul. New York : WF Freeman & Co, 1976.

[Ix] Skinner, BF (1938). Le comportement des organismes : une analyse expérimentale. New York : Appleton-Century-Crofts.

[X] Regardez ici.


la terre est ronde il y a merci à nos lecteurs et sympathisants.
Aidez-nous à faire perdurer cette idée.
CONTRIBUER

Voir tous les articles de

10 LES PLUS LUS AU COURS DES 7 DERNIERS JOURS

Voir tous les articles de

CHERCHER

Recherche

SUJETS

NOUVELLES PUBLICATIONS