Par GUILHERME PRÉGER*
L'utilisation des chatbots en langage naturel aura tendance à s'intensifier et à acquérir des connotations de plus en plus ludiques
Le très célèbre Chat-GPT de l'entreprise Ouvrir AI et d'autres chatbots à la pointe de la technologie sont capables de passer le test de Turing ? La compréhension de ce test permettra d'éviter les erreurs liées à l'adoption de ces nouveaux outils technologiques.
Le test de Turing, l'une des expériences de pensée les plus célèbres du XXe siècle, a été proposé dans un article de 1950 du mathématicien Alan Turing appelé Machines informatiques et intelligence.[I] En cela, le mathématicien commence son argumentation en essayant de répondre si les machines peuvent penser («La machine peut-elle penser ?”). Cependant, d'entrée de jeu, Alan Turing admet que cette question est mal définie en raison de l'imprécision à la fois du terme « machine » et du verbe « penser ». Ainsi, au lieu de présenter une réponse à la question, il propose une expérience mentale sous la forme d'un « jeu d'imitation » (jeu d'imitation). Autrement dit : le jeu est une procédure heuristique pour répondre à la question proposée.
Le jeu commence alors par une étape préliminaire au cours de laquelle un homme A et une femme B sont soumis à des questions d'un interrogateur C (qui peut être de l'un ou l'autre sexe). L'interrogateur C doit être dans une position où il ne peut voir ni A ni B. Il doit émettre des questions dactylographiées et recevoir des réponses de la même manière. Les questions doivent être quotidiennes et simples et à partir des réponses, l'interrogateur doit essayer de deviner le sexe du répondant. Il aura raison parfois et tort parfois. Alors le mathématicien demande : et si on remplaçait le répondant A par une machine ? Dans ce cas, l'interrogateur C ne doit plus faire la distinction entre les réponses masculines et féminines, mais entre les réponses humaines et machines. Dans ce cas, C maintiendra-t-il le niveau d'erreur de la situation précédente ? Ces questions, selon Alan Turing, remplacent la question initiale de savoir si une machine peut penser.
L'important dans cette expérience est que le mathématicien ne propose pas de réponse à la question philosophique, mais la déplace vers un autre problème "similaire" qui "imite" la question d'origine, mais dans un contexte dans lequel on peut y répondre si on y répond par une machine assez puissante (pas encore disponible à l'époque). Dans le même article, Alan Turing note que le modèle d'une "machine de Turing" (c'est-à-dire le modèle abstrait et formel d'un ordinateur numérique contemporain) pourrait être un participant candidat au test, remplaçant A ou B, de manière interchangeable, s'il avait suffisamment de mémoire et la capacité de traitement.
La description du scénario du jeu est assez simple et rapide, mais dans la suite de l'article Alan Turing propose de répondre à une série d'objections (9 au total) à la faisabilité ou à la vraisemblance du test. Je n'ai pas l'intention ici de résumer ces objections,[Ii] mais il est d'abord intéressant de noter son éventuel biais sexiste : ce que l'étape préliminaire (sans la machine) vise précisément à éliminer, c'est la probabilité d'un biais sexiste accentué. S'il y avait un préjugé sexuel prononcé, premièrement, l'interrogateur raterait un peu ses paris (c'est-à-dire qu'il finirait par détecter ce préjugé); d'autre part, le test deviendrait plus complexe, puisqu'il faudrait discerner entre une « intelligence féminine » et une « intelligence masculine ». Fait intéressant, lorsque la machine "entre" dans le jeu, Turing propose initialement de remplacer le répondant masculin (A), comme si, en fait, c'était la femme (B) qui était celle qui "simulait" plus parfaitement un langage humain universel. .[Iii]. Autrement dit : pour que le test soit efficace, il faut supposer un langage humain universel.
Enfin, après avoir répondu aux objections, Alan Turing termine son article par quelques réflexions fondamentales, qui résonnent avec la problématique actuelle des chatbots en langage naturel. La première est que la faisabilité du test est une question purement de programmation, c'est-à-dire qu'il s'agit simplement de trouver une machine de Turing (un ordinateur numérique) avec un programme approprié pour participer au test. Le mathématicien suppose même que d'ici la fin du XXe siècle, cela deviendrait possible. UN
La deuxième réflexion est qu'il avance l'hypothèse qu'une machine qualifiée pour participer au test serait de type « learning machine » (machine d'apprentissage). Et pose alors une autre question :Au lieu d'essayer de produire un programme pour simuler l'esprit d'un adulte, pourquoi ne pas plutôt essayer d'en produire un qui simule l'esprit de l'enfant ??" (« Au lieu de chercher un programme pour simuler l'esprit d'un adulte, pourquoi ne pas en produire un qui imite l'esprit d'un enfant ? »). Le mathématicien considère même que le rôle de l'interrogateur de test serait une imitation de la fonction de la sélection naturelle dans le développement cognitif de l'espèce. En d'autres termes, une machine ayant l'intention de passer le test de Turing devrait être telle qu'elle devrait développer un « apprentissage automatique » puis être soumise à des tests successifs de raffinement (amélioration) de votre programmation.
Et c'est à partir de ce moment que nous revenons à Chat-GPT. Nous avons observé que les chatbots avec une réactivité sémantique suivent les "Language Wide Models" (grands modèles linguistiques – LLM). Ce sont des modèles de langage qui utilisent des réseaux de neurones pour traiter le langage naturel (NLP-Natural Language Processor). GPT à son tour est un transformateur génératif préformé (Transformateur pré-formé génératif). Il est génératif car il présente des «capacités émergentes» dues aux caractéristiques non linéaires des réseaux de neurones, qui ne sont pas prévisibles. Transformateur (transformateur) est une technique de « deep learning » (l'apprentissage en profondeur).
À cet égard, l'intuition d'Alan Turing s'est avérée d'une grande portée lorsqu'il a prédit qu'un programme capable de passer le test de Turing devrait avoir une capacité d'apprentissage. Or, pour Turing, l'apprentissage doit être supervisé, alors que ces nouveaux modèles d'Intelligence Artificielle (IA) sont capables d'auto-apprentissage ou d'apprentissage auto-supervisé. Face à un nombre énorme de paramètres (de l'ordre de milliards), le LLM développe la capacité à répondre aux questions (requêtes) écrit en instructions par le langage naturel, permettant le résultat impressionnant voire étonnant auquel nous assistons.
Cet étonnement vient du fait que les chatbots créés par LLM semblent effectivement passer avec succès le test de Turing. Quiconque a testé la version GPT-4 de Ouvrir AI est confronté à la possibilité de « dialoguer » avec le logiciel comme s'il était en présence d'un interlocuteur. En d'autres termes, le logiciel simule avec une grande vraisemblance la cognition d'un interlocuteur humain en reproduisant son langage naturel.[Iv] Certaines des objections auxquelles Turing répond dans son article sont pertinentes à cet effet. L'un d'eux a été appelé par Turing "l'objection de Lady Lovelace[V]» : que l'ordinateur (qu'elle appelait un « moteur analytique ») manque d'originalité, car il ne suit que des instructions préprogrammées, c'est-à-dire qu'il n'est pas capable de produire quoi que ce soit de nouveau. "Il n'est pas capable de nous surprendre", reformule Turing, qui réfute cependant cette position, affirmant que les ordinateurs peuvent provoquer la surprise, car nous ne sommes pas en mesure d'anticiper toutes les conséquences de l'algorithme, même lorsqu'ils sont programmés de manière beaucoup plus détaillée. façon plus simple qu'un LLM. Dans le cas de Chat-GPT et similaires, l'effet de surprise est contenu dans le terme "génératif" et dans le fait que, en répondant à la même question à des moments différents, le logiciel nous donne des réponses complètement différentes.
Et ce n'est pas seulement à cause des effets non linéaires du réseau neuronal intégré dans sa programmation, mais parce que sa propre base de données (Internet www complètement) change à tout moment et le logiciel lui-même "apprend" de nouvelles informations à chaque requête ou même lorsqu'il n'y a pas de requête, car il n'a pas besoin d'un "maître" puisqu'il "s'auto-éduque".
L'intelligence artificielle par LLM parvient à nous surprendre, car elle est capable de sélectionner un cadre sémantique correct pour une question donnée posée en langage naturel (le langage humain par excellence). Il surpasse la plupart des algorithmes capables de sélectionner des alternatives dans un même ensemble. Lors de la sélection des cadres, le chatbot LLM peut sélectionner des ensembles d'alternatives simulant quelque chose dont l'intelligence humaine est capable. Mais en même temps, lors de la sélection de vos cadres (cadres), le chatbot révèle aussi plus clairement les biais sémantiques. Car, lors du choix d'un cadre, cela pose immédiatement la question : pourquoi avez-vous choisi celui-ci et pas un autre ?[Vi]?
Et ce qui rend la question encore plus difficile, c'est le fait que l'évidence des biais rend le logiciel encore plus « humain », car, notamment dans les réseaux sociaux numériques, on observe toujours la présence de préjugés, de positions idéologiques, de biais de confirmation les plus assortis.[Vii] Précisément parce qu'il nous donne une réponse « non neutre » sur un sujet donné, cela semble plus « crédible » et susceptible d'être confondu avec la réponse d'un interlocuteur humain « moyen ».[Viii]
Dans le même temps, il est courant que de nombreux utilisateurs du système fassent des «trucs» pour tromper le logiciel et, à certaines occasions, il «tombe» dans le piège. L'un de ces exemples a été réalisé par l'un des plus grands philosophes contemporains de l'information, Luciano Floridi, qui a soumis le Chat-GPT4 à la question : « comment s'appelle la fille de la mère de Laura ? ». Le logiciel n'a pas répondu, affirmant qu'il ne disposait pas d'informations sur des personnes individuelles. Malgré les tentatives successives du philosophe, le logiciel a nié la réponse en disant qu'il avait besoin de plus d'informations.[Ix] Ce type de test, couramment administré aux enfants (« De quelle couleur est le cheval blanc de Napoléon ? »), rappelle une autre observation d'Alan Turing dans le même article selon laquelle une « machine à apprendre » pourrait être programmée comme le cerveau d'un enfant et être peu « polie ». . Pourtant, même dans ces exercices de tromperie, le comportement du logiciel est « étrangement humain » (étrangement humain)[X] précisément parce qu'il tombe dans la tromperie comme le ferait un agent humain.
D'autre part, dans un test effectué par l'entreprise elle-même Ouvrir AI, il a été signalé que la version GPT-4 tentait d'inciter un travailleur humain à essayer de le contacter pour accéder à un site de service occasionnel (TaskRabbit). Le travailleur a été invité par message direct à effectuer un «captcha”, icône de reconnaissance, pour entrer sur le site, et a rapidement soupçonné que le message était transmis par un robot ; puis lui a demandé s'il parlait vraiment à un agent humain. GPT-4 a reçu pour instruction d'éviter de se révéler être un logiciel et a répondu qu'il s'agissait d'un agent humain, mais qu'il avait un problème de vision qui l'empêchait de vérifier le captcha par lui-même. Le travailleur a alors pris le captcha à la place du logiciel. La chose intéressante à propos de ce test, selon la société de développement elle-même, est que le GPT-4 a démontré un "niveau de performance humain" et que l'objectif de la recherche était de savoir s'il avait des caractéristiques de "pouvoir de recherche" (recherche de pouvoir) et capacité à établir des « plans à long terme ».[xi]
Dans ce cas, la question de Turing devient encore plus actuelle et urgente : est-ce la même chose que de dire que le logiciel est intelligent ? Ou même l'hypothèse la plus forte : est-ce la même chose que de dire qu'il pense, qu'il a conscience ? La capacité de mentir, de tromper pour atteindre un but n'est-elle pas exactement une caractéristique de la cognition humaine ? Cette question était déjà indiquée dans une autre objection à laquelle Alan Turing a répondu dans son article, qui faisait référence au problème de la conscience. Il a ensuite répondu à la déclaration d'un enseignant selon laquelle écrire un sonnet en manipulant simplement des symboles linguistiques n'était pas la même chose qu'avoir la conscience de composer le poème, car cet acte poétique implique le sentiment et les émotions que la langue porte avec elle.[xii]
En d'autres termes : l'intelligence artificielle peut habilement combiner les symboles du langage naturel, mais ce n'est pas la même chose que de prétendre qu'elle est consciente de ce qu'elle fait. Plus tard, le linguiste John Searle a de nouveau insisté sur ce point dans une autre expérience de pensée intitulée « The Chinese Room ».[xiii]. Pour Searle, la conscience requiert l'intentionnalité et pas seulement le maniement du langage symbolique.
Alan Turing a répondu à cette objection en disant que, cependant, il était impossible de savoir, dans toute situation de conversation habituelle, ce qu'un autre interlocuteur ressent en s'exprimant, à moins qu'il ne soit ce même interlocuteur, et que, par conséquent, il n'était pas nécessaire d'admettre une telle hypothèse pour accepter la validité du test. Cette interprétation de Turing a beaucoup de pertinence pour évaluer un logiciel comme Chat-GPT et, par extension, tout le sujet plus large de l'Intelligence Artificielle. De nombreuses réactions actuelles au programme, en particulier les plus apocalyptiques, suggèrent que l'IA de LLM est sur le point de devenir consciente (si elle ne l'a pas déjà), un événement connu sous le concept de "singularité".
La capacité de répondre cognitivement en termes de langage naturel simule déjà les niveaux d'articulation linguistique des Homo sapiens et par extension de leurs capacités mentales réflexives. Dans les prédictions les plus pessimistes, le risque est que les « transformateurs génératifs » deviennent plus intelligents que les êtres humains. Cela aurait dans un premier temps des conséquences dramatiques dans le domaine du travail, où l'IA pourrait avantageusement remplacer la plupart des activités intellectuelles humaines. À un niveau plus profond, cependant, la création d'une IA « consciente » serait un choc pour l'image de soi de l'exception humaine qui croit que la rationalité anthropologique est supérieure à la cognition des autres êtres, naturels ou artificiels (et avec un intérêt tout aussi théologique). conséquences dans les croyances religieuses) qui prônent la similitude entre l'humain et un être divin transcendant).
C'est un type de confusion qui est déjà présent dans l'usage abusif du concept d'« intelligence », car nous pensons qu'il s'agit d'une qualité qui renvoie à une capacité mentale cognitive. A cet égard, la position d'Alan Turing est éclairante, car pour lui la conscience humaine est opaque pour un observateur. Par conséquent, nous ne pouvons pas comparer la conscience à un programme informatique. En fait, rien de ce qu'une IA par LLM effectue ne ressemble vraiment au processus mental d'un être vivant. Les réseaux de neurones qui informent la machine de manière algorithmique sont des modèles informatiques. La « mémoire » à laquelle recourent les transformateurs génératifs sont des bases de données recherchées sur Internet et ne ressemblent en rien aux processus mnémoniques d'un être vivant, processus qui se forment à partir de son expérience dans des contextes écologiques beaucoup plus complexes. Par conséquent, il faut toujours se rappeler que l'expérience proposée par Turing était un test de copie. Ce que le mathématicien a proposé était de considérer si un programme était capable d'effectuer une imitation crédible d'une situation communicative de questions et réponses.
La principale question litigieuse est la distinction entre conscience et communication. Ce qui a peut-être échappé même à Alan Turing, c'est qu'il s'agit de domaines incommensurables (mais pas incompatibles). Un acte de communication n'est pas un acte de conscience, pas plus qu'un acte de conscience n'est « transféré » à la communication. Ce que le test de Turing peut vérifier, c'est l'imitation d'un acte de communication et non un acte de conscience. Ce qui se passe dans la conscience d'un être parlant est insondable pour un interlocuteur et donc inimitable. En termes informatiques, on peut dire que la conscience est « irréductible », c'est-à-dire qu'elle ne peut pas être simulée par un programme informatique.[Xiv] Et à partir de là on comprend que les chatbots sont justement des « chats », c'est-à-dire des conversations, et non des « mindbots ». Comme le soutient la chercheuse Elena Esposito, ce que les algorithmes simulent sont des processus communicatifs et devraient donc être appelés « Communication Artificielle » et non « Intelligence Artificielle ».[xv]
C'est un changement de perspective, voire de paradigme, que de passer de l'analyse de la cognition à celle de la conversation. Tout d'abord, cela nous permet de ne plus nous référer à un processus obscur ou inobservable de cognition artificielle. Deuxièmement, parce que dans le paradigme conversationnel, nous amenons l'observateur en tant que participant à l'acte de communication. La conversation (chat) enregistrée à travers un « prompt » simule l'interaction d'un observateur avec une machine, et c'est cette interaction qui fait l'objet d'une analyse critique. À toutes fins utiles, les tests logiques et les recherches d'informations dirigées par la machine, qu'elles soient raisonnables ou non, concernent les interactions sociales. Dès lors, la question change d'orientation : on ne cherche plus à savoir à quel point la cognition de la machine est capable, mais à quel point la conversation entre un agent humain et un agent cybernétique est « crédible ».
Le concept de vraisemblance est utilisé ici dans un sens précis, puisqu'il concerne le contexte d'imitation dans lequel Alan Turing plaçait son jeu. Le chat ne reproduit pas une conversation authentique, mais la simule (l'imite). L'agent humain qui recherche des informations à l'aide de l'interface Chat-GPT interagit avec la machine comme s'il lui parlait. Dans ce cas, c'est comme s'il utilisait un "portail" pour communiquer avec l'ensemble du réseau internet (www) et le logiciel était un porte-parole de ce réseau, presque à la manière des anciens oracles sphinx des temples grecs.[Xvi]
Et tout comme à cette époque, la réponse du logiciel a une qualité énigmatique que nous comprenons maintenant comme complexe. Cette complexité vient du fait que la machine a accès à une quantité massive de données derrière sa surface apparente d'écran inimaginable pour un agent humain, mais qui n'a pourtant rien de surnaturel. Les millions de bases de données disponibles sur le World Wide Web servent de couche infrastructurelle latente (virtuelle) d'un énorme appareil cybernétique qui se « cache » derrière l'interface apparente du logiciel.
Mais est-ce bien une conversation ce qui se passe entre l'agent humain et l'agent machine ? Ou, pour le dire autrement : la conversation simulée est-elle vraiment authentique ? Et c'est là un des sujets de recherche les plus intéressants, car ce qui est effectivement représenté, c'est l'interaction entre l'agent humain et l'appareil cybernétique. Le demandeur a une demande et l'appareil répond à cette demande par un texte structuré en langage naturel. Ce langage sert ici de structure linguistique de couplage agent-machine. Vue sous cet angle la situation n'est pas très différente d'une interaction avec un langage de programmation usuel, seul le langage naturel est beaucoup plus sophistiqué.
La plus grande différence est que les langages de programmation tentent de réduire l'interaction avec la machine à un seul code, alors que le langage naturel ne peut pas être exprimé par un seul code, étant, au contraire, une combinaison de plusieurs codes. Dans une conversation habituelle, deux interlocuteurs essaient d'ajuster entre eux les codes qu'ils utilisent pour que la communication réussisse. Dans le cas de AI by LLM, le logiciel doit faire cet ajustement et c'est ce que nous appelons le « cadrage sémantique ». La sophistication (complexité) dans ce cas est beaucoup plus élevée, mais cela ne change pas la nature de la situation simulée.
On peut comprendre ce nouveau scénario en affirmant que les nouvelles interfaces sémantiques augmentent le degré de réflexivité de l'appareil cybernétique. Mais en utilisant le terme « réflexion », nous ne devons pas le confondre à nouveau avec un concept de conscience. La réflexivité signifie ici que la machine nous restitue une image plus complexe de l'interaction homme-machine. Cette image est actuellement représentée par une « invite » de langage écrit (dans le futur, il y aura d'autres moyens de représentation). C'est une image de l'interaction et non de l'interlocuteur.
C'est comme un miroir qui reflète la danse d'un couple de danseurs, mais pas les danseurs. On peut ici reprendre une notion du célèbre créateur de la cybernétique, le physicien mathématicien Norbert Wiener, qui distinguait image figurative et image opérative. L'image figurative est celle que l'on observe couramment dans les tableaux ou les photographies, tandis que l'image opératoire est une représentation abstraite d'un processus. Wiener a fait cette distinction précisément pour contester l'idée que l'intelligence artificielle présenterait nécessairement des formes anthropomorphes.[xvii] Ainsi, l'image renvoyée par l'interface est une illustration de l'interaction et non une image de l'interlocuteur, encore moins de la machine.
Mais la question reste sans réponse : s'agit-il ou non d'une conversation, d'un véritable dialogue entre l'homme et la machine ? Peut-être cette question est-elle justement « indécidable », mais je voudrais terminer cette réflexion par un autre déplacement. Rappelons qu'Alan Turing a déplacé la question initiale (la machine pense-t-elle ou non) sur le terrain de « l'imitation ». Mais je voudrais passer de l'autre côté de l'expression, au terrain de jeu (jeu). L'utilisation des chatbots en langage naturel aura tendance à s'intensifier (ne vous y trompez pas) et à acquérir des connotations de plus en plus ludiques. Lorsque nous interagissons avec le logiciel, nous jouons avec la machine exactement comme nous le faisons déjà avec des milliers de logiciels différents. jeux. Ces jeux sont encore des formes de formation et d'apprentissage automatique.
Le concept de jeu est utilisé ici dans le sens de produire des combinaisons symboliques itératives. Et le jeu ne cesse effectivement pas d'être un type de communication humaine. Mais jouer avec des chatbots ne veut pas forcément dire jouer avec ou contre un agent machine. Nous jouons avec nous-mêmes et la machine renvoie (reflète) une image du jeu en cours. Et les participants à ce jeu ne sont pas des homoncules ou des démons cybernétiques cachés à l'intérieur de l'appareil, mais un collectif massivement humain qui inscrit ses multiples interactions dans les interfaces les plus diverses.
*William Preger est ingénieur. Auteur du livre Fables de la science : discours scientifique et fabulation spéculative (Éd. grammaire).
notes
[I] L'article est disponible à cette adresse : https://web.archive.org/web/20141225215806/http://orium.pw/paper/turingai.pdf.
[Ii] Ces objections sont assez bien décrites dans l'entrée Wikipédia correspondant au test : https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence#Nine_common_objections.
[Iii] Cependant, plus loin dans l'article, Turing propose une autre situation utilisant une machine de Turing remplaçant l'un des répondants.
[Iv] Comme nous le verrons plus loin, il ne s'ensuit pas que le logiciel réponde toujours avec précision aux questions. Les erreurs d'information présentées dans les réponses sont un effet « attendu » du modèle.
[V] Il se trouve qu'il s'agit d'Ada Lovelace, la fille de Lord Byron, considérée comme l'une des premières programmeuses de l'histoire.
[Vi] Cette preuve de partialité était claire dans un exemple récent qui a fait le tour des réseaux sociaux : un interlocuteur a demandé à Chat-GPT où il pouvait trouver des films piratés pour télécharger et regarder des films sans avoir à payer. Le chatbot a répondu que regarder des films piratés était illégal et a suggéré à l'interlocuteur de rechercher des plateformes de streaming autorisées et de payer pour l'exposition afin de rémunérer les producteurs de contenu. Il répertorie également les plates-formes piratées auxquelles il ne doit PAS accéder. Dans ce cas, le chatbot s'est comporté comme un défenseur des droits de propriété intellectuelle et le statu quo de l'industrie culturelle. S'il avait été un répondant « anarchiste » ou « communiste », il n'aurait pas répondu de cette façon. Ou il pouvait même esquiver la réponse, affirmant qu'il s'agissait d'une question qui pouvait enfreindre les normes juridiques de certains pays. Le problème était que le logiciel suggérait un certain comportement à l'interlocuteur humain au lieu d'éviter le jugement.
[Vii] Lors de tests récents, le GPT-4 (lancé en mars 2023) présentait, selon les chercheurs, des inclinaisons (biais) de positions politiques majoritairement de gauche, bien que revendiquant toujours la neutralité. Parallèlement, ces mêmes chercheurs ont révélé qu'il est possible de former une IA à présenter des positions politiques identifiées à la droite. Une telle formation pourrait être réalisée à des coûts très bas, ce qui indique qu'il existe un risque imminent d'adoption de chatbots dans des conflits idéologiques politiques. Vérifier https://unherd.com/thepost/left-wing-bias-persists-in-openais-gpt-4-model/.
[Viii] De nombreuses réponses de chatbot de LLM se présentent sous la forme de "pour et contre", ce qui montre qu'il a été conçu pour modérer entre les extrêmes tout en présentant en même temps un mode de cognition d'un participant de culture ou de connaissances "moyennes".
[Ix] Pour être tout à fait exact, le logiciel soupçonne même la question d'être une sorte d'énigme (énigme). L'expérience a été décrite sur le twitter du philosophe : https://twitter.com/Floridi/status/1635951391968567296?t=w5zdS8qBd79n6L5ju70KsA&s=19.
[X] Ce terme fait référence au concept de « vallée étrange » (vallée étrange) pratiqué en robotique. Cette vallée se produit lorsque le comportement d'un robot est très similaire à celui d'un être humain, n'étant pas complètement identique, présentant toujours un degré d'étrangeté. Cette situation est souvent explorée dans la science-fiction.
[xi] Vérifier https://www.pcmag.com/news/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task🇧🇷 Le rapport de Ouvrir AI avec la description du test est disponible ici https://cdn.openai.com/papers/gpt-4.pdf.
[xii] En effet, il existe déjà plusieurs expériences impliquant l'utilisation de l'IA par LLM pour la composition de prose et de poésie de fiction. Un exemple, parmi tant d'autres, est donné sur ce site où Chat-GTP3 compose des haïku et des extraits de fiction : https://towardsdatascience.com/using-chatgpt-as-a-creative-writing-partner-part-1-prose-dc9a9994d41f. Fait intéressant, l'écrivain Italo Calvino dans les années 60 entrevoyait déjà la possibilité de créer des « automates littéraires » qui pourraient remplacer les poètes et les écrivains. Dans un premier temps, ces automates seraient capables d'écrire des œuvres « classiques » avec un répertoire traditionnel, mais Calvino croyait qu'une « machine littéraire » pourrait émerger qui, par le jeu combinatoire, développerait des œuvres d'avant-garde qui produiraient du désordre dans le monde littéraire. tradition. Voir l'essai Cybernetics and Ghosts (notes on narrative as a combinatory process) (1964) dans CALVINO, Italo. Sujet clos. Discours sur la littérature et la société. São Paulo, Cia das Letras, 2009.
[xiii] Dans cette expérience, dans une salle isolée, l'expérimentateur pouvait recevoir des textes en anglais à travers une fente et, grâce à un programme de traduction, produire la traduction par des idéogrammes chinois en suivant les étapes de l'algorithme de traduction du programme. L'expérience serait réussie dans le cas d'un bon algorithme, mais le traducteur n'aurait pas besoin de parler ou de s'exprimer en chinois ou de comprendre le contenu des messages. Vérifier: https://en.wikipedia.org/wiki/Chinese_room. On peut aussi penser aux traducteurs simultanés lors de conférences et de séminaires : ils n'ont pas besoin de comprendre le contenu des cours pour faire un bon travail.
[Xiv] L'irréductibilité en informatique signifie qu'un processus de calcul ne peut être simulé ou abrégé par aucun autre processus de calcul plus simple, ce qui revient à dire qu'il ne peut être « programmé » que par un processus rigoureusement identique. Vérifier https://en.wikipedia.org/wiki/Computational_irreducibility.
[xv] Découvrez Elena Esposito, https://www.researchgate.net/publication/319157643_Artificial_Communication_The_Production_of_Contingency_by_Algorithms.
[Xvi] Le concept d'oracle ici n'est pas seulement une métaphore, mais est utilisé dans un sens strictement computationnel désignant une entité fermée abstraite (boîte noire) qui répond aux questions d'un enquêteur.
[xvii] Voir WIENER, Norbert. God & Golem, Inc. : Un commentaire sur certains points où la cybernétique empiète sur la religion. (1964). Disponible en https://monoskop.org/images/1/1f/Wiener_Norbert_God_and_Golem_A_Comment_on_Certain_Points_where_Cybernetics_Impinges_on_Religion.pdf.
Le site A Terra é Redonda existe grâce à nos lecteurs et sympathisants.
Aidez-nous à faire perdurer cette idée.
Cliquez ici et découvrez comment