Par SLAVEJ ŽIŽEK*
Le problème n'est pas que les chatbots sont stupides ; c'est qu'ils ne sont pas assez "stupides"
Il n'y a rien de nouveau dans les « chatbots » qui sont capables de soutenir une conversation en langage naturel, de comprendre les intentions de base de l'utilisateur et de proposer des réponses basées sur des règles et des données prédéfinies. Sa capacité, cependant, a considérablement augmenté ces derniers mois, envoyant de nombreuses personnes dans la panique et le désespoir.
On a beaucoup dit que les chatbots étaient un signe avant-coureur de la fin des mémoires d'étudiants. Mais une question qui mérite une plus grande attention est de savoir comment les chatbots doivent réagir lorsque des interlocuteurs humains utilisent des déclarations agressives, sexistes ou racistes pour inciter le robot à proposer ses propres fantasmes désagréables en réponse. Faut-il programmer les intelligences artificielles pour répondre au même niveau que les questions qui leur sont posées ?
Si nous décidons qu'une sorte de contrôle doit être appliqué, alors nous devons déterminer jusqu'où la censure doit aller. Les positions politiques que certains secteurs considèrent comme « offensives » seront-elles interdites ? Qu'en est-il des expressions de solidarité avec les Palestiniens de Cisjordanie ? L'affirmation selon laquelle Israël est un État de l'apartheid (ce que l'ancien président Jimmy Carter a mis une fois dans le titre d'un livre) ? Tout cela sera-t-il bloqué pour être « antisémite » ?
Le problème ne s'arrête pas là. Comme l'écrivain et artiste James Bridle nous en avertit, les nouvelles intelligences artificielles sont "basées sur l'appropriation massive de la culture existante", et la croyance qu'elles sont "vraiment bien informées ou significatives est activement dangereuse". Il faut donc être très prudent avec les nouveaux générateurs d'images par intelligence artificielle. « Dans leur tentative de comprendre et de reproduire la culture visuelle humaine dans son intégralité », observe Bridle, « [ils] semblent également avoir recréé nos plus grandes peurs. C'est peut-être juste un signe que ces systèmes sont en fait très bons pour imiter la conscience humaine, atteignant même les horreurs qui se cachent dans les profondeurs de notre conscience : nos peurs de la saleté, de la mort et de la corruption.
Mais dans quelle mesure les nouvelles intelligences artificielles ressemblent-elles à la conscience humaine ? Considérez le bar qui a récemment annoncé une promotion spéciale sous les termes : "Achetez une bière pour le prix de deux et obtenez une deuxième bière entièrement gratuite !" Pour tout être humain, c'est évidemment une blague. L'offre typique "achetez-en un, obtenez-en un gratuitement" est retravaillée pour s'annuler. C'est une expression de cynisme appréciée comme honnêteté comique dans le but d'augmenter les ventes. Un Chatbot seriez-vous capable de comprendre cela?
"Fucking" présente un problème similaire. Bien que le mot désigne quelque chose que la plupart des gens aiment faire (copuler), il acquiert aussi une valeur négative (« On est foutus ! », « Va te faire foutre ! »). Langage et réalité se confondent. L'intelligence artificielle est-elle prête à discerner de telles différences ?
Dans son essai de 1805 "Sur la formation progressive des pensées dans le processus de la parole" (publié à titre posthume en 1878), le poète allemand Heinrich von Kleist renversa le dicton populaire selon lequel il ne faut pas ouvrir la bouche pour parler à moins d'avoir une idée claire de que dire : « Cela étant, si une pensée est exprimée de manière confuse, cela ne signifie nullement qu'une telle pensée ait été conçue de manière confuse. Au contraire, il est possible que les idées qui s'expriment de la manière la plus confuse soient simplement celles qui ont été pensées le plus clairement.
Cette relation entre le langage et la pensée est extraordinairement compliquée. Dans un passage d'un de ses discours du début des années 1930, Joseph Staline propose des mesures radicales pour "détecter et combattre impitoyablement même ceux qui s'opposent à la collectivisation uniquement dans leurs pensées - oui, c'est ce que je veux dire, nous devons combattre". personnes." Nous pouvons sans risque supposer que cette phrase n'a pas été préparée à l'avance. Se laissant emporter par l'instant, Staline prend immédiatement conscience de ce qu'il vient de dire. Mais au lieu de reculer, il a décidé de continuer son hyperbole.
Comme Jacques Lacan l'a dit plus tard, c'était un de ces cas où la vérité surgit par surprise à travers l'acte d'énonciation. Louis Althusser a identifié un phénomène similaire dans la relation entre levier e surprise. Quelqu'un qui prend soudainement conscience ("levier”) d'une idée sera étonné de ce qu'elle a accompli. Encore une fois, un chatbot capable de faire cela ?
Le problème n'est pas que les chatbots sont stupides ; c'est qu'ils ne sont pas assez "stupides". Ce n'est pas qu'ils soient naïfs (incapables d'ironiser et de réfléchir) ; c'est qu'ils ne sont pas assez naïfs (ne remarquent pas les moments où la naïveté masque la perspicacité). Le vrai danger n'est donc pas que les gens confondent les chatbots avec de vraies personnes ; mais des chatbots faisant parler de vraies personnes comme des chatbots - incapables de remarquer les nuances et les ironies, disant de manière obsessionnelle exactement ce qu'ils pensent vouloir dire.
Quand j'étais plus jeune, un ami est allé chez un psychanalyste pour un traitement après une expérience traumatisante. L'idée de cet ami de ce que ces analystes attendent de leurs patients était un cliché, et il a passé la première séance à produire de fausses "associations libres" sur la façon dont il détestait son père et souhaitait sa mort. La réaction de l'analyste a été naïve : il a adopté une position naïve « pré-freudienne » et a grondé mon ami pour ne pas respecter son père (« Comment peux-tu parler ainsi de la personne qui a fait de toi ce que tu es ? »). Cette fausse innocence a envoyé un message clair : je n'achète pas vos fausses « associations ». Un chatbot serait-il capable de comprendre ce sous-texte ?
Ne comprendrait probablement pas, parce qu'il est comme l'interprétation de Rowan Williams du prince Myshkin du livre L'idiot par Dostoïevski. Selon l'interprétation conventionnelle, Myshkin, "l'idiot", est "un homme positivement bon et beau" qui a été poussé à la folie solitaire par les dures brutalités et les passions du monde réel. Dans la réinterprétation radicale de Williams, cependant, Myshkin représente l'œil d'une tempête : peu importe à quel point il est bon et saint, c'est lui qui cause le chaos et les morts dont il est témoin en raison de son rôle dans le réseau complexe de relations qui l'entourent.
Ce n'est pas que Myshkin soit un niais naïf. Mais que sa forme particulière d'obtusité le rend incapable de réaliser ses effets désastreux sur les autres. C'est un personnage plat qui parle littéralement comme un chatbot. Sa « bonté » repose sur le fait que, tel un chatbot, il réagit aux défis sans ironie, proposant des platitudes dénuées de toute réflexivité, prenant tout au pied de la lettre et s'appuyant sur un mécanisme mental de réponses d'auto-complétion au lieu de former des phrases d'idées. Pour cette raison, les nouveaux chatbots feront très bien l'affaire avec les idéologues de tous bords, issus de la foule »réveillé» contemporain des nationalistes « MAGA », qui préfèrent rester endormis.
*Slavoj Žizek, professeur de philosophie à l'European Graduate School, il est directeur international du Birkbeck Institute for the Humanities de l'Université de Londres. Auteur, entre autres livres, de Pour la défense des causes perdues (Boitetemps).
Traduction: Daniel Pavan.
Initialement publié sur le portail Project Syndicate.
Le site A Terra é Redonda existe grâce à nos lecteurs et sympathisants.
Aidez-nous à faire perdurer cette idée.
Cliquez ici et découvrez comment