Idiotie artificielle


Libé
Jeudi 30 Mars 2023

Idiotie artificielle
Il n'y a rien de nouveau dans les «chatbots» qui sont capables de maintenir une conversation en langage naturel, de comprendre l'intention de base d'un utilisateur et d'offrir des réponses basées sur des règles et des données prédéfinies. Mais la capacité de ces chatbots a été considérablement augmentée ces derniers mois, ce qui a provoqué des tordages et de la panique dans de nombreux cercles.

On a beaucoup parlé des chatbots augurant de la fin de la dissertation traditionnelle des étudiants. Mais une question qui mérite une attention particulière est de savoir comment les chatbots doivent réagir lorsque des interlocuteurs humains utilisent des remarques agressives, sexistes ou racistes pour inciter le bot à présenter ses propres fantasmes grossiers en retour. Faut-il programmer les IA pour répondre au même niveau que les questions posées ?

Si nous décidons qu'une sorte de réglementation s'impose, nous devons alors déterminer jusqu'où la censure doit aller. Les positions politiques que certaines cohortes jugent «offensives» seront-elles interdites ? Qu'en est-il des expressions de solidarité avec les Palestiniens de Cisjordanie, ou de l'affirmation selon laquelle Israël est un État d'apartheid (que l'ancien président américain Jimmy Carter a un jour mis dans le titre d'un livre)? Seront-ils bloqués comme «antisémites» ?

Le problème ne s'arrête pas là. Comme l'avertit l'artiste et écrivain James Bridle, les nouvelles IA sont "basées sur l'appropriation globale de la culture existante", et la croyance qu'elles sont "réellement bien informées ou significatives est activement dangereuse". Par conséquent, nous devons également nous méfier des nouveaux générateurs d'images AI.

"Dans leur tentative de comprendre et de reproduire l'intégralité de la culture visuelle humaine", observe Bridle, "[ils] semblent également avoir recréé nos peurs les plus sombres. C'est peut-être juste un signe que ces systèmes sont vraiment très bons pour singer la conscience humaine, jusqu'à l'horreur qui se cache dans les profondeurs de l'existence : nos peurs de la saleté, de la mort et de la corruption.

Mais à quel point les nouvelles IA sont-elles efficaces pour se rapprocher de la conscience humaine ? Considérez le bar qui a récemment annoncé une boisson spéciale avec les termes suivants : "Achetez une bière pour le prix de deux et recevez une deuxième bière absolument gratuite !" Pour tout être humain, c'est évidemment une blague. Le spécial classique "achetez-en un, obtenez-en un" est reformulé pour s'annuler. C'est une expression de cynisme qui sera appréciée comme de l'honnêteté comique, le tout pour booster les ventes. Un chatbot détecterait-il tout cela ?1

"Fuck" présente un problème similaire. Bien qu'il désigne quelque chose que la plupart des gens aiment faire (la copulation), il acquiert aussi souvent une valence négative («On est foutus!», «Va te faire foutre!»). La langue et la réalité sont désordonnées. L'IA est-elle prête à discerner de telles différences?

Dans son essai de 1805 «Sur la formation progressive des pensées dans le processus de la parole» (publié pour la première fois à titre posthume en 1878), le poète allemand Heinrich von Kleist inverse la sagesse commune selon laquelle il ne faut pas ouvrir la bouche pour parler à moins d'avoir une idée claire de quoi dire : «Si donc une pensée est exprimée de manière floue, alors il ne s'ensuit pas du tout que cette pensée ait été conçue de manière confuse. Au contraire, il est fort possible que les idées exprimées de la manière la plus confuse soient celles qui ont été pensées le plus clairement.

La relation entre le langage et la pensée est extraordinairement compliquée. Dans un passage d'un des discours de Staline du début des années 30, il propose des mesures radicales pour "détecter et combattre sans pitié même ceux qui s'opposent à la collectivisation uniquement dans leurs pensées - oui, je veux dire cela, nous devrions combattre même les pensées des gens". On peut sans risque présumer que ce passage n'a pas été préparé à l'avance. Après avoir été pris dans l'instant, Staline a immédiatement pris conscience de ce qu'il venait de dire. Mais au lieu de faire marche arrière, il a décidé de s'en tenir à son hyperbole.

Comme Jacques Lacan l'a dit plus tard, il s'agissait d'un cas de vérité émergeant par surprise à travers l'acte d'énonciation. Louis Althusser a identifié un phénomène similaire dans l'interaction entre le prix et la surprise. Quelqu'un qui saisit soudainement («prix») une idée sera surpris par ce qu'il a accompli. Encore une fois, n'importe quel chatbot peut-il faire cela?

Le problème n'est pas que les chatbots sont stupides ; c'est qu'ils ne sont pas assez "stupides". Ce n'est pas qu'ils soient naïfs (manque d'ironie et de réflexivité) ; c'est qu'ils ne sont pas assez naïfs (manquant quand la naïveté masque la perspicacité). Le vrai danger n'est donc pas que les gens confondent un chatbot avec une vraie personne ; c'est que communiquer avec des chatbots fera parler de vraies personnes comme des chatbots  - en manquant toutes les nuances et les ironies, en ne disant de manière obsessionnelle que précisément ce que l'on pense vouloir dire.

Quand j'étais plus jeune, un ami est allé voir un psychanalyste pour un traitement suite à une expérience traumatisante. L'idée que se faisait cet ami de ce que ces analystes attendent de leurs patients était un cliché, alors il a passé sa première séance à livrer de fausses «associations libres» sur la façon dont il détestait son père et voulait sa mort. La réaction de l'analyste est ingénieuse : il adopte une posture naïve «pré-freudienne» et reproche à mon ami de ne pas respecter son père («Comment peux-tu parler ainsi de celui qui a fait de toi ce que tu es?»). Cette naïveté feinte a envoyé un message clair : je n'achète pas vos fausses «associations». Un chatbot pourrait-il capter ce sous-texte?

Très probablement, ce ne serait pas le cas, car cela ressemble à l'interprétation du prince Myshkin par Rowan Williams dans L'Idiot de Dostoïevski. Selon la lecture standard, Myshkin, "l'idiot", est un saint, "un homme positivement bon et beau" qui est poussé à la folie isolée par les dures brutalités et les passions du monde réel. Mais dans la relecture radicale de Williams, Myshkin représente l'œil d'une tempête : bien qu'il soit bon et saint, c'est lui qui déclenche les ravages et la mort dont il est témoin, en raison de son rôle dans le réseau complexe de relations qui l'entourent.

Ce n'est pas seulement que Myshkin est un niais naïf. C'est que son genre particulier d'obtusité le laisse inconscient de ses effets désastreux sur les autres. C'est une personne plate qui parle littéralement comme un chatbot. Sa «bonté» réside dans le fait que, tel un chatbot, il réagit aux défis sans ironie, offrant des platitudes dépourvues de toute réflexivité, prenant tout au pied de la lettre et s'appuyant sur une auto-complétion mentale plutôt que sur une authentique formation d'idées. Pour cette raison, les nouveaux chatbots s'entendront très bien avec les idéologues de tous bords, de la foule «éveillée» d'aujourd'hui aux nationalistes «MAGA» qui préfèrent rester endormis.

Par Slavoj Žižek
Professeur de philosophie à l'European Graduate School et directeur international du Birkbeck Institute for the Humanities de l'Université de Londres et auteur.
 


Lu 6114 fois

Nouveau commentaire :

Votre avis nous intéresse. Cependant, Libé refusera de diffuser toute forme de message haineux, diffamatoire, calomnieux ou attentatoire à l'honneur et à la vie privée.
Seront immédiatement exclus de notre site, tous propos racistes ou xénophobes, menaces, injures ou autres incitations à la violence.
En toutes circonstances, nous vous recommandons respect et courtoisie. Merci.

Dans la même rubrique :
< >

Vendredi 10 Mai 2024 - 17:05 Droit des générations futures

Mardi 7 Mai 2024 - 15:30 La dérive des incontinents !

Lundi 6 Mai 2024 - 20:00 Faire de l’art une science de la vie






services