Nouvelles

ChatGPT et le jeu de l’imitation

« Le jeu d’imitation de Turing a donc cette répercussion profondément déroutante selon laquelle on ne sait plus qui, lorsque la machine passe le test, imite qui », écrit l’auteur.
 

Par Philippe Setlakwe Blouin

L’auteur est enseignant de philosophie au cégep Champlain-St. Lawrence.
Publié par Le Devoir
 

À la question de savoir si les machines peuvent penser, le mathématicien britannique Alan Turing proposa de répondre, dans un article de 1950 devenu célèbre, à l’aide d’une expérience de pensée qu’il baptisa le « jeu de l’imitation », mais que l’on connaît mieux aujourd’hui sous le nom de « test de Turing ». Pour simplifier, imaginez une situation où vous êtes en conversation avec un interlocuteur inconnu à travers une sorte d’application de messagerie instantanée comme l’on emploie fréquemment aujourd’hui. Or, dans le scénario de Turing, vous ne savez pas si votre interlocuteur est un autre humain ou une intelligence artificielle (IA), et c’est en lui posant des questions que vous devez tenter de le déterminer.

L’idée de Turing est la suivante : si l’on arrive à créer une machine dont les réponses sont indiscernables, aux yeux d’un interrogateur compétent moyen, de celle d’un être humain typique, on aura en somme produit une machine capable de penser.

Quiconque s’est amusé à questionner le nouveau logiciel ChatGPT est forcé d’admettre que non seulement l’expérience de Turing ne relève plus de l’imaginaire, mais de la réalité bien concrète, mais qu’en plus, l’IA semble déjà avoir passé le test haut la main. Personnellement, je m’en suis aperçu à mon insu non en employant le logiciel, mais à la lecture d’un article paru récemment dans Le Devoir au sujet de ChatGPT.

Son auteur, Jonathan Durand Folco, nous explique en introduction les conséquences potentiellement désastreuses de cette nouvelle technologie dans le monde universitaire, seulement pour nous révéler six paragraphes plus loin — alerte au divulgâcheur — que cette première partie de son texte a été rédigée par ChatGPT lui-même. Consternation. Je me suis fait duper par une machine dont les capacités de traitement de langage sont donc suffisamment abouties pour se faire passer pour un chercheur universitaire écrivant dans un journal réputé.

Mais cela veut-il dire que ChatGPT sait penser ?

Un jeu à double tranchant

Tout d’abord, il importe d’insister sur le revers troublant du critère d’indiscernabilité de Turing : si, pendant un instant, j’ai pris un texte généré par une machine pour un texte produit par un humain, qu’est-ce qui me garantit, à l’inverse, que lorsque je lis un texte authentiquement humain, j’ai véritablement affaire à l’oeuvre d’une volonté libre, et non simplement au résultat d’un autre type de logiciel impersonnel, celui qu’opère notre machinerie cérébrale ?

En effet, plus l’illusion de l’IA se renforcera au gré des avancées techniques à venir (et qui peut douter qu’elles viendront ?), plus l’imitation du comportement humain se fera robuste et convaincante, plus il sera difficile de résister à l’impression que les deux entités comparées partagent au fond une nature similaire, voire identique — car à des effets semblables, pourquoi supposer des causes distinctes ?

Le jeu d’imitation de Turing a donc cette répercussion profondément déroutante selon laquelle on ne sait plus qui, lorsque la machine passe le test, imite qui. La question « les machines peuvent-elles penser ? » se retourne ainsi sur elle-même et devient : « La pensée n’est-elle pas, au fond, pur mécanisme ? »

Si tout cela vous paraît relever de la science-fiction, il n’y a là pourtant rien pour étonner un chercheur contemporain dans les sciences cognitives, ce vaste champ interdisciplinaire d’études consacrées à la conscience, car tout son domaine se fonde justement sur la prémisse voulant que la conscience puisse s’expliquer par une sorte d’algorithmique neuronale. Le cerveau ne serait d’ailleurs rien d’autre, selon un modèle dominant à l’heure actuelle, qu’une machine de prédiction (predictive machine) dont la fonction première est de décoder l’information qui lui provient via les différents canaux sensoriels afin de se faire une représentation viable du monde extérieur, dans le but de maximiser les chances de survie de l’organisme dont il est l’organe.

Si l’IA connaît de telles avancées aujourd’hui, c’est d’ailleurs en grande partie parce qu’elle se modèle directement sur le fonctionnement du cerveau. Qu’est-ce que cela nous dit donc de notre propre cerveau, en retour ?

Pensée, conscience et vie

Aliénant ? Déshumanisant ? Pourtant, cette conception mécaniste de l’être humain, et plus généralement du vivant, n’a rien de nouveau ; on peut la faire remonter au tournant de la modernité. Nous en acceptons tous d’ailleurs les prémisses, du moins tacitement, lorsque nous employons les termes empruntés à l’informatique, ou à n’importe quel autre domaine technique, pour décrire nos états d’âme. Or, contre cette tendance, et contre la conclusion que Turing tire de son propre test, ne convient-il pas de rappeler qu’entre la vie et l’artifice, il existe une différence de nature, non de degré, et par conséquent qu’une pensée non vivante n’est pas une pensée du tout ?

Lire la suite

30 décembre 2022