Turing, tu pleures

Voi­là, c’est par­tout dans la presse depuis avant-hier : un ordi­na­teur a, pour la pre­mière fois, pas­sé le test de Turing. C’est his­to­rique, un pas de géant dans l’é­vo­lu­tion de l’in­tel­li­gence arti­fi­cielle, tout ça, tout ça.

Du moins, c’est ce que dit un com­mu­ni­qué de presse de l’u­ni­ver­si­té de Rea­ding, oppor­tu­né­ment publié au len­de­main du bien plus dis­cret soixan­tième anni­ver­saire de la mort d’A­lan Turing — curieu­se­ment, les gens n’aiment pas trop en par­ler ; c’est dom­mage, c’est une his­toire édi­fiante de per­sé­cu­tion et de pré­ju­gés homo­phobes.

Et ce com­mu­ni­qué a été repris qua­si­ment tel quel par l’en­semble de la presse, ce qui est bien dom­mage à mon avis : il est au mini­mum flou, par­fois men­son­ger, et dix minutes de Wiki­pé­dia auraient per­mis à n’im­porte quel rédac­teur d’ap­pro­fon­dir lar­ge­ment son article.

D’a­bord, le test de Turing, c’est quoi ?

En fait, il n’y a pas un, mais des tests de Turing, celui-ci ayant pro­po­sé dif­fé­rentes implé­men­ta­tions de son “jeu d’i­mi­ta­tion”, dès son papier Com­pu­ting machi­ne­ry and intel­li­gence publié en 1950. Toutes reposent sur un même pos­tu­lat : si, au terme d’une conver­sa­tion, un juge ne sait pas dire s’il a dia­lo­gué avec un humain ou avec une machine, cela signi­fie que la machine arrive à four­nir une imi­ta­tion par­faite de l’in­tel­li­gence humaine. Dans l’im­plé­men­ta­tion la plus cou­rante, le juge converse simul­ta­né­ment avec une per­sonne et avec une machine (par écrit, his­toire de ne pas voir ses inter­lo­cu­teurs) et doit dire laquelle est en viande et laquelle est en sili­cium ; une autre implé­men­ta­tion existe sous la forme d’un simple dia­logue au terme duquel la ques­tion n’est plus “où est l’hu­main ?” mais “est-ce un humain ?”. On se rap­proche ici des condi­tions du test de Voigt-Kampff, pré­sen­té en 1968 dans Les androïdes rêvent-ils de mou­tons méca­niques ? de Phi­lip Dick.

Alors, Eugene (le nom du pro­gramme pri­mé avant-hier) a‑t-il réel­le­ment réus­si le test ?

Ses pro­mo­teurs disent que oui : il a trom­pé 10 des 30 juges qui ont papo­té avec lui.

Je dis que non : 20 juges sur 30 ont cor­rec­te­ment iden­ti­fié l’or­di­na­teur. Pour que le test soit réus­si, il fau­drait que l’on n’ar­rive pas à dis­tin­guer l’or­di­na­teur de l’homme. Dans le cas qui nous occupe, les juges dis­cu­taient avec Eugene et avec un humain et devaient dire qui était qui ; s’ils avaient répon­du au hasard, c’est sta­tis­ti­que­ment 50 % d’i­den­ti­fi­ca­tions erro­nées qu’il fal­lait atteindre. On en est loin.

D’où vient cette limi­ta­tion arbi­traire à 30 % des juges, employée par les auteurs ? La seule trace que j’ai retrou­vée de ce nombre, c’est un extrait de l’ar­ticle de Turing :

Je pense que dans une cin­quan­taine d’an­nées, il sera pos­sible de pro­gram­mer des ordi­na­teurs, avec une capa­ci­té de sto­ckage d’en­vi­ron 10⁹, pour leur faire jouer le jeu de l’i­mi­ta­tion si bien qu’un inter­ro­ga­teur ordi­naire n’au­ra pas plus de 70 % de chances de pro­po­ser une iden­ti­fi­ca­tion cor­recte après cinq minutes d’in­ter­ro­ga­toire. La ques­tion ini­tiale, “les machines peuvent-elles pen­ser ?”, est je pense trop insi­gni­fiante pour méri­ter d’être étu­diée. Néan­moins, je pense qu’à la fin du siècle, le sens des mots et l’o­pi­nion géné­ra­le­ment admise auront tel­le­ment évo­lué que l’on pour­ra par­ler de machines pen­santes sans s’at­tendre à être contre­dit.

Vous note­rez qu’il ne parle pas ici de réus­sir le test. Il prend un cas par­ti­cu­lier pour mon­trer que la ques­tion qui paraît absurde à son époque ne le sera plus en 2000. Il se pro­jette dans l’a­ve­nir pour don­ner un exemple d’é­vo­lu­tion pré­vi­sible des machines, mais il ne donne aucune indi­ca­tion sur la réus­site ultime du test : le pro­gramme que per­sonne ne dis­tingue avec cer­ti­tude d’un humain.

En fait, il n’au­ra même pas fal­lu aus­si long­temps pour que des pro­grammes passent des tests res­treints : le célèbre Eli­za, qui n’a­vait rien d’une intel­li­gence arti­fi­cielle (il s’a­gis­sait en gros d’un auto­mate repre­nant en inter­ro­ga­tion les affir­ma­tions de son inter­lo­cu­teur), avait très bien réus­si à convaincre cer­tains inter­lo­cu­teurs qu’il était un psy­cho­logue, au point que cer­tains avaient déve­lop­pé une forme de dépen­dance à ce thé­ra­peute… en 1966 !

Avant-hier, c’est ce qu’a fait Eugene : il a trom­pé un cer­tain nombre de juges en un temps limi­té. Certes, le sujet des conver­sa­tions n’é­tait pas fixé à l’a­vance, mais cela n’im­pose qu’une com­plexi­fi­ca­tion du pro­gramme et de la base de don­nées de situa­tions sur laquelle il repose ; peut-être qu’Eu­gene uti­lise des sché­mas d’in­tel­li­gence arti­fi­cielle pour ana­ly­ser séman­ti­que­ment la conver­sa­tion, mais peut-être ne s’a­git-il que d’un “agent conver­sa­tion­nel” très avan­cé, réagis­sant à tra­vers des règles pré­dé­fi­nies d’a­na­lyse de mots-clefs. Ah oui, on en sait très peu sur Eugene : ai-je dit que le com­mu­ni­qué était très flou ?

Dans tous les cas, le vrai test reste loin.

Rachael_Voight-Kampff

Je reviens une seconde à Blade run­ner (j’ai lu Les androïdes rêvent-ils de mou­tons méca­niques ? mais c’é­tait il y a long­temps, donc je me sou­viens mieux du film). Quand Deckard teste Rachel, der­nière évo­lu­tion des répli­cants (robots simu­lant l’hu­ma­ni­té, donc en pleine thé­ma­tique du test de Turing) qui ignore elle-même qu’elle est un répli­cant, il l’i­den­ti­fie cor­rec­te­ment. Mais il lui faut plus d’une cen­taine de ques­tions au lieu d’une grosse ving­taine pour les répli­cants ordi­naires.

C’est la prin­ci­pale limite de ce “test de Turing res­treint” : un pro­gramme qui réus­si­rait réel­le­ment le test de Turing tien­drait aus­si long­temps que néces­saire. Il pour­rait même cra­quer et don­ner des réponses inco­hé­rentes au bout de vingt heures sans som­meil, comme n’im­porte quel humain qui passe une jour­née en garde-à-vue. En cinq minutes, le test peut être raté, mais il faut une vie pour le réus­sir.

Tout ça, c’est le mini­mum qu’un jour­na­liste un mini­mum concer­né par son sujet aurait dû déter­rer en moins d’une heure. Or, à part cet article à charge qui attaque direc­te­ment les auteurs, je n’ai pas vu un confrère remettre en ques­tion les affir­ma­tions gra­tuites du com­mu­ni­qué (Mise à jour : il y a un cer­tain nombre de blo­gueurs dans mon genre, sur­tout dans le monde anglo­phone, qui l’ont fait, mais la “vraie” presse qui four­nit des infor­ma­tions “sérieuses” reste à la traîne…). Mar­tin Unter­sin­ger, du Monde, est peut-être celui qui s’en est le plus appro­ché en sou­li­gnant que Eugene se faci­li­tait la vie en pré­ten­dant être un enfant étran­ger (ce qui expli­quait les erreurs syn­taxiques ou les mau­vaises com­pré­hen­sions) et en regret­tant l’ab­sence de vraie publi­ca­tion scien­ti­fique, mais il a tout de même oublié de reve­nir aux sources du “vrai” test : tant qu’on iden­ti­fie l’or­di­na­teur dans la majo­ri­té des cas, il n’est pas par­fai­te­ment réus­si.

Après, on peut aus­si rap­pe­ler que le test de Turing n’est pas à pro­pre­ment par­ler un test d’in­tel­li­gence arti­fi­cielle, mais un test d’i­mi­ta­tion arti­fi­cielle du dia­logue natu­rel. J’ai déjà par­lé d’E­li­za ; c’est un fait his­to­rique que les pro­grammes qui obtiennent les meilleurs résul­tats sont pour l’heure plus sou­vent des auto­mates très com­plexes (gros­so modo : “on me dit ça, je réponds ça”) que des intel­li­gences arti­fi­cielles (j’es­saie de réel­le­ment com­prendre ce qu’on m’a dit).

Turing disait d’ailleurs qu’il impor­tait peu que les ordi­na­teurs soient intel­li­gents au sens où nous l’en­ten­dons, dès lors qu’ils nous donnent une impres­sion convain­cante d’in­tel­li­gence. Après tout, j’ac­cepte le pos­tu­lat de l’in­tel­li­gence des autres êtres humains sim­ple­ment parce que ce que j’ob­serve de leur com­por­te­ment me paraît reflé­ter une pen­sée ; mais ils pour­raient aus­si bien être des robots très avan­cés capables d’i­mi­ter réflexion et sen­ti­ments, ça ne modi­fie­rait en rien mon expé­rience de leur contact.

Quant au vrai test d’in­tel­li­gence arti­fi­cielle, à mon sens, ce sera plu­tôt le jour où une machine pani­que­ra face à la mort.