Turing, tu pleures

Voi­là, c’est par­tout dans la presse depuis avant-hier : un ordi­na­teur a, pour la pre­mière fois, pas­sé le test de Turing. C’est his­to­rique, un pas de géant dans l’évolution de l’intelligence arti­fi­cielle, tout ça, tout ça.

Du moins, c’est ce que dit un com­mu­ni­qué de presse de l’université de Rea­ding, oppor­tu­né­ment publié au len­de­main du bien plus dis­cret soixan­tième anni­ver­saire de la mort d’Alan Turing — curieu­se­ment, les gens n’aiment pas trop en par­ler ; c’est dom­mage, c’est une his­toire édi­fiante de per­sé­cu­tion et de pré­ju­gés homo­phobes.

Et ce com­mu­ni­qué a été repris qua­si­ment tel quel par l’ensemble de la presse, ce qui est bien dom­mage à mon avis : il est au mini­mum flou, par­fois men­son­ger, et dix minutes de Wiki­pé­dia auraient per­mis à n’importe quel rédac­teur d’approfondir lar­ge­ment son article.

D’abord, le test de Turing, c’est quoi ?

En fait, il n’y a pas un, mais des tests de Turing, celui-ci ayant pro­po­sé dif­fé­rentes implé­men­ta­tions de son “jeu d’imitation”, dès son papier Com­pu­ting machi­ne­ry and intel­li­gence publié en 1950. Toutes reposent sur un même pos­tu­lat : si, au terme d’une conver­sa­tion, un juge ne sait pas dire s’il a dia­lo­gué avec un humain ou avec une machine, cela signi­fie que la machine arrive à four­nir une imi­ta­tion par­faite de l’intelligence humaine. Dans l’implémentation la plus cou­rante, le juge converse simul­ta­né­ment avec une per­sonne et avec une machine (par écrit, his­toire de ne pas voir ses inter­lo­cu­teurs) et doit dire laquelle est en viande et laquelle est en sili­cium ; une autre implé­men­ta­tion existe sous la forme d’un simple dia­logue au terme duquel la ques­tion n’est plus “où est l’humain ?” mais “est-ce un humain ?”. On se rap­proche ici des condi­tions du test de Voigt-Kampff, pré­sen­té en 1968 dans Les androïdes rêvent-ils de mou­tons méca­niques ? de Phi­lip Dick.

Alors, Eugene (le nom du pro­gramme pri­mé avant-hier) a-t-il réel­le­ment réus­si le test ?

Ses pro­mo­teurs disent que oui : il a trom­pé 10 des 30 juges qui ont papo­té avec lui.

Je dis que non : 20 juges sur 30 ont cor­rec­te­ment iden­ti­fié l’ordinateur. Pour que le test soit réus­si, il fau­drait que l’on n’arrive pas à dis­tin­guer l’ordinateur de l’homme. Dans le cas qui nous occupe, les juges dis­cu­taient avec Eugene et avec un humain et devaient dire qui était qui ; s’ils avaient répon­du au hasard, c’est sta­tis­ti­que­ment 50 % d’identifications erro­nées qu’il fal­lait atteindre. On en est loin.

D’où vient cette limi­ta­tion arbi­traire à 30 % des juges, employée par les auteurs ? La seule trace que j’ai retrou­vée de ce nombre, c’est un extrait de l’article de Turing :

Je pense que dans une cin­quan­taine d’années, il sera pos­sible de pro­gram­mer des ordi­na­teurs, avec une capa­ci­té de sto­ckage d’environ 10⁹, pour leur faire jouer le jeu de l’imitation si bien qu’un inter­ro­ga­teur ordi­naire n’aura pas plus de 70 % de chances de pro­po­ser une iden­ti­fi­ca­tion cor­recte après cinq minutes d’interrogatoire. La ques­tion ini­tiale, “les machines peuvent-elles pen­ser ?”, est je pense trop insi­gni­fiante pour méri­ter d’être étu­diée. Néan­moins, je pense qu’à la fin du siècle, le sens des mots et l’opinion géné­ra­le­ment admise auront tel­le­ment évo­lué que l’on pour­ra par­ler de machines pen­santes sans s’attendre à être contre­dit.

Vous note­rez qu’il ne parle pas ici de réus­sir le test. Il prend un cas par­ti­cu­lier pour mon­trer que la ques­tion qui paraît absurde à son époque ne le sera plus en 2000. Il se pro­jette dans l’avenir pour don­ner un exemple d’évolution pré­vi­sible des machines, mais il ne donne aucune indi­ca­tion sur la réus­site ultime du test : le pro­gramme que per­sonne ne dis­tingue avec cer­ti­tude d’un humain.

En fait, il n’aura même pas fal­lu aus­si long­temps pour que des pro­grammes passent des tests res­treints : le célèbre Eli­za, qui n’avait rien d’une intel­li­gence arti­fi­cielle (il s’agissait en gros d’un auto­mate repre­nant en inter­ro­ga­tion les affir­ma­tions de son inter­lo­cu­teur), avait très bien réus­si à convaincre cer­tains inter­lo­cu­teurs qu’il était un psy­cho­logue, au point que cer­tains avaient déve­lop­pé une forme de dépen­dance à ce thé­ra­peute… en 1966 !

Avant-hier, c’est ce qu’a fait Eugene : il a trom­pé un cer­tain nombre de juges en un temps limi­té. Certes, le sujet des conver­sa­tions n’était pas fixé à l’avance, mais cela n’impose qu’une com­plexi­fi­ca­tion du pro­gramme et de la base de don­nées de situa­tions sur laquelle il repose ; peut-être qu’Eugene uti­lise des sché­mas d’intelligence arti­fi­cielle pour ana­ly­ser séman­ti­que­ment la conver­sa­tion, mais peut-être ne s’agit-il que d’un “agent conver­sa­tion­nel” très avan­cé, réagis­sant à tra­vers des règles pré­dé­fi­nies d’analyse de mots-clefs. Ah oui, on en sait très peu sur Eugene : ai-je dit que le com­mu­ni­qué était très flou ?

Dans tous les cas, le vrai test reste loin.

Rachael_Voight-Kampff

Je reviens une seconde à Blade run­ner (j’ai lu Les androïdes rêvent-ils de mou­tons méca­niques ? mais c’était il y a long­temps, donc je me sou­viens mieux du film). Quand Deckard teste Rachel, der­nière évo­lu­tion des répli­cants (robots simu­lant l’humanité, donc en pleine thé­ma­tique du test de Turing) qui ignore elle-même qu’elle est un répli­cant, il l’identifie cor­rec­te­ment. Mais il lui faut plus d’une cen­taine de ques­tions au lieu d’une grosse ving­taine pour les répli­cants ordi­naires.

C’est la prin­ci­pale limite de ce “test de Turing res­treint” : un pro­gramme qui réus­si­rait réel­le­ment le test de Turing tien­drait aus­si long­temps que néces­saire. Il pour­rait même cra­quer et don­ner des réponses inco­hé­rentes au bout de vingt heures sans som­meil, comme n’importe quel humain qui passe une jour­née en garde-à-vue. En cinq minutes, le test peut être raté, mais il faut une vie pour le réus­sir.

Tout ça, c’est le mini­mum qu’un jour­na­liste un mini­mum concer­né par son sujet aurait dû déter­rer en moins d’une heure. Or, à part cet article à charge qui attaque direc­te­ment les auteurs, je n’ai pas vu un confrère remettre en ques­tion les affir­ma­tions gra­tuites du com­mu­ni­qué (Mise à jour : il y a un cer­tain nombre de blo­gueurs dans mon genre, sur­tout dans le monde anglo­phone, qui l’ont fait, mais la “vraie” presse qui four­nit des infor­ma­tions “sérieuses” reste à la traîne…). Mar­tin Unter­sin­ger, du Monde, est peut-être celui qui s’en est le plus appro­ché en sou­li­gnant que Eugene se faci­li­tait la vie en pré­ten­dant être un enfant étran­ger (ce qui expli­quait les erreurs syn­taxiques ou les mau­vaises com­pré­hen­sions) et en regret­tant l’absence de vraie publi­ca­tion scien­ti­fique, mais il a tout de même oublié de reve­nir aux sources du “vrai” test : tant qu’on iden­ti­fie l’ordinateur dans la majo­ri­té des cas, il n’est pas par­fai­te­ment réus­si.

Après, on peut aus­si rap­pe­ler que le test de Turing n’est pas à pro­pre­ment par­ler un test d’intelligence arti­fi­cielle, mais un test d’imitation arti­fi­cielle du dia­logue natu­rel. J’ai déjà par­lé d’Eliza ; c’est un fait his­to­rique que les pro­grammes qui obtiennent les meilleurs résul­tats sont pour l’heure plus sou­vent des auto­mates très com­plexes (gros­so modo : “on me dit ça, je réponds ça”) que des intel­li­gences arti­fi­cielles (j’essaie de réel­le­ment com­prendre ce qu’on m’a dit).

Turing disait d’ailleurs qu’il impor­tait peu que les ordi­na­teurs soient intel­li­gents au sens où nous l’entendons, dès lors qu’ils nous donnent une impres­sion convain­cante d’intelligence. Après tout, j’accepte le pos­tu­lat de l’intelligence des autres êtres humains sim­ple­ment parce que ce que j’observe de leur com­por­te­ment me paraît reflé­ter une pen­sée ; mais ils pour­raient aus­si bien être des robots très avan­cés capables d’imiter réflexion et sen­ti­ments, ça ne modi­fie­rait en rien mon expé­rience de leur contact.

Quant au vrai test d’intelligence arti­fi­cielle, à mon sens, ce sera plu­tôt le jour où une machine pani­que­ra face à la mort.