Chauffeur automatique

La semaine der­nière, le Neva­da a homo­lo­gué cer­tains véhi­cules auto­ma­tiques, auto­ri­sant par là même les expé­ri­men­ta­tions gran­deur nature dans la vraie cir­cu­la­tion — après de nom­breuses années de tests sans cir­cu­la­tion, puis entre voi­tures auto­ma­tiques, puis mélan­geant voi­tures auto­ma­tiques et conduc­teurs par­ti­ci­pant à l’expérience.

Je suis un peu sur­pris, je l’a­voue, des réac­tions des com­men­ta­teurs. Il y a en effet une pro­por­tion non négli­geable de gens qui craignent les plan­tages, annoncent déjà l’im­pos­si­bi­li­té pour une machine de réagir intel­li­gem­ment à une situa­tion impré­vue, ou demandent nar­quoi­se­ment si l’or­di­na­teur sau­ra rem­plir un constat.

Un petit rap­pel s’impose.

Nous pre­nons qua­si­ment tous, régu­liè­re­ment, des véhi­cules automatiques.

Il y a bien sûr les métros et navettes fer­ro­viaires auto­nomes, qui évo­luent dans un uni­vers contrô­lé : ils ont leurs propres voies, leur propre sys­tème de gui­dage (sou­vent mutua­li­sé) et n’ont théo­ri­que­ment pas à gérer d’autre cir­cu­la­tion que la leur.

Il y a, sur­tout, les avions de ligne.

Le rôle d’un pilote de ligne, aujourd’­hui, est essen­tiel­le­ment d’en­re­gis­trer le plan de vol dans l’or­di­na­teur de bord, de conduire l’ap­pa­reil en bout de piste, de mettre les gaz sur TO/GA, de tirer le manche après VR, puis d’ac­ti­ver le pilote auto­ma­tique et la pous­sée auto­ma­tique en affi­chant la vitesse de croi­sière sur le tableau de bord.

On fait ain­si voler ensemble des avions aux per­for­mances extrê­me­ment variées, dont cer­tains sont en pilo­tage auto­ma­tique (avec un pilote en fonc­tion qui sur­veille ce qui se passe) et d’autres en pilo­tage manuel. Certes, il y a une régu­la­tion exté­rieure, mais il y a aus­si col­la­bo­ra­tion entre les véhi­cules : deux avions en tra­jec­toire de col­li­sion peuvent dis­cu­ter entre eux pour déci­der que l’un monte et l’autre des­cende. Ces sys­tèmes, notam­ment le TCAS II obli­ga­toire sur les avions de trans­port en Europe (pas­sés 19 sièges ou 5,7 tonnes au décol­lage), fonc­tionnent plu­tôt bien, au point que s’ils disent de mon­ter au moment où un contrô­leur aérien dit de des­cendre, c’est l’or­di­na­teur qui gagne.

Et si l’on regarde l’his­toire des acci­dents et inci­dents aériens ces der­nières années, on se rend compte que les acci­dents cau­sés par un ordi­na­teur sont raris­simes. Je crois même que pour en trou­ver, il faut prendre en compte les cas où la prin­ci­pale faute de l’or­di­na­teur est d’a­voir sans attendre ren­du la main aux humains ou de leur avoir don­né des infor­ma­tions confuses, comme dans ce célèbre cas d’un pilote qui dit “j’ai les com­mandes”, puis fait décro­cher l’a­vion et le main­tient ain­si jus­qu’au crash en ten­tant de faire taire les alarmes. Au pas­sage, je viens de réa­li­ser que si l’or­di­na­teur avait été pro­gram­mé pour ne pas comp­ter sur les humains et essayer de trou­ver une solu­tion (ne serait-ce que voler droit sur la base des don­nées GPS jus­qu’à avoir une mesure de vitesse cohé­rente), cet avion serait peut-être arri­vé entier…

En revanche, les acci­dents cau­sés par un ou plu­sieurs bipèdes, on en trouve à la pelle, à com­men­cer par le Tupo­lev qui s’est plan­té dans un Boeing parce que son pilote a écou­té le contrô­leur plu­tôt que le TCAS.

Reve­nons aux voi­tures. J’ai vu plu­sieurs fois un argu­ment-choc : avec les assis­tances à la conduite — contrôle de vitesse, contrôle de sta­bi­li­té, ABS, etc. —, les conduc­teurs seraient déres­pon­sa­bi­li­sés et les acci­dents aug­men­te­raient. Il est clair, au pas­sage, que l’ar­gu­ment joue contre les aides à la conduite, et qu’il y a bien une poi­gnée de types qui se sont endor­mis sur l’au­to­route et dont on peut se deman­der s’ils l’au­raient fait s’ils avaient été occu­pés à gar­der leurs 130 km/h, au lieu de faire confiance à leur voi­ture pour main­te­nir son allure et même frei­ner en cas d’obs­tacle. Et il est aus­si clair que ces aides à la conduite ont évi­té plus encore d’ac­ci­dents, en ne lais­sant pas par­tir en tou­pie une voi­ture dont le chauf­feur venait de don­ner un coup de volant ou de frein lar­ge­ment déraisonnable…

De là à pré­tendre que don­ner le contrôle à un ordi­na­teur aug­mente encore la dis­trac­tion des conduc­teurs, et donc les acci­dents, je suis déso­lé, mais c’est de la couille en barres, comme on dit par chez moi.

Soyons clair : à un conduc­teur en viande déjà dis­trait et som­no­lant, on ajoute un conduc­teur en sili­cium qui, lui, res­te­ra concen­tré, et sous pré­texte que celui-ci serait moins intel­li­gent et moins bien pro­gram­mé (ce qui reste à prou­ver, soit dit en pas­sant), on craint pour la sécu­ri­té de l’ensemble.

Je suis peut-être étrange, mais je pré­fère un conduc­teur un peu con et réveillé à un conduc­teur qui pionce intelligemment.

Quant à la sup­po­sée inca­pa­ci­té de l’or­di­na­teur à faire face à l’im­pré­vu, com­ment dire… Il n’y a pas dix mille impré­vus sur la route. Vous pou­vez avoir affaire à une modi­fi­ca­tion de la route — chan­ge­ment d’adhé­rence, effon­dre­ment de ter­rain par exemple —, à un obs­tacle fixe ou à un obs­tacle mobile.

Le chan­ge­ment d’adhé­rence n’est pas un obs­tacle, et ne pose de pro­blème que dans la mesure où on arri­ve­rait sur une sur­face moins adhé­rente à une vitesse trop éle­vée et alors qu’une manœuvre est néces­saire. Un ordi­na­teur peut détec­ter l’hu­mi­di­té, le ver­glas ou l’huile plus pré­ci­sé­ment que l’hu­main, donc fran­che­ment, si ce chan­ge­ment est dan­ge­reux pour l’or­di­na­teur, je n’i­ma­gine pas qu’il soit moins dan­ge­reux pour l’humain.

L’ef­fon­dre­ment de ter­rain, l’or­di­na­teur le détecte comme l’hu­main, et n’a rien d’autre à faire que lui : piler.

L’obs­tacle fixe se gère comme l’ef­fon­dre­ment de ter­rain, et l’obs­tacle mobile est pareil sauf qu’il faut anti­ci­per ses tra­jec­toires pos­sibles. En outre, il suf­fit d’a­jou­ter une zone de sécu­ri­té autour de l’obs­tacle pour s’as­su­rer de pas s’y plan­ter. C’est ce que font les TCAS : ils ne prennent pas en compte seule­ment la posi­tion des autres avions, mais aus­si leurs tra­jec­toires, avec une grosse bulle consi­dé­rée comme impé­né­trable autour. Et au pas­sage, si on pro­gramme un ordi­na­teur pour gar­der une bulle d’un mètre cin­quante autour d’un cycliste, il res­te­ra der­rière le vélo jus­qu’à pou­voir le dépas­ser avec cette marge : il ne va pas dou­bler comme une gros con en le frô­lant, quitte à le dés­équi­li­brer au passage.

Reste un cas : le choix entre plu­sieurs obs­tacles inévi­tables. L’exemple régu­liè­re­ment cité est un véhi­cule impré­vu à un car­re­four, alors que des pié­tons tra­versent. Il est géné­ra­le­ment admis que pour limi­ter la casse, il vaut mieux taper l’autre véhi­cule que les humains.

Bien.

Met­tons-nous une seconde en situa­tion. Vous arri­vez à un car­re­four. Un camion grille le feu au moment où vous essayez de pas­ser. Vous avez le choix : per­cu­ter le poids lourd ou faire un écart et trans­for­mer un lot de pié­tons en lasagnes à la Bolognaise.

Vous faites quoi ?

Si vous êtes un humain nor­mal, vous ne choi­sis­sez pas la solu­tion qui épargne le groupe, mais celle qui vous épargne, vous. Camion bat pié­tons, vous fon­cez sur les pié­tons. Et en fait, vous ne choi­sis­sez même pas : votre peur, votre ins­tinct de conser­va­tion, choi­sissent pour vous.

À l’in­verse, il est facile de pro­gram­mer l’or­di­na­teur avec dif­fé­rents niveaux de prio­ri­té. De lui dire que pié­tons bat camion. Voire d’anti­ci­per les dégâts annexes pos­sibles : esti­mer, selon l’angle et la force d’im­pact, les tra­jec­toires finales des véhi­cules — par exemple, si le camion lui-même risque de finir sur les pié­tons — et choi­sir la solu­tion qui réduit la casse au minimum.

Ça n’est certes pas ras­su­rant pour les pas­sa­gers d’un véhi­cule, mais en confiant le pilo­tage à une machine, il est pos­sible de prendre la meilleure déci­sion, même si elle implique un sacri­fice qu’au­cun conduc­teur n’en­vi­sa­ge­rait jamais de lui-même (les aspi­rants mar­tyrs mis à part). C’est de loin pré­fé­rable à un conduc­teur humain.

Est-il envi­sa­geable qu’il traîne des bugs ? Oui, bien sûr. Mais pour l’heure, il n’est pas ques­tion de sup­pri­mer l’élé­ment humain : les véhi­cules auto­nomes auto­ri­sés à cir­cu­ler nor­ma­le­ment doivent avoir un conduc­teur de chair et d’os, à même de reprendre le contrôle en cas de problème.

Bref, on est dans la situa­tion des avions. En cas de pépin, une alerte signale au chauf­feur qu’il a le contrôle et que c’est désor­mais à lui de se démer­der. Et il n’y a pas de rai­son d’i­ma­gi­ner que si le pilote auto­ma­tique amé­liore la sécu­ri­té des avions, il dégrade celle des voitures.

Et fran­che­ment, je suis convain­cu que les ordi­na­teurs feront moins de fautes que les humains, et que les acci­dents évi­tés parce que le robot aura effec­ti­ve­ment réduit sa vitesse en arri­vant dans un brouillard à cou­per au cou­teau seront plus nom­breux que ceux cau­sés par un plan­tage du programme.