Chauffeur automatique

La semaine der­nière, le Neva­da a homo­lo­gué cer­tains véhi­cules auto­ma­tiques, auto­ri­sant par là même les expé­ri­men­ta­tions gran­deur nature dans la vraie cir­cu­la­tion — après de nom­breuses années de tests sans cir­cu­la­tion, puis entre voi­tures auto­ma­tiques, puis mélan­geant voi­tures auto­ma­tiques et conduc­teurs par­ti­ci­pant à l’expérience.

Je suis un peu sur­pris, je l’avoue, des réac­tions des com­men­ta­teurs. Il y a en effet une pro­por­tion non négli­geable de gens qui craignent les plan­tages, annoncent déjà l’impossibilité pour une machine de réagir intel­li­gem­ment à une situa­tion impré­vue, ou demandent nar­quoi­se­ment si l’ordinateur sau­ra rem­plir un constat.

Un petit rap­pel s’impose.

Nous pre­nons qua­si­ment tous, régu­liè­re­ment, des véhi­cules auto­ma­tiques.

Il y a bien sûr les métros et navettes fer­ro­viaires auto­nomes, qui évo­luent dans un uni­vers contrô­lé : ils ont leurs propres voies, leur propre sys­tème de gui­dage (sou­vent mutua­li­sé) et n’ont théo­ri­que­ment pas à gérer d’autre cir­cu­la­tion que la leur.

Il y a, sur­tout, les avions de ligne.

Le rôle d’un pilote de ligne, aujourd’hui, est essen­tiel­le­ment d’enregistrer le plan de vol dans l’ordinateur de bord, de conduire l’appareil en bout de piste, de mettre les gaz sur TO/GA, de tirer le manche après VR, puis d’activer le pilote auto­ma­tique et la pous­sée auto­ma­tique en affi­chant la vitesse de croi­sière sur le tableau de bord.

On fait ain­si voler ensemble des avions aux per­for­mances extrê­me­ment variées, dont cer­tains sont en pilo­tage auto­ma­tique (avec un pilote en fonc­tion qui sur­veille ce qui se passe) et d’autres en pilo­tage manuel. Certes, il y a une régu­la­tion exté­rieure, mais il y a aus­si col­la­bo­ra­tion entre les véhi­cules : deux avions en tra­jec­toire de col­li­sion peuvent dis­cu­ter entre eux pour déci­der que l’un monte et l’autre des­cende. Ces sys­tèmes, notam­ment le TCAS II obli­ga­toire sur les avions de trans­port en Europe (pas­sés 19 sièges ou 5,7 tonnes au décol­lage), fonc­tionnent plu­tôt bien, au point que s’ils disent de mon­ter au moment où un contrô­leur aérien dit de des­cendre, c’est l’ordinateur qui gagne.

Et si l’on regarde l’histoire des acci­dents et inci­dents aériens ces der­nières années, on se rend compte que les acci­dents cau­sés par un ordi­na­teur sont raris­simes. Je crois même que pour en trou­ver, il faut prendre en compte les cas où la prin­ci­pale faute de l’ordinateur est d’avoir sans attendre ren­du la main aux humains ou de leur avoir don­né des infor­ma­tions confuses, comme dans ce célèbre cas d’un pilote qui dit “j’ai les com­mandes”, puis fait décro­cher l’avion et le main­tient ain­si jusqu’au crash en ten­tant de faire taire les alarmes. Au pas­sage, je viens de réa­li­ser que si l’ordinateur avait été pro­gram­mé pour ne pas comp­ter sur les humains et essayer de trou­ver une solu­tion (ne serait-ce que voler droit sur la base des don­nées GPS jusqu’à avoir une mesure de vitesse cohé­rente), cet avion serait peut-être arri­vé entier…

En revanche, les acci­dents cau­sés par un ou plu­sieurs bipèdes, on en trouve à la pelle, à com­men­cer par le Tupo­lev qui s’est plan­té dans un Boeing parce que son pilote a écou­té le contrô­leur plu­tôt que le TCAS.

Reve­nons aux voi­tures. J’ai vu plu­sieurs fois un argu­ment-choc : avec les assis­tances à la conduite — contrôle de vitesse, contrôle de sta­bi­li­té, ABS, etc. —, les conduc­teurs seraient déres­pon­sa­bi­li­sés et les acci­dents aug­men­te­raient. Il est clair, au pas­sage, que l’argument joue contre les aides à la conduite, et qu’il y a bien une poi­gnée de types qui se sont endor­mis sur l’autoroute et dont on peut se deman­der s’ils l’auraient fait s’ils avaient été occu­pés à gar­der leurs 130 km/h, au lieu de faire confiance à leur voi­ture pour main­te­nir son allure et même frei­ner en cas d’obstacle. Et il est aus­si clair que ces aides à la conduite ont évi­té plus encore d’accidents, en ne lais­sant pas par­tir en tou­pie une voi­ture dont le chauf­feur venait de don­ner un coup de volant ou de frein lar­ge­ment dérai­son­nable…

De là à pré­tendre que don­ner le contrôle à un ordi­na­teur aug­mente encore la dis­trac­tion des conduc­teurs, et donc les acci­dents, je suis déso­lé, mais c’est de la couille en barres, comme on dit par chez moi.

Soyons clair : à un conduc­teur en viande déjà dis­trait et som­no­lant, on ajoute un conduc­teur en sili­cium qui, lui, res­te­ra concen­tré, et sous pré­texte que celui-ci serait moins intel­li­gent et moins bien pro­gram­mé (ce qui reste à prou­ver, soit dit en pas­sant), on craint pour la sécu­ri­té de l’ensemble.

Je suis peut-être étrange, mais je pré­fère un conduc­teur un peu con et réveillé à un conduc­teur qui pionce intel­li­gem­ment.

Quant à la sup­po­sée inca­pa­ci­té de l’ordinateur à faire face à l’imprévu, com­ment dire… Il n’y a pas dix mille impré­vus sur la route. Vous pou­vez avoir affaire à une modi­fi­ca­tion de la route — chan­ge­ment d’adhérence, effon­dre­ment de ter­rain par exemple —, à un obs­tacle fixe ou à un obs­tacle mobile.

Le chan­ge­ment d’adhérence n’est pas un obs­tacle, et ne pose de pro­blème que dans la mesure où on arri­ve­rait sur une sur­face moins adhé­rente à une vitesse trop éle­vée et alors qu’une manœuvre est néces­saire. Un ordi­na­teur peut détec­ter l’humidité, le ver­glas ou l’huile plus pré­ci­sé­ment que l’humain, donc fran­che­ment, si ce chan­ge­ment est dan­ge­reux pour l’ordinateur, je n’imagine pas qu’il soit moins dan­ge­reux pour l’humain.

L’effondrement de ter­rain, l’ordinateur le détecte comme l’humain, et n’a rien d’autre à faire que lui : piler.

L’obstacle fixe se gère comme l’effondrement de ter­rain, et l’obstacle mobile est pareil sauf qu’il faut anti­ci­per ses tra­jec­toires pos­sibles. En outre, il suf­fit d’ajouter une zone de sécu­ri­té autour de l’obstacle pour s’assurer de pas s’y plan­ter. C’est ce que font les TCAS : ils ne prennent pas en compte seule­ment la posi­tion des autres avions, mais aus­si leurs tra­jec­toires, avec une grosse bulle consi­dé­rée comme impé­né­trable autour. Et au pas­sage, si on pro­gramme un ordi­na­teur pour gar­der une bulle d’un mètre cin­quante autour d’un cycliste, il res­te­ra der­rière le vélo jusqu’à pou­voir le dépas­ser avec cette marge : il ne va pas dou­bler comme une gros con en le frô­lant, quitte à le dés­équi­li­brer au pas­sage.

Reste un cas : le choix entre plu­sieurs obs­tacles inévi­tables. L’exemple régu­liè­re­ment cité est un véhi­cule impré­vu à un car­re­four, alors que des pié­tons tra­versent. Il est géné­ra­le­ment admis que pour limi­ter la casse, il vaut mieux taper l’autre véhi­cule que les humains.

Bien.

Met­tons-nous une seconde en situa­tion. Vous arri­vez à un car­re­four. Un camion grille le feu au moment où vous essayez de pas­ser. Vous avez le choix : per­cu­ter le poids lourd ou faire un écart et trans­for­mer un lot de pié­tons en lasagnes à la Bolo­gnaise.

Vous faites quoi ?

Si vous êtes un humain nor­mal, vous ne choi­sis­sez pas la solu­tion qui épargne le groupe, mais celle qui vous épargne, vous. Camion bat pié­tons, vous fon­cez sur les pié­tons. Et en fait, vous ne choi­sis­sez même pas : votre peur, votre ins­tinct de conser­va­tion, choi­sissent pour vous.

À l’inverse, il est facile de pro­gram­mer l’ordinateur avec dif­fé­rents niveaux de prio­ri­té. De lui dire que pié­tons bat camion. Voire d’anti­ci­per les dégâts annexes pos­sibles : esti­mer, selon l’angle et la force d’impact, les tra­jec­toires finales des véhi­cules — par exemple, si le camion lui-même risque de finir sur les pié­tons — et choi­sir la solu­tion qui réduit la casse au mini­mum.

Ça n’est certes pas ras­su­rant pour les pas­sa­gers d’un véhi­cule, mais en confiant le pilo­tage à une machine, il est pos­sible de prendre la meilleure déci­sion, même si elle implique un sacri­fice qu’aucun conduc­teur n’envisagerait jamais de lui-même (les aspi­rants mar­tyrs mis à part). C’est de loin pré­fé­rable à un conduc­teur humain.

Est-il envi­sa­geable qu’il traîne des bugs ? Oui, bien sûr. Mais pour l’heure, il n’est pas ques­tion de sup­pri­mer l’élément humain : les véhi­cules auto­nomes auto­ri­sés à cir­cu­ler nor­ma­le­ment doivent avoir un conduc­teur de chair et d’os, à même de reprendre le contrôle en cas de pro­blème.

Bref, on est dans la situa­tion des avions. En cas de pépin, une alerte signale au chauf­feur qu’il a le contrôle et que c’est désor­mais à lui de se démer­der. Et il n’y a pas de rai­son d’imaginer que si le pilote auto­ma­tique amé­liore la sécu­ri­té des avions, il dégrade celle des voi­tures.

Et fran­che­ment, je suis convain­cu que les ordi­na­teurs feront moins de fautes que les humains, et que les acci­dents évi­tés parce que le robot aura effec­ti­ve­ment réduit sa vitesse en arri­vant dans un brouillard à cou­per au cou­teau seront plus nom­breux que ceux cau­sés par un plan­tage du pro­gramme.

Voir aussi :