Chauffeur automatique

La semaine dernière, le Nevada a homologué certains véhicules automatiques, autorisant par là même les expérimentations grandeur nature dans la vraie circulation — après de nombreuses années de tests sans circulation, puis entre voitures automatiques, puis mélangeant voitures automatiques et conducteurs participant à l’expérience.

Je suis un peu surpris, je l’avoue, des réactions des commentateurs. Il y a en effet une proportion non négligeable de gens qui craignent les plantages, annoncent déjà l’impossibilité pour une machine de réagir intelligemment à une situation imprévue, ou demandent narquoisement si l’ordinateur saura remplir un constat.

Un petit rappel s’impose.

Nous prenons quasiment tous, régulièrement, des véhicules automatiques.

Il y a bien sûr les métros et navettes ferroviaires autonomes, qui évoluent dans un univers contrôlé : ils ont leurs propres voies, leur propre système de guidage (souvent mutualisé) et n’ont théoriquement pas à gérer d’autre circulation que la leur.

Il y a, surtout, les avions de ligne.

Le rôle d’un pilote de ligne, aujourd’hui, est essentiellement d’enregistrer le plan de vol dans l’ordinateur de bord, de conduire l’appareil en bout de piste, de mettre les gaz sur TO/GA, de tirer le manche après VR, puis d’activer le pilote automatique et la poussée automatique en affichant la vitesse de croisière sur le tableau de bord.

On fait ainsi voler ensemble des avions aux performances extrêmement variées, dont certains sont en pilotage automatique (avec un pilote en fonction qui surveille ce qui se passe) et d’autres en pilotage manuel. Certes, il y a une régulation extérieure, mais il y a aussi collaboration entre les véhicules : deux avions en trajectoire de collision peuvent discuter entre eux pour décider que l’un monte et l’autre descende. Ces systèmes, notamment le TCAS II obligatoire sur les avions de transport en Europe (passés 19 sièges ou 5,7 tonnes au décollage), fonctionnent plutôt bien, au point que s’ils disent de monter au moment où un contrôleur aérien dit de descendre, c’est l’ordinateur qui gagne.

Et si l’on regarde l’histoire des accidents et incidents aériens ces dernières années, on se rend compte que les accidents causés par un ordinateur sont rarissimes. Je crois même que pour en trouver, il faut prendre en compte les cas où la principale faute de l’ordinateur est d’avoir sans attendre rendu la main aux humains ou de leur avoir donné des informations confuses, comme dans ce célèbre cas d’un pilote qui dit « j’ai les commandes », puis fait décrocher l’avion et le maintient ainsi jusqu’au crash en tentant de faire taire les alarmes. Au passage, je viens de réaliser que si l’ordinateur avait été programmé pour ne pas compter sur les humains et essayer de trouver une solution (ne serait-ce que voler droit sur la base des données GPS jusqu’à avoir une mesure de vitesse cohérente), cet avion serait peut-être arrivé entier…

En revanche, les accidents causés par un ou plusieurs bipèdes, on en trouve à la pelle, à commencer par le Tupolev qui s’est planté dans un Boeing parce que son pilote a écouté le contrôleur plutôt que le TCAS.

Revenons aux voitures. J’ai vu plusieurs fois un argument-choc : avec les assistances à la conduite — contrôle de vitesse, contrôle de stabilité, ABS, etc. —, les conducteurs seraient déresponsabilisés et les accidents augmenteraient. Il est clair, au passage, que l’argument joue contre les aides à la conduite, et qu’il y a bien une poignée de types qui se sont endormis sur l’autoroute et dont on peut se demander s’ils l’auraient fait s’ils avaient été occupés à garder leurs 130 km/h, au lieu de faire confiance à leur voiture pour maintenir son allure et même freiner en cas d’obstacle. Et il est aussi clair que ces aides à la conduite ont évité plus encore d’accidents, en ne laissant pas partir en toupie une voiture dont le chauffeur venait de donner un coup de volant ou de frein largement déraisonnable…

De là à prétendre que donner le contrôle à un ordinateur augmente encore la distraction des conducteurs, et donc les accidents, je suis désolé, mais c’est de la couille en barres, comme on dit par chez moi.

Soyons clair : à un conducteur en viande déjà distrait et somnolant, on ajoute un conducteur en silicium qui, lui, restera concentré, et sous prétexte que celui-ci serait moins intelligent et moins bien programmé (ce qui reste à prouver, soit dit en passant), on craint pour la sécurité de l’ensemble.

Je suis peut-être étrange, mais je préfère un conducteur un peu con et réveillé à un conducteur qui pionce intelligemment.

Quant à la supposée incapacité de l’ordinateur à faire face à l’imprévu, comment dire… Il n’y a pas dix mille imprévus sur la route. Vous pouvez avoir affaire à une modification de la route — changement d’adhérence, effondrement de terrain par exemple —, à un obstacle fixe ou à un obstacle mobile.

Le changement d’adhérence n’est pas un obstacle, et ne pose de problème que dans la mesure où on arriverait sur une surface moins adhérente à une vitesse trop élevée et alors qu’une manœuvre est nécessaire. Un ordinateur peut détecter l’humidité, le verglas ou l’huile plus précisément que l’humain, donc franchement, si ce changement est dangereux pour l’ordinateur, je n’imagine pas qu’il soit moins dangereux pour l’humain.

L’effondrement de terrain, l’ordinateur le détecte comme l’humain, et n’a rien d’autre à faire que lui : piler.

L’obstacle fixe se gère comme l’effondrement de terrain, et l’obstacle mobile est pareil sauf qu’il faut anticiper ses trajectoires possibles. En outre, il suffit d’ajouter une zone de sécurité autour de l’obstacle pour s’assurer de pas s’y planter. C’est ce que font les TCAS : ils ne prennent pas en compte seulement la position des autres avions, mais aussi leurs trajectoires, avec une grosse bulle considérée comme impénétrable autour. Et au passage, si on programme un ordinateur pour garder une bulle d’un mètre cinquante autour d’un cycliste, il restera derrière le vélo jusqu’à pouvoir le dépasser avec cette marge : il ne va pas doubler comme une gros con en le frôlant, quitte à le déséquilibrer au passage.

Reste un cas : le choix entre plusieurs obstacles inévitables. L’exemple régulièrement cité est un véhicule imprévu à un carrefour, alors que des piétons traversent. Il est généralement admis que pour limiter la casse, il vaut mieux taper l’autre véhicule que les humains.

Bien.

Mettons-nous une seconde en situation. Vous arrivez à un carrefour. Un camion grille le feu au moment où vous essayez de passer. Vous avez le choix : percuter le poids lourd ou faire un écart et transformer un lot de piétons en lasagnes à la Bolognaise.

Vous faites quoi ?

Si vous êtes un humain normal, vous ne choisissez pas la solution qui épargne le groupe, mais celle qui vous épargne, vous. Camion bat piétons, vous foncez sur les piétons. Et en fait, vous ne choisissez même pas : votre peur, votre instinct de conservation, choisissent pour vous.

À l’inverse, il est facile de programmer l’ordinateur avec différents niveaux de priorité. De lui dire que piétons bat camion. Voire d’anticiper les dégâts annexes possibles : estimer, selon l’angle et la force d’impact, les trajectoires finales des véhicules — par exemple, si le camion lui-même risque de finir sur les piétons — et choisir la solution qui réduit la casse au minimum.

Ça n’est certes pas rassurant pour les passagers d’un véhicule, mais en confiant le pilotage à une machine, il est possible de prendre la meilleure décision, même si elle implique un sacrifice qu’aucun conducteur n’envisagerait jamais de lui-même (les aspirants martyrs mis à part). C’est de loin préférable à un conducteur humain.

Est-il envisageable qu’il traîne des bugs ? Oui, bien sûr. Mais pour l’heure, il n’est pas question de supprimer l’élément humain : les véhicules autonomes autorisés à circuler normalement doivent avoir un conducteur de chair et d’os, à même de reprendre le contrôle en cas de problème.

Bref, on est dans la situation des avions. En cas de pépin, une alerte signale au chauffeur qu’il a le contrôle et que c’est désormais à lui de se démerder. Et il n’y a pas de raison d’imaginer que si le pilote automatique améliore la sécurité des avions, il dégrade celle des voitures.

Et franchement, je suis convaincu que les ordinateurs feront moins de fautes que les humains, et que les accidents évités parce que le robot aura effectivement réduit sa vitesse en arrivant dans un brouillard à couper au couteau seront plus nombreux que ceux causés par un plantage du programme.

  • faire FACE à l’imprévu. Il manque le « face ».

    Perso, la seule question que je me pose c’est surtout de savoir si la technologie est assez mature.

  • Ah oui, tiens, c’est mieux avec « face », en effet.
    Ceci dit, ce sont bien les réactions paniquées qui me font m’interroger, les gens qui sans se poser de question décrètent qu’il ne faut pas envoyer de robots sur la route, mais je trouverais aussi inquiétant qu’on les balance dans la circulation sans test préalable et sans conducteur humain à bord. Après, se poser des questions, c’est normal, c’est justement pour y répondre que les tests avec pilote de secours sont faits.

  • Sinon, je trouverais ça trop cool :p

    Franchement, les trajets de plusieurs heures, si on pouvait mettre sur « pilote auto » et faire autre chose…

  • Pareil. Quitte à savoir qu’il faut surveiller un peu et se tenir prêt à intervenir si une alarme « je rends la main, démerde-toi » retentit.