Une voiture autonome devra-t-elle choisir de foncer sur un cycliste, le tuant à coup sûr, pour éviter une collision certaine et sauver la vie de plusieurs personnes dans la voiture? C'est la question que se posent de nombreuses personnes, comme notre blogueur Olivier Dumon (ici) ou Alain Bensoussan, dans son exposé d'une situation improbable, mais pas impossible, lors d'une conférence Ted:
http://www.huffingtonpost.fr/2016/03/05 ... 81874.html
Qui est responsable d'un accident de voiture autonome? La question fait froid dans le dos
Le HuffPost | Par Grégory Rozières
Publication: 05/03/2016 08h35 CET Mis à jour: il y a 51 minutesShare
TECHNO - Coup de tonnerre dans le monde des enthousiastes technophiles: la voiture autonome de Google vient d'avoir son premier accident responsable. Certes, celui-ci a eu lieu à 3 km/h dans des conditions particulières. Certes, ces véhicules ont parcouru plus de 2,2 millions de kilomètres avant de commettre leur première faute. Certes, des analystes affirment que le nombre d'accidents sera réduit de 80% d'ici 25 ans grâce aux voitures sans conducteur.
Il n'en demeure pas moins qu'une question se pose: qui est responsable quand une voiture conduite par un robot, un algorithme, provoque l'accident? Et le diable est dans les détails, car derrière cette question à l'apparence juridique et banale se cache un abysse qui fait tourner la tête et peut se résumer ainsi: les voitures autonomes auront-elles à choisir entre la vie de leur(s) passager(s) et celle de personnes extérieures au véhicule? "Toutes ces questions ne sont peut-être pas pour demain... mais pour après-demain", professe François Nedey, directeur technique, assurance de biens et responsabilités chez Allianz.
Déplacer la faute du conducteur au constructeur
Actuellement, c'est la convention de Vienne qui chapeaute la question de la responsabilité. Et elle est assez claire: le conducteur est responsable. Point barre ou presque. "Cette année, une modification permet de prendre en compte à la marge le fait qu'un dispositif puisse assister la conduite pendant un court instant", explique François Nedey. D'ailleurs, les constructeurs de véhicules semi-autonomes, à l'instar de Tesla, précisent bien au client qu'ils doivent être attentifs et être prêts à reprendre le volant à tout moment.
Par contre, la loi ne dit rien d'un véhicule entièrement autonome. Actuellement, pour procéder à une expérimentation sur route publique, il faut suivre une procédure complexe, en France comme aux Etats-Unis. Google est justement en attente d'une loi plus claire en Californie, espérant, comme le suggère un document interne du gouvernement, qu'une voiture sans volant, entièrement autonome, pourra circuler à des fins d'expérimentation.
"Dans tous les cas, il faudra modifier la loi pour faire passer la responsabilité du conducteur au constructeur," estime François Nedey. Un changement qui pose plusieurs questions.
Voiture ou algorithme, qui sera le coupable
L'avocat spécialiste des nouvelles technologies Alain Bensoussan, interrogé par Le HuffPost, estime également que le droit se dirigera vers une "responsabilité sans faute". C'est-à-dire qu'une société sera tenue pour responsable, afin que la victime soit dédommagée quasi-automatiquement. Ensuite, ce sera à ce responsable de prouver à quoi est dû l'accident: un capteur défaillant, un problème mécanique ou encore un bug de l'algorithme, et de se faire rembourser le cas échéant. "Le problème ce ne sera pas la voiture, ce sera l'algorithme", estime même l'avocat, qui pense que c'est le créateur du logiciel d'autonomie qui devrait être le responsable par défaut.
Google, Volvo et Mercedes ont déjà affirmé qu'ils accepteront de prendre la responsabilité juridique en cas d'accident causé par leur voiture autonome.
Mais si accident il y a, quelle sera la forme du constat? Que vaudra la parole d'un humain face aux milliers de données analysées par une machine? "Elle vaudra si elle arrive à démontrer une défaillance technique, par exemple de l'algorithme", estime l'avocat. Et de préciser que "l'erreur robot est bien plus faible que l'erreur humaine".
"Nous pensons qu'il y aura des boîtes noires dans les voitures, qui ne seront pas accessibles au constructeur uniquement, juge et partie en cas de litige, mais à tous les intervenants", renchérit François Nedey. Car actuellement, "il faut croire Google sur parole".
Tuer une personne pour en sauver cinq
Si ces questions vous donnent le tournis, vous n'êtes pas au bout de votre peine. Car la vraie interrogation philosophique n'est pas de savoir si la voiture autonome est responsable, mais plutôt de quel type d'accident elle peut être, volontairement, responsable.
Dans quelques décennies, un algorithme devrait être capable de détecter bien plus d'informations de son environnement qu'un être humain. Il sera surtout capable de réagir tellement rapidement qu'il lui sera demandé de jauger de vrais choix moraux.
Une voiture autonome devra-t-elle choisir de foncer sur un cycliste, le tuant à coup sûr, pour éviter une collision certaine et sauver la vie de plusieurs personnes dans la voiture? C'est la question que se posent de nombreuses personnes, comme notre blogueur Olivier Dumon (ici) ou Alain Bensoussan, dans son exposé d'une situation improbable, mais pas impossible, lors d'une conférence Ted:
Cette question fait clairement penser au dilemme du tramway. Dans cette expérience de psychologie, un tramway s'engage sur une voie à travers un canyon où se trouve un groupe de cinq personnes. Le tramway n'a pas le temps de freiner. Mais vous avez la possibilité d'actionner un bouton pour changer l'aiguillage et envoyer le véhicule sur une voie similaire où une seule personne se trouve. Que faites-vous?
Si environ neuf personnes sur dix choisissent de sacrifier une personne pour en sauver cinq, elles sont bien moins nombreuses (38%) quand le seul moyen d'arrêter le tramway est de pousser un homme obèse sur la voie.
Ce dilemme philosophique entre éthiques utilitariste (la fin justifie les moyens) et déontologique (il faut respecter ses devoirs) devra dans quelques années être tranchées et inscrit dans le code informatique des algorithmes qui gouverneront nos automobiles.
Vers des lois de la robotique?
Les perspectives sont ahurissantes. Même si l'on tranche le dilemme en faveur des utilitaristes, "une voiture devra-t-elle choisir de se suicider et tuer son occupant pour sauver un plus grand nombre de personnes", interroge Alain Bensoussan? Et si la voiture est conduite par un être humain, qui roule en sens inverse sur les voies et est donc clairement en faute?
Ce que l'on perçoit derrière toutes ces questions fait furieusement penser aux trois lois de la robotique, imaginées par l'écrivain de science-fiction Isaac Asimov.
un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger
un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi
un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi
Au fil des années, l'écrivain interrogea ces lois, les poussant dans leurs limites et imaginant finalement une loi zéro affirmant que la protection de l'humanité prévalait sur la protection de l'individu. Un choix clairement utilitariste.
"Mais aujourd'hui ce n'est plus de la science-fiction, on rentre en plein dedans" estime François Nedey. "Cela pose de nombreuses questions, même si l'on tranche ces choix moraux: y aura-t-il des normes générales pour les logiciels? Et comment aura-t-on accès aux décisions des algorithmes, comment nous assurerons-nous de leur respect de règles établies?"
L'assureur et l'avocat sont en tout cas entièrement d'accord sur un point: il faut que la société civile décide de ces lois de la robotique, ou des algorithmes, et ne laissent pas les constructeurs faire ces choix.