Calme comme un ordinateur

08.11.2016 par Didier Nordon, dans Uncategorized

L’économiste Christophe Salvat (Le Monde, 28 octobre 2016) donne un exemple de problème qu’auront à gérer les ordinateurs des voitures autonomes. « Imaginez que vous rouliez à grande vitesse lorsqu’un enfant s’élance devant la voiture. Il est impossible de la stopper sur une aussi courte distance. Tout droit, vous tuez l’enfant ; à gauche, vous tuez le cycliste qui arrive en face ; et à droite, vous vous tuez. Quelle action est la “bonne“ ? ».
Je m’y vois ! Affolé, je fais n’importe quoi, ma réaction incontrôlée tue et l’enfant et le cycliste et moi... Vivement les voitures « intelligentes » ! Leurs ordinateurs ne s’affoleront pas comme un humain, mais se comporteront selon la rationalité programmée par les constructeurs. Sauf que, pour l’instant, un problème est sans solution : il n’existe pas d’éthique admise par tous autorisant à hiérarchiser les maux afin de choisir le moindre - dans l’exemple ci-dessus, comparer la valeur des vies en danger et sacrifier celle qui en a le moins.
Nous sommes habitués à un monde où certains drames sont causés, ou amplifiés, par les réactions irrationnelles que provoque la panique. Un monde où toutes les décisions sont prises par des ordinateurs programmés pour réagir aux urgences de façon rationnelle est hors de portée actuelle. A supposer qu’on y arrive, sera-t-il moins souvent théâtre de drames ?


7 commentaires pour “Calme comme un ordinateur”

  1. claudio Répondre | Permalink

    En utilisant les trois lois de la robotique d'Isaac Asimov, il n'y a pas de solution à ce problème théorique ?!
    Je dis théorique parce que la situation physique décrite me semble infiniment peu probable, irréaliste en fait, et, à supposer qu'elle se produise, il me semble vain d'espérer une réponse rationnelle (ou bonne), même donnée par une machine, qui n'existe pas.

    • Yves Répondre | Permalink

      Bonjour,
      plusieurs dizaines de nouvelles et des romans à foison ont démontré que malgré leur simplicité évidente, les 3 lois amènent à des problèmes insolubles par les robots

  2. Dr Goulu Répondre | Permalink

    La réponse au dilemme donnée lue dans un article (peut-être bien dans Pour la Science...) est de ne pas permettre au dilemme de se présenter. L'IA ne doit pas "rouler à grande vitesse" dans ce cas. Ou alors il faut modifier la situation : vous venez de subir une attaque cardiaque et si la voiture roule trop lentement vous mourrez avant l'hôpital...

    • K von Murphy Répondre | Permalink

      Le dilemme se présentera forcément un jour, même avec une IA irréprochable.
      Les freins peuvent lâcher et il faudra choisir où se crasher.
      Un abruti peut traverser l’autoroute (j’ai déjà vu) ou un motard tomber, et il faudra choisir entre l’écraser ou provoquer un carambolage.
      Une voiture peut arrive en contresens.

      On trouvera toujours des dilemmes plus insolubles les uns que les autres, et les règles finiront par être fixées un peu par compromis par la loi, par exemple : la voiture doit d'abord protéger les vies humaines et s’il n’y a pas de bon choix elle doit d’abord ne pas porter préjudice à autrui (quitte à sacrifier les passagers - lesquels oublieront vite face au côté pratique de la chose et à la sécurité globalement bien meilleure au final ; et cela motivera les constructeurs à optimiser les sécurités actives et passives). Le débat va être intéressant.

      • Dr. Goulu Répondre | Permalink

        Par apprentissage l'IA va minimiser le coût pour la personne/entreprise que les tribunaux considéreront comme responsable...

  3. Jack Teste-Sert Répondre | Permalink

    La réponse semble assez évidente : la programmation de la voiture autonome ne devrait pas permettre ce cas de figure, ou ne pas dévier de sa trajectoire, comme le ferait le conducteur s'il n'a pas le temps et la place pour réagir. En plus, prévoir une totale "autonomie"" du véhicule est une aberration (genre Google sans volant ni pédale..., une bétise complète !), car tout possesseur d"'un véhicule doit rester responsable et maître de kui !

  4. Philippe Répondre | Permalink

    Lorsque les IA seront vraiment I, après analyse de toutes les données à disposition, elles décideront que pour son propre bien et la sécurité de tous, aucun être humain ne peut raisonnablement être autorisé à sortir de chez lui, ni placé en position de décider pour lui ou les autres. D'ailleurs on nous y prépare déjà si bien, que le jour venu le passage se fera presque en douceur. Après tout, un monde sans aucun risque et où il ne ferait jamais froid ni faim peut être tentant à première vue. C'est toute la thématique de la (bonne) SF depuis fort longtemps, un sport longtemps dédaigné mais dont le statut des prédictions les plus pessimistes se transforme avec le temps de pure fiction en possible et bientôt en probable si on n'y prend garde.

Publier un commentaire