Rien de neuf sous le soleil de l’Intelligence Artificielle


On nous parle encore d'inquiétudes vis-à-vis de dérives potentielles d'une Intelligence Artificielle. De voitures automatiques qui préfèreraient blesser un humain plutôt qu'occasionner des dégâts matériels trop couteux, ou de programmes informatiques qui espionneraient nos pratiques sur Internet pour mieux nous faire consommer. Que « L'intelligence artificielle pourrait mettre fin à l'humanité » par ci ou que « Bill Gates est « préoccupé par la superintelligence » artificielle » par .  Avant de montrer du doigt la machine diabolique et ressortir le mythe du Golem, donnons la parole à un collègue spécialiste de ces sujets Frédéric Alexandre et essayons de mieux définir de quoi nous parlons ici. 

 

Que veut dire "Intelligence"? Qu'est ce qui est "Artificiel" ici ?

Les deux facettes de l'Intelligence

Il y a eu de nombreuses façons d'essayer de cerner ce concept complexe qu'est l'intelligence, mais une nous sera particulièrement utile ici: la distinction que l'on peut faire, à la suite de Pierre Oléron [L'intelligence – 1991 de P. Oleron, Que sais-je?], entre Intelligence géométrique et Intelligence sociale (mais déjà Pascal distinguait Esprit de géométrie et Esprit de finesse). L'intelligence géométrique est rigoureuse et exclut la contradiction et l'affectivité. On la retrouve en particulier dans nos capacités de raisonnement logique. Elle s'oppose à une intelligence plus intuitive et plus globale, prenant en compte nos motivations et les valeurs émotionnelles que nous mettons sur les choses.

Cette distinction a été beaucoup utilisée pour souligner les limites de l'IA. On la retrouve dans la chambre chinoise de John Searle mais aussi dans le problème de l'ancrage du symbole de Stevan Harnard: C'est bien d'avoir des algorithmes puissants et combinatoires pour manipuler des règles et des symboles, mais quand on veut les projeter sur des problèmes concrets, il est difficile de les ancrer dans le monde réel. Si une règle me dit de faire confiance à un ami, comme puis-je définir (reconnaître) un ami? Si une règle me dit de préférer un petit désagrément physique à une grosse perte financière, comment définir "petit" et "gros" ici? Autant de pratiques que l'humain fait naturellement avec son "esprit de finesse" mais qu'une machine ne peut pas faire si elle n'est pas capable d'ancrer les objets qu'elle manipule dans le monde réel.

Qu'est-ce qui est artificiel dans l'IA?

Depuis ses origines, l'IA a beaucoup progressé et elle est capable de résoudre des problèmes de plus en plus difficiles, mais dans tous ces cas, ce qui est automatisé, c'est le raisonnement, la partie géométrique de notre intelligence. Ceci est dû à des algorithmes mathématiques et à des approches heuristiques de plus en plus perfectionnés (le Machine Learning) ainsi qu'aux progrès technologiques qui nous permettent de manipuler des bases de données de plus en plus volumineuses (le Big Data), mais les concepteurs de ces machines restent fondamentalement confrontés aux mêmes problèmes que leurs anciens: ancrer ces raisonnements super-puissants dans la réalité. Comme leur prédécesseurs, ils le font dans la définition de fonction de coût ou de distance et dans l'élaboration de corpus d'exemples et de contre-exemples qui donnent à la machine les outils pour se construire ses limites entre ami et ennemi ou entre gros et petit. Mais cette intelligence sociale, cet aspect de finesse n'est pas le produit une machine artificielle mais bien du concepteur qui l'y a introduit.

Faut-il avoir peur de l'IA ?

Il est effectivement légitime de s'inquiéter d'une machine ayant une capacité d'inférence bien supérieure à la nôtre et de se demander au service de quoi et de qui elle met cette capacité. Or, il est troublant de constater que ces firmes qui s'inquiètent des dérives potentielles de l'IA tout en produisant des voitures automatiques et des logiciels de profilage sur internet, acceptent de publier leurs algorithmes (en fait, ils sont pour la plupart issus d'équipes de recherche universitaires) mais considèrent comme secrets de fabrication ces fonctions de coût et ces corpus qui servent à étalonner ces machines, alors que le vrai risque est probablement dans la constitution (par main d'homme rappelons-le) de cet ancrage des symboles... Il conviendrait en effet de se demander, si on constatait effectivement la malfaisance d'un tel système, si la responsabilité serait à la machine qui a déployé toutes ses rouages pour exécuter son action ou à l'humain qui lui a inculqué des notions de valeurs que la machine reste incapable d'appréhender.

Quelques considérations biologiques

Pour creuser un peu plus cette question, tournons nous vers les neurosciences qui, avec Antonio Damasio et son Erreur de Descartes, nous ont donné des outils pour mieux comprendre ces phénomènes. En effet, dès les années 90, l'auteur nous a alerté sur ce qui pouvait sembler un paradoxe: le cortex préfrontal, siège de l'intelligence la plus formelle, du raisonnement et de nos capacités mathématiques est aussi une des structures cérébrales les plus fortement liées à notre système limbique, siège de nos émotions et de notre intelligence sociale. Nous prenons nos décisions non seulement aidés par les capacités logiques et combinatoires de notre cortex préfrontal mais aussi sous le contrôle de notre système limbique qui nous dit ce qui est bien ou mal pour nous, notre propre survie et l'harmonie de notre groupe social. Et ce système limbique, pour se forger ces catégories d'ami et d'ennemi, de petite douleur et de grosse perte financière, se sert de notre corps, de ses capteurs de douleur et de plaisir et de ses réflexes inconditionnels qui nous font avoir peur du vide et être attiré par le visage d'un congénère. Dans notre cerveau, intelligences géométrique et émotionnelle sont intimement liées et se développent de concert au cours de nos expériences. C'est parce que nous avons un corps souffrant et capable de plaisir que nous sommes capables d'empathie. C'est aussi pour cette raison que nous sommes responsables quand nous faisons souffrir un congénère: nous avions tout l'outillage pour ancrer notre décision dans le monde réel et comprendre dans notre chair les conséquences de nos actes (on peut d'ailleurs constater que certaines pathologies de ces circuits peuvent permettre de déclarer quelqu'un irresponsable de ses actes...).

Alors, faut-il vraiment avoir peur de l'IA ?

On peut maintenant répondre à cette question en commençant par y apporter certaines nuances. S'il semble vain de militer pour ne plus appeler Intelligence Artificielle un système qui n'a pas toutes les caractéristiques de l'intelligence, on peut au moins souligner que ce n'est pas une IA autonome et que la responsabilité de ses actes reste donc à imputer à ses concepteurs et non à la machine elle-même. Partant de ce constat, plutôt que de s'effrayer de ce type de machines incontrôlables, il peut sembler plus pertinent de demander à leurs concepteurs (qui, en tant que signataires d'appels à la vigilance devraient être particulièrement réceptifs à ce type de demandes) plus de transparence sur la manière dont ils ont doté ces machines de valeurs émotionnelles sur les objets qui les environnent.

Pour maintenant conclure sur le pouvoir de nuisance potentiel de ces machines à moitié intelligentes, la crainte principale est probablement relative au fait que ces deux aspects de l'intelligence, géométrique et émotionnelle, sont faiblement liés, dû au fait que la partie émotionnelle est insufflée indirectement par un opérateur humain et non pas issue d'une vraie expérience corporelle du ressenti du monde. Comme Damasio nous a expliqué que notre équilibre cognitif reposait sur la co-évolution de l'acquisition de valeurs émotionnelles et du développement de méthodes de raisonnement formel, c'est probablement ce type d'équilibre qu'il faudrait rechercher. Là aussi, cette revendication n'est pas nouvelle et s'est souvent exprimée par les défenseurs d'une approche incarnée de la cognition: on pourra plus légitimement demander un niveau de responsabilité à une machine le jour où on l'aura dotée d'un corps, doué de souffrance et de plaisir, pour vraiment expérimenter le monde. En attendant, il ne faudra pas se leurrer, en exprimant des craintes, on ne fera que s'adresser aux concepteurs humains de ces machines et la principale recommandation sera donc de leur demander d'arrêter de se cacher derrière leurs créations et d'assumer les valeurs qu'ils leur ont insufflées..

Frédéric Alexandre.

Illustrations de Nicolas Rougier.


6 commentaires pour “Rien de neuf sous le soleil de l’Intelligence Artificielle”

  1. Hadrien Répondre | Permalink

    Très bonne interview.

    Je m'aperçois en la lisant que je manque parfois d'un peu de nuances dans ma critique de la peur de l'IA, en particulier dans le billet précédent. L'IA peut être dangereuse, en effet. Sa dangerosité n'est toutefois pas de nature tellement différente de celle d'autres technologies plus classiques. Si on calibre des fonctions de coût pour qu'une IA classifie les bipèdes dans la catégorie des "objets sur lesquels il faut envoyer des projectiles", elle va tuer des humains (et quelques marsupiaux). Pour autant, ce n'est pas sa supposée capacité à dépasser notre intelligence qui crée le danger, mais bien les fonctions de coût paramétrées par nous les humains.

    C'est une bonne idée d'invoquer le problème de l'ancrage des symboles pour expliquer comment l'homme intervient en 2015 dans la conception des IA, et donc de sa responsabilité complète quand les machines agissent avec comme arrière plan NOTRE représentation du monde. La résolution de ce problème fait débat, mais il faut quand même noter qu'on peut espérer sa dissolution à long terme. Si résolution il y a, ce sera par le bas (bottom-up) : une représentation fine du monde pourrait émerger de la façon dont elle permet à l'IA d'interagir avec le monde. On ne fixera pas de représentations a priori : au mieux on pourra les déduire de nos observations du comportement des IA, de la même manière qu'on pense qu'une grenouille a une représentation assez grossière de la notion de "mouche-nourriture". Quoi qu'il en soit les actions resteront guidées par des fonctions de coût et des procédures d'apprentissage, donc ça n'enlève pas grand chose à la responsabilité de l'homme.

    Je ne suis pas fan de la notion d''"intelligence géométrique" car l'émotion peut très bien rentrer dans un cadre géométrique, par exemple en cherchant à minimiser le sentiment de culpabilité ou à maximiser le plaisir, voire les deux à la fois. Une croyance ou une action est toujours rationnelle vis à vis d'un objectif, qui peut pondérer plusieurs objectifs contradictoires (en y incluant des émotions), mais n'est pas rationnelle dans l'absolu. Je ne nie pas pour autant la différence conscient / inconscient dans les prises de décision.

  2. patricedusud Répondre | Permalink

    D'abord merci d'avoir invité Frédéric Alexandre à contribuer si brillamment à ce débat en tordant le cou aux délires de certains transhumanistes et en renvoyant à leurs responsabilité les grands manitous dominant les tours de l'internet dans lesquelles ils voudraient enfermer les internautes malgré les protestations répétées de Tim Berners-Lee qui n'arrête pas de prêcher pour un monde ouvert tellement différent de celui des applications des google, facebook et Apple pour ne citer qu'eux.
    La conscience que l'homme a de sa propre existence et de l'existence d'un monde extérieur à lui-même passe par son système sensitif qui est, par nature, partiel et limité. Il n’y a pour s’en convaincre qu’à voir les exploits que font certains de nos amis les bêtes dans ce domaine.
    On peut parfaitement imaginer et c'est déjà largement le cas pour certains automates qu'une machine est un système sensitif d'un spectre beaucoup plus important que l'homme et dès lors soit capable d'acquérir une expérience plus vaste en tout cas différente de celle à laquelle pourra prétendre un humain.
    Une interconnexion étroite entre un système "émotionnel" c'est à dire réagissant à son environnement et un cortex artificiel issu ou non des résultats putatifs de l'Human brain Project" est concevable du moins en théorie.
    Cette tentative tout à fait passionnante de distinguer l'homme de la machine ne reflète-t-elle pas un anthropomorphisme excessif.
    Se souvient-on des tentatives vouées à l'échec de définir le "propre" de l'homme ?

  3. yuiio Répondre | Permalink

    «[...] on pourra plus légitimement demander un niveau de responsabilité à une machine le jour où on l'aura dotée d'un corps, doué de souffrance et de plaisir, pour vraiment expérimenter le monde.»

    En fait pas vraiment, le problème est simplement décalé. En effet, tout dépendrait de ce que l'on considère comme étant du plaisir et de la souffrance et comment cette considération serait mise en œuvre par l'homme.

  4. dunois Répondre | Permalink

    L'intelligence artificielle et les nouvelles technologies du numérique sont des menaces à long terme pour l'emploi :
    On le voit déjà le chômage a tendance à croître avec un PIB qui,lui, ne décroît pas !
    L'avenir n'arrangera rien : dans 20 ans il n'y aura probablement plus beaucoup d'ouvriers qui travailleront, en particulier dans les domaines très répétitifs comme le travail à la chaîne.
    Espérons que les gens riches et possédants accepteront de partager leurs richesses...ce qui n'a rien de sûr !!

  5. delaplace Répondre | Permalink

    des mots

    recherches internes

    une avancée en ce domaine passe par un élément externe

    raisonner avec ce que l'on sait n'a pas vraiment de chance de déboucher sur ce que l'on ne sait pas
    Toute recherche passe par une découverte

    j'ai 'inventé' un raisonnement

Publier un commentaire