L’intelligence artificielle n’aura pas lieu.


Nous pensions dépassé le fantasme d'une « intelligence artificielle qui pourrait mettre fin à l'humanité » ou bien surpasser l'intelligence humaine. Et pourtant c'est bien dans la bouche d'un grand scientifique (ces propos sont dans la vidéo du document en lien) que cette sempiternelle contre-vérité scientifique revient.

Bien entendu, cet humain a aussi le droit de dire des conneries, surtout quand il s'exprime sous la pression médiatique hors de son champ de connaissance avec des arguments qui ne relèvent pas d'une démarche scientifique, mais d'un "pourquoi pas" qui n'a rien de réfutable.

Pour faire le point, donnons la parole à un collègue moins médiatique mais qui a le mérite de connaître le sujet : Nicolas Rougier.

 

La promesse originelle

En août 1956, alors que l'on voit apparaître les premiers ordinateurs, un séminaire d'été se tient à Dartmouth, U.S.A. qui réunit une équipe de jeunes chercheurs d'horizons variés parmi lesquels se trouvent John McCarthy, mathématicien, Herbert Simon, théoricien des organisations, Allen Newell, mathématicien, Claude Shannon, père de la théorie de l'information et Marvin Minsky, mathématicien. L'ambition de ces pionniers est alors d'étudier les possibilités de construire des machines pouvant égaler (voire surpasser) l'intelligence humaine sur la base des nouveaux moyens de l'informatique naissante. Le domaine de l'Intelligence Artificielle (IA) est né. A cette époque, l'enthousiasme des chercheurs vis à vis du problème de l'intelligence leur faisait prédire la résolution de grands problèmes (planification, traitement du langage naturel, théorie des jeux, intelligence générale) dans les décennies suivantes.

Ces promesses quant à la résolution du problème général de l'intelligence n'ont pas été tenues. Le rapport Lighthill en 1974 va sonner le glas de cette première génération d'illusions. Et quand à la fin des années 80, le domaine retrouvait un nouvel essor, survint un deuxième hiver, suite au manque de résultats et aux promesses toujours mal fondées.

En dépit de ces désillusions, un ensemble de résultats majeurs ont été produit. Ils permettent, par exemple, de fouiller des milliards de pages Web (par exemple l'algorithme PageRank de Google) ou bien encore de retranscrire sous forme de texte la parole humaine sur chaque smartphone.

Soixante ans ont passé depuis.

Toujours point de machine surpassant l'intelligence humaine.

rougier-2015-1

Pourtant, si l'on remonte à la fin du siècle dernier, en cherchant un peu dans les archives des journaux, on pouvait lire dans "Le Monde" cet article datant du 13 mai 1997:

Kasparov mis en échec par Deeper Blue. [..] le super-ordinateur d’IBM, a vaincu le champion du monde [..] en gagnant dimanche soir la sixième et dernière partie de leur choc. [..] Le « grand maître électronique » s’impose 3-1/2 à 2-1/2 face au meilleur des humains et de- vient surtout le premier ordinateur à l’emporter sur un champion du monde dans une rencontre classique. (on pourra aussi lire ici l'histoire complète de cette confrontation).

C'est en ces termes que les journaux relatèrent cet événement historique où pour la première fois la machine semblait avoir surpassé l'intelligence de l'Humain, et qui peut factuellement battre 99.999% de la population mondiale. Les échecs sont en effet un jeu réputé intelligent dans le sens où, à partir d'un ensemble de règles simples, il se révèle être une mine de complexité dans les diverses stratégies mises en œuvre où l'expérience et l'intuition du joueur occupent un rôle prépondérant. Et pourtant :

Est-ce le logiciel sait bien jouer aux éches ? - Oui

Est-ce que ce même logiciel sait jouer aux dames ? - Non

Le logiciel sait-il même qu'il joue aux échecs ? - Non

C'est par la force brute du calcul, la vitesse de calcul, et la mémorisation mécanique d'un océan de données sur ce sujet précis que le logiciel est performant. Quid alors de Watson, le nouveau logiciel champion du monde de Jeopardy ? Il dispose avant tout d'une base de données gigantesque (200 millions de pages dont l'intégralité de Wikipédia) et d'énormément de processeurs disponibles pour traiter aveuglément l'information. Et la liste est encore longue.

rougier-2015-2

L'intelligence du joueur de foot

Or, si il est effectivement possible à une machine de battre le champion du monde des échecs, une machine est tout à fait incapable, par exemple, de battre n'importe quel joueur de foot, aussi amateur soit-il. Étonnant, non ?

Comment expliquer ce paradoxe ? Cette situation s'explique avant tout par la notion d'intelligence qui est manipulée. L'intelligence que l'on veut prêter à Deeper Blue est ici fondée sur le calcul, l'analyse et le raisonnement. Depuis le discours de la méthode de Descartes, le courant de pensée des rationalistes, mené par Descartes, Spinoza et Leibniz, a voulu croire cette intelligence, une intelligence fondée sur l'esprit et la raison, équivalente à l'intelligence humaine. A l'opposé, le courant de pensée des empiristes, parmi lesquels Bacon, Locke, Berkeley et Hume, prôna la prise en compte de l'expérience sensible du monde et rejeta l'idée de la connaissance réduite à l'esprit et à la raison.

On retrouve cette dualité dans deux courants de pensée qui s'affrontent sur le rôle de l'ordinateur.

Un premier courant symbolique considère la machine comme un système de manipulation de symboles qui peut être utilisé pour instancier des représentations formelles du monde. Il repose sur la logique, se faisant ainsi l'héritier des rationalistes, et sa philosophie peut se résumer à la volonté de construire un esprit ("making a mind"). Mené par Allen Newell et Herbert Simon, ce courant symbolique stipule que l'intelligence repose sur la notion de symbole.

Le deuxième courant connexionniste considère en revanche la machine comme un support de la modélisation du cerveau offrant les capacités nécessaires pour simuler les interactions entre les neurones. Il repose sur le domaine des statistiques et sa philosophie peut se résumer à la volonté de modéliser le cerveau ("modelling the brain"). Ce courant connexionniste mené par, entre autres, Frank Rosenblatt propose une vision numérique du traitement de l'information et s'oppose à l'hypothèse symboliste.

Aujourd'hui, nous savons que l'intelligence humaine ne se réduit pas à une simple manipulation des symboles. L'expérience du monde physique, au travers du corps, est un élément essentiel du développement de la cognition. C'est ce qu'on appelle la cognition incarnée et les plus gros défis de l'intelligence artificielle se situe aujourd'hui dans ce domaine.

Un fantasme récurrent

Ce fantasme de l'intelligence artificielle omnipotente a pour vertu principale de détourner nos regards de réflexion, par exemple, à propos des robots mis en œuvre dans le trading haute fréquence qui ont eux un impact très réel sur le monde. Dans un monde devenu numérique, comprendre et maîtriser la science informatique est donc devenu une nécessité.

Avec tout le respect dû au génie de Stephen Hawking dans le domaine de la physique théorique et de la cosmologie, sa récente interview au sujet de l'intelligence artificielle fait donc preuve d'une certaine naïveté de sa part ou bien d'une incertaine malveillance du journaliste qui a retranscrit l'interview.

Mais :-) peut-être que le but était de nous détourner des recherches en physique théorique qui vont permettre à terme de recréer un mini trou noir qui pourrait engloutir la Terre ! Ou pas.

Nicolas Rougier.


15 commentaires pour “L’intelligence artificielle n’aura pas lieu.”

  1. Hadrien Répondre | Permalink

    C'est l'un des premiers blogs que je lis qui dénonce cette mode récente de prendre au sérieux les fictions d'Asimov. Donc bravo à vous deux !

    Cette peur irrationnelle de l'IA est communiquée par des personnalités "sérieuses" comme Elon Musk ou des cadres de Google, et maintenant Hawking (ici une liste plus complète -> http://futureoflife.org/misc/open_letter). Je ne connais pas les raisons d'Hawking, mais je soupçonne Google et SpaceX de se construire une image de "gentils" auprès du grand public. À cela s'ajoute les universitaires qui veulent faire passer leurs recherches en deep-learning comme révolutionnaires. Bref, c'est une campagne de pub efficace, reprise dans les tous les médias. On invite alors sur les plateaux télé des experts, qui sont souvent des futurologues ou des philosophes, mais peu fréquemment des informaticiens, étonnamment. Je vous conseille les nombreuses émissions de france-culture sur le transhumanisme pour se faire une idée de la façon dont ces fantasmes ont imprégné l'élite française.

    À la base de ces fantasmes, il y a l'idée que la machine peut apprendre en dehors de son cadre d'apprentissage, dans un laps de temps très court. Pourtant, même un humain n'apprend que dans son cadre d'apprentissage :
    - un humain ne peut pas changer le poids des synapses de son cerveau sans passer par sa phase d'apprentissage standard (par exemple en mémorisant un livre ou en répétant un geste).
    - un humain a beaucoup de difficultés à assimiler des connaissances qui n'ont pas déjà été apprises par un autre humain. Les connaissances sont souvent nouvelles pour l'individu, mais pas pour l'espèce. Il est bien sûr possible d'apprendre de vraies nouvelles connaissances, mais le hasard qui intervient dans ce type d'apprentissage ralentit énormément le processus, surtout quand des interactions physiques avec le monde réel sont requises.

    Par exemple, si une IA a appris ce qu'elle sait grâce à des connaissances humaines, elle ne saura pas comment brancher son cerveau directement sur internet (cf. Transcendence), car elle n'a pas de raison de savoir comment fonctionne son cerveau dans les détails (et son créateur ne le sait pas non plus).

    Il y a donc au minimum un problème de temps d'apprentissage. Ensuite il y a la question de la faisabilité de l'IA forte dans l'absolu, mais je suis moins pessimiste là dessus.

  2. Nicolas Rougier Répondre | Permalink

    Merci et je ne peux qu'abonder dans le sens de vos commentaires. Je rajouterais au tableau l'université de la singularité dirigé par Ray Kurzweil qui repose sur l'idée de la singularité de Vernor Vinge (http://ragemag.fr/singularite-vernor-vinge-fin-humanite-39356/) mais qui de fait, repose sur une conception surannée de l'IA, datant au mieux des années 60/70.

    Quant au temps d'apprentissage, l'argument des interactions physiques (pour une expérience sensible du monde) est effectivement critique comme vous l'expliquez très bien. Si je veux par exemple maîtriser la gravité, il faut en faire son expérience directe, et un verre ne tombera pas plus vite demain qu'aujourd'hui, ni pour moi ni pour une machine. Elle est de fait liée à la temporalité du monde réel.

    Quant à l'IA forte (vs IA faible), c'est un encore autre débat je crois.

  3. Xavier Répondre | Permalink

    Merci pour cet exposé extrêmement pragmatique. Il est très difficile de s'informer correctement sur le sujet au vu de l'extrême médiatisation du transhumanisme : ça se vend bien !

    Un article récent sur lequel je suis tombé m'interpelle, et j'aimerais beaucoup avoir votre point de vue (Nicolas Rougier ou Thierry Vieville) :
    http://newsoffice.mit.edu/2014/computer-neural-networks-identify-objects-like-primate-brain-1218

    Je cite : "For vision-based neural networks, scientists were inspired by the hierarchical representation of visual information in the brain. [...] Cadieu says that researchers don’t know much about what exactly allows these networks to distinguish different objects."

    Pensez-vous que l'efficacité de systèmes non maîtrisés est spécifique à la vision ou quelle pourrait toucher d'autres domaines de l'intelligence artificielle ?

    • Hadrien Répondre | Permalink

      Je ne suis ni Nicolas Rougier ni Thierry Vieville mais je me permets d'apporter quelques éléments de réponse (entant qu'informaticien) :

      Les réseaux de neurones peuvent être utilisés pour autre chose que de la vision artificielle, donc la réponse à votre question est oui, à deux nuances près :

      1) Les réseaux de neurones (RDN) sont particulièrement efficaces pour la vision. Dans les autres domaines de l'IA, on peut les utiliser mais il existe souvent des alternatives plus appropriées. Or ces autres techniques peuvent génèrer des structures un peu plus faciles à analyser que les RDN (en général), nous épargnant ainsi les problèmes cités dans l'article de MIT News. Ceci dit l'état de l'art peut changer à tout moment et peut-être que dans 10 ans on utilisera des RDN partout en IA.

      2) Je ne dirais pas qu'un RDN est un "système non maîtrisé." D'abord on maîtrise parfaitement le cadre de ses calculs, comme n'importe quel programme informatique : c'est à dire qu'un RDN ne peut rien faire d'autre que produire des nombres dans des cases qui sont choisies par le programmeur chargé de l'intégration du RDN dans une application. Ensuite, on maîtrise parfaitement la relation entre ses entrées et ses sorties. En fait, on peut calculer la probabilité qu'un RDN produise des nombres qui s'écartent trop de ce que l'on attend de lui. D'ailleurs, c'est justement ce que l'on essaye de minimiser quand on construit un RDN.

      Il est vrai qu'il est difficile d'analyser a posteriori un RDN après qu'il a été généré automatiquement. C'est comme si vous essayiez au hasard des variantes de la loi de gravitation de Newton. Vous essayez avec différentes valeur de G. Vous remarquez que c'est G = 6,67 qui décrit le mieux vos observations, mais ça ne vous explique pas le pourquoi de cette valeur particulière ni pourquoi la loi de Netwon est approximativement bonne. Sauf qu'un RDN peut être paramétré par plusieurs dizaines de milliers de coefficients qui ne sont pas combinés simplement.

  4. Daniel Augot Répondre | Permalink

    Est-ce possible de corriger le premier lien pour avoir la référence à la déclaration d'Hawking, qui n'est lui-même nommé qu'à la fin du texte, alors que c'est manifestement lui qui suscite cette réaction. Daniel

  5. Nicolas Rougier Répondre | Permalink

    Il existe de fait en informatique tout un tas d'algorithmes qu'on ne maîtrise pas au sens où on est incapable d'en prédire le comportment avant de faire tourner le programme (simuler le comportement). C'est par exemple le cas du jeu de la vie (http://fr.wikipedia.org/wiki/Jeu_de_la_vie), des systèmes réactions-diffusions (http://mrob.com/pub/comp/xmorphia/), de certains systèmes multi-agents (http://fr.wikipedia.org/wiki/Système_multi-agents), de certains types de réseau de neurones (reservoir computing, neural fields), etc.

    Mais, même lorsqu'on ne maîtrise entièrement ces algorithmes à l'échelle microscopique (neurones, cellules, agents), on est néanmoins capable de les comprendre et les utiliser à un niveau macroscopique. Dans le cas de l'article cité, l'architecture générale du réseau est elle maîtrisée mais le poids précis d'un neurone vers un autre relève de l'apprentissage et reste donc difficile à interpréter a posteriori. Mais à un niveau plus global, on sait dire que telle couche du réseau effectue tel type de traitement, etc.

    C'est ce que j'ai aussi étudié dans mes recherches sur l'attention visuelle ou les équations de l'ensemble des neurones sont difficiles à maîtriser mathématiquement mais qu'on peut néanmoins simuler simplement pour obtenir le comportement souhaité (http://www.labri.fr/perso/nrougier/research/demos.html). Le prix à payer est la preuve de la convergence de l'algorithme.

  6. patricedusud Répondre | Permalink

    Je ne sais plus qui a dit que l'intelligence artificielle était le contraire de la bêtise naturelle :)
    Sinon il faudra attendre les premiers résultats de l'Human Brain Project pour savoir si on a une petite chance de modéliser le cerveau humain.
    Il faut aussi rapprocher ces formidables études informatiques des travaux de neuroscientifiques comme Stanislas Dehaene sur le cerveau Bayésien et les mécanismes subtils de l'apprentissage.
    Mais ce qui est le plus impressionnant c'est probablement l’émergence d'un homme "augmenté" avec l'explosion probable de l'internet des objets, des prothèses de plus en plus sophistiquées qui creusera probablement le fossé entre ceux qui auront accès à ces technologies et l'immense majorité de ceux pour qui le simple fait de survivre est encore de nos jours un exploit quotidien....
    Il est tout de même paradoxal que l'homme qui arrive à poser un engin sur une comète, à faire rouler un robot sur Mars, à construire des exosquelettes, des cœurs des rétines artificiels et je ne sais quel autre exploit technologique soit toujours incapable d'éradiquer la faim et l'accès à l'eau dans le monde.

  7. Nicolas Rougier Répondre | Permalink

    Pour être un peu provocant, je dirais que l'on sait déjà modéliser le cerveau humain et que le problème concerne plutôt sa validation. Par exemple si 3 est une grossière approximation de pi, elle peut néanmoins se révéler suffisante dans de nombreux cas. Qu'attend on du Human Brain Project exactement ? Un cerveau conscient ? un cerveau qui apprend ? qui parle ? qui voit ? qui agit ? Ou bien devra t'on se contenter de la simulation d'une gigantesque masse neurale ?

    A l'opposé du Human Brain Project, à la fois dans les fins et les moyens , il y a le projet OpenWorm que je trouve personnellement plus intéressant : http://www.openworm.org

  8. patricedusud Répondre | Permalink

    Nicholas Carr dans son billet intitulé "A crisis of Control" pose le problème du contrôle que nous perdons sur des "robots" qui, comme ceux qui commandent des ordres de bourses "échappent" totalement à notre contrôle et change totalement l'échelle temporelle des décisions...
    Mais on peut aussi penser au "bug" possible (la cause n'est pas encore identifiée bug logiciel ou connectique) du premier cœur artificiel français, aux incroyables robots qui "assistent" aujourd'hui les neurologues, etc...
    Se rassurer sur les "limites" de l'IA n'éloigne pas forcément ce risque de perte de contrôle surtout lorsqu'il s'agit du militaire, des drones "intelligents" par exemple.
    Le décalage de plus en plus grand entre l'éthique et la puissance de la technologie est sûrement l'un de plus grands défis du 21ème siècle.
    http://www.roughtype.com/?p=5431

  9. Thierry Vieville Répondre | Permalink

    Bien-sûr Patrice, confier à des mécanismes (algoritmiques et/ou robotiques) des actions qui engagent la responsabilité humaine pose des problèmes de droits qui ont aujourd'hui une nouvelle ampleur qualitative et quantitative,
    Ainsi l'usage des drones dont la reponsabilité militaire est déléguée à des entreprises privées au mépris du droit international illustre bien la dérive que tu dénonces ici, on s'abrite derrière la technologie pour dire «c'est pas de ma faute c'est le régulateur de vitesse de ma voiture» ou «c'est pas nous, c'est l'informatique».
    C'est LÀ où il est primordial d'affirmer qu'une machine reste une machine et les limites de l'IA expliquées par Nico offrent un argument de plus pour montrer qu'elle ne peut "endosser" (à la place de son concepteur, fabriquant, prescripteur ou utilisateur) une responsabilité humaine.
    C'est aussi ridicule que de dire (citation hélas réelle) «je n'y suis pour rien dans cet accident mortel, j'étais saoûl» Le «c'est pas moi c'est le robot» est une excuse irrecevable.

  10. Nicolas Rougier Répondre | Permalink

    Avec une petite nuance et le cas intéressant du barrage Maeslantkering aux Pays Bas (http://fr.wikipedia.org/wiki/Maeslantkering) à qui on a délégué explicitement la "responsabilité" de fermer le barrage en cas de danger et ce, afin de pallier aux défaillances humaines comme par exemple, le cas d'un opérateur humain qui aurait à décider de fermer les portes, sauvant la ville mais condamnant les équipages en mer.

  11. guillaume Répondre | Permalink

    Merci pour cette analyse très intéressante.

    Ne pas réussir à reproduire l'intelligence humaine ne signifie pas pour autant qu'il n'existe pas d'autres façons de construire un système intelligent.
    Nos connaissances dans le domaine des neurosciences sont encore très limitées et très fragmentées, nous ne savons même pas bien définir ce qu'est l'intelligence...

    Nos voitures, nos avions ou nos hélicoptères se déplacent beaucoup plus rapidement sur terre et dans les airs que les organismes vivants grâce à des principes qui ne sont pas exploités par le vivant.

    Rien n'interdit de penser que nous pourrions créer une IA sans reproduire le fonctionnement de l'être humain, sauf à considérer que l'homme est la mesure de toute chose et son intelligence une propriété indépassable...

    Méfions nous de notre anthropocentrisme et de notre manque d'humilité ! L'histoire est pleine de déclaration de savants réputés affirmant haut et fort que telle chose était impossible avant de se faire contredire quelques années plus tard.

  12. Nicolas Rougier Répondre | Permalink

    Oui, entièrement d'accord et il faudrait à mon sens préférer le terme de cognition artificielle (et incarnée) pour aller au delà de cette notion d'intelligence mal définie qui ouvre la porte à tous les fantasmes. Peut-être eut-il fallu utiliser "Cette intelligence artificielle n'aura pas lieu" pour mieux le souligner.

    Quant aux autres systèmes "intelligents", le ver C.Elegans est déjà un véritable défi pour les chercheurs puisqu'il peut, avec seulement 302 neurones, se nourrir, se reproduire, apprendre et prendre des décisions (www.openworm.org).

Publier un commentaire