L'opinion commune et récurrente des dernières percées dans la recherche en intelligence artificielle est que les machines sensibles et intelligentes ne sont qu'à l'horizon. Les machines comprennent les commandes verbales, distinguent les images, conduisent des voitures et jouent à des jeux mieux que nous. Combien de temps peut-il s'écouler avant qu'ils ne marchent parmi nous?
Le nouveau rapport de la Maison Blanche sur l'intelligence artificielle a une vision sceptique appropriée de ce rêve. Il dit que les 20 prochaines années ne verront probablement pas les machines "présenter une intelligence largement applicable comparable ou supérieure à celle des humains", bien qu'il continue à dire que dans les années à venir, "les machines atteindront et dépasseront les performances humaines sur plus et plus de tâches. " Mais ses hypothèses sur la façon dont ces capacités se développeront ont manqué certains points importants.
En tant que chercheur en IA, j'admets que c'était agréable d'avoir mon propre domaine mis en évidence au plus haut niveau du gouvernement américain, mais le rapport s'est concentré presque exclusivement sur ce que j'appelle "le type ennuyeux de l'IA". Il a rejeté en une demi-phrase ma branche de la recherche sur l'IA, sur la façon dont l'évolution peut aider à développer des systèmes d'IA en constante amélioration, et comment les modèles informatiques peuvent nous aider à comprendre comment notre intelligence humaine a évolué.
Le rapport se concentre sur ce que l'on pourrait appeler les principaux outils d'IA: l'apprentissage automatique et l'apprentissage en profondeur. Ce sont les types de technologies qui ont pu jouer à "Jeopardy!" bien, et battre les maîtres humains Go au jeu le plus compliqué jamais inventé. Ces systèmes intelligents actuels sont capables de traiter d'énormes quantités de données et d'effectuer des calculs complexes très rapidement. Mais il leur manque un élément qui sera la clé de la construction des machines sensibles que nous imaginons avoir à l'avenir.
Nous devons faire plus qu'enseigner aux machines à apprendre. Nous devons dépasser les frontières qui définissent les quatre différents types d'intelligence artificielle, les barrières qui séparent les machines de nous - et nous-mêmes.
Type I AI: Machines réactives
Les types de systèmes d'IA les plus élémentaires sont purement réactifs et n'ont la capacité ni de former des souvenirs ni d'utiliser les expériences passées pour éclairer les décisions actuelles. Deep Blue, le supercalculateur d'échecs d'IBM, qui a battu le grand maître international Garry Kasparov à la fin des années 1990, est l'exemple parfait de ce type de machine.
Deep Blue peut identifier les pièces sur un échiquier et savoir comment chacune se déplace. Il peut faire des prédictions sur les mouvements qui pourraient être les prochains pour lui et son adversaire. Et il peut choisir les mouvements les plus optimaux parmi les possibilités.
Mais il n'a aucun concept du passé, ni aucun souvenir de ce qui s'est passé auparavant. Mis à part une règle spécifique aux échecs rarement utilisée contre la répétition du même coup trois fois, Deep Blue ignore tout avant le moment présent. Tout ce qu'il fait, c'est regarder les pièces sur l'échiquier telles qu'elles sont en ce moment, et choisir parmi les prochains mouvements possibles.
Ce type d'intelligence implique que l'ordinateur perçoit directement le monde et agisse sur ce qu'il voit. Il ne repose pas sur un concept interne du monde. Dans un article fondateur, le chercheur en IA Rodney Brooks a soutenu que nous ne devrions construire que des machines comme celle-ci. Sa principale raison était que les gens ne sont pas très bons pour programmer des mondes simulés précis à utiliser par les ordinateurs, ce que l'on appelle dans l'érudition en IA une "représentation" du monde.
Les machines intelligentes actuelles dont nous nous émerveillons n'ont pas une telle conception du monde, ou en ont une très limitée et spécialisée pour ses fonctions particulières. L'innovation dans la conception de Deep Blue n'était pas d'élargir la gamme de films possibles envisagés par l'ordinateur. Les développeurs ont plutôt trouvé un moyen d'affiner sa vision, d'arrêter de poursuivre certains mouvements potentiels futurs, en fonction de la façon dont il a évalué leur résultat. Sans cette capacité, Deep Blue aurait dû être un ordinateur encore plus puissant pour battre Kasparov.
De même, l'AlphaGo de Google, qui a battu les meilleurs experts du Go humain, ne peut pas non plus évaluer tous les futurs mouvements potentiels. Sa méthode d'analyse est plus sophistiquée que Deep Blue, utilisant un réseau de neurones pour évaluer les développements du jeu.
Ces méthodes améliorent la capacité des systèmes d'IA à mieux jouer à des jeux spécifiques, mais elles ne peuvent pas être facilement modifiées ou appliquées à d'autres situations. Ces imaginations informatisées n'ont aucune conception du monde plus large - ce qui signifie qu'elles ne peuvent pas fonctionner au-delà des tâches spécifiques qui leur sont assignées et sont facilement dupées.
Ils ne peuvent pas participer de manière interactive au monde, comme nous l'imaginerions un jour les systèmes d'IA. Au lieu de cela, ces machines se comporteront exactement de la même manière chaque fois qu'elles rencontreront la même situation. Cela peut être très utile pour garantir la fiabilité d'un système d'IA: vous voulez que votre voiture autonome soit un conducteur fiable. Mais c'est mauvais si nous voulons que les machines s'engagent véritablement avec le monde et y répondent. Ces systèmes d'IA les plus simples ne seront jamais ennuyés, intéressés ou tristes.
Type II AI: Mémoire limitée
Cette classe de type II contient des machines qui peuvent se pencher sur le passé. Les voitures autonomes le font déjà. Par exemple, ils observent la vitesse et la direction des autres voitures. Cela ne peut pas être fait en un seul instant, mais nécessite plutôt d'identifier des objets spécifiques et de les surveiller dans le temps.
Ces observations s'ajoutent aux représentations préprogrammées du monde par les voitures autonomes, qui comprennent également des marquages de voie, des feux de circulation et d'autres éléments importants, comme des courbes sur la route. Ils sont inclus lorsque la voiture décide quand changer de voie, pour éviter de couper un autre conducteur ou d'être heurté par une voiture à proximité.
Mais ces simples informations sur le passé ne sont que transitoires. Ils ne sont pas enregistrés dans le cadre de la bibliothèque d'expérience de la voiture dont il peut tirer des enseignements, de la manière dont les conducteurs humains compilent l'expérience au fil des années au volant.
Alors, comment pouvons-nous construire des systèmes d'IA qui construisent des représentations complètes, se souviennent de leurs expériences et apprennent à gérer de nouvelles situations? Brooks avait raison en ce sens qu'il est très difficile de le faire. Ma propre recherche sur les méthodes inspirées de l'évolution darwinienne peut commencer à combler les lacunes humaines en laissant les machines construire leurs propres représentations.
AI de type III: théorie de l'esprit
Nous pourrions nous arrêter ici et appeler ce point le fossé important entre les machines que nous avons et les machines que nous construirons à l'avenir. Cependant, il vaut mieux être plus précis pour discuter des types de représentations que les machines doivent former et de ce qu'elles doivent être.
Les machines de la classe suivante, plus avancée, forment non seulement des représentations du monde, mais aussi d'autres agents ou entités du monde. En psychologie, cela s'appelle la "théorie de l'esprit" - la compréhension que les gens, les créatures et les objets dans le monde peuvent avoir des pensées et des émotions qui affectent leur propre comportement.
Ceci est crucial pour la façon dont nous, les humains, avons formé des sociétés, car ils nous ont permis d'avoir des interactions sociales. Sans comprendre les motivations et les intentions des autres et sans tenir compte de ce que quelqu'un d'autre sait de moi ou de l'environnement, travailler ensemble est au mieux difficile, au pire impossible.
Si les systèmes d'IA doivent effectivement marcher parmi nous, ils devront être capables de comprendre que chacun de nous a des pensées, des sentiments et des attentes quant à la façon dont nous serons traités. Et ils devront ajuster leur comportement en conséquence.
AI de type IV: conscience de soi
La dernière étape du développement de l'IA est de construire des systèmes qui peuvent former des représentations d'eux-mêmes. En fin de compte, nous les chercheurs en IA devront non seulement comprendre la conscience, mais construire des machines qui en ont.
C'est, en un sens, une extension de la "théorie de l'esprit" que possèdent les intelligences artificielles de type III. La conscience est également appelée «conscience de soi» pour une raison. ("Je veux cet article" est une déclaration très différente de "Je sais que je veux cet article.") Les êtres conscients sont conscients d'eux-mêmes, connaissent leurs états internes et sont capables de prédire les sentiments des autres. Nous supposons que quelqu'un qui klaxonne derrière nous dans la circulation est en colère ou impatient, parce que c'est ce que nous ressentons lorsque nous klaxonnons sur les autres. Sans une théorie de l'esprit, nous ne pourrions pas faire ce genre de déductions.
Bien que nous soyons probablement loin de créer des machines conscientes de nous-mêmes, nous devons concentrer nos efforts sur la compréhension de la mémoire, l'apprentissage et la capacité de fonder les décisions sur les expériences passées. Il s'agit d'une étape importante pour comprendre l'intelligence humaine seule. Et c'est crucial si nous voulons concevoir ou faire évoluer des machines plus qu'exceptionnelles pour classer ce qu'elles voient devant elles.
Arend Hintze, professeur adjoint de biologie intégrative et d'informatique et d'ingénierie, Université de Michigan