Cet article est le premier chapitre d’un livre blanc consacré à faire le point sur l’intelligence artificielle. Voici la liste des sujets qui seront abordés :

  1. L’IA en quête de définition
    • Pourquoi une définition de l’IA est délicate
    • Quels objectifs pour l’IA ?
    • Comment caractériser une IA ?
  2. Les progrès et les lacunes de l’IA
  3. Les usages
  4. Une éthique pour l’IA
  5. L’IA et le métier du conseil

Ce travail est le fruit d’une collaboration entre P. Lemberger, J. Lepan et O. Reisse.

 


1. L’IA en quête de définition

A condition de pas s’embarrasser de trop de scrupules sémantiques, la définition de l’intelligence artificielle (IA) est aisée : c’est l’ensemble des disciplines techniques et scientifiques qui permettent de reproduire certains processus cognitifs humains comme l’apprentissage, l’intuition, l’auto-amélioration, la créativité, la planification de tâches ou encore la compréhension du langage naturel. Les plus optimistes y ajouteront pour leur part, en les plaçant dans un futur indéfini, des attributs propres à la conscience comme la volonté et les émotions.

Face à l’effroi métaphysique qui peut saisir l’esprit devant cette ambition prométhéenne, nous tâcherons de garder la tête froide. En particulier nous distinguerons ce qui existe aujourd’hui de qui reste à réaliser, ce qui relève de la spéculation de ce qui est avéré scientifiquement. Nous éviterons également de nous livrer à toute forme de prophétie, laissant cette activité aux prophètes du transhumanisme qui y excellent.

transhumanisme

Figure 1 L’évolution de l’humanité selon les transhumanistes.

Ces précautions prises, il faut cependant bien reconnaître que, si d’aventure, le projet de construire une IA de niveau humain devait un jour aboutir, il ne s’agirait ni plus ni moins de l’événement le plus significatif de l’histoire de l’humanité. Voilà au moins une raison suffisante pour y réfléchir de manière lucide et informée dès maintenant. Quel que soit l’aboutissement de cette aventure gageons que nous en apprendrons autant sur ce qui fait l’essence de l’humanité que sur les capacités cognitives d’une machine.

Une définition plus rigoureuse de l’IA que celle mentionnée en introduction se heurte néanmoins à plusieurs difficultés, voyons pourquoi.

1.1 Pourquoi une définition de l’IA est délicate

1.1.1 La pluridisciplinarité

Les principales disciplines qui ont contribué à l’émergence de l’IA au cours des soixante dernières années ont chacune des questions, des méthodes et des objectifs qui leurs sont propres. En voici une liste non exhaustive :

  • La philosophie pose par exemple la question de l’articulation entre l’esprit et la matière ou celle de savoir comment l’on passe de la connaissance à l’action.
  • Les mathématiques s’intéressent aux règles formelles qui permettent de garantir la validité d’un raisonnement (qui est une forme spécifique d’intelligence). Sur un plan conceptuel l’informatique est d’ailleurs née avec les travaux d’Alan Turing qui était en quête d’une définition rigoureuse de ce qu’est un calcul. La théorie des probabilités permet quant à elle de savoir comme agir rationnellement dans les situations incertaines dans lesquelles sont amenés à évoluer des agents intelligents.
  • L’économie a pour objectif, entre autres, de comprendre les performances collectives d’un ensemble d’agents rationnels qui cherchent chacun à optimiser leurs propres revenus ou leur bien-être. L’une des découvertes surprenantes faite dans le cadre de la théorie des jeux est qu’un agent rationnel aura parfois intérêt à adopter une stratégie aléatoire. Savoir prendre une décision lorsque les bénéfices sont différés dans le temps ou lorsque l’on autorise des décisions qui ne sont pas optimales font partie des questions qui restent ouvertes à ce jour.
  • Les neurosciences étudient le fonctionnement du cerveau et comment les différentes fonctions cognitives sont reliées à l’interconnexion de certains groupes de neurones. Le cortex visuel des mammifères a inspiré certaines architectures de systèmes de neurones artificiels utilisés pour la reconnaissance de forme.
  • La cybernétique est l’étude des mécanismes autorégulés, une propriété qui était jusque-là l’apanage des seuls organismes vivants. La version moderne de la théorie du contrôle consiste à construire des systèmes qui optimisent la valeur d’une certaine fonction de coût au cours du temps.

L’IA s’est construite durant un demi-siècle en émancipation de toutes ces disciplines en définissant progressivement ses propres objectifs comme par exemple celui de concevoir des machines capables d’évoluer de manière autonome dans des environnements changeants.

1.1.2 Une histoire chaotique

L’histoire de l’IA est jalonnée d’une succession d’ambitions grandioses et d’espoirs déçus, nous y reviendrons dans la section 2.1. Dans les années 1950 les chefs de files de l’IA naissante s’imaginaient par exemple que des progrès significatifs sur la conception de systèmes qui pensent comme les humains pourraient être réalisés durant un séminaire de deux mois (section 2.1.1). Des approches techniques et conceptuelles disparates ont ainsi pendant longtemps coexisté et empêché de concevoir l’IA comme une discipline unifiée.

1.1.3 Une absence d’unanimité

Même si le sujet est dorénavant mieux structuré comme nous le verrons dans la section 1.2, il n’existe à ce jour aucune unanimité parmi les spécialistes sur les objectifs que l’on devrait assigner à l’IA. Nous décrirons ci-dessous (section 1.2) quatre points de vue développés par Russel et Norvig dans leur ouvrage monumental Artificial Intelligence a Modern Approach (Norvig, et al., 2009). A l’origine de cette absence d’unanimité se trouve naturellement la difficulté à définir ce qu’est l’intelligence ou même seulement certains de ses aspects comme la créativité, l’intuition ou la capacité d’abstraction.

1.1.4 L’IA c’est toujours le futur

Une autre difficulté que le rencontre lorsqu’on cherche à définir ce qu’est une IA est le caractère subjectif d’une telle définition. Les problèmes dont on estime qu’ils exigent une « authentique » IA pour être résolus varient en effet au cours de l’histoire. Ainsi une machine capable de battre un grand maître aux échecs aurait été considérée il y a une cinquante ans comme « intelligente ». Une telle machine fut effectivement construite en 1997 lorsque Deep Blue démontra sa supériorité dans un match contre le champion Kasparov. Du statut de prouesse on passa alors très rapidement à celui de produit grand public et plus personne ne songerait désormais qu’un programme d’échecs exécuté sur un PC soit doté d’une « authentique » intelligence.

Il y a encore deux ans peu de gens auraient parié sur la possibilité qu’un ordinateur puisse battre un grand maître au jeu de Go, du moins avant une bonne vingtaine d’années. L’avis des experts était qu’une réelle maîtrise de ce jeu requérait une intuition, une imagination (voire pour certains une sensibilité mystique) inaccessibles à une machine. C’est pourtant chose faite depuis le début de l’année (2016) avec le système AlphaGo de Google qui a battu le champion Lee Sedol lors d’un tournoi historique. Une nouvelle fois cette performance n’est désormais plus considéré comme de l’IA « authentique ».

On pourrait aisément multiplier les exemples. Bref, l’IA est souvent perçue comme ce qui n’a pas encore été réalisé. Il y a donc fort à parier qu’il n’y aura jamais de moment Eurêka dans la quête de l’IA mais plus vraisemblablement une succession de phases de progrès et d’accoutumance qui s’étaleront sur plusieurs décennies.

1.1.5 Illusion ou réalité ?

Comment reconnaître une intelligence généraliste (on parle parfois d’IA forte) d’un simple simulacre qui agit de manière à faire illusion ? L’idée qu’un simulacre d’IA serait immanquablement détecté après une mise à l’épreuve suffisamment longue est l’essence même du célèbre test de Turing. Celui-ci consiste à mettre à l’épreuve un système prétendument intelligent pour mesurer sa capacité à simuler une conversation humaine sans contact physique.

Bien entendu aucun système à ce jour n’a encore passé ce test. Toutefois certaines applications pourraient dès aujourd’hui instiller un doute quant à leur capacité à « comprendre le monde ». Un système comme le logiciel de Google capable de décrire par un texte la scène représentée par une photo (Figure 12 section 3.1.3) est-il intelligent dans le sens où nous le souhaiterions ? La réponse est : probablement non. Nous vivons cependant une période passionnante dans la mesure où la réponse à cette question n’est désormais plus tout à fait évidente.

turing_test_version_3

Figure 2 Le schéma du test de Turing.

1.2 Quels objectifs pour l’IA ?

Face aux difficultés à définir clairement ce qu’est un IA, une possibilité consiste à mieux définir les objectifs que l’on attend d’un tel système. En d’autres termes, il faut poser la question de savoir quels problèmes une IA devra être capable de résoudre. On peut schématiquement regrouper les approches de l’IA en quatre catégories représentées dans le tableau ci-dessous. Celui-ci définit deux axes : l’axe vertical distingue « penser » et « agir » et l’axe horizontal distingue l’idéal de comportement visé : un comportement « humain » ou un comportement rationnel (Norvig, et al., 2009).

Penser comme un humain

Il s’agit de créer des « machines » dont le mode de fonctionnement interne reproduit le mode de pensée humain.

Penser rationnellement

Il s’agit de créer des machines dont le mode de fonctionnement interne se base sur des déductions logiques.

Agir comme un humain

Il s’agit de créer des machines capables de reproduire un comportement qui s’apparente, vu de l’extérieur, à celui d’un humain.

Agir rationnellement

Il s’agit de construire des agents dont le comportement, vu de l’extérieur, apparaît rationnel.

1.2.1 Penser comme un humain

Dans cette approche on cherche à comprendre comment fonctionne l’esprit humain pour le modéliser, l’espoir étant de pouvoir, un jour peut-être, reproduire ses facultés cognitives dans un système artificiel. Les sciences cognitives suivent cette voie et élaborent des méthodes expérimentales sur des humains ou des animaux pour développer un modèle de l’esprit susceptible d’être testé expérimentalement. Certaines approches précoces de l’IA, comme celle du General Problem Solver élaborée au début des années 1960 par Herbert Simon, ont ainsi essayé de reproduire les étapes d’un raisonnement humain.

1.2.2 Agir comme un humain

Le test de Turing que nous avons déjà évoqué propose une définition opérationnelle de l’intelligence sans se préoccuper des processus internes à la machine. Construire un système capable de passer un tel test impliquerait cependant de résoudre une cascade de problèmes parmi les plus ardus de l’IA : le traitement du langage humain, la représentation des connaissances, le raisonnement et l’apprentissage automatique. A ce jour la recherche en IA privilégie plutôt la compréhension des mécanismes qui sous-tendent l’intelligence sur la reproduction d’une intelligence capable de passer le test de Turing. La démarche est en l’occurrence similaire à l’aéronautique dont les succès ont reposé sur une compréhension approfondie des lois de l’aérodynamique plutôt que sur l’imitation du vol des oiseaux.

1.2.3 Penser rationnellement

La pensée rationnelle repose avant tout sur la logique. Son histoire débute avec Aristote et pour aboutir à la logique mathématique moderne. Alors que l’arithmétique traite de la manipulation des nombres, la logique mathématique formalise les enchaînements de propositions de portées plus ou moins générale. L’approche logiciste de l’IA part du postulat que toutes les opérations mentales se réduisent en dernière analyse à des opérations logiques. Cette approche se heurte toutefois à des deux difficultés principales :

  • D’une part il est difficile de formaliser logiquement un problème mal définit ou même un problème dont les données sont entachées d’incertitudes.
  • D’autre part, il existe un gouffre entre résoudre un problème en principe, c.-à-d. avec des ressources de calcul à priori infinies, et le résoudre en pratique, c.-à-d. en utilisant des ressources limitées durant un laps de temps acceptable afin d’obtenir une solution acceptable plutôt qu’une solution parfaite qui résulterait d’un raisonnement strictement logique.

1.2.4 Agir rationnellement

Une action rationnelle peut être une conséquence d’un raisonnement rationnel… ou non ! Dans certaines situations d’urgence par exemple, une action rationnelle n’est pas nécessairement le résultat d’un long processus de délibération mais résulte plutôt d’un réflexe appris par expérience. Dans d’autres situations encore, une action est requise alors qu’aucun raisonnement rationnel n’existe qui permettrait de la déduire. L’approche par action rationnelle est donc plus générale que l’approche logiciste. Elle présente par ailleurs l’avantage de permettre une définition plus scientifique que les approches qui visent à agir ou à penser comme un humain, difficilement susceptibles de définitions rigoureuses. C’est le point de vue moderne de l’IA développé dans (Norvig, et al., 2009) :

L’IA est la science de la conception d’agents rationnels qui cherchent à optimiser la valeur d’attente d’une certaine notion d’utilité en fonction des perceptions passées de leur environnement.

L’action rationnelle n’est en réalité qu’une première étape vers l’objectif plus ambitieux et plus réaliste qui serait d’agir dans des environnements complexes avec une rationalité limitée sous contrainte de délais et de ressources, ce que les humains ont à faire tout au long de leur existence.

1.3 Comment caractériser une IA ?

La notion d’intelligence n’étant pas bien définie pour une IA, il est illusoire de vouloir la mesurer au moyen d’une métrique qui serait conçue comme une sorte de « QI adapté aux machines ». On peut cependant décrire plusieurs axes qui permettent de caractériser une IA (Loukides, et al., 2016).

1.3.1 La profondeur

Considérons une IA spécialisée comme AlphaGo. Sa profondeur pourrait être définie par exemple comme la probabilité de remporter un tournoi contre un grand maître. Il s’agit par conséquent d’une mesure de performance spécifique au champ d’application pour lequel elle a été conçue. On pourrait aussi évaluer une telle IA spécialisée par les temps de résolution de quelques problèmes étalons. Il n’est pas question en revanche de comparer les performances du système Deep Blue avec celles d’AlphaGo.

1.3.2 Le mode d’apprentissage

Le machine learning (ML) est une composante essentielle de beaucoup de systèmes intelligents dont on attend qu’ils soient capables d’apprendre tout ou partie de leur comportement à partir d’exemples. Voici les trois principaux modes d’apprentissage définis par le machine learning :

  • L’apprentissage supervisé regroupe tous les algorithmes capables d’apprendre une relation entre certaines variables prédictives (des images d’animaux pour fixer les idées) et une caractéristique que l’on souhaite prédire (le nom de l’animal représenté sur l’image p.ex.) à partir d’une liste d’exemples correctement identifiés ou mesurés. C’est aujourd’hui la partie du ML la plus développée en pratique et la mieux comprise sur le plan théorique. Les algorithmes les plus performants pour apprendre des relations complexes sont aujourd’hui les réseaux de neurones (RN) profonds (deep learning). Ils semblent capables, dans une certaine mesure, de découvrir par eux-mêmes certains concepts abstraits dans données complexes comme des images. Ainsi un algorithme de reconnaissance d’un animal découvrira implicitement le concept « nombre de pattes ».
  • L’apprentissage non-supervisé regroupe les algorithmes du ML capables de découvrir des structures dans un ensemble de données. Contrairement au ML supervisé il n’existe pas de formulation précise de ce problème si on le considère dans toute sa généralité. Il existe cependant un grand nombre d’algorithmes dit de clustering capables de regrouper entre elles des observations similaires. Ces techniques permettent par exemple d’identifier des niches d’un marché en regroupant des clients par catégories selon leurs profils.
Figure 3 Schéma des modes d'apprentissage supervisé et non-supervisé

Figure 3 Schéma des modes d’apprentissage supervisé et non-supervisé

  • L’apprentissage par renforcement se situe en quelque sorte à mi-chemin entre les deux modes précédents. On n’alimente pas l’algorithme avec des exemples correctement classés mais on cherche à construire des systèmes qui évoluent dans un environnement complexe en maximisant un indicateur que l’on peut envisager comme une forme de récompense (ou un indice de confort si l’on préfère). Contrairement au ML supervisé le feedback est cette fois indirect. Il incite le système à trouver un bon compromis entre l’exploration de son environnement et l’exploitation de l’information qu’il a déjà acquise.
reinforcement_learning

Figure 4 Le schéma de rétroaction d’un environnement sur un agent qui définit l’apprentissage par renforcement.

L’immense majorité des applications actuelles de l’IA relève de l’apprentissage supervisé, qu’il s’agisse de systèmes de recommandation, de traduction automatique, de reconnaissance d’image ou de la parole.

1.3.3 L’étendue

Un système expert ou une IA étroite est spécialisé dans la résolution d’une catégorie bien précise de problèmes. Toutes les IA créés à ce jour sont de ce type. Il y a fort à parier qu’une IA généraliste (strong IA) ne s’obtiendra pas par simple juxtaposition d’une vaste collection d’IA étroites mais que de nouveaux principes restent à découvrir (voir section 2.2). Quelques pas modestes ont cependant été fait en direction d’une IA généraliste en combinant des techniques d’apprentissage par renforcement avec celles du deep learning. Ainsi l’article (Volodymyr Mnih, 2015) décrit comment une équipe de DeepMind est parvenue à réaliser récemment un système capable d’apprendre à jouer à une cinquantaine de jeux vidéo Atari à une niveau super-humain et ceci en n’exploitant que les informations visuelles (sous forme de pixels) fournies par l’écran du jeu. En étant résolument optimiste on peut y voir, peut-être, les prémisses d’une intelligence un peu moins étroite.

1.3.4 L’autonomie

Une IA peut assister un humain dans une tâche, à l’instar d’un GPS guidant le conducteur d’un véhicule, sans pour autant être autonome dans une environnement complexe. Le système de pilotage d’une voiture sans conducteur est en revanche un système autonome qui n’exigera, en principe, aucune intervention humaine.

1.3.5 La présence de conscience

Bien évidement la question ne se pose pas avec les systèmes actuels ni, vraisemblablement, avec ceux qui seront conçus dans un avenir proche. Aussi nous aborderons ce point de manière très superficielle.

Il n’existe pas à l’heure actuelle de théorie de la conscience et personne ne comprend d’un point de vue scientifique la nature exacte de ce phénomène si bien que le sujet reste largement spéculatif. Nous prenons le terme ici dans l’acception commune d’une « présence objective d’une subjectivité » capable de ressentir, de se poser des questions et de vouloir. Sans entrer dans la question délicate de la détection d’une conscience, on peut néanmoins se demander si elle pourrait être utile et, si oui, dans quelles circonstances. D’innombrables applications de l’IA n’ont à l’évidence aucune utilité d’une conscience et pourrait même, assez ironiquement, bénéficier de la garantie d’en être dépourvu ! En effet une l’IA n’a pas à méditer sur sa propre existence mais à résoudre efficacement les problèmes qui lui sont assignés. En revanche, pour d’autres applications plus ambitieuses qui exigeraient par exemple de comprendre le sens d’un message ou d’interpréter un contexte physique ou social de la vie courante, la question reste ouverte.

Insistons pour conclure ce premier chapitre que l’intelligence que nous attribuons intuitivement à une IA dépourvue de conscience, n’est bien évidemment qu’une projection de notre conscience humaine sur le comportement d’un système qui, en réalité, ne procède qu’à un traitement élaboré de l’information.


Références

  • Artificial Intelligence: A Modern Approach (3rd Edition) [Ouvrage] / Norvig Peter et Russel Stuart J.. – [s.l.] : Pearson, 2009.
  • Human-level control through deep reinforcement learning [Revue] / Volodymyr Mnih Koray Kavukcuoglu, David Silver, Andrei A. Rusu, Joel Veness, Marc G. Bellemare, Alex Graves, Martin Riedmiller, Andreas K. Fidjeland, Georg Ostrovski, Stig Petersen, Charles Beattie, Amir Sadik, Ioannis Antonoglou, Helen King, Dharshan Kumaran, Daan Wierstra, Shane Legg & Demis Hassabis // Nature. – février 2015. – Vol. 518. – pp. 529–533.
  • What is Artificial Intelligence? Loukides Mike et Lorica Ben . – [s.l.] : O’Reilly, 2016.
  • Why Artificial Intelligence Is the New Electricity Ng Andrew // Inc.Video. – 2016.

 

 

Vous souhaitez lire la suite :

 

Newsletter

Recevez notre newsletter bi-mensuelle

Commenter