Plan du site Aide Abonnement Nous Contacter


Actualité
Editorial
Interviews
Démocratie
Visites virtuelles
Art. Imaginaire
Du côté des labos
Le feuilleton
Manifestations
Biblionet
CD Rom
Echanges
Liens Utiles

 

Accueil > Echanges
Automates Intelligents utilise le logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue.
 
Archives
Billets/Articles
"Monitoring" de la planète - Les drones
NTIC et combat pour la démocratie
Privatisation de l'espace
War games at Crypto-city

9 juillet 2008
par Jean-Paul Baquiast et Christophe Jacquemin

Dossier

L'intelligence artificielle (IA).
De l'IA faible à l'IA forte

L’Intelligence artificielle (dite ici IA) a connu des développements rapides, principalement aux Etats-Unis, dans les années 1960/1970, en corrélation avec l’apparition des premiers ordinateurs scientifiques. Ces développements ont été ralentis pour diverses raisons, dont le manque de capacité des composant électroniques de l’époque. On a parlé d’une vieille IA, dont certains chercheurs (par exemple les linguistes et traducteurs) se sont détournés, déçus de ne pas voir leurs ambitions aussi pleinement satisfaites qu’ils le voulaient. Au début des années 1990, les progrès ont repris sur le mode exponentiel avec la généralisation des ordinateurs de bureau, des réseaux de télécommunications et des matériels incorporant de plus en plus de solutions IA liées à des besoins spécifiqJohn Mc Carthy, l'un des pères de l'IAues. Par exemple les systèmes d’armes, les véhicules, les mobiles, les immeubles dits «intelligents». Nous désignerons cette IA, dont les ambitions s’étaient beaucoup réduites et spécialisées, du nom d’IA faible. D’innombrables sociétés savantes, laboratoires, entreprises, écrits et études lui sont dorénavant consacrés.

On voit par ailleurs aujourd’hui se développer une IA qui vise à reproduire le plus grand nombre possible des fonctions et performances des cerveaux animaux et humains. Son ambition est globale, intéressant toutes les activités des corps biologiques: motrices, sensorielles, cérébrales. L’objectif est d’obtenir des systèmes capables de se représenter eux-mêmes dans leur environnement, d’élaborer des stratégies, de communiquer par des langages, et plus généralement de construire ce que Richard Dawkins avait appelé des «phénotypes étendus» ou sociétés d’IA. Nous parlerons ici d’IA forte pour désigner ces nouvelles générations d’IA. Il n’est pas possible d’affirmer que leurs vastes ambitions soient toutes atteintes, ni que les voies retenues pour y arriver soient toujours les plus pertinentes. Mais le mouvement est désormais bien lancé et semble se développer d’une façon irrésistible.

En pratique, ces IA fortes sont associés à des robots, à qui elles confèrent des propriétés d’autonomie de plus en plus marquées. Elles sont associées aussi à des systèmes de génération d’images de synthèse, dits de réalité virtuelle, dont les applications sont aujourd’hui multiples. Mais nous préférons présenter ne pas aborder ces domaines dans ce dossier. Ils nécessiteraient des présentations spécifiques, compte-tenu de leur caractère foisonnant. L’IA forte constituera - si l’on peut dire - le cerveau de ces systèmes, mais ceux-ci seront dotés de propriétés et capacités exigeant d’envisager globalement leurs conséquences économiques, scientifiques et politiques au regard de sociétés humaines qu’elles vont transformer profondément. Notre revue s’y est souvent intéressée et nous renvoyons les lecteurs aux articles précédents, ainsi qu’à l’innombrable littérature technique les concernant.

Nous nous appuyons pour documenter cet article consacré à l’IA sur certaines données présentes sur le web (nos propres articles dans Automates Intelligents ainsi, entre autres, que les publications en anglais du Singularity Institute for Artificial Intelligence (1) .Nous empruntons beaucoup par ailleurs à l’excellent ouvrage de Serge Boisse, très pédagogique, L’esprit, l’IA et la Singularité, en édition électronique(2).

Proposons notre définition de l’IA : nous dirons qu’elle vise à simuler sur des ordinateurs et des réseaux électroniques, par l’intermédiaire de programmes informatiques, un certain nombre des comportements cognitifs, ou façons de penser, des cerveaux animaux et humains. Simuler ne veut pas dire reproduire, car pour reproduire, il faut connaître en détail. Or la composition et le fonctionnement des cerveaux restent encore très difficiles à analyser et interpréter. Par ailleurs, le silicium n'est pas de la matière vivante

Simuler veut dire « essayer d’obtenir, par n’importe quelle solution à notre disposition, un résultat analogue à celui qui nous intéresse dans la nature ». On ne copie pas a priori la nature, on cherche à obtenir un résultat équivalent. Ainsi, pour voler, les hommes ont compris qu’ils n’arriveraient à rien en copiant les oiseaux. Ils ont cherché et trouvé leurs propres voies. Autrement dit, on pratique le processus dit du « comme si ».

Mais ce faisant, une fois le résultat obtenu, on découvre souvent que les voies et moyens artificiels permettant de l’obtenir peuvent aider à comprendre le mécanisme naturel. On sait ainsi que l’invention du sonar dans les années 1940 pour détecter les cibles par écholocalisation a permis ensuite de comprendre comment de nombreux animaux, avec des techniques biologiques très différentes, arrivaient à identifier leurs proies (chauves-souris, dauphins, etc.).

C’est d’ailleurs ce qui est en train de se passer avec l’IA. L’IA a dès le début cherché à simuler, plus ou moins bien, les résultats produits par l’activité des cerveaux et des sens. Ainsi en matière de reconnaissance des formes, des couleurs et des sons. Mais elle l’a fait par ses moyens propres, qui sont ceux de la programmation sur système informatique. Quand elle l’a pu, cependant, elle a utilisé les résultats que lui apportaient les sciences du vivant, physiologie, psychologie, pour mieux connaître les procédures retenues par le vivant. Mais ces résultats n’étaient pas très explicites, car ces sciences du vivant elles-mêmes, dans les années 1950/1960, étaient encore très rudimentaires, fortement teintées de psychologisme sinon de philosophie ou de métaphysique.

Depuis, les sciences du vivant ont découvert tout le parti qu’elles pouvaient tirer de l’observation scientifique détaillée des cellules, des organes et des fonctions, notamment cérébrales, en faisant appel à des techniques physiques telles que la spectrométrie de masse, ou, concernant les neurosciences, l’électroencéphalographie ou l’imagerie par résonance magnétique. Nous ne présenterons pas ces diverses techniques dans cet essai mais nous invitons le lecteur à se documenter à leur propos. Comme ces techniques font elles-mêmes appel à l’informatique dans l’interprétation de leurs résultats, une fructueuse collaboration s’est établie entre les sciences du vivant (biologie et neurologie) et l’IA. Aujourd’hui, sans se recouvrir exactement, l’IA et les neurosciences travaillent la main dans la main. Cela n’empêche pas que d’autres sciences cognitives, non réductibles à l’observation des neurones, se développent par ailleurs. Mais là encore l’IA devient pour elles un apport indispensable. C’est le cas de la linguistique et de diverses sciences sociales et humaines. Quand nous disons IA, nous voulons bien dire IA et pas simplement l’informatique. L’informatique, science à elle toute seule, est partout indispensable, mais seule l’IA lui apporte une valeur ajoutée dans les domaines qui nous concerne. Cette valeur est spécifique à chacune des grandes disciplines qui l’utilisent.

1. L’IA faible

Venons-en à l’IA faible. Elle est partout présente aujourd’hui, nous venons de le dire. Nous allons présenter les principaux types de programme qu’elle utilise. Mais elle est quasiment invisible. Ainsi, lorsque l’on navigue sur le web en utilisant l’hypertexte, ou lorsque l’on procède à une recherche en utilisant un moteur, on bénéficie d’un grand nombre de routines qui sont devenues standard, mais qui avaient aux origines demandé des mois et des mois de programmation à des équipes d’analystes et de programmeurs.

Il faut mettre en garde le lecteur. Nous évoquons ici en quelques phrases apparemment simples des questions d’une grande abstraction, faisant appel à des modes de raisonnement logiques, mathématiques ou informatiques qui ne sont accessibles qu’après un long apprentissage. Les informaticiens ont essayé de simplifier les formulations en utilisant des programmes ou procédures symboliques sur le mode du langage naturel, mais le domaine reste difficile. Ceci explique en partie les obstacles que rencontre l’IA pour vraiment pénétrer les esprits, après pourtant plus d’un demi-siècle d’existence. Les bénéfices que son emploi pourrait apporter à la vie sociale, en évacuant les ambiguïtés ou contradictions, en établissant des ponts entre représentations, sont plus que jamais semble-t-il hors de portée des sociétés contemporaines.

Les systèmes experts

Un système expert est un logiciel capable de simuler le comportement d'un expert humain effectuant une tâche précise, dont il est seul à détenir le savoir-faire. L’objet du système-expert est de mettre en mémoire des connaissances théoriques ou factuelles difficiles à mémoriser autrement, de façon à ce qu’elles ne disparaissent pas avec le retrait de leur détenteur. Il est également de les globaliser et de pouvoir les retraduire sous forme d’aides au diagnostic.

Plan d'une base de données d'un système exprot (VB bRAIN BOX)
Plan d'une base de données d'un système expert (système VBBrain Box)

Au début des années 1990, on avait cru voir dans les systèmes-experts un véritable sommet de l’IA et plus généralement de la simulation du cerveau. Celui-ci en effet mémorise à partir de la naissance du sujet d’innombrables connaissances et règles de comportement, auxquelles il fait appel en cas de besoin. Mettre en bibliothèque, mutualiser et faire évoluer les connaissances de nombreux experts, voire d’une collectivité toute entière, semblait le moyen de constituer un vaste cerveau global, auprès duquel tous les autres systèmes traitant des connaissances et des règles pourraient venir s’approvisionner.

On distinguera les systèmes-experts des dictionnaires, bibliothèques et autres banques de données et d’information, tel le célèbre Wikipedia dont l’ambition est d’être une encyclopédie universelle ouverte à tous. Les systèmes experts, outre certaines informations théoriques, visent d’abord à recueillir des contenus de bon sens dont les experts humains, comme d ‘ailleurs les robots, ont besoin dans leur action quotidienne. Ces contenus sont souvent des règles à suivre pour ne pas s e tromper. Un système –expert médical, par exemple, commence par aider le médecin à faire le tri entre les symptômes significatifs, ceux qui le sont moins et les fabulations que peuvent proposer certains patients.

L’américain Douglas Lenat a entrepris en 1984 de construire un vaste système-expert baptisé CYC (de Encyclopedia) qui comporte aujourd’hui près de 2.500.000 faits et règles, relatifs à plus de 200.000 concepts et images symboliques qui leur donnent un sens. C’est donc aussi un réseau de significations ou réseau sémantique. La performance est très intéressante et mérite d’être poursuivie.

Il faut cependant voir ses limites. Le projet demeure valable, à condition de ne pas trop en attendre. D’une part, les connaissances sont coûteuses à recueillir et mettre à jour. Elles nécessitent un travail critique incessant. Elles vieillissent vite. Elles ne sont pas faciles à utiliser sous forme notamment d’aides rapides au diagnostic. D’une façon générale, le processus est trop déconnecté des comportements actifs par lesquels chaque sujet modifie le monde dans lequel il se trouve et en tire des expériences empiriques ou théoriques, à partir d’hypothèses formulée par son cerveau.

En pratique, les systèmes experts, avec le développement du web et des mobiles, se sont si l’on peut dire miniaturisés et ont diffusés pratiquement partout. Lorsqu'on ’interroge un moteur de recherche à partir de la référence Jean-Sol Partre et que celui-ci nous demande si on ne veut pas plutôt dire Jean-Paul Sartre, c’est un système expert qui est intervenu.

Les robots autonomes ont besoin de multiples systèmes experts quand ils naviguent dans notre monde. Ils ne savent pas d’emblée, par exemple, avant de l’expérimenter, qu’une table comporte en général 4 pieds plutôt que 2. Mais la difficulté pour eux est d’accéder rapidement et automatiquement aux systèmes-experts les plus pertinents. Dans l’avenir, ils le feront préférentiellement par le web, en radio-transmission, contrairement aux humains qui font d’abord appel à d’autres sources de connaissance, avant de se résoudre à consulter Internet.

La représentation des connaissances

Si l'on veut qu'un logiciel soit capable de manipuler des connaissances, il faut savoir les représenter symboliquement. C'est là un des secteurs les plus importants de la recherche en intelligence artificielle. Il intéresse évidemment la construction des systèmes experts, mais il est plus général. La représentation des connaissances désigne un ensemble d'outils et de technologies destinés d'une part à représenter et d'autre part à organiser le savoir humain pour l'utiliser et le partager.

Les connaissances n'ont pas été et ne sont pas toujours représentées par des mots et des phrases. Des schémas, des dessins, des plans, des images documentées sont utilisées en permanence. La représentation des connaissances nécessite leur classement par taxonomies ou classifications et par thesaurus.

Exemple de réseau sémantique
Exemple de réseau sémantique

Pour naviguer dans le monde des connaissances, des outils plus formels permettant de représenter des connaissances complexes sont nécessaires. On parlera de graphes conceptuels ou de réseaux sémantiques. L’IA a systématisé et rendus traitables par l’informatique des modes de classements séculaires. Elle a formalisé la représentation en représentant les connaissances par des objets logiques reliés par des propriétés, axiomes et règles. Des langages informatiques spécifiques utilisables dans le cadre du Web, notamment du web récent dit sémantique qui s’intéresse aux contenus plutôt qu’aux références externes, ont été développées.

L’IA a généralisé le concept d’ontologie. Il s’agit de l'ensemble structuré des termes et concepts fondant le sens d'un champ d'informations, notamment par le biais de métadonnées. L'ontologie constitue un modèle de données représentatif d'un ensemble de concepts dans un domaine, ainsi que les relations entre ces concepts. Elle est employée pour raisonner à propos des objets du domaine concerné. Tout ceci paraîtra abstrait, mais les raisonnements les plus courants procèdent de cette façon sans s’en rendre compte. L’IA, dans ce domaine comme dans celui voisin de la logique, a eu pour premier objectif de mettre en règles précises, mémorisables et utilisables par des robots, les processus ancestraux de l’intelligence animale et humaine.

La gestion des connaissances ou knowledge management

Cette technique complète et rend utilisable la représentation des connaissances. Elle rassemble l’ensemble des techniques permettant d'identifier, d'analyser, d’organiser, de mémoriser, de partager et de restituer à la demande l’ensemble des connaissances produites et accumulées par une organisation sociale. C’est dans le domaine de l’entreprise et de l’administration que le besoin s’est d’abord fait sentir, afin de créer au dessus des cerveaux des individus y travaillant un vaste cortex associatif collectif représentant le savoir de l’entreprise. La gestion des connaissances est une application pratique des sciences cognitives qui en sont le fondement théorique. Elle est de plus en plus utilisée aujourd’hui pour rendre plus efficace les méthodes pédagogiques dans le milieu éducatif.

Mais là encore, le besoin étant immémorial avait fait apparaître dans les sociétés traditionnelles des méthodes empiriques de gestion des connaissances qui demeurent encore très actives dans de nombreux domaines. Les rituels religieux ou sociaux en représentent une forme.

Les systèmes experts et plus généralement les systèmes d’IA ne peuvent être efficaces que s’ils reposent sur des processus sous jacents de gestion efficace des connaissances. En retour, leur fonctionnement permettra de les enrichir. Ainsi se mettra en place un cercle vertueux d’accumulation des savoirs collectifs.

On reproche à la gestion des connaissances, ainsi conçue, son aspect stérilisant, au regard des initiatives individuelles. Le knowledge management contribue souvent, quand il est utilisé dans le but de maximiser les bénéfices à court terme, au stress et à la démobilisation des employés. Lorsque des robots y feront appel, le risque sera particulièrement grand. Il faudra prévoir absolument des générateurs de diversité, ou GOD (generator of diversity). Le besoin de tels générateurs ne se limite pas, comme nous le verrons, à la gestion ni même à la production des connaissances.

Le traitement automatique du langage naturel


Le traitement automatique du langage naturel peut être rapproché des techniques précédentes. Il en constitue le complément indispensable puisque les les données et les connaissances proviennent de multiples sources et langages, qu’il sera préférable d’harmoniser, notamment en les traduisant dans un langage unique. La traduction automatique a longtemps été, nous l’avons indiqué, une des grandes difficultés auxquelles se heurtait l’IA à ses débuts. Aujourd’hui, des progrès substantiels ont été faites. Qu'il s'agisse de traduire un texte dans une autre langue ou de le résumer, le problème crucial à résoudre est celui de sa compréhension. On pourra dire qu'un logiciel comprend un texte lorsqu'il peut le représenter sous une forme indépendante de la langue dans laquelle il est écrit. Les traducteurs automatiques se développent, de préférence dans des domaines spécialisés où ils peuvent être associés à des contenus et à des lexiques adaptés au domaine.

Les traducteurs généralistes se multiplient également aujourd’hui. Ils répondent à un véritable besoin politique, notamment dans les organisations internationales refusant l’omniprésence de l’anglais. Mais la présence d’un traducteur humain reste encore nécessaire.

Les langages verbaux ne sont pas les seuls qu’utilisent les humains. Comme beaucoup d’animaux, ils utilisent aussi d’innombrables symboles, gestes ou images. Leur traduction automatique, notamment vers des langages verbaux et des bases de connaissances, sera de plus en plus nécessaire. Cela fera partie de la constitution d’une vaste culture globale transcendant individus et groupes spécifiques.

Le calcul formel

On peut mentionner dans cette rubrique le traitement informatique du langage mathématique. C’est le calcul formel qui est le plus concerné. Celui-ci, au contraire du calcul numérique, traite des expressions symboliques. C'est un procédé de transformtion des expressions mathématiques.Par exemple, calculer la valeur d'une fonction réelle en un point est du calcul numérique alors que calculer la dérivée d'une fonction numérique, déterminer sa primitive, simplifier son expression est du calcul formel. De nombreux logiciels très puissants sont commercialisés pour exécuter tous les calculs formels et bien d‘autres nécessaires aux activités scientifiques et techniques.

La simulation du raisonnement humain

Programme de détection automatique des sillons sur un cerveau, programme faisant appel à la logique floue (photo : CERIUM)Les données et les connaissances servent aux humains à raisonner. Ils le font de façon plus ou moins rigoureuse, souvent inconsciemment Nous avons vu dans nos articles consacrés à la conscience que les cerveaux disposent de nombreux « agents » ou sites cérébraux au sein desquels se déroulent les processus élémentaires dont la conjugaison permet les enchaînements du raisonnement animal et humain. Les hommes sont capables de raisonner sur des systèmes incomplets, incertains et même contradictoires. Pour l’IA faible, mais aussi et surtout pour l’IA forte et la robotique autonome, il est devenu indispensable de simuler le raisonnement humain, avec ses forces et ses faiblesses. De plus en plus les techniques de raisonnements artificiel seront capables de s’auto-optimiser.. Des logiques dédiées (logiques modales, temporelles, floue, non monotones, etc.), formalisent les raisonnements humains, lorsqu’ils échappent à la logique courante intéressant les rationalités explicites, empiriques ou scientifiques.

La résolution de problèmes

Il s’agit de représenter, analyser et résoudre des problèmes concrets. Pour les premiers concepteurs de l’IA, celle-ci devait être une machine spécialisée (généraliste) dans la résolution de problèmes. Chaque être vivant le fait en permanence, les humains généralement sans y penser. Il peut s’agir simplement de marcher dans la rue afin de se rendre quelque part. Autrement dit un problème est une tâche qui exige l’exploration d’un certain nombre de réponses possibles avant de choisir la bonne, ou la meilleure. A un plus haut niveau, il faut résoudre les problèmes difficiles, ceux pour lesquels aucune solution n’apparaît à première vue. Le cas se retrouve constamment dans la recherche, l’industrie et plus généralement la vie sociale. Pour l’IA, la résolution de problèmes constitue donc un champ d’étude fondamental. Les premiers concepteurs de l’IA espéraient d’ailleurs trouver une méthode capable de résoudre n’importe quel problème, quel qu’il soit. C’était l’ambition du « general problem solving ». Ils y ont renoncé. Il a fallu segmenter les approches.

La difficulté, pour tous les problèmes intéressants (voire les plus simples pour un robot) est que « l’espace de recherche de solution » est très vaste. Il faut le réduire en trouvant des « heuristiques » ou méthodes d’invention évitant de chercher dans des directions inutiles. Il faut aussi faire appel à ce que l’on sait de problèmes similaires pour mieux modéliser sa représentation dans le système.

En dehors de la recherche et de l’industrie, les jeux offrent un vaste terrain d’application à la résolution de problèmes. La plupart des jeux ont fait l’objet d’applications faisant appel à l’IA. Rappelons cependant à cet égard qu’il faut distinguer entre des solutions faisant vraiment appel à des heuristiques évoluées et celles faisant simplement appel à ce que l’on nomme la force informatique brute. Vaincre un joueur d’échecs humain en mettant en face de lui un super-ordinateur géant ne présente guère d’intérêt, autrement que publicitaire. Il existe en revanche des IA permettant de jouer aux échecs bien plus « intelligentes » et donc plus économes de moyens.

Les humains comme les animaux utilisent bien d‘autres méthodes que celles faisant appel à des formulations logico-mathématiques. La plupart sont même en fait incapables de raisonner mathématiquement, que ce soit inconsciemment ou consciemment. Leur moteur de raisonnement est basé sur l’imagerie sensorielle. De plus, ils raisonnent souvent par analogies, en comparant le présent au passé. Ils sont guidés enfin par des émotions qui les guident dans le choix des buts et des heuristiques pour les atteindre.

Le philosophe, logicien et informaticien célèbre Douglas Hoftstadter a développé plusieurs programmes capables de raisonner par analogies. C’est le cas du programme Copycat, que nous ne décrirons pas ici. Il présente la caractéristique de s’inventer des rôles, autrement dit de se modifier lui-même, au fur et à mesure des questions qui lui sont posées. Il s’agit d’un bon précurseur de l’IA forte que nous allons examiner ci-après.

Le programme Copyacat
Copycat

Un autre programme, aussi surprenant, est Phaeaco, conçu par Harry Fondalis et Douglas Hoftstadter en 2005/2006. Il résout notamment les problèmes d’analogies visuelles dits aussi problèmes de Bongard. On conçoit que pour survivre dans la nature, les cerveaux des animaux ont besoin de programmes de cette sorte. Pour rechercher les caractéristiques communes des images, Phaeaco est guidé par les « idées » qu’il peut avoir à un moment donné sur les concepts possibles.

Pour que ces programmes deviennent vraiment intelligents, selon leurs concepteurs, il leur faudrait acquérir la capacité d’introspection, afin de comprendre les raisons de leur choix. Cela a été l’objet du programme « metacat » dont les résultats ne sont pas évidents à ce jour. . Il leur manque aussi la notion de « but », fondamentale dans le cadre de l’IA forte.

Indiquons, à propos des programmes dotés de capacités heuristiques, que Douglas Lénat, créateur de Cyc, avait écrit dès 1981 un programme intitulé Eurisko qui serait encore un des plus intelligent jamais conçu. Ce programme est capable de démontrer des théorèmes, proposer des suggestions, expliciter ses modes de raisonnement. Ceci ressemble beaucoup à de la créativité. Euriko a gagné deux années de suite le jeu The Traveller Trillion Credit Squadron, jusqu’à en être écarté car jugé trop performant au regard du niveau des concurrents (source Boisse, op.cit.).

Les différentes reconnaissances de forme

L’IA, dès ses débuts, s’est attachée à fournir des outils permettant d’identifier les objets avec lesquels les animaux et les humains ont constamment affaire, et que leur cerveau ne rencontre apparemment aucune difficulté à traiter sans qu’ils en aient la moindre conscience. En réalité, comme l’ont montré les études neurologiques entreprises depuis Broca, c’est presque le cerveau entier qui est mobilisé pour construire des représentations utilisables du monde à partir des informations électromagnétiques ou sonores perçues par les sens. Des centaines d’aires différentes y contribuent. Beaucoup de processus de détail demeurent encore maintenant mal explorés.

Dès les origines de l’IA, on a voulu l’utiliser pour équiper des machines dotées de dispositifs d’émission et de réception de signaux divers. On voulait les rendre capables de performances voisines de celles des organismes vivants. Mais les difficultés ont été considérables. Non seulement il fallait trouver des méthodes adaptées au traitement de signaux différents, mais il fallait résoudre une bonne partie des problèmes logiques ou analogiques signalés ci-dessus. Ainsi, dans la reconnaissance de la parole, l’idéal serait un logiciel capable de reconnaître les paroles d'un locuteur quelconque. Mais ceci reste difficile, essentiellement parce que la compréhension d'un mot et à plus forte raison d'une phrase requiert beaucoup d'informations extra-langagières (le contexte, la connaissance du monde dans lequel vit le sujet, celle de ses buts, etc.).

La reconnaissance de l'écriture s’est révélée plus facile, sauf en ce qui concerne celle de l’écriture manuscrite où les variations dues à chaque «écrivain» jettent des ambiguïtés considérables sur les concepts et les phrases utilisées.

<phto : Neven VisionLa reconnaissance des visages, sur photo puis d’après le modèle vivant, est de plus en plus requise par les systèmes sécuritaires et plus généralement par les robots qui doivent distinguer visuellement leurs interlocuteurs. Elle a longtemps été considérée comme quasi impossible. On sait cependant que le cerveau des nourrissons sait le faire très facilement. Aujourd’hui cependant des logiciels très performants sont apparus dans les laboratoires et même dans les produits du commerce. Cette capacité de reconnaissance par les machines serait aujourd'hui supérieure aux performances de l'être humain.

Les actions en sortie, par exemple la synthèse de la parole, présentent moins de difficultés, car en ce cas le système « sait » déjà ce qu’il veut signifier. C’est sur son interlocuteur humain que repose la tâche de l’interprétation. Cependant l’IA, là encore, s’efforce de trouver les modes d’expression les moins ambiguës et les plus économiques au regard des ressources et du temps.

L’apprentissage

On désigne par ce terme banal la façon dont un système d’IA conjuguera les différentes techniques évoquées ci-dessus. Il devra, malgré les différences d’approche de ces dernières, se doter de représentations du monde et de lui-même conformes à ses buts (ou aux buts des humains qui l’utilisent). L’apprentissage, en IA, se fait principalement à l’usage. Un système d’IA ne cherche pas à se doter de toutes les informations que les techniques qu’il utilise lui permettraient d’acquérir. Bien plus, comme le cerveau, il doit impérativement désapprendre ce qu’il avait appris auparavant et qui cessent de lui servir. Un exemple simple de système à apprentissage ciblé est fourni par un appareil de géolocalisation satellitaire qui ne mémorise pas tous les points de route, en nombre infini, susceptibles d’être identifiés sur le géoïde, mais seulement ceux correspondant aux routes usuellement suivies par le navire.

Nous reviendrons sur l’apprentissage, car cette fonction est capitale dans les problèmes que doit résoudre l’IA forte.

Outils de l’IA

Ces différentes tâches font appel à de nombreux langages de programmation et outils de génie logiciels développés au fil des temps pour les besoins de l’IA. Nous nous bornerons à signaler trois d'entre eux, que nous ne décrirons pas ici, renvoyant une nouvelle fois le lecteur aux articles que nous leurs avions consacrés, ainsi évidemment qu'à la littérature. Le premier, très utilisé dès l’origine, fait appel aux réseaux de neurones formels. Les neurones formels simulent le fonctionnement des neurones biologiques, de façon extrêmement simplifiée. Leur emploi se heurte vite à des limites, dès qu’il s’agit de traiter rapidement beaucoup d’informations.

Une autre méthode, également très utilisée, simule la compétition darwinienne entre les êtres vivants. Mais cette compétition s’exerce à l’égard des programmes destinés à produire les meilleures solutions pour répondre à un problème dGenetic Algrotihm Vivewer (GAV) montrant le fonctionnement des algorithmes gnétiquesonné. Il s’agit des algorithmes génétiques de la programmation évolutionnaire (ou evolving computing). Le but est d'obtenir une solution approchée à un problème d’optimisation, en un temps correct, lorsque l’on ne connaît pas de méthode exacte pour le résoudre dans un délai raisonnable. Un générateur produits une grande quantité de programmes représentant tous des solutions différents (les pères). On les met en compétition, on retient les meilleurs (les enfants) et on recommence l’opération sur cette seconde génération, puis aussi longtemps que nécessaire. On se rapproche ainsi par "bonds" successifs d'une solution aussi bonne que possible, en un très court temps. La puissance de cette méthode est considérable. Elle permet d’économiser des milliers d’heures de programmes écrits à la main. Plus les ordinateurs utilisés pour réaliser les sélections nécessaires sont puissants, plus les délais sont courts. La méthode pourrait être employée par un système d’IA sans intervention d’humains, ouvrant ainsi la voie à l’auto-développement et à l’auto-adapatation aux contraintes externes.

Nous citerons enfin dans cette rubrique le concept de système massivement multi-agents (SMA). Il ne s’agit pas à proprement parler d’une méthode de production de programmes, mais d’une façon de modéliser des foules composées d’unités ou agents susceptibles d’activités autonomes (proactivité). Objet de longue date de recherches en IA distribuée, des SMA constitués de milliers de petits programmes disposant d’une certaine autonomie au sein d’une fonction déterminée permettent de réaliser des ensembles complexes évolutionnaires à moindre frais en termes de programmation. Le SMA évolue comme le fait une foule ou un organisme vivant. Il s’agit donc d’une méthode particulièrement intéressante pour l’IA forte, que nous allons maintenant présenter.

2. L’IA forte

L’IA forte, dans son acception la plus ambitieuse, vise à simuler les comportements d’un animal ou d’un humain capable, non seulement d’intelligence, mais de conscience. On parle aussi de cognition artificielle. L'IA forte ne se prononcera pas sur les caractères intrinsèques de l’intelligence ou de la conscience chez l’homme. Ceci lui évitera de s’engager dans les discussions métaphysiques que suscite inévitablement la question de la conscience humaine, sa nature matérielle ou spirituelle, ses capacités d’appréhender le monde.

L’IA forte se bornera à proposer certains critères par lesquels on pourra comparer un automate doté d’une conscience artificielle, c’est-à-dire construite, et un humain ou un animal dotés de conscience . Il s’agira d’une nouvelle version du test dit de Turing. On sait que pour celui-ci, si un ordinateur et un humain, cachés par un rideau, répondent de façon identique à un enquêteur, il n’y aura pas de raison de refuser au premier l’équivalent de la conscience reconnue au second. Là encore, on dira que « tout se passe comme si » l’ordinateur était conscient.

Ceci posé, il est évident que l’IA forte, même associée à la robotique, est encore loin de permettra la réalisation, voire seulement la conception, d’un automate doté d’une "conscience artificielle". Il n’est même pas certain qu’elle puisse jamais y arriver. Certains chercheurs évoquent des obstacles infranchissables en ce sens. Nous n’allons pas ici nous arrêter à ces objections, qui ne paraissent pas particulièrement fondées. Les avancées de la science, en ce domaine, sont rapides. Il est une règle heuristique qui se révèle souvent fructueuse, c’est de considérer que tout ce que l’on peut concevoir en extrapolant à partir des technologies existantes finit par se faire – à condition bien entendu que la société ne s’effondre pas dans l’intervalle.

Simulation et codage des principales fonctions du cerveau
.
En principe, une des premières tâches des concepteurs de l’IA forte (que nous appellerons dorénavant l’IA, sans adjectif) devrait être d’identifier les différents processus caractérisant le fonctionnement du cerveau biologique et de mettre en place des assemblées d’agents informatiques capables d’accomplir des activités fonctionnellement voisines de ces processus.

Rappelons que les cerveaux, selon les psychologues et neurologues, fonctionnent sur de multiples registres, à partir de l’activation de multiples sites neuronaux chargés de tâches de détail. En simplifiant beaucoup (il ne s’agit ici que de généralités illustratives, à ne pas prendre au pied de la lettre), on dira que le cerveau :

  • reçoit, traite et conjugue les informations reçues des cinq sens ainsi que les informations dites proprioceptives concernant la position du corps dans l’espace.

  • éprouve des sensations de plaisir et de douleur qui ont pour principale fonction de renforcer l’attrait des activités utiles à la vie et de provoquer l’évitement de celles qui ne le sont pas.

  • construit des représentations internes de son environnement.

  • inversement construit des représentations internes d’une situation désirée ou imaginée.

  • se situer lui-même sous forme d’auto-représentation dans l’un et l’autre de ces théâtres.

  • dispose de deux modes de fonctionnement, inconscient et conscient. Les fonctions inconscientes sont pour l’essentiel motivationnelles, poussant à agir vers des buts jugés désirables, soit par déterminisme génétique, soit par suite des expériences réussies vécues par le sujet. Mais les fonctions inconscientes sont aussi en partie inhibitrices. Une «censure» éloigne l’attention des activités ou pensées pouvant avoir des conséquences dangereuses pour le sujet. Là encore, ces inhibitions découlent soit de déterminismes génétiques, soit d’expériences négatives vécues et mémorisées par le sujet. On sait que les animaux sont constamment bloqués dans leurs comportements exploratoires par diverses inhibitions très puissantes.

  • dispose d’aptitudes exploratoires, sur le mode essais et erreurs, qui sont à la base des comportements de recherche ou heuristiques et de la reconfiguration permanente des contenus de mémoire.

  • dispose d’une capacité langagière innée, qui se spécifie au cours de l’apprentissage. Il en est de même de beaucoup des fonctions intéressant l’esprit. A partir de compétences innées, elles se construisent par apprentissage social en interaction avec le milieu.

  • possède une mémoire à court terme et une mémoire à long terme, dont les capacités et les rôles sont différents.

  • est sensible, soit globalement, soit partiellement, à des décharges de médiateurs chimiques suscitées par les émotions, qui modifient passagèrement ou durablement ses états.

  • est capable de bâtir avec ses semblables des constructions sociales très diverses, reposant très largement sur des concepts, images et autres informations partagées. Celles-ci, en interaction avec l’environnement, constituent des éconiches culturelles ou « phénotypes étendus », selon le terme proposé par Richard Dawkins.

  • au sein de ces éconiches, est capable d’entrer en compétition darwinienne plus ou moins vive avec ses semblables. Ces compétitions sont à la base de l’évolution des cultures et, sans doute aussi, par rétroaction, de l’évolution des génomes propres à l’espèce.

Les cerveaux, comme d’ailleurs les individus auxquels ils appartiennent, et comme en dernier ressort leurs productions intellectuelles, sont uniques, à partir d’un modèle d’ensemble fixé par la génétique. Autrement dit, aucun ne ressemble complètement à un autre. Leur histoire biologique et événementielle les façonne chaque fois différemment. Ces différences s’expriment ou ne s’expriment pas selon les circonstances. Néanmoins on peut parler d’un processus dit d’individuation par lequel un individu spécifique se construit tout au long de la vie. Ce processus est moins marqué mais présent également chez les animaux.

A partir du catalogue ci-dessus, on peut concevoir que le programmeur de l’IA code un certain nombre de fonctions susceptibles de provoquer chez un automate la naissance de comportements analogues à ceux du cerveau animal ou humain. Il pourra aussi décider de ne pas coder certaines fonctions héritées de l’évolution humaine et susceptible de représenter un handicap pour l’entité artificielle considérée. Rappelons que le codage ne sera pas obligé de retrouver les sensations subjectives, en fait incommunicables, ressenties par un être humain. Ainsi la douleur ou le plaisir, indispensables pour renforcer ou éviter certains stimuli chez le vivant, seront programmés sous forme d’instructions informatiques.

Ajoutons que la codification ou programmation ne se fera pas au niveau de l’entité globale, mais au niveau de chacun des sous-niveaux ou agents responsables de chacune des grandes tâches énumérées ci-dessus. Cette spécialisation correspondra à ce qui se produit réellement dans le cerveau biologique, au moins dans les phases de traitement antérieures à la prise de décision globale réalisées dans le cortex associatif. On commencera ainsi par programmer les modules correspondant à la reconnaissance des formes. Ils seront mis ensuite en interaction avec les autres modules, chacun d’eux, dans le cours de la vie de l’entité, pouvant réagir et modifier les autres dans le cadre d’une individuation de plus en plus complexe.

Ce sera en fait l’interaction des divers modules fonctionnels entre eux et avec l’environnement qui permettra de compléter les codages de détail et de les rendre opérants au niveau de l’organisme final. On retrouvera ainsi la méthode suivie par les constructeurs des robots évolutionnaires modernes : conjuguer l’approche top-down définie par les spécifications initiales et l’approche bottom-up résultant de l’interaction des différents composants dans le cadre d’un environnement non défini à l’avance. Il en résulte que le produit final ne pourra pas et ne devra pas être totalement conforme aux spécifications de départ. L’objectif ne sera pas de créer des clones, mais des sujets susceptibles d’interagir à partir de leurs différences, mécanisme indispensable permettant de générer de la diversité (GOD ou Generator of Diversity) dans le processus de création de lignées de robots. Sans cette diversité, correspondant en biologie aux produits des mutations génétiques, il n’y aurait pas de compétition et par conséquent pas d’évolution adaptative.

Par ailleurs, plus immédiatement, les processus bottom up faisant émerger de la complexité à partir de l’interaction d’éléments simples éviteront aux programmeurs de nombreuses heures de travail. Une partie des instructions nécessaires seront générées par le système lui-même, du fait de l’interaction de ses divers composants. On sait qu’en robotique, Rodney Brooks a bâti une véritable success story en s’affranchissant ainsi des contraintes de la programmation top down dans lesquelles s’était enfermés, par exemple, les concepteurs du premier chien robot Aibo de Sony.

Notre propos, on le voit, nous conduit irrésistiblement à considérer que la construction d’un IA forte supposera l’existence d’un corps robotique physique. Nous y reviendrons nécessairement dans la suite de ce travail. On peut cependant, comme nous l’avons dit, commencer la réalisation d’une IA forte en travaillant sur la base d’un corps simulé au sein d’un système informatique ou d’un réseau. Mais il faut pour cela maîtriser parfaitement la programmation, ce que savait faire les premiers inventeurs de l’IA. Il semble que les compétence ou la patience nécessaires s’en soient perdues.

Ceci posé, revenons à ce que devrait être – ou pourrait être – une IA visant à simuler la conscience dans un organisme artificiel ?

Créer une IA-Germe
.
Au départ, nous venons de le voir, l’IA se construira essentiellement par auto-apprentissage à partir d’une base simulée. Il faudra donc disposer d’un programme générateur - qualifié de « IA germe » dans l’ouvrage de Serge Boisse- , capable de générer les autres formes d’IA. L’auteur propose, et l’on ne peut que l’approuver, de commencer à travailler à partir d’un monde virtuel (nous discuterons ci-après de la réalité virtuelle). Il existe aujourd’hui de nombreux milieux virtuels entre lesquels les concepteurs de l’IA pourront choisir et qu’ils garniront de spécifications représentant les sens et les divers organes d’un robot physique, interagissant avec le monde physique. La virtualité, malgré ses limites, permettra de progresser très vite et de tester rapidement les différentes grandes fonctions.

Serge Boisse suggère de créer au départ un certain nombre de «boîtes» virtuelles ou programmatiques, correspondant aux différents niveaux du fonctionnement de l’esprit : modalités sensorielles, concepts, pensées, délibération, buts et conscience globale. D’autres boîtes seront chargées de la régulation de l’ensemble. Les boites seront très complexes, comportant peut-être des centaines de millions de lignes de programme au total. Le travail n’est donc pas négligeable, mais à ce stade, il serait abordable. Chacune des boites possède des entrées, des sorties et des fonctions bien définies. Il faudra les concevoir comme des « résolveurs de problèmes », le problème général consistant à calculer les sorties en fonction des entrées.

On pourra les décomposer à leur tour en sous-systèmes capables de traiter des problèmes particuliers. Chacun de ces sous-systèmes sera à son tour décomposé, ceci aussi loin que nécessaire. On arrivera aux systèmes du niveau le plus bas, correspondant à des agents informatiques dans un système massivement multi-agents. Chacun de ces sous-sous-systèmes pourra utiliser des heuristiques propres pour résoudre ses problèmes, en choisissant librement diverses stratégies : ne rien faire, se modifier aléatoirement, imiter un autre, déléguer la tâche à un autre, répéter, faire appel à des données en mémoire, gérer et tester les solutions, etc.

Cette dernière fonction, gérer et tester des solutions, paraît être, selon les travaux les plus récents des neuroscientifiques, la façon dont procèdent les différentes cellules fonctionnelles ou agents du cerveau. Ainsi, confronté à une entrée d’informations provenant de la rétine, le système visuel recherche en mémoire une scène (en 3D) correspondant grossièrement à ce qui est perçu. Il en fait une « hypothèse » qu’il confronte à la scène vue. Après différentes améliorations permettant d’améliorer à la fois la précision de la réception et celle de la représentation, il retient pour s’en servir la scène offrant la plus grande probabilité d’être aussi proche que possible de la scène visualisée (l’expérience) et de la scène antérieurement mémorisée (l’hypothèse interprétative).

Il s’agit d’un aspect du fonctionnement bayésien qui pourrait être le mode de fonctionnement standard du cerveau biologique. On lira dans ce numéro notre article « Le cerveau Bayésien »(3) Les processus bayésiens peuvent facilement être utilisés par l’IA. Ils sont aujourd’hui largement utilisés, comme le montrent les travaux de la mathématicienne informaticienne américaine Daphne Koller(4).

La programmation détaillée et complète de tout ceci serait une tâche impossible. Mais selon Serge Boisse, le concept d’IA germe pourrait venir à notre secours. La perspective pourrait paraître miraculeuse, autrement dit impossible. Mais les vrais programmeurs, ceux possédant l’informatique comme une seconde nature, ne devraient pas s’en étonner. Dans une IA germe, il ne sera pas nécessaire d’implémenter toutes les fonctions. L’IA germe codera d’elle-même les fonctions qui lui manquent. Ceci parce qu’en tant qu’IA, elle aura la possibilité de s’autoprogrammer. Pour en être capable, il suffirait qu’elle ait une « modalité sensorielle pour le code », selon l’expression de l’auteur. Avec une telle sensibilité, elle pourrait optimiser sa propre auto-programmation. Les générateurs de code automatiques d’aujourd’hui en sont très loin, mais c’est parce qu’ils ne sont pas dotés, comme les IA forte envisagées ici, de systèmes de concepts, buts et finalement de pensées, correspondant à l’équivalent d’un esprit.

Or ces systèmes pourraient se construire progressivement, à partir d’une IA germe programmée par les humains et dotées d’une «sensibilité pour le code» minimale. Son premier super-but sera d’améliorer cette sensibilité, de la même façon que le fait le programme Eurisko de Douglas Lenat, signalé plus haut comme étant le plus créatif ayant existé à ce jour.

A partir de là, l’évolution devrait s’accélérer. Après plusieurs tours d’auto-perfectionnement, la jeune IA germe devrait atteindre, selon Serge Boisse et Eliezer Yudkowski une compréhension du monde analogue à celle d’un enfant de 6 ans. Quelques mois plus tard elle serait celle d’un adulte et quelques heures plus tard, elle serait devenue la véritable première super-intelligence. C’est alors qu’il faudra se poser la question de sa contrôlabilité éventuelle par les humains.

La solution présentée ici n’est qu’une des voies possibles. D’autres sont en cours d’étude et même de développement. L’IA y est associée ou non avec la robotique, mais de toutes façons un considérable travail de programmation et d’auto-programmation apparaît nécessaire pour réaliser des machines capables de générer de la pensée voire l’équivalent de pensées conscientes. Citons à cet égard le projet présenté par le professeur Alain Cardon, avec lequel nous avons collaboré à diverses occasions. Il a déjà écrit un nombre considérable d’instructions que l’on pourrait qualifier de « germes » pour reprendre le terme de Serge Boisse. Malheureusement, il n’a pas encore pu obtenir les quelques crédits qui lui seraient nécessaires pour développer son programme(5).

"Carte mentale" obtenue par un Aibo qui regarde une balle
Exemple de "carte mentale" obtenue par un robot Aibo qui regarde une balle
Alain Cardon - Voir l'article publié dans Automates Intelligents

Les sceptiques objecteront que ni les idées de Serge Boisse ni le projet, beaucoup plus avancé, d’Alain Cardon, n’ont encore abouti à des démonstrateurs convaincants. Cela ne doit pas nous empêcher de les prendre au sérieux. Il est à peu près certain qu’ailleurs dans le monde, notamment aux Etats-Unis, dans les laboratoires travaillant pour le défense et financés par la DARPA (Defense Advanced Research Projects Agency), des projets beaucoup plus avancés sont en cours d’aboutissement. Mais ils restent couverts par le secret-défense. Il est dommage qu’en France, comme plus généralement en Europe, les pouvoirs publics, de qui dépendraient inévitablement les décisions, ne jugent utile de dégager les quelques millions d’euros nécessaires pour obtenir une « super-IA » représentant un atout de compétition considérable.

Notes
(1)
Singularity Institute for Artificial Intelligence : http://www.singinst.org/
(2) L'Esprit, l'IA et la Singularité, de Serge Boisse. Nous l’avions présenté à l’époque de sa parution.
(3) . Voir notre article : Le cerveau Bayésien
(4) Daphne Koller : http://robotics.stanford.edu/~koller/research.html
(5) Voir pour plus de détails : http://www.alaincardon.net/.


© Automates Intelligents 2008

 





 

 

 

Qui sommes nous ? Partenaires Abonnement Nous Contacter

© Association Automates Intelligents