ARTE   Archives     Tout sur Archimède  
  Emission du 13 avril 1999

Alexis Drogoul

(retranscription intégrale du reportage)

Alexis Drogoul
Robot-fourmi.jpe (11597 octets)Je m'appelle Alexis Drogoul, je suis chercheur au laboratoire d'informatique de l'université Paris VI et je travaille sur des systèmes qui se situent à la frontière entre l'intelligence artificielle et la vie artificielle et la robotique.
Ce que vous venez de voir est un robot fourmi qui sait se déplacer sur ses six pattes. C'est l'exemple même du type des systèmes sur lequel nous travaillons en collaboration avec des industriels ou d'autres chercheurs du monde entier.


Ici, les techniques que l'on utilise permettent de modéliser, en fait, chacune des fourmis de la colonie avec ses propres comportements, éventuellement ses propres envies, ses propres buts permettent également de modéliser, donc, les comportements qu'elle va avoir à l'égard des autres fourmis, à l'égard de son environnement. On peut voir, ici, les oeufs, la nourriture, etc...
Et à partir de là, en faisant interagir ces fourmis artificielles, on essaie de se montrer capable de reproduire aussi fidèlement que possible le comportement collectif de la colonie. A partir du moment où on reproduit un système sur informatique, ça veut dire que l'on est capable d'en concevoir un qui soit similaire mais pas tout à fait semblable... qui utilise les mêmes propriétés et notamment les propriétés d'auto-organisation que l'on a chez la fourmi.
Quand on voit une colonie de fourmis fonctionner, on imagine assez bien qu'on puisse transformer toutes ces petites fourmis en des petites choses mécaniques et que l'on soit capable, donc, de créer, non pas des robots fourmis artificiels mais des colonies de robots fourmis artificiels. La colonie robot que l’on souhaite mettre dans le laboratoire est donc constituée d'un ensemble de robots.
Vous avez dix robots qui sont, chacun, dotés d'une autonomie au niveau du comportement et de la mobilité mais qui vont devoir mener à bien des taches, ensemble. Qui vont devoir, par exemple, explorer leur environnement, se communiquer éventuellement les résultats de leurs explorations afin de permettre aux autres robots de gagner du temps, tout simplement, en allant se promener dans le laboratoire. Et une de leur tache essentielle, ce sera, comme une colonie d'insectes ou comme un groupe social d'animaux dans un environnement qui leur est inconnu, ça sera, tout simplement, de survivre.

Un robot, c'est une pièce mécanique avec éventuellement des roues, avec éventuellement des pattes, un programme informatique dedans qui effectue le contrôle de ces roues et de ces pattes. Grosso modo, en fait, c'est une enveloppe charnelle qui n'a strictement rien avoir avec les systèmes que l'on qualifie le plus volontiers d'intelligents, c'est à dire les êtres humains. Donc, toute la question et, je dirais, toute la légitimité de l'intelligence artificielle, repose sur une position que l'on peut ou non accepter mais à mon avis que l'on est obligé d'accepter si on souhaite construire des machines intelligentes, c'est que pour une grande part, l'intelligence d'un système artificiel est dans l'oeil de l'observateur.
Cest à dire, la personne qui, par exemple, va voir fonctionner un robot et en le voyant fonctionner, en le voyant éviter les obstacles, en le voyant se promener dans l'environnement, va commencer à penser que le robot met en oeuvre une stratégie, met en oeuvre une intelligence quelconque, eh bien, cette personne-là se trompe peut-être complètement. Le robot est tout simplement pourvu d'un certain nombre d'actes réflexe qui lui permettent d'entretenir cette illusion de comportement complexe. Cette illusion là est au coeur de l'intelligence artificielle.

Et maintenant, c'est vrai qu'on arrive à aller encore un peu plus loin puisque ce petit animal non seulement, je dirais, bon, ressemble à une peluche, euh, avec toutes les caractéristiques d'une peluche, mais en plus, elle va être dotée d'un certain nombre de comportements dont certains pourront même être relativement autonomes, donc non liés à la volonté directe de l'enfant.
L'exemple le plus simple étant quand on souhaite endormir ce type de petit robot. Il va refuser de temps en temps de s'endormir. Le refus va marquer l'émergence d'une personnalité. C'est tout simplement quelque chose d'aléatoire mais que l'on va immédiatement interpréter comme quelque chose d'intentionnel. Ce que l'on voit ici, en fait, c'est un prototype. Il préfigure très certainement ce que seront les jouets de demain : des choses beaucoup plus autonomes, des choses qui pourront interagir de façon sans doute plus fine avec leurs utilisateurs donc les... principalement les enfants... des choses qui pourront peut-être communiquer les unes avec les autres, qui pourront peut-être former des communautés à part entière, comme on peut le voir un peu avec les tamaguschis, par exemple, au Japon qui depuis quelques années en tous cas, mais maintenant peuvent, par exemple, communiquer par téléphone à l'insu de leur propriétaire.
Et même si pour l'instant, ce genre de jouet est encore très simple, on voit très bien que tout pourrait gagner à être un peu amélioré, on est amené à la lisière entre quelque chose que l'on fait habituellement avec des animaux domestiques, c'est à dire leur prêter de l'intelligence, de l'intentionnalité et puis se mettre en quatre pour eux, est quelque chose qu'on ne fait pas encore avec les machines. Quand cette limite, un petit peu, sera franchie entre les deux, c'est à dire qu'on aura vraiment des machines qui nous feront douter de leur statut de machine, je pense que l'on aura franchi un énorme pas . Peut-être dans la compréhension de la vie mais sans doute et très fortement dans la compréhension de notre intelligence, en fait, dans la compréhension de notre façon de fonctionner vis à vis des objets qui nous entourent.