« Papa, papa, comment on fait des bébés robots ?
— Eh bien c’est facile, tu prends une carte-mère, des spermato-droïdes, et …. »
Non, sans blagues, ils sortent d’où les droïdes que l’on voit dans Star Wars ? Il y en a pour tous les goûts, de toutes les formes, et en plus d’avoir chacun une tâche à précise à remplir, on les trouve régulièrement dotés d’une personnalité qui les rend uniques.
Et pourtant, on n’arrête pas au fil de la saga, de voir certains d’entre eux sortir de leur fonction première, et transcender leur nature ; ce qui nous poussent à nous questionner sur leurs origines respectives.
À une époque où les robots prennent de plus en plus de place dans nos vies, les questions abordées par la science-fiction sur le sujet méritent plus que jamais notre intérêt.
Le fait que tout le monde connaisse de près où de loin l’univers de Star Wars en fait un parfait vecteur pour aborder la question. D’autant que, vous allez le voir, on peut tisser à partir de ce matériaux, un raisonnement beaucoup plus poussé qu’il n’y parait au premier abord.
Duo de choc
C’est sans grande surprise à travers le couple le plus célèbre de la galaxie que nous allons aborder la question : R2D2 et C3PO (Z6PO pour les nostalgiques).
Caution humoristique des premiers épisodes, vecteurs essentiels de l’intrigue, compagnons fidèles, les deux droïdes recueillis sur Tatooine par Luke Skywalker et son oncle Owen sont des personnages à part entière, d’une importance capitale. À tel point que ce sont les premiers personnages à apparaitre au montage lors de l’épisode IV (film originel, s’il est besoin de le rappeler.)… c’est dire ! Et leur omniprésence dans les films ne fait que confirmer cette intuition. On verra bien sûr des robots de toutes les couleurs et de toutes les tailles à travers l’ensemble de l’univers Star Wars. Droïde médical, droïde ouvrier, droïde archiviste, et même des droïdes chasseurs de primes, et j’en passe…
Quel genre de robot peut devenir chasseur de prime, à moins qu’il ne travaille pour le compte d’un autre ? S’il travaille à son compte, à quel point l’intelligence artificielle de ce droïde et son libre arbitre doivent-ils être poussés pour arriver à une telle excentricité ? La question est soulevée très rapidement dans le film lorsque Luke retire à R2D2 et C3PO leur plot de securité installé par les Jawas, ce qui permettra à R2D2 de se lancer à la recherche d’Obi Wan Kenobi, son ancien maître. « Petit comme t’es, je pense que tu pourras pas te sauver si j’te l’enlève… » Grave erreur !
Dur dur d’être un Robot
Prenons donc les faits un à un :
Les droïdes ont des maîtres. Ils sont programmés et doivent obéir aux ordres qui leur sont donnés. Et si leur comportement peut faire preuve d’une certaine personnalité, il apparait rapidement que l’on peut restreindre leur libre arbitre à l’aide d’un simple « plot de sécurité ». Il est aussi possible de leur effacer la mémoire, et les reprogrammer, même à des tâches qui sont à l’origine hors de leur champ de compétence originale.
Ils sont considérés comme des objets, des propriétés, et peuvent être achetés ou vendus. Encore une fois, les différents traits de personnalités qui peuvent ressortir n’émeuvent pas le commun des mortels. Pire que cela, ils sont interdits dans certains lieux, comme ce bar de Mos Eisley où Luke va faire la rencontre de Han Solo et Chewbacca.
Dans une galaxie pas si lointaine
Et en cela, le chemin de la fiction vient croiser celui de la réalité. Alors que l’on parle de l’émergence toujours plus proche de l’intelligence artificielle, beaucoup se demandent comment l’on va devoir gérer cette intelligence. Comment devra-t-on considérer cette intelligence ? Une nouvelle espèce ? un outil ? Un danger ?
À l’image de ce que l’on trouve dans la littérature ou le cinéma de genre, les craintes sont répandues, et pourtant les avis divergent. Si les robots de Star Wars sont particulièrement rassurants, d’autres récits de science-fiction comme, Terminator ou Matrix montrent une vision bien plus sombre de l’avenir ; et l’on est en droit de se demander vers laquelle de ces deux options nous risquons le plus d’aller. Ce genre de récits doit d’ailleurs avoir grandement influencé l’opinion quant à la possibilité d’une apocalypse robotique. Asimov décrivait ce comportement humain comme le complexe de Frankenstein, qui fait que l’humanité a peur de se voir dépassée par ses propres créatures ; et c’est l’origine des trois lois de la robotique que l’on retrouve dans ses écrits :
- Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
- Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Ainsi, ces trois lois étant immuables, les robots étaient censés rester des outils parfaitement sûrs pour l’être humain. Pourtant, ces lois montrent rapidement leurs faiblesses, que certains tenteront de rectifier par l’ajout de nouvelles lois. Et malgré cela, ce système de sécurité reste trop complexe à appliquer dans le monde réel. En effet, à l’heure actuelle, les robots ne peuvent pas percevoir un être humain de la même manière que nous, et ne le pourront peut-être jamais. D’une certaine manière, les robots qui nous entourent à ce jour sont soit trop simples, soit trop complexes, pour que les lois imaginées par Asimov soient vraiment applicables en l’état. Il est très humain de vouloir donner des attributs, une perception ou des comportements humains aux choses qui l’entourent, mais c’est souvent un leurre.
En effet, la vision du monde par les capteurs et circuits d’un robot est bien différente de celle d’un humain à travers ses yeux, son cerveau. Et que dire de la programmation ? Comment encoder les termes « porter atteinte » dans le programme d’une machine ? comment s’assurer que les termes informatiques utilisés seront interprétés de la bonne façon ? C’est tout le cœur du problème.
Robots Tueurs
Par ailleurs, qu’en est-il des machines qui sont intrinsèquement conçues pour aller à l’encontre de ces principes ? Sans forcément envisager les débordements hollywoodien donnant lieu à une guerre humains / machines, des personnalités comme Elon Musk, Steve Wozniak ou Stephen Hawking ne cessent de nous mettre en garde contre les robots-tueurs. En juillet dernier, ils faisaient parti des signataires d’une lettre ouverte demandant l’interdiction pure et simple de ces armes autonomes.
« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires. »
Si cette lettre ouverte ne condamne pas bêtement et sans réfléchir l’intelligence artificielle, elle invite tous les acteurs du secteur à agir avec la plus grande prudence, de manière à organiser un futur où l’on puisse utiliser au mieux cet outil, plutôt que de le subir.
On peut aussi deviser sur l’avenir de l’intelligence artificielle, et imaginer qu’elle se développe au point d’égaler ou surpasser l’esprit humain. Comment devrons nous réagir ? faudra-t-il considérer cette machine pensante au même titre qu’un être de chair et de sang ?
Racisme anti-Robots ?
Aaron Sloman, philosophe et chercheur dans le domaine de l’intelligence artificielle, a poussé sa réflexion dans ce sens, et est arrivé à la conclusion suivante, vis à vis des lois d’Asimov, ce qui est aussi valable pour tout autre type de législation :
« J’ai toujours pensé que les trois lois étaient assez bêtes : elles expriment simplement une forme de racisme, ou de spécisme.
Si un robot est aussi intelligent que vous et moi, s’il a été sur Terre aussi longtemps que vous et moi, qu’il a autant d’amis et proches que vous et moi (et c’est valable pour les humains, les extraterrestre intelligents, ou quoi que ce soit), alors, il n’y a aucune raison qu’il soit traité selon des lois différentes que celles qui nous sont imposées, à vous et à moi. »
– Aaron Sloman
Pour citer un autre exemple de groupe de réflexion sur le sujet, le 24 septembre dernier, l’équipe de la rubrique Pixel, du journal Le monde organisait le faux procès de Rick Deckard. Il s’agissait de déterminer – à condition qu’il soit effectivement un répliquant – s’il devait être traité ou non comme un humain. Un exercice amusant qui pourrait inspirer d’autres pistes de réflexion à l’avenir.
Pensez y la prochaine fois que vous payerez à une borne en allant faire vos courses, au cinéma, ou que vous serez dans une rame de métro automatique. Pensez y quand vous verrez un robot aspirateur ou un robot de compagnie comme Cozmo chez votre ami branché high-tech (je vous invite à aller voir l’article de David-Julien Rahmil sur le jouet-robot de chez Anki, page XX). Les machines s’installent peu à peu dans notre monde, et on ne sait pas encore si la finalité tendra plutôt vers l’univers rassurant de Star Wars, ou celui plus contrasté de Blade Runner.
Un avenir incertain
Les questions éthiques sont encore nombreuses, et c’est justement parce que nous n’avons pas encore atteint un point critique, qu’il est nécessaire de se les poser.
De nombreux chercheurs ont déjà des réponses à proposer aux différentes questions étiques qui se posent. Par exemple, la question de la responsabilité dans un accident impliquant des voitures sans chauffeur. Faudra-il blâmer le propriétaire de la voiture ? le constructeur ? Le programmeur ? Si c’est effectivement la voiture qui a pris les décisions menant à l’accident, il faudra bien, à défaut de trois lois implantées dans le système de la machine, trouver un cadre juridique efficace. Vous pouvez vous amuser à participer aux recherches : un groupe d’étudiants du MIT a mis en ligne un site de sondage (moralmachine.mit.edu), de manière à alimenter une intelligence artificielle de voitures autonomes, avec les réponses soumises. Ils ont peu à peu amélioré le site, qui permet aussi à présent de concevoir les questions morales et c’est un excellent moyen de se faire une idée de la façon de penser d’une machine, de se rendre compte des dilemmes qui vont immanquablement se présenter.