De plus en plus de voix s'élèvent pour mettre en garde contre les dangers de l'intelligence artificielle. Les dernières en date ne sont rien de moins que celles d'Elon Musk, Stephen Hawking et Steve Wozniak qui, avec l'aide de l'institut Future of Life, fondé par Max Tegmark, appellent à une interdiction des robots militaires autonomes. Plus de 2.000 experts en IA se joignent à eux avec une lettre ouverte.
au sommaire
Il y a un an, à l'occasion de l'interview qu'il avait accordée à Futura-Sciences, le cosmologiste Max Tegmark nous avait fait part de ses préoccupations pour l'avenir de l'humanité. Cela l'avait conduit à fonder le FLI (Future of Life Institute)), destiné à regrouper un groupe d'experts et de personnalités reconnues partageant ses inquiétudes et déterminées à entreprendre des actions pour garantir la survie de l'espèceespèce humaine au cours de ce début de XXIe siècle.
Dès sa fondation, le FLI comptait des membres aussi prestigieux que Stephen HawkingStephen Hawking, les prix Nobel de physiquephysique Frank Wilczek et Saul Perlmutter mais aussi des sommités dans le domaine de la biologie et de l'intelligence artificielle, comme Stuart Russell et George Church. Ils ont rapidement été rejoints par le fondateur de SpaceXSpaceX et Tesla MotorsTesla Motors, Elon MuskElon Musk.
Musk a récemment fait état de ses craintes face au développement de l'intelligence artificielle. Si certains, comme Ray Kurzweil, y voient le moyen d'établir le paradis sur Terre grâce à la singularité technologique, Musk s'inquiète que ce soit un acte d'« hubris », quand l'Homme se prend pour un dieu, qui va déboucher sur l'équivalent d'une invocation au démon, entraînant finalement l'humanité dans sa perte. C'est pourquoi Elon Musk a fait don de 10 millions de dollars au FLI qui va utiliser cet argentargent pour financer plusieurs groupes de recherches de par le monde. Leur tâche sera de réfléchir sur les dangers posés par le développement inévitable et souhaitable de l'IA, et bien évidemment de fournir des solutions pour les prévenir.
Fondateur du FLI, Max Tegmark interroge Elon Musk pour connaître les raisons qui le poussent à se préoccuper des dangers de l'IA. Pour obtenir une traduction en français assez fidèle, cliquez sur le rectangle avec deux barres horizontales en bas à droite. Les sous-titres en anglais devraient alors apparaître, si ce n'est pas déjà le cas. En cliquant ensuite sur l'écrou à droite du rectangle, vous devriez voir l'expression « Traduire les sous-titres ». Cliquez pour faire apparaître le menu du choix de la langue, choisissez « français », puis cliquez sur « OK » © Max Tegmark , YouTube
2.000 experts en IA contre les robots militaires tueurs
Déjà, en 2014, à l'occasion de la sortie du film Transcendence, Stephen Hawking, Max Tegmark, Stuart Russell et Frank Wilczek avaient joint leurs voix dans un texte publié dans la presse mettant en garde les décideurs politiques contre les dangers de l'IA. Aujourd'hui, en leur compagnie, le FLI va plus loin en publiant une lettre ouverte signée par plus de 2.000 experts dans le domaine de l'informatique et de l'intelligence artificielle. Elle porteporte aussi la signature de plus de 10.000 personnalités du monde scientifique et technologique, comme Elon Musk et Stephen Hawking bien sûr, mais aussi Steve Wozniak, le cofondateur d'AppleApple, ainsi que Jaan Tallinn, celui de Skype.
Quel est le contenu de cette lettre ? Tout simplement un appel à une interdiction des robots militaires tueurs autonomes tels que ceux de la série Terminator, que ce soit sous forme humanoïdeshumanoïdes, de drones ou d'engins marcheurs. Pour les experts à l'origine de cette lettre, la technologie qui ouvrirait à ces robots la porte des champs de bataille sera prête dans quelques années seulement. Contrairement à celle des armes nucléaires, elle est peu coûteuse et facilement accessible. De sorte que des dictateurs ou des groupes terroristes pourront facilement en disposer pour contrôler ou exterminer des populations et commanditer des assassinats. Une nouvelle course aux armements basés sur l'IA ne doit donc pas être entreprise par l'humanité, affirment les signataires de cet appel.