Il semble qu’un mois ne se passe pas sans que des personnalités bien connues fassent le commentaire sur le potentiel des machines à intelligence artificielle de conquérir le monde. Elon Musk a déclaré publiquement que les systèmes d'IA sont «potentiellement plus dangereux que les armes nucléaires». Mais il n'est pas le seul, a également déclaré Stephen Hawking. «Le développement d'une intelligence artificielle complète pourrait sonner le glas de la race humaine». Le professeur Hawking a déclaré à la BBC. «Cela décollerait tout seul et se redéfinirait à un rythme de plus en plus rapide.» Même Bill Gates s'inquiète, «Je suis dans le camp qui se préoccupe de la super intelligence. Je suis d’accord avec Elon Musk et quelques autres à ce sujet et je ne comprends pas pourquoi certaines personnes ne sont pas concernées. "
Ils expriment tous des inquiétudes quant à la possibilité que de puissants systèmes d'IA aient des conséquences involontaires, voire potentiellement désastreuses. En janvier dernier, Elon Musk a fait un don de 10 millions de dollars à l’Institut pour l’avenir de la vie (FLI) afin de mettre en œuvre un programme de recherche mondial visant à maintenir l’IA bénéfique pour l’humanité.
L’Institut de l’avenir de la vie a annoncé aujourd’hui avoir alloué 7 millions de dollars à 37 équipes de recherche du monde entier afin que la société puisse tirer parti des avantages de la grippe aviaire tout en évitant l’apocalypse et la fin de la vie sur Terre.
Le danger avec le scénario Terminator n’est pas que cela se produise, mais qu’il détourne l’attention des véritables problèmes posés par la future IA.
Jaan Tallin, l'un des membres fondateurs de la FLI et le rédacteur de la version originale de Skype, a déclaré à propos de la nouvelle recherche: «La construction d'une intelligence artificielle avancée équivaut à lancer une fusée. Le premier défi consiste à maximiser l'accélération, mais une fois que la vitesse commence à prendre de la vitesse, vous devez également vous concentrer sur la direction. ”
Parmi les 37 projets, trois projets étudient des techniques permettant aux systèmes d'IA de savoir ce que les humains préfèrent observer notre comportement. L'un de ces projets sera exécuté à l'Université de Berkeley et l'autre à l'Université d'Oxford.
Benja Fallenstein, du Machine Intelligence Research Institute, reçoit 250 000 dollars pour rechercher des moyens de maintenir les intérêts des systèmes superintelligents en harmonie avec les valeurs humaines. Alors que l’équipe de Manuela Veloso, de l’Université Carnegie-Mellon, recevra 200 000 dollars pour étudier comment faire en sorte que les systèmes d’IA expliquent leurs décisions aux humains.
Parmi les autres projets, citons une étude de Michael Webb de l’Université de Stanford sur la façon de maintenir les retombées économiques de l’IA, un projet sur la façon de garder les armes dirigées sous «un contrôle humain significatif» et un nouveau centre de recherche d’Oxford-Cambridge pour l’étude de la IA. politique pertinente.
En parlant d’Hollywood, le FLI tente de se dissocier de l’apocalypse. La FLI tient à souligner l’importance de séparer le fait de la fiction. «Le scénario Terminator n’est pas dangereux, c’est qu’il arrive, mais qu’il détourne des vrais problèmes posés par la future IA», a déclaré le président de la FLI, Max Tegmark. "Nous restons concentrés et les 37 équipes soutenues par les subventions d’aujourd’hui devraient aider à résoudre de tels problèmes."
Qu'est-ce que tu penses? Argent bien dépensé?