7 millions de dollars en subventions accordées à des projets qui empêcheront une IA de conquérir le monde

Auteur: Lewis Jackson
Date De Création: 11 Peut 2021
Date De Mise À Jour: 2 Juillet 2024
Anonim
7 millions de dollars en subventions accordées à des projets qui empêcheront une IA de conquérir le monde - Nouvelles
7 millions de dollars en subventions accordées à des projets qui empêcheront une IA de conquérir le monde - Nouvelles


Il semble qu’un mois ne se passe pas sans que des personnalités bien connues fassent le commentaire sur le potentiel des machines à intelligence artificielle de conquérir le monde. Elon Musk a déclaré publiquement que les systèmes d'IA sont «potentiellement plus dangereux que les armes nucléaires». Mais il n'est pas le seul, a également déclaré Stephen Hawking. «Le développement d'une intelligence artificielle complète pourrait sonner le glas de la race humaine». Le professeur Hawking a déclaré à la BBC. «Cela décollerait tout seul et se redéfinirait à un rythme de plus en plus rapide.» Même Bill Gates s'inquiète, «Je suis dans le camp qui se préoccupe de la super intelligence. Je suis d’accord avec Elon Musk et quelques autres à ce sujet et je ne comprends pas pourquoi certaines personnes ne sont pas concernées. "


Ils expriment tous des inquiétudes quant à la possibilité que de puissants systèmes d'IA aient des conséquences involontaires, voire potentiellement désastreuses. En janvier dernier, Elon Musk a fait un don de 10 millions de dollars à l’Institut pour l’avenir de la vie (FLI) afin de mettre en œuvre un programme de recherche mondial visant à maintenir l’IA bénéfique pour l’humanité.

L’Institut de l’avenir de la vie a annoncé aujourd’hui avoir alloué 7 millions de dollars à 37 équipes de recherche du monde entier afin que la société puisse tirer parti des avantages de la grippe aviaire tout en évitant l’apocalypse et la fin de la vie sur Terre.

Le danger avec le scénario Terminator n’est pas que cela se produise, mais qu’il détourne l’attention des véritables problèmes posés par la future IA.

Jaan Tallin, l'un des membres fondateurs de la FLI et le rédacteur de la version originale de Skype, a déclaré à propos de la nouvelle recherche: «La construction d'une intelligence artificielle avancée équivaut à lancer une fusée. Le premier défi consiste à maximiser l'accélération, mais une fois que la vitesse commence à prendre de la vitesse, vous devez également vous concentrer sur la direction. ”


Parmi les 37 projets, trois projets étudient des techniques permettant aux systèmes d'IA de savoir ce que les humains préfèrent observer notre comportement. L'un de ces projets sera exécuté à l'Université de Berkeley et l'autre à l'Université d'Oxford.

Benja Fallenstein, du Machine Intelligence Research Institute, reçoit 250 000 dollars pour rechercher des moyens de maintenir les intérêts des systèmes superintelligents en harmonie avec les valeurs humaines. Alors que l’équipe de Manuela Veloso, de l’Université Carnegie-Mellon, recevra 200 000 dollars pour étudier comment faire en sorte que les systèmes d’IA expliquent leurs décisions aux humains.

Parmi les autres projets, citons une étude de Michael Webb de l’Université de Stanford sur la façon de maintenir les retombées économiques de l’IA, un projet sur la façon de garder les armes dirigées sous «un contrôle humain significatif» et un nouveau centre de recherche d’Oxford-Cambridge pour l’étude de la IA. politique pertinente.

Ce dernier est le gros jackpot. Le nouveau centre appelé «Centre de recherche stratégique sur l’intelligence artificielle» sera dirigé par Nick Bostrom, le créateur du livre qui a fait paniquer Elon sur l’avenir de l’humanité. Pour mettre en place ce centre, la FLI donne à Bostrom une modeste somme de 1,5 million de dollars. Qui a dit qu'il n'y avait pas d'argent dans l'écriture de choses sur la robotisation du monde? Eh bien, en réalité, il suffit de regarder combien d'argent Hollywood gagne avec ce genre!

En parlant d’Hollywood, le FLI tente de se dissocier de l’apocalypse. La FLI tient à souligner l’importance de séparer le fait de la fiction. «Le scénario Terminator n’est pas dangereux, c’est qu’il arrive, mais qu’il détourne des vrais problèmes posés par la future IA», a déclaré le président de la FLI, Max Tegmark. "Nous restons concentrés et les 37 équipes soutenues par les subventions d’aujourd’hui devraient aider à résoudre de tels problèmes."

Qu'est-ce que tu penses? Argent bien dépensé?

L’exercice et une partie importante de la anté globale. Il aide votre cœur et vo poumon à mieux fonctionner, maintient votre poid et renforce vo mucle et vou permet de le prolonger. Il n...

La lutte a connu une popularité croiante au fil de an. Le indutrie du divertiement comme la WWE et le entreprie comme UFC ont le pierre angulaire. Il y a aui de fan de choe comme la lutte olympi...

Articles Fascinants