Classement p(doom) des scientifiques
L'estimation du potentiel de destruction de l'IA par les scientifiques du secteur de l'IA
L’expression p(doom) désigne la probabilité (p) qu’une apocalypse, du type « anéantissement de l’espèce humaine » (doom), soit provoquée par l’IA. La plupart du temps, cela désigne la possibilité qu’une IA prenne le contrôle sur l’humanité, mais toute une gamme de scénarios peuvent également constituer des risques qualifiés d’existentiels. Par exemple, l’anéantissement d’une grande partie de la population à cause d’une arme biologique élaborée grâce à une IA, l’effondrement sociétal à cause d’une cyberattaque à grande échelle, ou une guerre nucléaire déclenchée par une IA. Notez que les scientifiques cités ci-dessous n’ont pas forcément la même définition en matière de p(doom). Il est particulièrement difficile d’établir des comparaisons terme à terme de ces estimations dans la mesure où les avis divergent au sujet de la date probable de survenue d’une catastrophe.
Cliquez sur le pourcentage pour accéder au document source :
(moins probable que la chute d'un astéroïde)
Yann Le Cun
Un des trois « pères fondateurs » de l’IA (travaille chez Meta)
Forecasting Research Institute Superforecasters - les super prévisionnistes de l'Institut de Recherche de la Prévision
(dans la même étude, les experts du domaine évaluaient à 3 % les risques d’extinction liés à l’IA et à 12 % les risques catastrophiques)
Vitalik Buterin
Fondateur de l’Ethereum (cryptomonnaie)
Chercheurs en apprentissage machine
(moyenne obtenue en 2023, en fonction de la formulation de la question, avec des valeurs médianes entre 5 et 10 %)
Lina Khan
Directrice de la FTC
(Federal Trade Commission, organisme chargé de l'application des lois antitrust et de la protection des consommateurs américains)
Elon Musk
PDG de Tesla, SpaceX, X (anciennement Twitter), NeuraLink
Dario Amodei
PDG d’Anthropic, la société ayant lancé les LLM de la série Claude, ancien vice-président chargé de la recherche chez OpenAI
Yoshua Bengio
Un des trois « pères fondateurs » de l’IA
Emmett Shear
Co-fondateur de Twitch, ancien PDG par interim d’OpenAI
Chercheurs spécialisés dans la recherche en matière de sécurité de l’IA
(moyenne des opinions de 44 chercheurs en sécurité de l’IA en 2021)
Geoffrey Hinton
Un des trois « pères fondateurs » de l’IA
(très récemment, il estimait à environ 50 % les chances d’issue favorable pour l’humanité ; il avançait précédemment le chiffre de 10 % de risques existentiels catastrophiques)
Scott Alexander
Rédacteur du blog internet à succès Astral Codex Ten
Eli Lifland
Champion de plusieurs tournois de prévisions
Ingénieurs en IA
(en moyenne, mais la méthodologie du sondage peut être faussée)
Joep Meindertsma
Fondateur de PauseAI
(les 60 % restants considèrent que « nous pouvons faire une pause »)
Paul Christiano
Responsable du service de la sécurité de l’IA, travaillant à l’Institut de la Sécurité des Etats-Unis, et par le passé chez OpenAI. Fondateur de ARC ( Alignment Research Center ou Centre de Recherche sur l'Alignement [des IA])
Holden Karnofsky
Co-fondateur de Open Philanthropy
Jan Leike
Ancien chef du département de l’alignement chez OpenAI
Zvi Mowshowitz
Journaliste indépendant spécialisé dans les questions de sécurité des IA
Daniel Kokotajlo
Prévisionniste et ancien chercheur chez OpenAI
Dan Hendrycks
Responsable du Centre pour la Sécurité de l’IA
Eliezer Yudkowsky
Fondateur du MIRI (Machine Intelligence Research Institute, ou Institut de Recherche sur l’Intelligence des Machines)
Roman Yampolskiy
Scientifique spécialisé dans la sécurité des IA
Agir
Peu importe votre « p(doom) », vous adhérez sans doute à l’idée qu’en aucun cas nous ne devons laisser les entreprises de l’IA jouer avec notre avenir. Rejoignez Pause IA pour les en empêcher.