La faisabilité d'une pause
Suspendre le développement de l'IA n'est pas impossible. Établir des limites claires déterminant quels types de technologies peuvent être développées ou non est une pratique courante.
Faisabilité politique d'une pause
Certains considèrent l'idée d'une pause comme un acte extrême ou radical, mais l'opinion publique pense différemment. Diverses enquêtes et sondages ont révélé que :
Le public exprime une inquiétude importante vis-à-vis de l'IA (principalement pour des raisons de sécurité).
Une large majorité du public (près de 70 %) soutient une pause dans le développement de l'IA.
Une majorité (plus de 60 %) est favorable à un traité international interdisant l'IAG (Intelligence Artificielle Générale).
Faisabilité technique d'une pause
La méthode la plus simple et efficace pour réglementer les modèles d'IA consiste à contrôler la puissance de calcul. Nous pouvons surveiller les GPU spécialisés de la même manière que nous suivons les éléments utilisés dans le développement des armes nucléaires. Heureusement pour nous, le matériel utilisé pour entraîner les LLM n'est produit que par une à trois entreprises. Plusieurs monopoles existent dans la chaîne d'approvisionnement de ce matériel :
ASML est l'unique producteur de machines de lithographie EUV.
TSMC est la seule entreprise capable de fabriquer les puces les plus avancées.
NVIDIA est l'unique concepteur des GPU les plus performants.
Influence sur les entreprises
Afin de forcer les entreprises à adopter une pause, deux approches sont envisageables : 1) L'application de la loi, des réglementations et des traités, 2) la pression de l'opinion publique les incitant à s'autoréguler.
Bien entendu, la première méthode est préférable; mais l'impact de la réputation d'une entreprise sur ses clients, employés et recruteurs justifie les manifestations devant certains laboratoires d'IA. Il faut également rappeler que la réglementation peut bénéficier aux entreprises en raison de la « capture réglementaire », processus par lequel des entreprises court-circuitent les régulations en obtenant des sièges à la table de leurs régulateurs. Nous devons donc veiller à ce que la pause obtenue ne soit pas levée prématurément.
Influence sur les gouvernements
Quant aux gouvernements qui ne prendraient pas le problème au sérieux, la situation est plus complexe. Généralement, les politiciens sont soucieux de ne pas perdre le soutien des électeurs. De plus ils peuvent être plus réceptifs aux risques étant donné que leur jugement n'est pas biaisé par la recherche de profits qui pèsent sur certains dirigeants d'entreprises.
Si l'on envisage une réglementation appliquée par un seul pays plutôt qu'un traité multilatéral, la poursuite du développement de l'IAG chez ses voisins devient alors un problème de sécurité nationale pour ce pays. Le gouvernement de ce pays n'aura alors que deux choix : empêcher le développement de l'IA en dehors de ses frontières ou abandonner ses efforts régulatoires. Cependant, un accord global n'est pas encore une nécessité absolue. Une pause dans le développement des modèles d'IA pourrait être obtenue par son application aux États-Unis (voire uniquement en Californie). La Chine et le reste du monde semblent considérablement en retard, et une adhésion ultérieure à un traité ne devrait pas susciter d'inquiétudes majeures.
Précédents historiques similaires
Les manifestations d'incompétence de la part de nos gouvernements ou les preuves de dissimulation malveillante de la part de multinationales pourraient nous inviter au pessimisme. On pourrait se laisser aller à croire que la coordination est trop complexe, que l'intérêt général est trop mal représenté, ou que l'opinion publique manque de discernement. Mais nous avons tendance à sous-estimer les victoires que notre civilisation a remportées au fil du temps.
Pour démontrer la faisabilité d'un tel traité, nous pouvons examiner des accords internationaux antérieurs. Qu'ils soient formels ou informels, ce type d'accord est historiquement fréquent, que ce soit pour résoudre des conflits ou faire progresser les droits humains. Ces avancées, comme l'abolition de l'esclavage, allaient elles aussi à l'encontre d'intérêts économiques solidement établis. Pourtant, cela ne les a pas empêchées de se concrétiser.
Concernant les traités internationaux plus récents relatifs aux nouvelles technologies, on peut citer plusieurs exemples significatifs :
Le Protocole de Montréal, qui a interdit la production de Chlorofluocarbure (CFC) dans les 197 pays signataires. En conséquence, les émissions mondiales de substances appauvrissant la couche d'ozone ont diminué de plus de 99 % depuis 1986. Grâce à ce protocole, le trou dans la couche d'ozone se résorbe progressivement, ce qui explique pourquoi ce sujet n'est plus au cœur de l'actualité.
La Convention sur les armes biologiques, ratifiée par 185 États, qui a interdit la mise au point, la fabrication et le stockage des armes bactériologiques (biologiques) ou à toxines.
La Convention sur les armes chimiques, signée par 193 États, qui proscrit la mise au point, la fabrication, le stockage et l'emploi d'armes chimiques.
La Convention sur l'interdiction d'utiliser des techniques de modification de l'environnement à des fins militaires ou toutes autres fins hostiles, ratifiée par 78 États, qui prohibe la guerre météorologique.
Le Traité sur l'espace, ratifié par 114 pays, qui interdit le déploiement d'armes de destruction massive dans l'espace, proscrit les activités militaires sur la lune et autres corps célestes, et engage juridiquement les signataires à l'exploration pacifique de l'espace.
Le Traité sur la non-prolifération des armes nucléaires (TNP), ainsi que plusieurs autres accords internationaux, ont joué un rôle crucial dans la prévention de la propagation d'armes nucléaires et la promotion du désarmement nucléaire. Grâce à ces traités, de nombreux pays ont été dissuadés de poursuivre leurs programmes d'armement, les arsenaux nucléaires ont été réduits depuis les années 1990, et une guerre nucléaire a été évitée pendant plusieurs décennies.
L'Agence internationale de l'énergie atomique (AIEA), une organisation intergouvernementale regroupant 178 États membres, qui vise à promouvoir l'utilisation pacifique de l'énergie nucléaire et à empêcher son détournement à des fins militaires. Indépendamment des débats sur la régulation du nucléaire, l'AIEA est souvent citée comme un exemple d'outil international qui pourrait servir de modèle pour évaluer la sécurité des modèles d'intelligence artificielle.
La Déclaration des Nations Unies sur le clonage des êtres humains qui appelait les États membres à interdire le clonage humain. Cette déclaration est un cas particulièrement intéressant car, près de 20 ans plus tard et sans accord formel, elle a conduit 60 pays à interdire cette pratique, que ce soit totalement ou partiellement. À ce jour, aucun cas avéré de clonage humain n'a été signalé. Cet exemple est révélateur car il suggère qu'une série de réglementations unilatérales pourrait suffire à prévenir le développement d'autres technologies potentiellement dangereuses.
Si l'on considère que l'intelligence artificielle s'apparente à d'autres domaines où nous n'avons pas réussi à établir des traités internationaux efficaces, il faut garder à l'esprit que chaque événement majeur possède des caractéristiques uniques qui en font une première, et c'est précisément pour cette raison qu'il est crucial d'aborder les particularités de l'IA.
Impact des manifestations
Il est commun pour le public de s'interroger sur l'efficacité des manifestations et des mouvements sociaux en général. Bien sûr, il existe des cas où manifester ne produit pas de résultats tangibles. Cependant il existe également des situations où les revendications des manifestants sont satisfaites, et il semble probable que ces résultats soient directement liés aux actions entreprises par les manifestants. Dans cette optique, on peut raisonnablement penser que l'activisme dans le domaine de l'IA pourrait obtenir des succès comparables.
Mais notre action ne se limite pas à la manifestation. Nous adoptons diverses approches, notamment en établissant un dialogue direct avec les instances gouvernementales.
L'IA, un cas particulier ?
Que l'on considère l'IA comme un cas particulier ou non, il est pertinent d'analyser sa situation spécifique. Les particularités de l'IA ne la rendent pas nécessairement moins régulable. Il en serait peut-être autrement si nous cherchions à accomplir des choses extrêmement difficiles comme réglementer des produits et services existants déjà et largement adoptés par le public ou s'opposer à un marché comprenant un grand nombre d'entreprises susceptibles de nous opposer du lobbying, comme dans le cas de l'industrie pétrochimique, ou même à un secteur crucial pour l'emploi. C'est toutefois le contraire : l'IA qui nous inquiète n'est pas encore intégrée dans la société, et l'industrie qui la développe ne comprend qu'un nombre très faible de laboratoires et d'employés, alors qu'elle menace l'emploi d'un très grand nombre de personnes.
Un autre point en notre faveur est que l'opinion publique n'est pas divisée selon des lignes partisanes ou politiques, mais plutôt unie en faveur d'une régulation. Néanmoins, nous devons veiller à ne pas heurter les sensibilités, à écouter les différentes perspectives et à comprendre comment une pause pourrait répondre aux préoccupations spécifiques de chacun. Cela est d'autant plus important que beaucoup de gens n'ont pas encore arrêté leur position sur le type de régulation qu'elles soutiennent.
Concernant les risques liés à l'IA, le public et les experts semblent également favorables à une régulation. Les responsables politiques, à en juger par les mesures sur lesquels ils travaillent, les conférences qu'ils organisent et leurs déclarations, paraissent également conscients des enjeux. Un récent rapport commandé par le gouvernement américain recommande même, parmi diverses propositions, différents types de moratoires sur le développement de l'IA pour prévenir les risques pour la sécurité nationale et l'humanité dans son ensemble.
Tout ceci se produit alors que le mouvement international PauseAI est encore relativement nouveau et que la majorité du public n'a pas encore pris conscience de l'ensemble des risques. Si nous parvenons à sensibiliser davantage sur les risques existentiels, notre cause pourrait gagner en popularité, étant donné que personne ne souhaite voir sa vie ou celle du monde entier menacées. Cette perspective n'est dans l'intérêt d'aucune entité, qu'il s'agisse des entreprises les plus égoïstes, des gouvernements ou des individus.
Même si cela prend du temps, la concrétisation des problèmes liés à l'IA dans les années à venir amplifiera la prise de conscience et déclenchera probablement de plus en plus d'efforts de régulation. Si nous n'obtenons pas une pause suffisamment rapidement, des phénomènes tels que le chômage de masse ou autres incidents pourraient rallier la majorité à notre cause. Cela pourrait amener ceux qui n'envisage pas sérieusement une pause à reconsidérer leur position. C'est pourquoi il est crucial de ne pas fonder notre potentiel de réussite sur des résultats à court terme. Nous devons rester prêts à accueillir de nouveaux adhérents et alliés, et être en mesure de guider les décideurs politiques dans la mise en œuvre de nos propositions si un événement marquant venait à se produire.
Bénéfices collatéraux
Plaider en faveur d'une pause dans le développement engendre des effets positifs au-delà de l'objectif principal. En informant le public, les professionnels et les politiciens des risques potentiels, nous soutenons d'autres initiatives visant à rendre l'IA plus sûre et éthique. Cette sensibilisation accroît l'importance accordée aux travaux techniques et politiques dans les domaines de la sécurité et de l'éthique de l'IA, ce qui se traduit par une augmentation des financements et des emplois dans ces secteurs, laissant espérer de meilleurs résultats.
Cette démarche attire non seulement de nouvelles personnes et moyens dans le domaine mais positionne aussi nos initiatives techniques et politiques comme une voie raisonnable, augmentant ainsi leurs chances d'être soutenues.
Cette approche pourrait également préparer le public aux dangers potentiels, l'aider à utiliser l'IA de manière plus éthique, et même dissuader certains d'investir ou de travailler sur des projets d'IA potentiellement dangereux.
Ne pas céder au pessimisme
Nous comprenons l'origine des opinions pessimistes concernant une régulation stricte de l'IA et reconnaissons que la tâche ne sera pas facile. Mais il est tout aussi difficile de prédire l'avenir avec certitude. Cet article vise à remettre en question l’idée selon laquelle nous sommes impuissants, car une telle attitude risque de devenir une prophétie auto-réalisatrice.
Abandonner est certainement la voie la plus facile. Si nous pensons qu'il n'y a rien à faire, nous nous exonérons de toute responsabilité d'agir. Mais nous ne pouvons pas renoncer sans même avoir essayé. Cette situation représente en réalité notre meilleure opportunité d'avoir un impact significatif sur le monde et l'avenir de notre civilisation.
Essayer malgré tout
La théorie de la décision suggère que, lorsque les enjeux sont élevés, même une faible probabilité de succès justifie l'action. Même si vous estimez qu'une pause dans le développement de l'IA est peu probable, nous vous encourageons à nous rejoindre. Surtout si vous ne rejetez pas l'existence des risques majeurs et si vous n'avez pas de meilleures stratégies à proposer.
Il ne s'agit pas de se voiler la face et d'attendre passivement d'être sauvé ou de subir les conséquences. Vous avez la possibilité de contribuer activement à cet effort pour la préservation de tous !

