Quatre niveaux de réglementation de l’IA
Clarifier et mesurer l'efficacité des réglementations aux différentes étapes du processus de création d'un modèle.
À mesure que les capacités des intelligences artificielles progressent, les risques qu'elles représentent s'amplifient. De nombreux scientifiques nous ont déjà mis en garde contre le risque d'extinction de l'espèce humaine.
Dans cet article, nous présenterons notre méthodologie à quatre niveaux pour envisager la réglementation en sécurité de l'IA.
La chaîne de production des modèles comme cadre de gouvernance pour la sécurité de l'IA
La chaîne de production des modèles d'IA comprend plusieurs étapes, chacune pouvant être réglementée de différentes manières. Elle est constituée :
Des composants et algorithmes utilisés pour l'entraînement des modèles d'IA.
Des phases d'entraînement, où les composants et les algorithmes sont employés pour créer un modèle.
De la phase de déploiement, étape durant laquelle le modèle est partagé avec le public.
De la phase d'exploitation, où le modèle déployé est utilisé par des individus et entreprises.
Plus nous intervenons tard dans ce processus, plus les risques auxquels nous sommes confrontés sont élevés. Pour garantir un haut niveau de sécurité, il est nécessaire de réglementer le plus tôt possible dans ce processus. C'est pourquoi, à mesure que l'on remonte ces quatre niveaux de réglementation, nous retraçons la chaîne de production des modèles d'IA.
Premier niveau : réglementer l'exploitation des modèles
Exemples :
Interdire les modèles autonomes (comme AutoGPT).
Prohiber les instructions dangereuses.
Ces mesures visent à empêcher les utilisateurs d'entreprendre des actions dangereuses ou nuisibles. À ce niveau, la responsabilité des dérives incombe aux utilisateurs et non aux dirigeants des laboratoires d’IA. Il implique de compter sur le bon usage de ces modèles par des millions d’utilisateurs potentiels. Ce niveau de réglementation n'offre ainsi qu'une protection très limitée contre les dangers de l'IA.
Deuxième niveau : réglementer dès la phase de déploiement des modèles
Exemples :
Exiger des tests de malfonction. Avant son déploiement, un modèle d'IA est testé par une équipe pour vérifier s'il peut être piraté (jailbroken) ou détourné.
Interdire le déploiement et l'open-sourcing des modèles aux capacités dangereuses.
En réglementant les déploiements, nous empêchons l'exploitation de modèles dangereux. La responsabilité des dérives incombe alors aux dirigeants des laboratoires d'IA. Cette situation est préférable au premier niveau, car nous dépendons d'un groupe beaucoup plus restreint d'acteurs pour agir de manière responsable.
Cependant, nous autorisons toujours l''entraînement de modèles potentiellement dangereux, ce qui signifie que des accidents peuvent encore survenir au sein des laboratoires d'IA (y compris des fuites de modèles dangereux ou la création d'IA incontrôlables).
Troisième niveau: réglementer dès les phases d'entraînement.
Exemples :
Exiger une preuve de la sûreté d'un modèle avant d'autoriser son entraînement. Cela pourrait inclure l'exigence d'une preuve formelle d'alignement du modèle. Cet article détaille certains des problèmes actuels de sécurité des IA.
Établir un plafond pour l'entraînement de nouveaux modèles (par exemple, un nombre maximal de FLOPs utilisés). Cela pourrait également s'appliquer au processus de fine-tuning.
Imposer une licence pour entraîner des modèles d'IA (au-delà d'une certaine taille ou avec certaines capacités).
Interdire l'entraînement sur des catégories de données dangereuses. Certaines catégories de données d'entraînement peuvent conduire à des capacités dangereuses, comme le hacking ou la création d'armes biologiques.
Interdire l'entraînement sur des données protégées par le droit d'auteur. Bien que cela ne cible pas directement les données dangereuses, cela limite la quantité de données utilisables, nous permettant ainsi d'accorder plus de temps au développement de modèles sûrs.
Une réglementation s'appliquant dès les phases d'entraînement permet d'empêcher la création de modèles dangereux. Elle peut également prévenir les accidents dans les laboratoires qui se conforment aux réglementations.
Cependant, nous autorisons toujours la distribution de composants et d'algorithmes pouvant être utilisés pour entraîner des modèles dangereux, ce qui signifie que nous nous reposons encore sur la responsabilité des créateurs de ces modèles.
Quatrième niveau : réglementer les composants et les algorithmes
Exemples :
Limiter la distribution des composants nécessaires à l'entraînement. Le marché du matériel spécialisé dans l'entraînement des modèles d'IA est rapidement devenu le plus important pour les fabricants de cartes graphiques. La chaîne d'approvisionnement de ces composants est très centralisée, et le matériel est très coûteux. Ce qui signifie qu'il est relativement facile de réglementer sa distribution.
Interdire la publication de nouvelles architectures d'entraînement. De nouvelles architectures d'entraînement peuvent conduire à des augmentations spectaculaires des capacités des modèles. L'architecture des Transformers, par exemple, a permis pratiquement tous les progrès récents en IA générale. Nous pourrions limiter la publication de telles architectures pour prévenir des sauts soudains de capacités.
Ce niveau de réglementation est le plus complet et le plus préventif. En agissant également sur les composants et les algorithmes, nous rendons à la fois illégal et très difficile l'entraînement de modèles dangereux.
Limites
Il est important de noter que cette méthodologie n'est pas parfaite et que tous les types de réglementation ne s'intègrent pas parfaitement dans l'un des niveaux mentionnés. Par exemple, la responsabilité juridique des créateurs de modèles peut être classée comme une réglementation de niveau 1 (« exploitation », car elle est appliquée après la phase de déploiement. Mais elle pourrait également être considérée comme une réglementation de niveau 2 ou 3, car elle peut inciter les laboratoires à reconsidérer le déploiement, voire l'entraînement d'un certain modèle en premier lieu.
Conclusions
Dans cet article, nous avons présenté notre système à quatre niveaux pour envisager la réglementation en sécurité des modèles d'IA. Cette méthodologie nous permet de clarifier et mesurer l'efficacité des réglementations aux différentes étapes du processus de création d'un modèle. Nous pouvons également constater que les deux premiers niveaux n'offrent pas une protection suffisante contre les risques existentiels. Empêcher les entraînements dangereux et réglementer les composants et les algorithmes sont des moyens beaucoup plus fiables d'arriver à des modèles sûrs.