L’IA et la Cybersécurité
Les systèmes d'IA peuvent déjà analyser et écrire du code, identifier des vulnérabilités et les exploiter.
De nos jours, pratiquement tout ce que nous faisons dépend des ordinateurs. Nous payons nos courses, planifions nos journées, contactons nos proches et conduisons même nos voitures avec des ordinateurs. Et presque tous ces ordinateurs sont interconnectés, ce qui nous rend vulnérables aux cyberattaques.
Les cyberarmes de haute capacité, malwares et les réseaux de bots (comme Stuxnet, Mirai et EMOTET) ont toujours été difficiles à concevoir. Le logiciel Pegasus, par exemple, a coûté des dizaines de millions de dollars à développer. Trouver des vulnérabilités dites « zero-day » dans les logiciels (des vulnérabilités qui n'ont pas encore été découvertes) demande beaucoup de travail et un haut degré de spécialisation. Lorsque l’IA surpassera les meilleurs programmeurs humains, ce ne sera toutefois plus le cas. Au lieu de devoir engager une équipe d'experts en sécurité pour découvrir de nouvelles vulnérabilités, n'importe quel individu mal intentionné pourra simplement utiliser une IA, pour un prix bien moindre.
Les systèmes d'IA peuvent déjà analyser et écrire du code, identifier des vulnérabilités et les exploiter. GPT-4 peut pirater des sites web de manière autonome, effectuant des tâches aussi complexes que l'extraction aveugle de schémas de base de données et des injections SQL sans assistance humaine. Ces capacités ont été découvertes 18 mois après la fin de l'entraînement de GPT-4. Ce modèle a surpassé 88 % des hackers humains lors d'une compétition de hacking. Il peut exploiter de manière autonome 87 % des vulnérabilités testées, ce qui représente un énorme progrès par rapport à GPT-3.5 ou aux modèles open-source, qui ont obtenu un score de 0 %. À mesure que les capacités des IA augmenteront, il en sera de même pour les vulnérabilités qu'elles pourront détecter et les failles qu'elles pourront exploiter. Pour le moment, elles ne sont pas encore aussi performantes que les meilleurs humains dans ce domaine, et le danger reste limité. Cependant, leurs capacités augmentent rapidement et peuvent faire des bonds soudains.
L'Intelligence artificielle permet également de générer des types d'attaques complètement nouveaux. Par exemple, des modèles d'IA ont été utilisés pour écouter les sons que les doigts produisent sur un clavier pour en déduire un mot de passe ou bien pour détecter la position d'individus à travers des surfaces solides grâce aux ondes Wi-Fi. L'IA peut également être utilisée pour créer des logiciels malveillants auto-modifiables, ce qui les rend beaucoup plus difficiles à détecter.
Il arrivera très probablement un moment où une IA sera meilleure en hacking que les meilleurs hackers de la planète. Ce qui peut avoir de nombreuses conséquences désastreuses.
Sur les infrastructures : L'IA peut être utilisée pour désactiver des infrastructures critiques, telles que les oléoducs ou les réseaux électriques.
Sur l'économie : L'IA peut être utilisée pour voler des banques, ou manipuler la bourse.
Dans le secteur militaire : Les armes et les capteurs sont de plus en plus interconnectés et dépendent de logiciels complexes.
Cyberattaques à grande échelle
Il est tout à fait envisageable qu'une IA suffisamment efficace puisse analyser et trouver des vulnérabilités dans le code source de tous les systèmes d'exploitation. Un tel virus pourrait infecter n'importe quel ordinateur, quel que soit son système d'exploitation, à travers de multiples canaux tels que le Wi-Fi, le Bluetooth, l'UTP, etc. Le responsable de l'attaque pourrait voler des données, utiliser le matériel à ses propres fins, chiffrer le contenu d'un ordinateur contre rançon ou désactiver complètement la machine.
Un virus de ce type pourrait être créé aussi bien par des criminels dans le but de voler de l'argent que par un État ou une organisation terroriste. Il pourrait même être créé et déployé de manière autonome par une IA dysfonctionnelle.
Si l'objectif d'une telle cyberattaque était de désactiver des appareils ou des infrastructures critiques, son impact serait massif. Nos sociétés dépendent de plus en plus des ordinateurs et d'Internet. Les paiements, les transports, la communication, la planification, les chaînes d'approvisionnement, les réseaux électriques... Si nos appareils s'arrêtent, de nombreux secteurs de notre société suivront peu après.
Plus de 93 % des experts en cybersécurité pensent qu'une « catastrophe informatique de grande échelle est probable dans les deux prochaines années ».
Atténuer les risques « cyber » liés à l'IA
Le scénario décrit précédemment ne peut se produire que si :
La capacité à trouver des vulnérabilités dites « zero-day » émerge. Les modèles actuels peuvent déjà découvrir certaines vulnérabilités, et ils s'amélioreront probablement au fil du temps.
Le modèle tombe entre les mains d'acteurs malveillants. Ce qui peut arriver si les paramètres du modèle sont divulgués, si le modèle est en open-source, ou s'il est développé directement par un acteur malveillant.
Les vulnérabilités informatiques ne sont pas corrigées avant qu'une telle cyberattaque ne soit déployée. Malheureusement, si le modèle est largement distribué, les équipes de sécurité sont désavantagées pour deux raisons :
La correction, la publication et le déploiement prennent beaucoup plus de temps que l'attaque. La fenêtre de vulnérabilité est plus grande que le temps nécessaire pour créer l'attaque.
Les responsables de l'attaque n'ont besoin de trouver qu'une seule vulnérabilité, tandis que les équipes de sécurité doivent les trouver toutes.
Il existe diverses mesures que nous pouvons appliquer pour faire face à ces problèmes :
Ne pas autoriser l'entraînement de modèles capables de trouver des vulnérabilités « zero-day ». C'est le moyen le plus efficace d'empêcher une attaque. C'est la voie la plus sûre, et c'est ce que nous proposons.
N'autoriser le déploiement ou l'open-source des modèles qu'après des tests approfondis. S'ils ont des capacités dangereuses, ne pas les déployer.
Imposer des réglementations strictes en matière de cybersécurité pour empêcher la divulgation des paramètres des modèles. Si nous autorisons l'existence de modèles dangereux, il faut nous assurer qu'ils ne tombent pas entre de mauvaises mains.
Exiger des entreprises d'IA qu'elles utilisent leurs modèles pour corriger les failles de sécurité. Si un modèle pouvant découvrir de nouvelles vulnérabilités est entraîné, il peut être utilisé avant son déploiement pour identifier des vulnérabilités dans de nombreux logiciels et en prévenir les développeurs. Il ne faut alors pas précipiter la publication du modèle, afin de laisser du temps pour la correction de ces vulnérabilités. Il faut également s'assurer que ses paramètres ne sont pas divulgués et le protéger avec le même niveau de sécurité que s'il s'agissait du code de lancement d'une frappe nucléaire. Si tout est fait correctement, l'IA pourrait considérablement améliorer le secteur de la cybersécurité.