Les progrès en IA avancent à toute vitesse. Ce que les experts considéraient il y a quelques années encore comme des verrous technologiques majeurs (raisonnement mathématique, culture générale, générations d'images et de vidéos) ont sauté un à un avec les avancées récentes en IA générative. Ces progrès ouvrent des perspectives sans précédent pour transformer positivement notre rapport au travail et nous aider à relever les grands défis de notre époque, de la fusion nucléaire à la prédiction du climat en passant par la création de nouveaux matériaux et l'aide au diagnostic médical.
Cette évolution rapide de l'IA soulève cependant de nombreux défis pour notre société. Nous en avons déjà des exemples concrets : un artiste qui voit son avenir professionnel compromis par les systèmes de générations de contenu, une femme dont l'image est utilisée à son insu pour créer du contenu pornographique, ou encore une entreprise victime d'une extorsion de 25 millions d'euros suite à une attaque basée sur des deepfakes.
Outre les utilisations malveillantes, l’intelligence artificielle est une technologie singulière qu’on ne construit pas directement, mais qu’on entraîne. Le fonctionnement de ces systèmes est encore mal compris, ce qui se traduit par des comportements inattendus et des biais imprévus dans les systèmes déployés. Par exemple, le chatbot Bing Chat menaçait ses utilisateurs ou leur faisait des déclarations d'amour, tandis que les contre-mesures développées pour rendre ces systèmes plus éthiques finissent souvent par présenter des biais imprévus, comme le modèle Gemini de Google qui génère des images historiques erronées.
L'accélération des développements en IA générative, alimentée par une course à la concurrence et des investissements multipliés par huit en un an pour atteindre 25 milliards de dollars en 2023, nous force à porter notre regard vers les ruptures technologiques des mois et années à venir. Comme illustré ci-dessous, nous devons dès maintenant envisager l'éventail des scénarios possibles pour mieux nous préparer aux défis futurs.
C'est pourquoi nous avons fondé le Centre pour la Sécurité de l'IA (CeSIA - prononcé "césia"). Notre mission : apporter un éclairage technique sur les tendances de développement de l'IA, identifier les risques et enjeux actuels, et anticiper ceux à venir.
Nos activités s'articulent autour de trois axes : la recherche, qui inclut le développement d’outils open source pour superviser l’opération de systèmes d’IA ; l’information du grand public, pour élever la conscience collective sur les usages et enjeux de l’IA à travers des démonstrations interactives ; et la formation des futures générations de chercheurs et de développeurs, centrée sur l’évaluation et l'alignement des systèmes d’IA.