August 28, 2024

Nous publions le second chapitre de notre cours : Les risques des IAs

Le deuxième chapitre de notre textbook de la série sur les fondamentaux de la sécurité de l’IA explore le paysage des risques liés. Après avoir décrit les voies potentielles pour construire une IA de niveau humain décrites dans le premier chapitre, nous cartographions comment ces voies mènent à des chemins correspondants vers différents risques.

Nous décomposons ces risques en trois grands groupes : Mauvais usage, Mésalignement et Risques systémiques. Nous expliquons les risques de mauvais usage tels que le bioterrorisme, le cyberterrorisme et la guerre automatisée. Nous introduisons le concept de (dés)alignement, en expliquant pourquoi il s'agit d'un problème particulièrement difficile, avec de brèves descriptions de problèmes comme la manipulation des spécifications et la mauvaise généralisation des objectifs. Nous discutons également des risques systémiques, y compris ceux découlant d'accidents, des capacités de persuasion, de la concentration du pouvoir et de l'érosion épistémique. De plus, nous explorons les facteurs qui peuvent exacerber tous ces risques, tels que l'indifférence, les dynamiques de course, l'imprévisibilité et le déploiement à grande échelle.

L'objectif de ce chapitre est de fournir une vue d'ensemble concrète et complète des risques liés à l'IA et des facteurs sous-jacents. Cette base est cruciale pour comprendre les solutions techniques et de gouvernance abordées dans les chapitres suivants, chacune de ces solutions visant à traiter un ou plusieurs des risques introduits ici.

Lire le chapitreLire le chapitre
S'inscrire à notre newsletter