Le texte SB 1047 vise à prévenir les dangers potentiels des systèmes d’IA. Ce projet de loi, vivement critiqué outre-Atlantique, a été voté à l’Assemblée californienne cette nuit. Il doit encore être promulgué par le gouverneur de l’État de Californie, Gavin Newsom.
SB 1047, une suite de chiffres et de lettres qui suffirait à faire frémir les entreprises d’intelligence artificielle et de la tech en général. Ce matricule désigne une loi californienne qui vise à réguler l’intelligence artificielle générative et doit être votée d’ici la fin du mois d’août. Oui, il s'agit bien de réguler l’intelligence artificielle aux États-Unis, et qui plus est, en Californie, fief de la Silicon Valley et poumon technologique mondial.
Le texte, voté dans la nuit de mercredi à jeudi par l'Assemblée de Californie, doit encore être soumis au gouverneur du Golden State, Gavin Newsom, qui pourra s'il le souhaite opposer son Véto. « Je suis fier de la diversité de la coalition qui a soutenu ce projet de loi, une coalition qui croit profondément à l'innovation et à la sécurité », a déclaré sur X Scott Wiener, l'élu démocrate qui a proposé le texte en février dernier.
Prévenir les dérives potentielles
Pour résumer, le texte, proposé impose aux développeurs d'IA de prendre les mesures nécessaires pour éviter que leurs systèmes ne causent des dommages considérables, tels que des cyberattaques, le blocage de réseaux électriques, et même la prolifération d’armes nucléaires.
« Si elles ne sont pas correctement soumises à des contrôles humains, les avancées futures en matière d’intelligence artificielle pourraient également être utilisées pour créer de nouvelles menaces pour la sécurité publique, notamment en permettant la création et la prolifération d’armes de destruction massive, telles que les armes biologiques, chimiques et nucléaires, ainsi que d’armes dotées de capacités cyberoffensives », peut-on lire dans le projet de loi.
Pour ce faire, les développeurs devront suivre des protocoles de sécurité stricts avant de former des modèles, donner la possibilité de désactiver les systèmes d’IA, conserver les documents de sécurité, et autoriser l'accès du Procureur général à ces informations. Le projet de loi prévoit également des audits annuels par des tiers, des protections pour les lanceurs d'alerte, et autorise le Procureur général à engager des actions civiles en cas de non-conformité.
La tech monte au créneau
Les débats autour de SB 1047 sont vifs et ont suscité de vives critiques de la part des principaux concernés. La société de capital-risque Andreessen Horowitz (“a16z”) a, par exemple, écrit dans un courrier envoyé début août à Scott Wiener que le projet de loi « entravera l’innovation et l’investissement dans cette technologie émergente importante, affaiblira la position des États-Unis en tant que leader mondial de la technologie, et créera des obstacles inutiles et arbitraires pour une industrie compétitive qui stimule la création d’emplois en Californie à une échelle record. » Même son de cloche du côté de Google, ou encore d'OpenAI.
La maison mère de ChatGPT, basée à San Francisco, a déclaré que le projet de loi SB 1047 « ralentirait le rythme de l’innovation et inciterait les ingénieurs et entrepreneurs de renommée mondiale de Californie à quitter l’État à la recherche de meilleures opportunités ailleurs. »
« Nous voulons que la Californie soit à la pointe de l'IA d'une manière qui protège les consommateurs, les données, la propriété intellectuelle et bien plus encore. (...) SB 1047 nuit à cette fin plus qu'elle n'y contribue », a déclaré de son côté, l'élue (démocrate) de Californie, Nancy Pelosi.
Le sénateur Wiener a quant à lui estimé que le projet de loi était « tout à fait raisonnable » et ne fait qu’exiger des « grands laboratoires d'IA qu'ils fassent ce qu'ils se sont déjà engagés à faire, à savoir tester leurs grands modèles pour les risques de sécurité catastrophiques. »