L’intelligence artificielle progresse rapidement. Il est désormais capable d’imiter les humains Favoriser les escroqueries téléphoniques à grande échelle ou tournez Deepfake images non consensuelles de célébrités Peut être utilisé dans des campagnes de harcèlement. Le besoin urgent de réglementer cette technologie n’a jamais été aussi important – c’est pourquoi la Californie, qui abrite bon nombre des plus grands acteurs de l’IA, tente de le faire avec un projet de loi appelé SB 1047.
Le SB 1047, qui a été adopté par l’Assemblée et le Sénat de l’État de Californie fin août, est désormais sur le bureau du gouverneur de Californie Gavin Newsom – qui déterminera le sort du projet de loi. Alors que l’UE et certains autres gouvernements travaillent sur la réglementation de l’IA depuis plusieurs années, le SB 1047 constituerait le cadre le plus strict jamais adopté aux États-Unis. Les critiques ont brossé un tableau presque désastreux de son impact, le qualifiant de menace pour les startups, les développeurs open source et les universitaires. Les partisans le considèrent comme une garantie nécessaire pour une technologie potentiellement dangereuse – et un correctif à des années de faible réglementation. Quoi qu’il en soit, le combat en Californie pourrait mettre fin à l’IA telle que nous la connaissons, et les deux camps s’y opposent en force.
Les puissances de l’IA se battent contre la Californie et entre elles
La version originale du SB 1047 était audacieuse et ambitieuse. Présenté par le sénateur d’État Scott Wiener sous le nom de California Safe and Secure Innovation for Frontier Artificial Intelligence Model Act, il envisageait des systèmes d’IA avancés dotés d’une puissance de calcul substantielle, de l’ordre de la taille des plus grands systèmes d’IA actuels (soit 10 ^ 26 FLOPS). pour réglementer strictement les modèles d’IA. Le projet de loi exigeait que les développeurs de ces modèles pionniers effectuent des tests de sécurité approfondis, y compris une évaluation par un tiers, et certifient que leurs modèles ne présentent aucun risque significatif pour l’humanité. Les développeurs ont également dû mettre en œuvre un « kill switch » pour arrêter les modèles malveillants et signaler les incidents de sécurité à une agence de réglementation nouvellement créée. Ils pourraient faire face à d’éventuelles poursuites judiciaires de la part du procureur général pour des failles de sécurité catastrophiques. Les développeurs peuvent également faire face à des accusations de parjure, y compris la menace d’une peine de prison, s’ils mentent sur la sécurité (bien que, En pratique, c’est extrêmement rare,
Les législateurs californiens occupent une position particulièrement puissante pour réglementer l’IA. L’État le plus peuplé du pays abrite plusieurs grandes sociétés d’IA, dont OpenAI, qui s’est publiquement opposée au projet de loi, et Anthropic, qui a hésité. sur son soutien Avant les amendements. Le SB 1047 vise également à réglementer les modèles qui cherchent à opérer sur le marché californien, ce qui aurait des effets considérables au-delà des frontières de l’État.
Il n’est pas surprenant que des pans importants de l’industrie technologique se soient rebellés. Lors de l’événement Y Combinator sur la réglementation de l’IA auquel j’ai assisté fin juillet, j’ai parlé à Andrew Ng, co-fondateur de Coursera et fondateur de Google Brain, de ses projets de protestation contre le SB 1047 dans les rues de San Francisco. Ng est ensuite apparu soudainement sur scène, critiquant le projet de loi pour son préjudice potentiel aux universitaires et aux développeurs open source, sous le regard de Weiner avec son équipe.
« Quand quelqu’un forme un grand modèle de langage… c’est une technologie. Quand quelqu’un l’intègre dans un dispositif médical, un flux de réseau social ou un chatbot ou l’utilise pour créer des deepfakes politiques ou du porno deepfake non consensuel. Voilà donc les applications. « , a déclaré Ng sur scène. « Et le risque de l’IA n’est pas une fonction. Il ne dépend pas de la technologie, mais de l’application. »
les critiques disent comme ng Les craintes que le SB 1047 puisse ralentir les progrès proviennent souvent de la crainte qu’il puisse entraver la progression des États-Unis contre des adversaires tels que la Chine et la Russie. Zoé Lofgren Et Nancy Pelosi Et Chambre de commerce de Californie Certains craignent que le projet de loi se concentre trop sur des versions hypothétiques d’une IA effrayante, et le pionnier de l’IA, Fei-Fei Li, a averti un dans Chance pilier Le SB 1047 « nuira à notre écosystème émergent d’IA ». C’est également un point de pression pour Khan, qui s’inquiète de la réglementation fédérale étouffant l’innovation dans les communautés d’IA open source.
Sur scène lors de l’événement YC, Khan a souligné que l’open source est un moteur d’innovation éprouvé, attirant des centaines de milliards de capital-risque pour alimenter les startups. « Nous réfléchissons à ce que l’open source devrait signifier dans le contexte de l’IA, à la fois pour vous tous en tant qu’innovateurs et aussi pour nous en tant que forces de l’ordre », a déclaré Khan. « La définition de l’open source dans le contexte des logiciels ne se traduit pas bien dans le contexte de l’IA. » Il a déclaré que les innovateurs et les régulateurs réfléchissent toujours à la manière de définir et de protéger l’IA open source dans le contexte de la réglementation.
Un SB 1047 faible vaut mieux que rien
Le résultat de ces critiques a été un deuxième projet de SB 1047 qui a été retiré du comité le 15 août. Dans le nouveau SB 1047, l’agence de régulation proposée a été supprimée et le procureur général ne peut plus poursuivre les développeurs pour des incidents de sécurité majeurs. Au lieu de soumettre des certifications de sécurité par crainte de parjure, les développeurs sont désormais uniquement tenus de faire des « déclarations » publiques sur leurs pratiques de sécurité, sans aucune responsabilité pénale. De plus, les entités qui dépensent moins de 10 millions de dollars pour peaufiner le modèle ne sont pas considérées comme des développeurs au sens du projet de loi, qui offre une protection aux petites startups et aux développeurs open source.
Pourtant, selon ses partisans, cela ne veut pas dire que le projet de loi ne mérite pas d’être adopté. Même dans sa forme faible, si le SB 1047 « oblige ne serait-ce qu’une seule entreprise d’IA à réfléchir plus sérieusement à ses actions ou à aligner les modèles d’IA sur les valeurs humaines, ce sera pour le bien ». a écrit Gary Marcus, professeur émérite de psychologie et de neurosciences à NYU. Cela fournirait toujours d’importantes protections de sécurité et un bouclier pour les lanceurs d’alerte, ce qui, selon certains, est mieux que rien.
Dario Amodei, PDG d’Anthropic ladite facture Suite aux amendements, il y a eu « des améliorations considérables, dans la mesure où nous estimons que les avantages dépassent probablement les coûts ». Une déclaration en faveur du SB 1047 rapporté par axios120 employés actuels et anciens d’OpenAI, Anthropic, DeepMind de Google et Meta ont déclaré qu’ils « pensent que les modèles d’IA les plus puissants pourraient bientôt présenter de graves risques, tels qu’un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques ».
« Il est possible et approprié que les principales entreprises d’IA testent si les modèles d’IA les plus puissants peuvent causer des dommages graves, et que ces entreprises mettent en œuvre des garanties appropriées contre de tels risques », indique le communiqué.
Entre-temps, de nombreux critiques n’ont pas changé de position. « Ces modifications ne sont que cosmétiques », a déclaré Martin Casado, associé commandité chez Andreessen Horowitz. Publié« Ils ne répondent pas aux véritables problèmes ni aux critiques du projet de loi. »
Jason Kwon, directeur de la stratégie d’OpenAI, a également déclaré dans une lettre adressée à Newsom et Wiener que « le SB 1047 mettrait en péril cette croissance, ralentirait le rythme de l’innovation et forcerait les ingénieurs et entrepreneurs de classe mondiale de Californie à chercher de plus grandes opportunités ailleurs ». quitter l’État. »
Kwon a écrit : « Compte tenu de ces risques, nous devons protéger l’avantage américain en matière d’IA avec un ensemble de politiques fédérales, plutôt que des politiques d’État – qui peuvent apporter clarté et certitude aux laboratoires et aux développeurs d’IA et « peuvent également préserver la sécurité publique ».
Les troubles politiques de Newsom
Bien que cette version fortement modifiée du SB 1047 soit parvenue sur le bureau de Newsom, il est resté assez discret à ce sujet. Il n’y a rien de nouveau dans le fait que la réglementation de la technologie a toujours impliqué un certain degré de manœuvres politiques, et le silence de Newsom sur une réglementation aussi controversée le suggère. nouveau Peut Nous ne voulons pas faire bouger les choses avec les technocrates juste avant l’élection présidentielle.
De nombreux dirigeants technologiques influents sont également d’importants donateurs dans les campagnes politiques, et en Californie, qui abrite certaines des plus grandes entreprises technologiques du monde, ces dirigeants sont profondément liés à la politique de l’État. Société de capital-risque Andreessen Horowitz Même Jason Kinney a été recrutéAmi proche du gouverneur Newsom et militant démocrate pour faire pression contre le projet de loi. Pour un politicien, faire pression en faveur d’une réglementation technologique pourrait signifier perdre des millions de dollars en contributions électorales. Pour quelqu’un comme Newsom, qui a des ambitions présidentielles claires, il s’agit d’un niveau de soutien qu’il ne peut pas se permettre de compromettre.
De plus, le fossé entre la Silicon Valley et les Démocrates s’est creusé, surtout lorsque Les cofondateurs d’Andreessen Horowitz ont exprimé leur soutien Pour Donald Trump. La forte opposition du cabinet au SB 1047 signifie que le fossé pourrait se creuser si Newsom le promulgue, ce qui rendrait difficile pour les démocrates d’obtenir le soutien de la Silicon Valley.
Cela dépend donc de Newsom, qui subit la pression des entreprises technologiques les plus puissantes du monde et de ses collègues politiques comme Pelosi. Alors que les législateurs s’efforcent depuis des décennies de trouver un équilibre délicat entre réglementation et innovation, l’IA est vague et sans précédent, et bon nombre des anciennes règles ne s’appliquent pas. Pour l’instant, Newsom a jusqu’en septembre pour prendre une décision qui pourrait bouleverser l’industrie de l’IA telle que nous la connaissons.