Régulation de l'intelligence artificielle en Californie
Le gouverneur démocrate, Gavin Newsom, a récemment promulgué la législation SB 53 en Californie, imposant de nouvelles règles aux géants de l'intelligence artificielle. Cette loi vise à rendre obligatoire la divulgation des incidents et des failles tout en protégeant les lanceurs d'alerte.
Obligations de transparence renforcées pour les entreprises d'IA

La Silicon Valley est désormais soumise à une régulation plus stricte concernant les risques liés à l'intelligence artificielle. La législation SB 53 oblige les entreprises à rendre publics leurs protocoles de sécurité, signaler les incidents en un temps limité et protéger les lanceurs d'alerte. Cette nouvelle loi a pour objectif d'encourager l'innovation tout en assurant la sécurité publique. ## Des progrès inquiétants révélés par les rapports des entreprises de pointe de l'IA
Un groupe de réflexion dirigé par le gouverneur Newsom a souligné en juin dernier des progrès préoccupants dans toutes les catégories de menaces, provenant des propres rapports des entreprises de pointe de l'IA. Des experts renommés, dont Fei-Fei Li de l'Université Stanford, ont contribué à affiner le texte.
Une nouvelle loi californienne pour réguler l'IA
Le sénateur démocrate Scott Wiener, à l'origine de la nouvelle loi californienne, a vu son projet approuvé après un veto du gouverneur en 2024. Cette régulation de l'IA vise à rendre publics les protocoles de sécurité et à augmenter la transparence dans le domaine.
Des géants de l'IA s'engagent à renforcer la sécurité
Avant la mise en place de la nouvelle loi, des entreprises de renom telles que Meta, Google, OpenAI et Anthropic s'étaient déjà engagées à renforcer la sécurité et à développer des protocoles robustes. La législation californienne vient désormais encadrer et étendre ces engagements pour assurer une utilisation responsable de l'intelligence artificielle.