Témoignant devant le Congrès le 16 mai, le PDG d’OpenAI, Sam Altman, a déclaré qu’il était temps pour les régulateurs de commencer à fixer des limites aux puissants systèmes d’intelligence artificielle. « À mesure que cette technologie progresse, nous comprenons que les gens s’inquiètent de la façon dont cela pourrait changer notre façon de vivre. Nous aussi », Altman il a dit à un comité sénatorial. “Si cette technologie tourne mal, ça peut aller très mal”, a-t-il dit, ajoutant que cela pourrait causer “des dommages importants au monde”. Il a convenu avec les législateurs que la surveillance gouvernementale sera essentielle pour atténuer les risques.

Un sujet à peine sur les radars des législateurs il y a un an, les gouvernements du monde entier débattent maintenant furieusement des avantages et des inconvénients de la réglementation ou même de l’interdiction de certaines utilisations de la technologie de l’intelligence artificielle. Cependant, la question sur laquelle les chefs d’entreprise devraient se concentrer en ce moment n’est pas de savoir comment ou quand l’IA sera réglementée, mais par qui. Que le Congrès, la Commission européenne, la Chine ou même les États américains ou les tribunaux prennent les devants, ils détermineront la vitesse et la trajectoire de la transformation de l’économie mondiale grâce à l’intelligence artificielle, protégeant potentiellement certaines industries ou limitant la capacité de toutes les entreprises à utiliser la technologie pour interagir. directement avec les consommateurs.

Depuis la sortie en novembre 2022 de ChatGPT d’OpenAI, son chatbot d’IA générative construit sur un réseau neuronal auto-améliorant avec un grand modèle de langage (LLM), l’utilisation de l’IA générative a explosé. Selon données compilées par Statista, ChatGPT a atteint un million d’utilisateurs en cinq jours, écrasant les produits Internet à vitesse de distorsion précédemment annoncés, notamment Facebook, Spotify et Netflix. Midjourney et DALL-E, LLM, qui créent des illustrations personnalisées basées sur les entrées de l’utilisateur, ont également explosé en popularité, générer des millions d’images quotidien. L’IA générative répond définitivement aux critères de ce l’un de nous a déjà co-défini en tant que “Big Bang Disruptor”: une nouvelle technologie qui, dès sa sortie, offre aux utilisateurs une expérience meilleure et moins chère que celles avec lesquelles elle est en concurrence.

Naturellement, une augmentation aussi remarquable est une cause d’excitation et, pour les entreprises établies, d’alarme. Le potentiel du LLM semble sans limite, révolutionnant peut-être tout Recherche sur génération de contenu, service Clients sur éducationet bien, vous le nommez. Contrairement aux perturbations du big bang plus ciblées, ChatGPT et d’autres LLM sont des perturbateurs qui enfreignent les règles de longue date non seulement dans un secteur, mais dans tous. En même temps.


Compte tenu de l’étendue potentielle de cette violation – ainsi que de problèmes tels que la confidentialité, les préjugés et même la sécurité nationale – il est logique que les législateurs en prennent note. Pensez au poème de Goethe “L’apprenti sorcier”, animé dans le film classique de Disney Imagination, où un sorcier retourne dans son atelier pour découvrir que son apprenti a déchaîné des forces qui deviennent rapidement incontrôlables et menacent de tout détruire jusqu’à ce que le sorcier rétablisse l’ordre. Beaucoup de ceux qui s’inquiètent des conséquences involontaires potentielles de l’intelligence artificielle, y compris des développeurs comme Altman, se tournent vers les législateurs pour remplir le rôle de sorcier.

Voici tout le monde

Aux États-Unis, plusieurs acteurs tentent de mener la régulation de l’IA.

Premièrement, il y a le Congrès, où le chef de la majorité au Sénat, Chuck Schumer, appelle à une législation préventive créer des “barrières” réglementaires sur les produits et services d’intelligence artificielle. Les barrières se concentrent sur la transparence des utilisateurs, les rapports gouvernementaux et “l’alignement de ces systèmes sur les valeurs américaines et la garantie que les développeurs d’IA tiennent leur promesse de créer un monde meilleur”. Cependant, le flou de cette proposition n’est pas prometteur.

Deuxièmement, il y a l’administration Biden, où il y a une certaine concurrence entre les agences fédérales pour mettre en œuvre le plan de la Maison Blanche. Charte des droits de l’IA, qui a été introduit en octobre dernier. La proposition est tout aussi générale, appelant les développeurs à fournir des systèmes “sûrs et efficaces” qui ne discriminent ni ne violent les attentes en matière de confidentialité, qui expliquent quand un utilisateur travaille avec un système automatisé et offrent des “basiques” humaines aux utilisateurs qui en font la demande. — sans, du moins pas encore, définir aucun de ces termes clés.

Au ministère du Commerce, Administration nationale des télécommunications et de l’information (NTIA) a ouvert une enquête sur l’utilité des audits et des certifications pour les systèmes d’intelligence artificielle. L’agence a demandé une déclaration des dizaines de questions sur la responsabilité des systèmes d’IA, y compris si, quand, comment et par qui les nouvelles applications doivent être évaluées, certifiées ou auditées, et quel type de critères inclure dans ces contrôles. Ici, la spécificité de l’enquête semble aller dans le bon sens.

La présidente de la Federal Trade Commission, Lina Kahn, quant à elle, adopte une approche différente, affirmant que son agence a déjà compétence sur le LLM, et le branle-bas des agences anti-concurrence et de protection des consommateurs vers les nouvelles technologies. Kahn spécule que l’IA pourrait exacerber les problèmes technologiques existants, notamment “la collusion, la monopolisation, les fusions, la discrimination par les prix et les méthodes de concurrence déloyales”. Generative AI, le président de la FTC, estime également qu’il “risque de fraude au turbocompresseur” en raison de sa capacité à créer un contenu faux mais convaincant. Et il note que les LLM pourraient – ​​intentionnellement ou non – violer les lois existantes sur la confidentialité et la lutte contre la discrimination en créant des réponses aux demandes des utilisateurs basées sur des ensembles de données biaisés.

Ensuite, il y a d’autres efforts provinciaux : la législation sur l’IA a déjà été introduite au moins 17 États. Certaines de ces lois proposées encourageraient le développement local de produits d’intelligence artificielle, tandis que d’autres limiteraient leur utilisation dans des applications telles que la santé et le recrutement. De nombreux États ont ou envisagent de créer leurs propres groupes de travail pour recommander de futures législations.

Il y a encore peu de détails sur chacune de ces propositions, les types de dommages hypothétiques causés par l’IA entrant dans les catégories existantes, y compris la désinformation et l’abus de droits d’auteur et de marques. Dans tous les cas, les régulateurs n’auront probablement qu’un impact limité sur le développement technologique à court terme. Bon nombre des réglementations proposées obligeraient le Congrès à accorder aux agences une autorité légale supplémentaire, ce qui semble peu probable dans le climat politique actuel. Même après cela, l’application des nouvelles règles relèvera des tribunaux, ce qui se traduit par un processus de plusieurs années. Et les gouvernements ont toujours eu du mal à attirer le type d’expertise technique nécessaire pour même définir les types de nouveaux dommages que le LLM et d’autres applications d’IA peuvent causer.

Parmi les propositions fédérales, créditez le département du Commerce d’avoir posé les bonnes questions. Mais on ne sait pas si la secrétaire Gina Raimondo a l’autorité légale pour créer un processus de certification durable ou le poids politique pour amener l’industrie technologique à soutenir les efforts de la NTIA. Plus loin, tel que reconnu par le ministèreson enquête n’est qu’une partie d’un effort plus large de la Maison Blanche pour créer un environnement de confiance pour les services d’IA, un objectif qui nécessiterait un niveau sans précédent de coordination et de coopération entre plusieurs forces gouvernementales.

Ces discussions se déroulent également dans le contexte de changements monumentaux dans la législation américaine qui détermineront probablement qui finira par obtenir un morceau du régulateur principal de l’IA. Les récentes décisions de la Cour suprême font a radicalement changé le paysage juridique du droit commercial, transfère le pouvoir des régulateurs fédéraux aux tribunaux et aux États, entraînant encore plus de fragmentation, d’incertitude et de retards dans l’application. Le tribunal a donné son feu vert aux entreprises qui espèrent contester la réglementation de l’agence, par exemple en demandant des conseils plus spécifiques au Congrès, laissant effectivement la décision finale sur l’entrée en vigueur des règles adoptées aux juges fédéraux. En attendant, bien sûr, la technologie continuera d’évoluer à son rythme accéléré.

Ensemble, ces limitations suggèrent que la réglementation majeure est plus susceptible de provenir de l’extérieur des États-Unis en premier

Pour le droit de la concurrence et ses applications spécialement pour les entreprises technologiquesl’élan des dernières décennies s’est déjà déplacé des États-Unis vers l’Europe. Alors que l’UE poursuit sa transition nouvelle législation majeure sur InternetLe Congrès est hésitant, laissant la FTC et d’autres agences fédérales en grande partie sans outils ni ressources pour rivaliser avec leurs homologues européens. Le Parlement européen a récemment approuvé la loi IALa loi de 100 pages, qui interdirait de manière préventive les applications considérées comme présentant des niveaux de risque “inacceptables”, obligeait les autres à obtenir une approbation et des licences préalables avant de les utiliser dans l’UE, et imposait des amendes importantes aux développeurs pour une série de violations.

Régulateurs en Chine ils bougent aussi vite, à la fois pour encourager les produits et services nationaux d’IA et pour définir comment ils peuvent et ne peuvent pas fonctionner. Non seulement cela pourrait limiter la façon dont les entreprises non chinoises interagissent avec plus d’un milliard d’utilisateurs chinois potentiels, mais en étant les premiers, cela pourrait devenir le régime juridique de facto pour les applications futures.

Que doivent faire les entreprises maintenant ?

Il est loin d’être clair que toute combinaison de mesures gouvernementales – législatives, réglementaires ou judiciaires – peut réellement atteindre l’équilibre entre maximiser la valeur de l’IA tout en minimisant ses dommages potentiels à l’économie ou à la société dans son ensemble. Comme pour toutes les technologies révolutionnaires, la capacité des gouvernements à réglementer efficacement le LLM sera presque certainement insuffisante. Ce n’est pas une critique des législateurs et des régulateurs, mais un effet secondaire fait fondamental que le droit progresse progressivement tandis que la technologie évolue de façon exponentielle.

Dans l’intervalle, les chefs d’entreprise et les universitaires devraient suivre l’initiative en cours du Département du commerce pour commencer à développer des processus de réglementation, d’audit et de certification non gouvernementaux qui identifient et fournissent des incitations du marché à acheter des produits et services d’IA éthiques et fiables. quelles applications sont et ne sont pas fiables.

Il y a, bien sûr, une longue histoire d’organismes d’autorégulation réussis (et infructueux), remontant au Moyen Âge et de “tribunaux” marchands qui ont appliqué les normes des marchés médiévaux. Actuellement, un certain nombre de groupes, dont l’Organisation internationale de normalisation, élaborent et certifient la conformité des entreprises à un éventail remarquablement large de normes, de meilleures pratiques et d’évaluations. À l’ère de l’information, des efforts similaires ont porté sur tout, des normes d’entreprise aux face aux régimes autoritaires au développement du logiciel lui-même et des protocoles qui composent Internet lui-même.

Certaines réglementations gouvernementales sont inévitables. Pourtant, la façon la plus prometteuse de ne pas provoquer les sorciers serait d’éviter trop de gâchis en premier lieu.

Leave a Reply

Your email address will not be published. Required fields are marked *