Les États-Unis ont élu Donald Trump président : que peut-on attendre en matière de régulation technologique ?
By Anove
November 21, 2024
Les États-Unis ont élu Donald Trump président : que pouvons-nous attendre en matière de régulation technologique ?
Les récents résultats des élections américaines, avec Donald Trump devenant le 47e président et les Républicains assurant le contrôle du Sénat — et potentiellement de la Chambre des représentants — annoncent des changements majeurs dans les politiques numériques et d'IA. L'administration Trump devrait adopter une approche axée sur la dérégulation et l'innovation, en net contraste avec le cadre établi par le président Biden.
Changements dans la politique d'IA
Le président élu Trump a promis d'abroger dès son premier jour en fonction l'ordonnance exécutive (EO) de 2023 sur l'IA de Biden [1]. Cette ordonnance, créée en réponse à l'inaction du Congrès, comprend des dispositions volontaires axées sur les risques de sécurité de l'IA, l'atténuation des biais et le développement responsable des modèles d'IA. Elle a conduit à la création de l'U.S. AI Safety Institute (AISI), à des directives sur les vulnérabilités des modèles et à des partenariats avec des entreprises technologiques comme OpenAI.
Cependant, les critiques et alliés de Trump soutiennent que ces mesures, y compris les rapports obligatoires sur les protocoles de formation et de sécurité, sont contraignantes et risquent de révéler des secrets commerciaux. Des préoccupations concernant un excès de pouvoir exécutif ont été soulevées en raison du recours de l'EO à la Defense Production Act [2], une loi initialement conçue pour la défense nationale.
Le colistier de Trump, JD Vance, et d'autres Républicains ont exprimé des inquiétudes quant à ces réglementations, qu'ils jugent étouffantes pour l'innovation et renforçant le pouvoir des acteurs technologiques établis. Par ailleurs, certains Républicains critiquent les travaux anti-biais du NIST comme politiquement motivés, les qualifiant de censure [3].
Qu'est-ce qui remplacera l'ordonnance exécutive sur l'IA ?
Les précédentes ordonnances exécutives de Trump soutenaient la recherche en IA et le développement des compétences, mettant l'accent sur des technologies "fiables" tout en protégeant les libertés civiles et en promouvant les valeurs américaines. Pourtant, les détails sur ce à quoi pourrait ressembler une nouvelle politique d'IA sous Trump restent flous.
Certains proches de Trump prônent une concentration sur les risques physiques de l'IA, tels que son utilisation potentielle dans le développement d'armes biologiques. Cependant, de nouvelles réglementations restrictives sur l'IA pourraient ne pas être une priorité, soulevant des questions sur l'avenir d'institutions comme l'AISI.
D'un côté, des experts estiment que l'administration Trump pourrait privilégier l'application des lois existantes plutôt que d'en créer de nouvelles, laissant potentiellement la place à des initiatives menées par les États. Des États comme la Californie et le Colorado ont déjà adopté des lois liées à l'IA, avec une législation récente en Californie exigeant la transparence sur la formation de l'IA [4].
De l'autre, certains anticipent que les politiques protectionnistes de Trump incluront des contrôles plus stricts sur les exportations de technologies d'IA, en particulier envers la Chine. Cela s'appuie sur les interdictions existantes de l'administration Biden sur les exportations de puces d'IA. Cependant, ils mettent en garde contre le fait que ces mesures pourraient entraver la coopération mondiale et conduire à des utilisations plus autoritaires de l'IA à l'étranger.
La régulation technologique à l'échelle mondiale
L'élection de Trump prépare le terrain pour une potentielle dérégulation aux États-Unis, en contraste avec les approches adoptées par d'autres puissances mondiales, comme l'Union européenne et la Chine, qui ont des philosophies et stratégies distinctes pour gérer la croissance et la surveillance technologiques.
Les États-Unis adoptent une approche axée sur le marché en matière de régulation technologique, en se concentrant sur l'innovation et en mettant en œuvre des règles spécifiques à chaque secteur. Cette stratégie reflète une préférence pour l'autorégulation des industries, soutenue par une surveillance ciblée plutôt que par des mandats fédéraux complets. Sous l'administration Trump, cette approche devrait pencher davantage vers la dérégulation, réduisant potentiellement les restrictions sur le développement de l'IA pour favoriser la croissance et maintenir un avantage concurrentiel.
En revanche, l'Union européenne (UE) suit une voie proactive et préventive en matière de régulation technologique. L'UE accorde une grande importance à la protection des droits individuels et à l'assurance d'une concurrence loyale sur le marché. Cet engagement est illustré par son AI Act à venir, qui catégorise les applications d'IA en fonction de leurs niveaux de risque et impose des exigences strictes en matière de transparence et de responsabilité pour les systèmes d'IA à haut risque. Globalement, l'UE maintient un environnement hautement réglementé, se positionnant comme un leader dans la promotion d'une utilisation éthique de l'IA et la protection des intérêts des consommateurs.
La Chine, quant à elle, adopte un modèle dirigé par l'État qui priorise la stabilité sociale et le contrôle politique tout en poussant simultanément à l'avancement technologique. Le pays applique des réglementations complètes qui imposent des évaluations de sécurité strictes et l'étiquetage des contenus générés par l'IA pour lutter contre la désinformation et s'aligner sur les objectifs de l'État. Cette approche entraîne une surveillance rigoureuse qui permet à la Chine de maintenir le contrôle sur le récit et le rythme de l'innovation, garantissant que la croissance technologique s'aligne sur les priorités gouvernementales.
Dans notre webinaire mensuel sur les développements de l'IA, nous mettons en lumière :
- Ce qui se passe à l'échelle mondiale que vous devez connaître (d'une source faisant autorité, Anove).
- Ce que vous devez savoir et faire pour gouverner les risques liés à l'IA et tirer parti des opportunités de l'IA en même temps.
- Apprenez comment vous pouvez conseiller en continu vos parties prenantes.
Ce webinaire sera animé par Jean-Hugues Migeon, spécialiste de la protection des données et CTO d'Anove. Migeon est un expert en droit international et spécialisé dans les législations technologiques.
Références :
[1] Le président Biden publie une ordonnance exécutive sur une intelligence artificielle sûre, sécurisée et fiable (https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/)
[2] La Defense Production Act de 1950 : historique, autorités et considérations pour le Congrès (https://crsreports.congress.gov/product/pdf/R/R43767)
[3] Une étude révèle que les modèles d'IA ont des avis opposés sur des sujets controversés (https://techcrunch.com/2024/06/06/study-finds-ai-models-hold-opposing-views-on-controversial-topics/)
[4] La sécurité de l'IA sous la direction républicaine, Dean W. Ball (https://www.hyperdimensional.co/p/ai-safety-under-republican-leadership)