AI Act : choc, l’UE interdit dès aujourd’hui quatre usages d’IA

3 Juil 2025 | Actus IA

Flash info — l’AI Act bascule du papier à l’action : depuis le 2 février 2025, ses premières interdictions sont officiellement appliquées dans toute l’Union européenne.

Le chronomètre réglementaire a démarré, et Bruxelles entend bien tenir le tempo.


Depuis le 2 février 2025, un tournant réglementaire

Le chapô est sans appel. Vendredi 2 février 2025, l’Union européenne a activé les premières clauses du règlement sur l’intelligence artificielle, alias AI Act. Voté en 2024 par le Parlement européen (Strasbourg) et validé par le Conseil de l’UE, ce texte vise trois objectifs : sécurité, transparence et protection des droits fondamentaux.

Selon le dernier baromètre Eurostat (décembre 2024), 37 % des entreprises européennes exploitent déjà au moins un outil d’IA. L’urgence à encadrer est donc tangible.


Pourquoi l’AI Act entre-t-il en scène maintenant ?

Bruxelles s’appuie sur une approche « risk-based ». Chaque système d’IA est rangé dans l’une des quatre catégories suivantes :

  • Risque minimal : assistants virtuels ou correcteurs orthographiques.
  • Risque limité : chatbots marketing.
  • Risque élevé : dispositifs médicaux, infrastructures de transport, dossiers de police.
  • Risque inacceptable : pratiques désormais interdites.

Les interdictions effectives au 2 février 2025 couvrent :

  1. Exploitation des vulnérabilités (enfants, personnes handicapées).
  2. Notation sociale fondée sur le comportement (référence directe aux systèmes testés en Chine).
  3. Techniques subliminales modifiant le comportement à l’insu des utilisateurs.
  4. Reconnaissance émotionnelle dans les écoles et lieux de travail.

D’un côté, cette liste rassure les défenseurs des libertés publiques. De l’autre, elle interroge les géants de la tech sur leurs modèles économiques. Comme le résume un conseiller de Thierry Breton (commissaire au marché intérieur) : « Nous voulons un Far West de l’innovation, pas un Far West de l’éthique ».


Qu’est-ce que cela change pour les entreprises européennes ?

Les questions pratiques affluent déjà sur les moteurs de recherche : « obligations légales AI Act pour startups », « comment déclarer un système IA à haut risque ». Voici les réponses clés :

H3 – Obligations immédiates

  • Interdiction stricte des quatre pratiques listées plus haut.
  • Documentation interne prouvant la conformité.
  • Notification à l’autorité nationale compétente en cas d’écart.

H3 – Anticiper août 2025

D’ici au 14 août 2025, de nouvelles obligations viseront les modèles à usage général (foundation models, grandes IA génératives). Les entreprises doivent déjà :

  • Cartographier leurs algorithmes.
  • Préparer les futures évaluations d’impact.
  • Se positionner pour accéder aux bacs à sable réglementaires annoncés par la Commission européenne.

H3 – Combien ça coûte ?

La Commission estime qu’un audit complet d’un système à haut risque oscille entre 8 000 € et 30 000 € selon la complexité (chiffres prévisionnels 2025). Un frein pour les petites structures, mais un gage de crédibilité sur le marché.


Ce que dit le texte : les premières interdictions en détail

Les juristes parlent de « champ d’application restreint mais symbolique ». Symbolique, car ces pratiques touchent des ressorts sociétaux profonds :

  • Notation sociale : depuis « 1984 » d’Orwell jusqu’à l’épisode « Nosedive » de Black Mirror, le spectre du scoring social hante l’imaginaire européen.
  • Reconnaissance émotionnelle : popularisée dans les RH américaines, critiquée par le MIT Media Lab pour son manque de fiabilité (étude 2023).
  • Techniques subliminales : allusion directe à la publicité cachée des années 1950, remise au goût du jour par les micro-ciblages.

En interdisant ces usages, l’Europe trace sa ligne rouge. Une démarche comparable au RGPD en 2018, qui avait déjà redéfini la protection des données à l’échelle mondiale.


Quels impacts sociétaux et géopolitiques ?

Le think-tank Bruegel estime que le marché mondial de l’IA pèsera 407 milliards de dollars en 2027. En se dotant d’un cadre robuste, l’UE veut devenir une boussole éthique. Mais la stratégie comporte deux volets opposés.

D’un côté

  • Les citoyens gagnent un bouclier juridique clair.
  • Les PME d’Europe de l’Est espèrent un avantage concurrentiel grâce à la confiance nouvellement créée.

De l’autre

  • Les géants non européens pourraient délocaliser leurs tests vers des juridictions plus souples.
  • Certaines startups redoutent une « paperasse punitive ».

La Maison-Blanche a déjà salué « une avancée inspirante », tandis que Pékin considère le texte « trop restrictif ». Les prochains mois serviront de test grandeur nature.


Comment se préparer concrètement ?

Les experts en cybersécurité, en protection des données et en gouvernance algorithmique convergent sur un plan en trois points :

  1. Identifier tous les cas d’usage IA et leur catégorie de risque.
  2. Former les équipes à la transparence algorithmique (expliquer les décisions, archiver les règles).
  3. Mettre en place une supervision humaine documentée, surtout pour les systèmes classés « élevé ».

Pour saisir l’opportunité, les entreprises peuvent rejoindre les futurs « bacs à sable » pilotés par les États membres. Ces zones de test rappellent la French Tech de 2014 ou le Digital Sandbox britannique.


Vers un modèle global de régulation ?

L’histoire le montre : le RGPD a été repris par le California Consumer Privacy Act. Plusieurs analystes prévoient un « Brussels effect » similaire pour l’IA. L’OCDE planche déjà sur un référentiel commun, tandis que le G7 discute d’une coopération technique.

Cependant, un point reste ouvert : la gouvernance des modèles d’IA à usage général, souvent entraînés hors d’Europe. La clause de révision prévue en 2027 pourrait ajuster le tir, surtout si des dérives apparaissent.


Ce qu’il faut retenir

  • 2 février 2025 : entrée en vigueur des premières interdictions de l’AI Act.
  • Approche fondée sur les risques : de minimal à inacceptable.
  • Quatre pratiques désormais prohibées, dont la notation sociale et la reconnaissance émotionnelle en milieu professionnel.
  • Prochain jalon 14 août 2025 pour les modèles d’IA à usage général.
  • Basculement progressif vers un standard éthique susceptible d’inspirer le monde entier.

Depuis le banc de la rédaction, je vois déjà les lignes de force se dessiner : plus de clarté pour les citoyens, plus de rigueur pour les codeurs, et un débat public qui gagne en maturité. Si comme moi vous souhaitez comprendre comment l’IA, la data et la finance durable s’entrecroisent, restez dans les parages ; la suite s’annonce aussi palpitante qu’essentielle.