AI Act: Breaking, quelles pratiques Bruxelles bannit dès ce matin ?

27 Juin 2025 | Actus IA

AI Act : l’Europe frappe fort, premières interdictions déjà en vigueur

Flash info – “breaking” du 2 février 2025 : l’AI Act vient de passer du papier à la réalité. Bruxelles enclenche la toute première phase du règlement européen sur l’intelligence artificielle, bannissant d’emblée plusieurs usages jugés « inacceptables ». Une bascule historique comparable, pour les juristes, au RGPD entré en scène en 2018.


Ce qui change aujourd’hui : un cap juridique inédit

Depuis ce 2 février 2025, il est formellement interdit, dans les 27 États membres, de déployer :

  • la notation sociale fondée sur le comportement (version numérique du Black Mirror chinois) ;
  • les techniques subliminales orientant à l’insu des utilisateurs ;
  • l’exploitation des vulnérabilités (mineurs, personnes âgées ou handicapées) ;
  • la reconnaissance émotionnelle à l’école ou au travail.

Ces premiers « no go zones » représentent moins de 3 % des cas d’usage répertoriés par la Commission, mais leur symbolique est majeure : protéger, d’abord, innover, ensuite. Thierry Breton, commissaire au Marché intérieur, insiste : « La confiance est la condition sine qua non de l’adoption massive de l’IA en Europe. »

Un calendrier serré

  1. Février 2025 : interdictions des pratiques à risque inacceptable.
  2. Août 2025 : règles spécifiques pour les modèles d’IA à usage général (foundation models).
  3. Août 2026 : conformité obligatoire pour les systèmes IA à haut risque (santé, finance, transports).

En arrière-plan, la Commission publiera, mois après mois, un référentiel de maîtrise de l’IA et des guidelines techniques. Objectif : aider les entreprises à savoir si leur logiciel relève – ou non – de la nouvelle définition d’un « système d’IA ».


Pourquoi l’AI Act bouleverse-t-il la donne ?

Le règlement, adopté en mars 2024 par le Parlement européen (526 voix pour), vise un double pari :

  • Harmoniser le marché intérieur afin d’éviter 27 lois divergentes.
  • Doter l’UE d’un avantage compétitif éthique, alors que la Chine et les États-Unis jouent la carte du laisser-faire.

Concrètement, l’AI Act classe les applications selon quatre niveaux de risque. Seuls les services « minimal » et « limité » resteront quasi libres. Les catégories « haut risque » seront, elles, soumises à :

  • audits réguliers,
  • traçabilité des données,
  • documentation technique exhaustive,
  • obligations de transparence vis-à-vis des utilisateurs.

Selon Eurostat (2023), déjà 35 % des entreprises de plus de 250 salariés emploient une forme d’IA. Demain, toutes devront vérifier la conformité de leurs algorithmes, sous peine d’amendes pouvant grimper à 35 millions d’euros ou 7 % du chiffre d’affaires mondial – un seuil comparable aux sanctions RGPD.


Qu’est-ce qu’un « risque inacceptable » selon le droit européen ?

Un « risque inacceptable » désigne une application jugée incompatible avec les droits fondamentaux garantis par la Charte européenne. Le Conseil a retenu quatre critères :

  1. Atteinte potentielle à la dignité humaine.
  2. Absence de consentement éclairé.
  3. Possibilité d’une surveillance de masse.
  4. Discrimination systémique documentée.

L’approche se distingue de celle de la Food and Drug Administration américaine, axée sur la conformité produit, et se rapproche plutôt du principe de précaution cher à l’histoire environnementale de l’UE.


Entre promesse et polémique : l’IA européenne écartelée

D’un côté, les défenseurs des libertés (la CNIL, l’ONG Access Now) saluent une « grande muraille de la vie privée ». De l’autre, plusieurs start-up redoutent un frein à l’innovation. À Lisbonne, un fondateur d’health-tech confie : « Nous passons 40 % de notre budget R&D sur la conformité. »

Pourtant, le signal-prix pourrait s’avérer positif. Les analystes de McKinsey estiment que le marché mondial de l’IA responsable atteindra 260 milliards de dollars en 2026. Une manne accessible à ceux qui auront, dès aujourd’hui, investi dans la gouvernance algorithmique.


Comment se mettre en règle sans perdre six mois ?

Voici un kit express, validé par plusieurs DPO européens :

  • Cartographier toutes les briques IA utilisées (y compris SaaS tiers).
  • Attribuer un niveau de risque pour chaque cas d’usage.
  • Rédiger une fiche d’impact dédiée (équivalent de l’AIPD RGPD).
  • Mettre en place un journal d’entraînement retraçant les datasets.
  • Former les équipes au futur code de conduite AI Act.

Ces actions rapides répondent aux requêtes fréquentes « comment se conformer à l’AI Act » ou « guide de conformité intelligence artificielle UE ».


Faut-il craindre la reconnaissance émotionnelle au bureau ?

Scène de 2027 : un open space où des caméras évaluent notre humeur. Science-fiction ? Plus vraiment. Le géant chinois SenseTime teste déjà ses systèmes dans des banques de Shanghai. L’UE a pris les devants : hors cas de sécurité, la reconnaissance émotionnelle deviendra impossible.

Cette mesure protège le salarié, mais bouscule le marché des HR tech européennes. Quelques éditeurs misent désormais sur des solutions opt-in, moins intrusives, basées sur l’auto-déclaration de ressenti.


Zoom historique : de Mary Shelley à la Silicon Valley

En 1818, Mary Shelley publiait Frankenstein, mythe fondateur de la peur de la créature incontrôlable. Deux siècles plus tard, l’AI Act répond à cette angoisse culturelle : qui contrôle la machine ? Pour la première fois, un ensemble d’États démocratiques balise juridiquement l’« acte créateur » algorithmique. Un tournant comparable, pour les historiens du droit, aux lois antitrust américaines de 1890.


L’AI Act en 5 expressions-clés longue traîne à retenir

  • impact de l’AI Act sur les entreprises européennes
  • calendrier de mise en conformité AI Act
  • réglementation IA à haut risque
  • interdiction de la notation sociale
  • guide de conformité intelligence artificielle UE

En tant que journaliste et passionné de technologies responsables, je suivrai de près chaque nouvelle ligne directrice, chaque consultation publique. À vous maintenant : scrutez vos algorithmes, challengez vos partenaires, explorez nos autres décryptages sur la cybersécurité, la transition numérique ou encore l’économie circulaire. Le futur se régule, mais il s’écrit surtout ensemble.