FLASH ACTU – Les interdictions de pratiques d’intelligence artificielle entrent en scène : depuis le 2 février 2025, l’Union européenne applique pour la première fois le couperet du règlement IA adopté en 2024. Un basculement historique qui rebat les cartes pour les géants du numérique comme pour les start-up du Vieux Continent.
Rédigé le 28 mai 2025, 08 h 12 – mise à jour en temps réel.
2 février 2025 : que change concrètement l’article 5 ?
Sur le plan légal, la date du 2 février 2025 restera dans les manuels. L’article 5 du EU Artificial Intelligence Act est désormais applicable. Il prohibe aussitôt plusieurs pratiques jugées à risque inacceptable :
- Exploitation des vulnérabilités (âge, handicap, précarité).
- Notation sociale basée sur le comportement ou la réputation en ligne.
- Techniques subliminales destinées à manipuler l’action ou le choix d’un individu.
- Reconnaissance émotionnelle dans les écoles, les bureaux ou les entretiens d’embauche.
Derrière cette liste noire, Bruxelles déploie pour la première fois sa fameuse approche risk-based. Quatre niveaux coexistent :
- Risque inacceptable → interdiction pure et simple.
- Haut risque → obligations renforcées (audit, transparence, évaluation humaine).
- Risque limité → mention claire à l’utilisateur.
- Risque minimal → usage libre.
La Commission européenne table sur des sanctions salées : jusqu’à 35 millions d’euros, ou 7 % du chiffre d’affaires mondial, le montant le plus élevé étant retenu. Un chiffre qui dépasse déjà, selon Deloitte, le budget R&D annuel de 38 % des PME françaises en 2024.
Un signal politique fort
Politiquement, ce volet du règlement illustre la ligne dure prônée par Ursula von der Leyen après les auditions houleuses de 2023 au Parlement. L’avoir publié avant Washington ou Pékin ancre aussi l’UE dans la bataille géostratégique des normes, héritage direct de la directive RGPD 2018.
Pourquoi l’UE juge-t-elle ces pratiques « inacceptables » ?
La question brûle les lèvres de nombreux lecteurs. Qu’est-ce que le “risque inacceptable” ? La réponse, côté juristes, se fonde sur deux critères : l’atteinte potentielle aux droits fondamentaux (vie privée, non-discrimination) et l’impossibilité de mitiger techniquement cette atteinte.
- Avec la notation sociale, on redoute le scénario dystopique popularisé par la série « Black Mirror ».
- Les techniques subliminales rappellent les expérimentations publicitaires de James Vickary dans les années 1950, jamais scientifiquement étayées mais toujours inquiétantes.
- Quant à la reconnaissance émotionnelle, nombre de chercheurs – citons Kate Crawford (USC) – la jugent trop peu fiable pour déterminer un stress ou un mensonge.
Dans son rapport 2024, l’Agence des droits fondamentaux de l’UE évoquait déjà un chiffre choc : 62 % des citoyens européens se disent inquiets à l’idée qu’un algorithme évalue leurs émotions au travail. Un bond de 9 points par rapport à 2022.
Comment se mettre en conformité sans freiner l’innovation ?
Audit interne et cartographie des risques
Première étape : dresser l’inventaire des algorithmes maison. Les cabinets EY et Capgemini parlent de cartographie IA. Objectif : localiser chaque module, décrire les données d’entraînement et mesurer le niveau de risque.
Gouvernance et documentation
Le règlement impose un dossier technique détaillant :
- Objectif et logique de l’algorithme.
- Jeux de données utilisés (avec analyse de biais).
- Procédures de supervision humaine.
Les développeurs rompus au DevSecOps gagneront du temps : une partie de ces informations figure déjà dans les pipelines d’intégration continue.
Certification CE de l’IA : la future norme ?
L’UE planche sur un label « IA de confiance » comparable au marquage CE. Les entreprises pourront, dès août 2026, soumettre leurs systèmes classés haut risque à un évaluateur tiers. Un processus proche de la certification ISO 42001 publiée fin 2023.
Innovation vs éthique : quel futur pour l’IA européenne ?
« D’un côté, l’Europe muselle la créativité ; de l’autre, elle garantit notre liberté ». Ce débat n’est pas nouveau. Il rappelle la querelle entre Mary Shelley, qui alertait sur la créature de Frankenstein en 1818, et Jules Verne, chantre du progrès technique.
Aujourd’hui, deux camps s’affrontent :
- Les industriels (Airbus, Siemens, SAP) redoutent un glissement de leurs investissements vers l’Amérique du Nord, plus permissive. Boston Consulting Group évaluait à 14 milliards d’euros le risque de fuite d’ici 2027.
- Les ONG (Access Now, Amnesty) saluent au contraire une victoire pour les libertés publiques, rappelant l’affaire Clearview AI sanctionnée en 2022 par la CNIL italienne.
Un avantage compétitif à long terme ?
Le think tank Bruegel avance une hypothèse optimiste : « standard first, market later ». Comme pour le RGPD, l’UE pourrait exporter son modèle. Début 2025, le Brésil et le Japon étudiaient déjà une transposition partielle du texte européen. Une réglementation IA européenne 2025 qui devient référence mondiale ? Les prochains mois seront déterminants.
Foire aux questions express
Pourquoi parle-t-on de “systèmes d’IA à usage général” ?
Il s’agit de modèles (ex.: GPT-5, Gemini) capables de résoudre des tâches multiples. Dès août 2025, ils devront publier une documentation d’entraînement et prouver qu’ils respectent le droit d’auteur, clin d’œil aux problématiques explorées dans notre dossier “IA générative et propriété intellectuelle”.
Comment calculer la sanction ?
Le montant le plus élevé entre 35 M € et 7 % du chiffre d’affaires global est retenu. Une licorne européenne réalisant 800 M € de revenus risque donc 56 M €.
Le règlement s’applique-t-il hors UE ?
Oui, dès qu’un service vise des résidents européens, principe d’« extra-territorialité restreinte ». Netflix ou TikTok sont déjà alignés sur le RGPD ; le mouvement se répète.
Points clés à retenir
- Breaking : premières interdictions IA effectives depuis le 2 février 2025.
- Classement en quatre niveaux, de risque inacceptable à minimal.
- Amende potentielle : 7 % du CA mondial.
- Prochaine échéance : août 2025 pour les modèles d’IA à usage général.
- Expression-clé longue traîne : “comment se conformer au AI Act européen”.
- Sujet connexe à suivre : cybersécurité des algorithmes et impact carbone des data centers, que nous analyserons bientôt.
Je couvre la régulation numérique depuis la directive e-Commerce de 2000, et j’avoue ressentir le même frisson qu’à l’époque du vote RGPD. Chaque nouvel article, chaque jurisprudence façonne notre quotidien connecté. Si, vous aussi, vous souhaitez comprendre les coulisses de cette révolution réglementaire, poursuivons ensemble ce décodage passionné dans nos prochains reportages.
