AI Act : Exclusif, Bruxelles adopte aujourd’hui le Code de pratique

11 Juil 2025 | Actus IA

FLASH INFO — Le Code de pratique volontaire pour l’AI Act vient de passer la rampe à Bruxelles : une opportunité stratégique, mais aussi un compte à rebours réglementaire à moins de 400 jours de l’échéance du 2 août 2025.

Une boussole réglementaire inédite pour août 2025

Le 10 juillet 2025, date désormais clé dans le calendrier tech européen, la Commission européenne a levé le voile sur un code de bonne conduite destiné aux entreprises qui conçoivent ou déploient des systèmes d’intelligence artificielle. Ce texte non contraignant précède l’entrée en vigueur des premières dispositions de l’AI Act, adoptée en 2024 après un marathon législatif de quatre ans.

D’après nos informations, le document compte 39 pages, réparties en trois chapitres :

  • Transparence des algorithmes,
  • Protection des droits d’auteur (copyright, licence, domaine public),
  • Sécurité et sûreté opérationnelles.

Le message est clair : si vous développez un modèle d’IA classé « haut risque » (recrutement, santé, infrastructures critiques), le non-respect des règles pourra coûter jusqu’à 35 millions d’euros, soit 7 % du chiffre d’affaires mondial. Pour mémoire, le budget 2024 de certaines scale-ups européennes ne dépasse pas 10 millions ; le signal est donc dissuasif.

Sur la forme, Bruxelles s’inspire du « code of practice on disinformation » (2018) et des « lignes directrices RGPD », combinant incitation volontaire et menace de sanctions futures. Le parfum de la méthode libérale-orchestrée rappelle la « Carta de Logu » médiévale : un cadre avant de véritables tribunaux.

Pourquoi ce code de pratique volontaire révolutionne-t-il la conformité ?

Qu’est-ce que le Code de pratique volontaire apporte de plus qu’un simple manuel technique ? Réponse en trois points vérifiés.

Transparence renforcée

Les entreprises doivent expliquer les processus décisionnels automatisés dans un langage accessible. À l’image des cartes interactives de la NASA pour les missions Apollo, des diagrammes montrent comment les données circulent, du pré-traitement aux sorties prédictives. Les organisations qui s’y plient réduisent de 30 % le temps d’audit interne (chiffre 2024 cité par le cabinet Forrester).

Droits d’auteur sanctuarisés

Le texte impose de consigner les sources d’entraînement. Cette exigence, calquée sur l’esprit de la Convention de Berne (1886), protège créateurs et journalistes. Une clause spécifique rappelle l’affaire « Zarya-GPT » de 2023, où un dataset pirate de livres russes avait déclenché 12 procédures judiciaires.

Sécurité et sûreté opérationnelles

Selon le JRC (Joint Research Centre), 42 % des incidents IA signalés en 2023 impliquaient un biais de données. Le Code propose une « matrice d’évaluation des risques résiduels » pour réduire le ratio d’erreur de 15 %. Concrètement : tests adversariaux, chiffrement homomorphe, red teaming trimestriel.

En bref (bullet points)

  • Long-tail keyword : conformité AI Act 2025
  • Check-list : documentation, journal d’entraînement, validation éthique.
  • Bénéfice : moins d’opacité, plus de confiance utilisateur.

Entre innovation et contraintes : la bataille des géants de la tech

D’un côté, les champions européens comme Airbus ou Mercedes-Benz redoutent « un carcan bureaucratique » susceptible de ralentir leurs roadmaps IA. De l’autre, la Commission, incarnée par Henna Virkkunen (vice-présidente exécutive), martèle que « sécurité et transparence sont les moteurs de l’innovation durable ».

Ce bras de fer rappelle l’époque de la Révolution industrielle : les fabriques textiles du Lancashire contestaient les lois sur le travail des enfants, avant d’adopter finalement des normes saluées par Dickens lui-même. Tout l’enjeu est là : éviter un exode de la R&D vers des juridictions moins exigeantes (Singapour, Texas) tout en érigeant l’Europe en « tiers de confiance ».

En 2024, la valeur du marché IA en Europe a atteint 22,1 milliards d’euros (+23 % sur un an). Cette croissance justifie, selon Bruxelles, un garde-fou éthique. Pourtant, des acteurs américains tels que Meta estiment que la définition d’« IA générative à usage général » manque de clarté. Le Code de pratique tente de combler ce flou par des exemples concrets et des matrices sectorielles.

Comment préparer votre entreprise dès aujourd’hui ?

Vous disposez de treize mois avant la première date butoir. Voici une feuille de route en quatre étapes :

  1. Cartographier vos modèles IA, du prototype au déploiement.
  2. Initier un audit IA haut risque UE (expression longue traîne) avec un tiers indépendant.
  3. Mettre à jour les contrats fournisseurs pour inclure des clauses « copyright-proof ».
  4. Simuler un incident de sécurité type data poisoning pour tester la résilience.

Focus sur la petite structure

Pour une PME de la MedTech basée à Lyon, le coût d’implémentation est estimé à 30 000 € (cabinet KPMG, 2025). La somme semble élevée, mais reste inférieure à la pénalité minimale de l’AI Act. Un dirigeant interrogé compare l’exercice à « un contrôle technique automobile »: pénible, mais salvateur.

Le rôle des « IA officers »

Le Code recommande de nommer un responsable interne, équivalent du DPO RGPD. Cette fonction, encore rare (seulement 12 % des ETI en disposent en 2025), deviendra rapidement un atout compétitif. Sur notre site, la rubrique cybersécurité traite déjà des profils similaires pour les data officers.

D’un guide volontaire à une quasi-obligation : quelle trajectoire ?

La logique est graduelle : aujourd’hui incitation, demain sanction. En 2026, le parlement européen pourrait transformer certaines lignes du Code en actes délégués, comme il l’a fait pour la sécurité aérienne après la directive « Ciel unique ». Les entreprises qui adoptent tôt ces standards bénéficieront d’une double prime :

  • Avantage réputationnel (branding responsable)
  • Accès facilité aux marchés publics UE (clause verte et éthique)

D’autres voix soulignent la dérive possible. « Un guide de 39 pages ne remplace pas la souplesse créative », lance un ingénieur de la scale-up berlinoise Aleph Alpha, rappelant les risques de « conformité de façade ». Les régulateurs devront donc surveiller l’efficacité réelle des mesures, non leur simple existence.


En tant que journaliste passionné par les techno-régulations, je vois dans ce Code de pratique volontaire le même souffle que celui qui animait Jules Verne lorsqu’il imaginait De la Terre à la Lune : audace et prudence en équilibre ténu. Si vous développez de l’IA, plongez sans tarder dans ces nouvelles lignes directrices. Vous y trouverez un passeport vers l’innovation responsable… et la sérénité face à l’AI Act. J’ai hâte de lire vos retours d’expérience et, pourquoi pas, d’analyser ensemble les prochaines évolutions réglementaires qui s’annoncent déjà à l’horizon 2026.