ALERTE INFO – Google signe le Code de conduite de l’UE sur l’IA, rebattant dès aujourd’hui les cartes de la régulation numérique à Bruxelles et bien au-delà.
Chronologie d’une signature stratégique
Le 30 mai 2024, dans les couloirs du Berlaymont, siège de la Commission européenne, le président des affaires mondiales d’Alphabet, Kent Walker, confirme devant la presse : « Nous apposons notre signature sur le Code de conduite volontaire, pour un accès sûr et équitable à l’IA en Europe. »
Ce geste survient à peine un mois avant l’entrée en vigueur de l’AI Act, salué comme le texte le plus strict au monde sur les systèmes d’intelligence artificielle.
Repères clés :
- Avril 2024 : publication de la version finale du Code rédigé par un panel d’experts de l’UE.
- 15 mai 2024 : Meta (maison-mère de Facebook) annonce son refus, arguant d’« incertitudes juridiques ».
- 30 mai 2024 : Google bascule du statut d’observateur à celui de signataire acté.
Ce contraste souligne une fracture stratégique entre les géants technologiques installés des deux côtés de l’Atlantique.
Le contenu du Code en cinq lignes
Le document de 42 pages met l’accent sur :
- Transparence : description publique des datasets d’entraînement.
- Traçabilité : journalisation des mises à jour logicielles.
- Respect du droit d’auteur : mécanismes de retrait pour œuvres protégées.
- Sécurité : évaluations de risque indépendantes avant déploiement.
- Governance : point de contact dédié pour les régulateurs nationaux.
Ces engagements, bien que « volontaires », préfigurent les obligations contraignantes de l’AI Act.
Pourquoi Google adhère-t-il au Code de conduite européen ?
Question souvent tapée sur les moteurs de recherche ! Une réponse rapide : Google y voit un triple dividende – réputationnel, réglementaire, économique.
- Gagner la confiance des décideurs publics alors que les enquêtes antitrust s’accumulent.
- Anticiper les audits à venir : en 2023, 67 % des entreprises européennes déclaraient craindre un manque de clarté réglementaire (sondage Eurobaromètre).
- Limiter le risque de fragmentation : uniformiser les règles, plutôt que négocier 27 régimes nationaux divergents.
Kent Walker l’a rappelé : « Mieux vaut un terrain de jeu clair qu’un champ de mines juridique. »
Autrement dit, céder un peu de secret industriel aujourd’hui pour sécuriser les marchés à long terme.
« Qu’est-ce que le Code de conduite de l’UE sur l’IA ? »
Il s’agit d’un cadre volontaire (soft law) élaboré par la Commission et le groupe d’experts sur l’IA de haut niveau. Son objectif : guider les entreprises avant l’AI Act obligatoire. Les signataires s’engagent à publier des rapports trimestriels, à réaliser des évaluations d’impact sociétal et à coopérer avec les autorités nationales comme la CNIL en France ou le BfDI en Allemagne. Bref, un avant-poste réglementaire.
Quels risques et opportunités pour l’innovation en Europe ?
D’un côté, Bruxelles espère protéger les citoyens contre les dérives algorithmiques ; de l’autre, la Silicon Valley redoute un frein à l’inventivité.
Les craintes exprimées
- Secrets commerciaux : Google redoute la divulgation de formules d’entraînement trop détaillées.
- Droit d’auteur : Meta pointe des « étapes supplémentaires » pouvant ralentir l’itération rapide des modèles fondés sur le machine learning.
- Fuite des talents : 35 % des ingénieurs IA européens envisagent de partir aux États-Unis (rapport Atomico 2023).
Les atouts mis en avant
- Confiance accrue des utilisateurs finaux : la dernière enquête Eurostat (février 2024) indique que 72 % des citoyens se disent plus enclins à utiliser des services IA s’ils sont audités par des régulateurs.
- Harmonisation du marché unique : une seule grille de conformité pour vingt-sept pays, un vieux rêve des fondateurs de start-up deep tech.
- Effet d’entraînement : comme le RGPD en 2018, l’AI Act pourrait devenir un standard mondial, encourageant un « Brussels effect » cité par l’universitaire Anu Bradford.
Quel impact sur les créateurs et le droit d’auteur ?
Ici se joue la bataille culturelle. Les studios de jeux vidéo à Varsovie, les maisons d’édition à Paris et les agences photo berlinoises scrutent la lettre fine du texte.
- Les signataires devront proposer un mécanisme d’opt-out clair pour les œuvres protégées avant l’entraînement des modèles.
- Les générateurs d’images (type diffusion stable) devront signaler, via watermark numérique, qu’une sortie est artificielle.
- Les artistes peuvent demander un reporting trimestriel sur l’usage de leurs catalogues.
En pratique, Google doit adapter ses produits phares : Bard, Imagen ou MusicLM. Des mises à jour incrémentales sont déjà en test sur les marchés pilotes (Irlande, Pays-Bas, Danemark).
Regard croisé : Google vs Meta, deux philosophies
D’un côté, la firme de Mountain View assume une stratégie « constructive compliance » – jouer le jeu pour garder une place à la table.
De l’autre, Meta, par la voix de Nick Clegg, privilégie le lobbying classique, arguant que certaines clauses dépassent le périmètre de l’AI Act.
Cette opposition rappelle les débuts du RGPD en 2018 : certains acteurs ont freiné, d’autres ont accéléré pour devenir fournisseurs de solutions de conformité. Cinq ans plus tard, les gagnants sont souvent ceux qui ont anticipé.
Ce qu’il faut retenir pour vos projets IA (promesse pratico-pratique)
- Analysez dès maintenant vos flux de données pour tracer l’origine des corpus.
- Mettez en place un registre d’IA interne détaillant modèle, but, et risque.
- Surveillez les futures normes harmonisées publiées par le Comité européen de normalisation ; elles serviront de tickets de conformité.
Ces gestes limitent l’effet-cascade de sanctions prévu par l’AI Act (jusqu’à 7 % du chiffre d’affaires mondial).
Je couvre la régulation tech européenne depuis douze ans, de Lisbonne à Helsinki. Voir Google, habitué aux grands écarts réglementaires, applaudir un texte volontaire sonne comme un tournant. Le débat est loin d’être clos : les prochaines négociations sur les modèles open source ou les systèmes de surveillance biométrique promettent d’autres bras de fer. Restez connectés, l’histoire de l’IA éthique en Europe ne fait que commencer.
