Depuis le 2 février, le premier volet de AI Act, la loi qui encadre l’intelligence artificielle sur le Vieux Continent est entré en vigueur.
C’est la première vraie mise en application de cette loi.
Et ça signifie que certaines pratiques sont maintenant bannies, et que les entreprises doivent s’y plier sous peine de lourdes sanctions financières.
Bonne nouvelle ? peut-être mais dans la pratique, il y a encore pas mal à revoir.
Ce qui est interdit à partir de ce 2 février 2025
En vertu de l’Article 5 de l’AI Act, l’UE a dressé une liste noire des usages de l’IA jugés trop risqués et donc « inacceptables » .
Résultat : certaines pratiques passent directement à la trappe.
Voici quelques-unes :
- Fini le scoring social à la chinoise : Plus question de classer les citoyens selon leur comportement ou autres critères.
- Plus de manipulation subliminale : Une IA qui influence les décisions sans qu’on ne s’en rende compte ? Interdit.
- La prédiction criminelle basée sur l’apparence : Pas d’IA qui devine qui va commettre un crime en analysant son physique ou ses comportements.
- Fini la surveillance biométrique généralisée : Une IA qui capte ton visage en temps réel dans la rue ? Interdit.
- L’IA qui analyse tes émotions au boulot ? Nope.
Plus de logiciels qui traquent ton niveau d’enthousiasme au travail. Bonne nouvelle pour ceux qui ont une tête de lundi matin en permanence.
En gros, l’UE veut empêcher les dérives les plus flippantes de l’IA.
Et franchement, ça fait du bien de voir un cadre légal sur ces sujets.
Jusqu’à 7% du chiffre d’affaires en amende
Si une entreprise viole ces règles, elle risque gros :
✔️ 35 millions d’euros d’amende
✔️ Ou 7% de son chiffre d’affaires mondial (le plus élevé des deux)
Ça veut dire que même les géants de la tech ont intérêt à bien relire les consignes.
Petit hic : Les sanctions ne seront pas immédiates. Pour l’instant, les entreprises doivent juste être en conformité à partir du 2 février.
Mais le vrai tour de vis est prévu pour août 2025, quand les autorités de régulation seront totalement opérationnelles.
Qui joue le jeu, qui boude ?
En septembre dernier, plus de 100 entreprises ont signé le EU AI Pact pour s’engager volontairement à respecter ces règles avant échéance. Parmi elles : Amazon, Google et OpenAI
Par contre, certains grands noms comme Meta, Apple et Mistral ont snobé l’initiative.
Pourquoi ? Peut-être parce qu’ils trouvent la loi trop lourde et mal fichue.
Par exemple, Mistral critique ouvertement cette loi, car la firme estime que c’est une usine à gaz bureaucratique qui freinera l’innovation en Europe.
Et il n’a pas forcément tort, le texte pose plus de questions qu’il n’apporte de réponses.
Cela dit, aucun d’eux ne peut y échapper : Pacte signé ou non, la loi est là, et ils devront s’y plier.
Des exceptions… et des zones floues
L’UE a prévu quelques cas particuliers pour lesquels certaines pratiques restent tolérées :
🔹 Reconnaissance faciale en public ? OK mais seulement pour la police et dans des cas précis (recherche de personnes disparues, par exemple).
🔹 Détection des émotions au travail ou à l’école ? Possible uniquement pour des raisons médicales ou de sécurité.
Sauf que… Les règles précises ne sont pas encore intégralement définies.
L’UE a promis des directives claires et officielles début 2025, mais pour l’instant, on attend toujours.
Autre casse-tête : comment cette loi va cohabiter avec les autres lois européennes comme le RGPD, la directive cybersécurité (NIS2), et la régulation des services numériques (DSA) ?
Certains experts craignent un casse-tête juridique, qui risque de pousser les entreprises à jongler entre plusieurs obligations parfois contradictoires. Bonne chance aux avocats pour démêler tout ça.
Un bon début, mais une mise en œuvre encore floue
À mon avis, l’UE envoie un signal fort en interdisant les usages trop risqués de l’IA.
Sur le papier, ça empêche les pires dérives et permet de mieux protéger la vie privée et les droits fondamentaux des citoyens..
Ce que je trouve dommage, ce sont les zones d’ombre autour des exceptions et de l’application de la loi.
Ça reste vague sur plein de points, et certaines entreprises risquent d’exploiter les flous juridiques.
On espère que d’ici le 1er août prochain, date à laquelle d’autres dispositions sur les modèles d’IA à usage général seront mises en pratique, les régulateurs auront déjà mis de l’ordre dans tout ça.