L'EU AI Act pour les PME
L'EU AI Act est en vigueur. La plupart des PME belges n'ont pas à paniquer. Voici ce qui compte vraiment, ce que vous pouvez laisser de côté et ce qu'il faut faire.
Le résumé en 30 secondes
L'EU AI Act est la première réglementation complète sur l'IA au monde. Il est entré en vigueur en août 2024, la plupart de ses règles s'appliquant d'ici août 2026.
Si vous utilisez ChatGPT pour rédiger des e-mails ou si vous mettez en place un chatbot pour le support client, tout va probablement bien. Si vous développez une IA qui évalue des candidats à l'embauche, prédit la solvabilité ou est utilisée dans la santé — vous avez du travail à faire.
Si votre IA lit des e-mails, rédige des rapports ou aide votre équipe à travailler plus vite — vous êtes très probablement à l'abri. Ce guide vous aide à le confirmer.
Cela me concerne-t-il ?
Avant de parcourir les quatre niveaux de risque, répondez à ces trois questions pour déterminer quelle section concerne votre entreprise.
Votre IA prend-elle des décisions concernant des personnes ?
Recrutement, scoring de crédit, assurance, diagnostic médical
Votre IA interagit-elle avec des utilisateurs finaux qui pourraient ne pas savoir qu'il s'agit d'une IA ?
Chatbots, contenus générés par IA, deepfakes
Votre IA aide-t-elle votre équipe interne à travailler plus vite ?
Rédaction d'e-mails, analyse de documents, saisie de données, reporting
Comment fonctionne le règlement : les niveaux de risque
Le règlement classe les systèmes d'IA en quatre catégories de risque. Vos obligations dépendent de la catégorie dans laquelle se situe votre IA.
Risque inacceptable (interdit)
Systèmes d'IA qui manipulent les comportements, exploitent les vulnérabilités ou permettent la surveillance de masse. Ils sont purement et simplement interdits dans l'UE.
Exemples :
- Notation sociale (à l'image du score citoyen chinois)
- Reconnaissance faciale en temps réel dans les espaces publics (avec des exceptions étroites pour les forces de l'ordre)
- IA qui manipule les personnes au point de les amener à se nuire à elles-mêmes
Ce que vous devez faire : ne construisez pas cela. De toute façon, vous ne le ferez pas.
Risque élevé
IA utilisée dans des domaines sensibles où une erreur peut gravement nuire aux personnes. Ces systèmes sont soumis à des exigences strictes.
Exemples :
- IA qui évalue les candidats ou trie les CV à des fins de recrutement
- IA qui décide qui obtient un prêt ou un crédit
- IA utilisée dans la santé (diagnostic, recommandations thérapeutiques)
- IA dans les infrastructures critiques (transport, énergie, distribution d'eau)
- IA dans l'éducation (notation, décisions d'admission)
Ce que vous devez faire :
- Gestion des risques : documentez ce qui pourrait mal tourner et la manière dont vous l'atténuez
- Gouvernance des données : assurez-vous que les données d'entraînement sont de qualité, sans biais et représentatives
- Transparence : les utilisateurs doivent savoir qu'ils interagissent avec une IA
- Supervision humaine : un humain doit pouvoir intervenir ou passer outre la décision de l'IA
- Tenue de registres : consignez la manière dont l'IA prend ses décisions
- Évaluation de conformité : faites-vous certifier par un tiers (équivalent du marquage CE)
Risque limité (règles de transparence)
Les systèmes d'IA qui interagissent avec des personnes doivent indiquer clairement qu'il s'agit d'IA.
Exemples :
- Les chatbots doivent informer les utilisateurs qu'ils s'adressent à une IA
- Les contenus générés par IA — images ou textes — doivent être identifiés comme tels
- La reconnaissance des émotions et la catégorisation biométrique nécessitent d'avertir l'utilisateur
Ce que vous devez faire :
- Ajoutez des mentions claires
- Identifiez les contenus générés par IA
- Faites preuve de transparence
Risque minimal (aucune obligation spécifique)
La plupart des applications d'IA utilisées par les PME entrent dans cette catégorie. Aucune exigence de conformité particulière au-delà des lois existantes.
Exemples :
- Rédaction et tri d'e-mails assistés par IA
- Analyse et synthèse de documents internes
- Génération de devis commerciaux
- Automatisation de la saisie de données
- Outils de traduction
Ce que vous devez faire : rien de spécifique au titre de l'AI Act. Respectez les règles existantes du RGPD et de la protection des données, comme vous devriez déjà le faire.
Votre plan d'action en 4 étapes
Recensez vos cas d'usage de l'IA
Notez chaque outil ou système de votre organisation qui utilise l'IA. Incluez les outils tiers comme ChatGPT ou Copilot, ainsi que les systèmes développés sur mesure.
Classez le niveau de risque
Associez chaque cas d'usage à l'un des quatre niveaux de risque ci-dessus. La plupart des outils de productivité internes relèveront du risque minimal.
Documentez ce qui doit l'être
Pour les systèmes à risque élevé : préparez la documentation technique, les plans de supervision humaine et les registres de gouvernance des données. Pour le risque limité : ajoutez les mentions de transparence.
Faites réaliser un audit indépendant
Faites examiner votre classification et votre documentation par un spécialiste. Détecter une mauvaise classification aujourd'hui coûte bien moins cher qu'une amende demain.
Comment Fly AI vous aide à respecter l'EU AI Act
Notre service d'audit IA a été conçu précisément pour cette situation. Nous examinons chaque système d'IA de votre organisation, le classons selon le cadre de risque de l'EU AI Act, identifions les lacunes en matière de documentation ou de transparence, et livrons un plan d'action clair, assorti de priorités et d'échéances. Pour la plupart des PME belges, l'audit confirme que votre usage de l'IA relève du risque minimal et qu'aucune action supplémentaire n'est requise — mais le confirmer par écrit vous procure une tranquillité d'esprit juridique et un avantage concurrentiel lorsque vous travaillez avec des donneurs d'ordre publics, qui exigent de plus en plus de pièces de conformité.
Audit IA — Évaluation des risques
Nous classons vos systèmes d'IA au regard de l'EU AI Act, vérifions leur alignement avec le RGPD et livrons un rapport de conformité assorti de recommandations actionnables.
En savoir plus sur notre audit IAGestion des agents IA
Vous déployez déjà des agents IA ? Notre portail de gestion vous offre une supervision en temps réel, des journaux d'audit et la possibilité de mettre n'importe quel agent en pause instantanément — la conformité par conception.
Découvrir notre portail de gestion d'agentsVous n'êtes pas sûr que votre IA soit conforme ?
Articles liés
Qu'est-ce qu'un agent IA ?
Les agents IA vont au-delà des chatbots — ils lisent les données, prennent des décisions et agissent dans vos outils métier.
LLM vs logiciel traditionnel
Tout n'a pas besoin d'IA. Un guide pratique pour choisir le bon outil et savoir quand combiner les deux.
Service d'audit IA
Évaluation complète de vos systèmes d'IA, conformité RGPD et recommandations actionnables.