Introduction : quand l’IA prend les commandes
Imaginez : un agent IA, déployé par votre entreprise, refuse automatiquement un crédit à un client, supprime par erreur des données personnelles sensibles ou envoie un conseil médical erroné. Aucun humain n’a validé la décision. Aucune trace exploitable dans les logs. L’IA a agi seule. Qui paie ?
La question n’est plus théorique. Avec l’essor des agents IA autonomes (aussi appelés « Agentic AI »), capables d’exécuter des chaînes de décisions complexes sans intervention humaine (Human in the Loop — HITL), le cadre juridique européen est mis à l’épreuve. L’AI Act (Règlement (UE) 2024/1689) et le RGPD tentent de répondre à cette question, mais avec des outils qui n’ont pas été conçus pour des IA capables d’agir de manière totalement autonome.
Cet article décrypte, dans un langage accessible, la répartition des responsabilités entre le fournisseur de l’IA et le déployeur (l’entreprise qui l’utilise) lorsque les choses tournent mal. Il identifie les zones grises juridiques et propose des recommandations concrètes pour sécuriser vos usages — notamment en matière de journalisation (logs) et de supervision humaine (HITL).
1. Qu’est-ce qu’un agent IA autonome ?
1.1 Définition simple
Un agent IA autonome est un système d’intelligence artificielle capable de percevoir son environnement, de prendre des décisions et d’exécuter des actions en séquence, sans qu’un humain intervienne à chaque étape. Contrairement à un chatbot classique qui répond à une question, l’agent IA planifie, agit et s’adapte. Il n’y a pas de Human in the Loop (HITL) en temps réel.
💡 Exemple concret Un agent IA de service client ne se contente pas de répondre aux questions : il accède au dossier du client, vérifie ses droits, décide d’appliquer un remboursement et l’exécute. Tout cela en quelques secondes, sans validation humaine. La seule trace de son raisonnement ? Les logs — s’ils existent. |
1.2 Ce que dit l’AI Act
L’AI Act définit un système d’IA comme « un système basé sur une machine conçu pour fonctionner avec différents niveaux d’autonomie » (article 3). L’expression « différents niveaux d’autonomie » est cruciale : elle reconnaît implicitement que certains systèmes opèrent avec une autonomie très élevée, ce qui inclut les agents IA.
Cependant, l’AI Act n’a pas créé de catégorie spécifique pour les agents IA. Ils tombent dans le cadre général des « systèmes d’IA », avec une classification fondée sur le niveau de risque (inacceptable, haut risque, risque limité, risque minimal). C’est un premier angle mort du règlement.
2. Fournisseur vs. déployeur : qui fait quoi selon l’AI Act ?
2.1 Deux rôles, deux niveaux de responsabilité
L’AI Act distingue clairement deux acteurs principaux dans la chaîne de valeur de l’IA :
Critère | Fournisseur | Déployeur |
Définition | Celui qui développe ou fait développer le système d’IA et le met sur le marché (art. 3, al. 3) | Celui qui utilise le système d’IA sous sa propre autorité, dans un cadre professionnel (art. 3, al. 4) |
Exemples | OpenAI, Anthropic, Mistral, un éditeur de logiciel IA | Une banque, un hôpital, un cabinet RH qui utilise l’outil |
Responsabilité principale | Conception sûre, documentation technique, gestion des risques, journalisation automatique (logs) | Utilisation conforme, surveillance humaine (HITL), signalement des dysfonctionnements |
Obligation clé | Conformité avant mise sur le marché (ex ante) + surveillance post-commercialisation | Conformité pendant l’utilisation (continue) + conservation des logs (6 mois min.) |
Sanctions AI Act | Jusqu’à 35 M€ ou 7 % du CA mondial | Jusqu’à 15 M€ ou 3 % du CA mondial |
2.2 Le principe de la « responsabilité partagée »
Le fournisseur est le principal responsable du système d’IA, mais le déployeur n’est pas exempt d’obligations. Leurs responsabilités se complètent :
- Le fournisseur répond de la conception : le modèle est-il robuste ? Les biais ont-ils été testés ? La documentation est-elle complète ? Les mécanismes de journalisation automatique (logs) sont-ils intégrés ?
- Le déployeur répond de l’usage : le système est-il utilisé conformément aux instructions ? La surveillance humaine (HITL) est-elle en place ? Les personnes concernées sont-elles informées ? Les logs générés par le système sont-ils conservés au moins 6 mois ?
⚠️ Point d’attention : le changement de statut Si un déployeur apporte une « modification substantielle » au système d’IA (par exemple en le re-paramétrant en profondeur ou en le fine-tunant sur ses propres données), il peut devenir lui-même fournisseur au sens de l’AI Act, et hériter de l’intégralité des obligations associées — y compris la journalisation native. |
3. Le problème spécifique de l’agent IA autonome
3.1 L’angle mort de l’AI Act : la fin du Human in the Loop
L’AI Act a été conçu à une époque où les systèmes d’IA étaient principalement des outils d’aide à la décision, avec un humain dans la boucle (Human in the Loop — HITL). Le modèle de responsabilité repose sur l’idée que quelqu’un — le déployeur — supervise le système et peut intervenir à tout moment.
Or, un agent IA autonome casse cette logique. Quand l’IA enchaîne les décisions en cascade (recherche d’informations → analyse → décision → exécution), la supervision humaine en temps réel devient quasiment impossible. Le HITL n’existe plus. C’est précisément là que la chaîne de responsabilité se fragilise, et que la journalisation (logs) devient le seul filet de sécurité juridique.
📄 Focus : la journalisation (logs), votre seule preuve en cas de litige L’article 12 de l’AI Act impose que les systèmes d’IA à haut risque intègrent des mécanismes d’enregistrement automatique des événements (logs). L’article 26 impose aux déployeurs de conserver ces logs pendant au moins 6 mois. Pourquoi c’est critique ? Parce qu’en l’absence de HITL, les logs sont la seule trace objective de ce que l’agent IA a fait, pourquoi il l’a fait, et sur quelles données il s’est appuyé. En cas de litige, c’est la preuve numéro un. Les logs doivent permettre de reconstituer : → Les données d’entrée utilisées par l’agent → Les étapes de raisonnement (chaîne de décision) → La décision finale et l’action exécutée → L’horodatage précis de chaque étape → L’identité de la personne concernée (le cas échéant) Sans logs exploitables, le déployeur ne peut ni prouver sa bonne foi, ni démontrer que le dysfonctionnement provient du fournisseur. C’est une impasse juridique. |
3.2 Trois scénarios problématiques
Scénario 1 : L’agent IA refuse un crédit
Une banque déploie un agent IA qui analyse automatiquement les demandes de crédit, évalue le profil de risque et prend une décision d’acceptation ou de refus sans intervention humaine (aucun HITL).
Question | Réponse juridique |
Qui est responsable du biais ? | Le fournisseur si le biais provient du modèle. Le déployeur si le biais vient des données d’entrée fournies. Les logs doivent permettre de trancher. |
RGPD : article 22 appliqué ? | Oui. Décision entièrement automatisée produisant des effets juridiques. Le client a le droit d’obtenir une intervention humaine (HITL a posteriori). |
AI Act : quel niveau de risque ? | Haut risque (Annexe III : évaluation de la solvabilité). Journalisation obligatoire. |
Quelle preuve clé ? | Les logs de décision de l’agent : quels critères ont pesé, quelles données ont été analysées. |
Scénario 2 : L’agent IA supprime des données personnelles par erreur
Un agent IA chargé de gérer les demandes d’exercice de droits RGPD (droit à l’effacement) interprète mal une requête et supprime l’intégralité du dossier d’un client au lieu de supprimer uniquement ses données marketing.
Responsabilité RGPD : Le déployeur reste le responsable de traitement (article 24 RGPD). C’est lui qui détermine les finalités et les moyens du traitement. Même si l’erreur provient de l’IA, le déployeur ne peut pas s’exonérer en pointant du doigt le fournisseur vis-à-vis de la personne concernée.
Rôle des logs : La journalisation complète de l’action (requête reçue → interprétation par l’agent → données supprimées → horodatage) est la seule manière pour le déployeur de se retourner contractuellement contre le fournisseur si le dysfonctionnement provient du modèle.
Scénario 3 : L’agent IA donne un conseil médical erroné
Un chatbot médical autonome, déployé par une plateforme de téléconsultation, donne un conseil thérapeutique incorrect à un patient, sans que ce conseil ne soit validé par un médecin (absence totale de HITL).
Cumul de responsabilités : le fournisseur engage sa responsabilité au titre de l’AI Act (système à haut risque dans le domaine de la santé), le déployeur engage la sienne au titre de l’AI Act (absence de surveillance humaine / HITL) et du RGPD (traitement de données de santé sans garanties suffisantes), et le médecin pourrait aussi engager sa responsabilité professionnelle s’il est censé superviser l’outil.
Sans journalisation complète (logs) de l’interaction patient-IA, il est quasiment impossible de reconstituer la chaîne causale et de répartir les responsabilités.
4. Le RGPD face à l’IA autonome : l’article 22 sous tension
4.1 Le principe : interdiction de la décision entièrement automatisée
L’article 22 du RGPD pose un principe clair : toute personne a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques ou l’affectant de manière significative.
Des exceptions existent (nécessité contractuelle, autorisation légale, consentement explicite), mais elles imposent des garanties : droit à l’intervention humaine (HITL a posteriori), droit d’exprimer son point de vue, droit de contester la décision.
4.2 Le problème avec les agents IA
Un agent IA autonome rend l’article 22 particulièrement difficile à appliquer pour trois raisons :
Défi | Explication | Rôle des logs / HITL |
L’opacité de la décision | Quand un agent IA enchaîne 15 étapes de raisonnement, expliquer le « pourquoi » devient un défi technique et juridique. | Les logs de chaîne de raisonnement sont indispensables pour reconstituer la logique de décision. |
L’intervention humaine fictive | Certaines entreprises placent un humain « en bout de chaîne » qui valide systématiquement sans réel examen. La CNIL considère que ce HITL de façade n’est pas « significatif ». | Un HITL réel suppose une compétence, une autorité et un accès aux logs pour vérifier la décision. |
La détermination du responsable | Modèle du fournisseur A + données du déployeur B + cloud C = qui est responsable ? | La journalisation doit tracer l’origine de chaque composant pour imputer les responsabilités. |
4.3 La position de la CNIL
La CNIL a précisé que le responsable de traitement doit s’assurer de la maîtrise du traitement algorithmique et de ses évolutions, afin de pouvoir expliquer en détail et sous une forme intelligible à la personne concernée la manière dont le traitement a été mis en œuvre à son égard. En d’autres termes : utiliser un agent IA n’exonère pas le déployeur de son obligation de transparence. Et pour être transparent, il faut disposer de logs exploitables.
5. Le vide juridique de la responsabilité civile : la directive AILD retirée
La Commission européenne avait proposé en septembre 2022 une Directive sur la responsabilité civile en matière d’IA (AI Liability Directive — AILD). Cette directive devait compléter l’AI Act en facilitant l’indemnisation des victimes de dommages causés par l’IA, notamment en inversant la charge de la preuve.
⚠️ Retrait de la directive AILD (octobre 2025) La Commission européenne a retiré la proposition en octobre 2025, faute d’accord entre les États membres. Conséquence : il n’existe aujourd’hui aucun régime harmonisé de responsabilité civile spécifique à l’IA au niveau européen. Les victimes doivent se tourner vers les régimes nationaux de droit commun. Impact direct sur les agents IA : sans présomption de causalité, la victime doit prouver la faute, le dommage et le lien de causalité. Les logs de l’agent sont souvent la seule pièce technique permettant d’établir ce lien. |
6. Tableau récapitulatif : qui est responsable de quoi ?
Ce tableau synthétise la répartition des responsabilités entre fournisseur et déployeur lorsqu’un agent IA autonome cause un dommage :
Type de responsabilité | Fournisseur | Déployeur |
Conformité AI Act (ex ante) | ✅ Conception, tests, documentation, gestion des risques | ✅ Vérification avant déploiement |
Journalisation (logs) | ✅ Intégration native des mécanismes de logging | ✅ Conservation des logs 6 mois min. (art. 26) |
Surveillance humaine (HITL) | ✅ Prévoir les interfaces de contrôle humain | ✅ Désigner les personnes compétentes et leur donner autorité |
RGPD – Responsable de traitement | ❌ (sauf traitement pour son propre compte) | ✅ En principe le déployeur (détermine les finalités) |
RGPD – Article 22 | Indirect (doc. technique) | ✅ Directement responsable (garantir le HITL a posteriori) |
Responsabilité civile | Droit commun + directive produits défectueux | Droit commun national |
Biais / Discrimination | ✅ Si biais dans le modèle | ✅ Si biais dans les données d’entrée |
Preuve en cas de litige | Documentation technique + logs du modèle | Logs d’utilisation + politique HITL documentée |
7. Recommandations pratiques pour sécuriser vos usages
7.1 Pour les déployeurs (entreprises utilisatrices)
- Cartographiez vos agents IA. Identifiez tous les systèmes d’IA qui prennent des décisions sans validation humaine systématique. Classez-les par niveau d’autonomie et par impact sur les personnes concernées.
- Instaurez un HITL réel, pas de façade. L’article 26 de l’AI Act impose de confier la surveillance humaine (Human in the Loop) à des personnes compétentes, formées et dotées de l’autorité nécessaire. Un simple bouton « valider » ne suffit pas. Le HITL doit avoir accès aux logs et pouvoir contredire l’IA.
- Exigez une journalisation complète (logs). Vérifiez que votre fournisseur intègre un système de logs exploitables dans son agent IA. Conservez ces logs pendant au moins 6 mois (obligation AI Act). Prévoyez une durée de conservation plus longue si l’IA prend des décisions à fort impact.
- Réalisez une AIPD (article 35 RGPD). Toute décision entièrement automatisée fondée sur du profilage nécessite une analyse d’impact relative à la protection des données. C’est obligatoire, pas optionnel.
- Prévoyez un mécanisme de contestation. Conformément à l’article 22 du RGPD, la personne concernée doit pouvoir obtenir une intervention humaine (HITL a posteriori), exprimer son point de vue et contester la décision de l’IA.
- Contractualisez la répartition des responsabilités. Ne laissez pas de zone grise dans vos contrats SaaS. Précisez qui fournit les logs, qui les conserve, qui est responsable en cas de défaillance de la journalisation.
📋 À télécharger : Checklist de conformité AI Act pour les déployeurs Retrouvez notre checklist Excel complète pour auditer vos agents IA et structurer votre mise en conformité AI Act + RGPD. → Lien vers la Checklist Excel [Checklist conformité] |
7.2 Pour les fournisseurs
- Intégrez la journalisation (logs) nativement dans votre agent IA. Les logs doivent être horodatés, inaltérables et couvrir l’ensemble de la chaîne de décision.
- Documentez précisément les limites d’autonomie de vos agents IA dans la notice d’utilisation. Indiquez clairement quelles actions l’agent peut prendre sans HITL.
- Intégrez des garde-fous (guardrails) qui limitent les actions possibles de l’agent sans intervention humaine. Prévoyez des seuils de déclenchement du HITL pour les décisions à fort impact.
- Mettez en place un plan de surveillance post-commercialisation conforme à l’article 72 de l’AI Act, incluant l’analyse régulière des logs pour détecter les dérives.
8. Ce qui va changer : les évolutions à surveiller
Le cadre juridique de l’IA en Europe est en pleine construction. Voici les échéances clés à surveiller :
Échéance | Événement | Impact pour les agents IA |
Août 2025 ✅ | Application des règles GPAI (modèles à usage général) | Les fournisseurs de LLM utilisés dans des agents IA doivent se conformer. |
Août 2026 | Application complète de l’AI Act (systèmes à haut risque) | Journalisation obligatoire, HITL structuré, conformité intégrale exigée. |
2026-2027 | Paquet Omnibus Numérique | Ajustements possibles à l’AI Act. La responsabilité civile pourrait revenir sur la table. |
En vigueur | Convention-cadre Conseil de l’Europe sur l’IA | Principes de respect des droits fondamentaux, portée internationale (incluant US, Japon, Canada). |
Conclusion : la responsabilité ne se délègue pas à l’algorithme
Le déploiement d’agents IA autonomes soulève une question fondamentale qui dépasse le simple cadre technique : dans un monde où des machines prennent des décisions affectant la vie des personnes, qui assume les conséquences ?
La réponse du droit européen est claire sur un point : la responsabilité ne disparaît pas parce qu’une décision est prise par une IA. Elle se répartit entre le fournisseur et le déployeur, selon une logique de co-responsabilité qui reflète la chaîne de valeur de l’IA.
Deux réflexes sont désormais non négociables : la journalisation complète (logs) comme unique preuve technique en cas de litige, et un Human in the Loop (HITL) réel — pas de façade — pour les décisions à impact sur les personnes.
La prudence commande aux entreprises de ne pas attendre que le droit se stabilise pour agir. Cartographier ses agents IA, structurer le HITL, exiger des logs exploitables, contractualiser les responsabilités : ces actions ne sont pas seulement juridiquement recommandées, elles sont stratégiquement indispensables.
FAQ – Questions fréquemment posées
Un agent IA peut-il être juridiquement responsable ?
Non. En droit européen, une IA n’a pas de personnalité juridique. La responsabilité repose toujours sur une personne physique ou morale — le fournisseur ou le déployeur du système. Les logs de l’agent servent à déterminer lequel est en cause.
Quelle est la différence entre fournisseur et déployeur dans l’AI Act ?
Le fournisseur développe le système d’IA et le met sur le marché. Le déployeur est l’entreprise qui l’utilise sous sa propre autorité dans un cadre professionnel. Le fournisseur intègre les logs, le déployeur les conserve et assure le HITL.
L’article 22 du RGPD s’applique-t-il aux agents IA autonomes ?
Oui, dès lors que l’agent IA prend une décision entièrement automatisée produisant des effets juridiques ou affectant significativement une personne. Le responsable de traitement doit garantir le droit à l’intervention humaine (HITL a posteriori).
Que risque une entreprise qui déploie un agent IA sans HITL ni logs ?
Au titre de l’AI Act : des amendes pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial. Au titre du RGPD : jusqu’à 20 millions d’euros ou 4 % du CA mondial. Sans logs, l’entreprise ne peut même pas démontrer sa bonne foi en cas de contrôle.
Qu’est-ce que le « Human in the Loop » (HITL) au sens de l’AI Act ?
Le HITL désigne la surveillance humaine effective d’un système d’IA. L’AI Act (article 26) exige que cette surveillance soit confiée à des personnes compétentes, formées et disposant de l’autorité nécessaire pour intervenir. Un HITL de façade (validation systématique sans examen) ne satisfait pas à cette exigence.
La directive AILD sur la responsabilité de l’IA a-t-elle été adoptée ?
Non. La Commission européenne a retiré la proposition en octobre 2025. Il n’existe donc pas de régime harmonisé de responsabilité civile spécifique à l’IA au niveau européen. Les victimes doivent se tourner vers les droits nationaux, ce qui rend les logs d’autant plus critiques comme preuve.
Combien de temps faut-il conserver les logs d’un agent IA ?
L’AI Act impose une conservation minimale de 6 mois pour les logs générés par les systèmes d’IA à haut risque (article 26). En pratique, nous recommandons une conservation plus longue (12 à 24 mois) pour les agents IA prenant des décisions à fort impact juridique, afin de couvrir les délais de recours.
Références :
1. Règlement (UE) 2024/1689 – AI Act → https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024R1689
2. Règlement (UE) 2016/679 – RGPD → https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32016R0679
3. Convention-cadre du Conseil de l’Europe sur l’IA Texte officiel (PDF) : https://rm.coe.int/1680afae3d Page de présentation : https://www.coe.int/fr/web/artificial-intelligence/la-convention-cadre-sur-l-intelligence-artificielle
4. CNIL – Guide « IA : comment être en conformité avec le RGPD » → https://www.cnil.fr/fr/intelligence-artificielle/ia-comment-etre-en-conformite-avec-le-rgpd
5. Lignes directrices du G29 (WP251) – Décision automatisée et profilage PDF officiel (CNIL) : https://www.cnil.fr/sites/default/files/atoms/files/wp251_profilage-fr.pdf Page EDPB : https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/automated-decision-making-and-profiling_fr
6. Proposition AILD – COM(2022) 496 final → https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:52022PC0496
7. Directive (UE) 2024/2853 – Responsabilité du fait des produits défectueux → https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX:32024L2853
Inscrivez-vous à notre newsletter et recevez immédiatement votre checklist de conformité AI Act complète — 47 actions concrètes réparties sur 17 onglets, prête à l’emploi.
En bonus, vous recevrez chaque mois nos analyses et décryptages sur l’évolution de la réglementation IA, les nouvelles recommandations de la CNIL et les bonnes pratiques de conformité.
Notre newsletter est fondée sur votre consentement à la recevoir. Désinscrivez vous à tout moment en un clic. En savoir plus



