L’intelligence artificielle générative s’est imposée dans les organisations à une vitesse que peu de responsables IT ou juridiques avaient anticipée. ChatGPT, l’outil phare d’OpenAI, est aujourd’hui utilisé dans des milliers d’entreprises européennes souvent sans cadre formel, sans politique interne, et sans analyse des risques. Pour les dirigeants, DPO et responsables de la conformité, la question n’est plus de savoir si leurs collaborateurs utilisent ChatGPT, mais comment le faire de manière légalement sécurisée.
1. ChatGPT face au RGPD : que dit réellement le cadre légal ?
Avant d’adopter ou de tolérer l’usage de ChatGPT en entreprise, encore faut-il comprendre dans quel cadre légal cet outil s’inscrit. Le RGPD et l’intelligence artificielle ne font pas encore l’objet d’une articulation parfaitement claire et c’est précisément là que résident les premiers risques.
Responsable de traitement ou sous-traitant : un flou stratégique
Lorsqu’une entreprise utilise l’API d’OpenAI, la relation est relativement balisée : OpenAI agit en tant que sous-traitant, et l’entreprise en tant que responsable de traitement. Mais dans le cas de ChatGPT utilisé directement via l’interface web, la frontière est plus floue. OpenAI peut endosser un rôle de co-responsable, voire de responsable de traitement indépendant pour certaines opérations notamment l’entraînement de ses modèles. Cette ambiguïté a des conséquences directes sur la conformité IA entreprise : qui est responsable en cas de fuite ou de traitement illicite ?
Les positions des autorités européennes
Plusieurs autorités de protection des données ont déjà agi. L’autorité italienne (Garante) a suspendu l’accès à ChatGPT en 2023. La CNIL française a mené des investigations. L’analyse d’impact RGPD imposée par ces autorités révèle des lacunes réelles : manque de transparence sur les données collectées, absence de base légale claire pour l’entraînement, difficultés à exercer les droits des personnes. La compliance IA Belgique est également dans le radar de l’Autorité de protection des données (APD), qui surveille de près les pratiques des entreprises locales.
RGPD, AI Act et nouvelles obligations à venir
Le AI Act européen, entré en vigueur en 2024, ajoute une couche de complexité réglementaire. Les systèmes d’IA générative à usage général, comme ChatGPT, sont désormais soumis à des obligations de transparence et de documentation technique. Pour les entreprises, cela signifie que la gouvernance des données IA ne peut plus être laissée à l’improvisation : elle doit être structurée, documentée et auditée.
2. Quels risques concrets pour les entreprises ?
Les risques liés à l’usage de ChatGPT protection des données ne sont pas théoriques. Ils surviennent quotidiennement, souvent sans que l’organisation en soit consciente. En voici les manifestations les plus critiques.
Données sensibles insérées dans les prompts
La principale vulnérabilité est comportementale. Un collaborateur qui soumet un contrat client, des données RH, des informations financières ou du code source dans un prompt ChatGPT transfère ces informations vers les serveurs d’OpenAI, localisés hors de l’UE. Ces données personnelles ChatGPT peuvent être utilisées pour entraîner les modèles, sauf configuration contraire. Le transfert données hors UE déclenche alors des obligations spécifiques au titre du RGPD (clauses contractuelles types, analyses de risques) rarement respectées en pratique.
Shadow AI : un risque organisationnel majeur
Le shadow AI entreprise désigne l’usage non déclaré, non encadré et non contrôlé d’outils d’IA par les collaborateurs. C’est l’un des angles morts les plus dangereux pour la sécurité IA générative : l’organisation ne sait pas quelles données sont partagées, avec quels outils, dans quelles conditions. Sans inventaire ni politique, il est impossible de garantir la conformité ou de réagir en cas d’incident.
Sanctions, réputation et responsabilité juridique
Les sanctions prévues par le RGPD peuvent atteindre 4 % du chiffre d’affaires mondial annuel. Mais au-delà des amendes, c’est la responsabilité contractuelle vis-à-vis des clients, la perte de confiance et l’atteinte à la réputation qui constituent les risques les plus immédiats pour les PME. Une entreprise qui ne peut pas démontrer qu’elle maîtrise ses flux de données s’expose à des audits, des litiges et une fragilisation de ses relations commerciales.

3. Quelles garanties propose OpenAI aujourd’hui ?
OpenAI a progressivement renforcé ses dispositifs contractuels et techniques pour répondre aux exigences réglementaires européennes. Ces garanties sont réelles, mais elles supposent une démarche active de la part des entreprises.
Data Processing Addendum (DPA)
L’OpenAI DPA (Data Processing Addendum) est un accord contractuel qui encadre le traitement des données dans le cadre de l’API. Il précise les obligations d’OpenAI en tant que sous-traitant, les mesures de sécurité appliquées et les conditions de transfert. Ce document est indispensable pour toute entreprise souhaitant utiliser les services d’OpenAI dans un cadre conforme au RGPD. Mais attention : il ne s’applique pas automatiquement à l’usage de ChatGPT via l’interface grand public.
Paramètres de confidentialité et désactivation de l’entraînement
OpenAI permet désormais aux utilisateurs et aux entreprises de désactiver l’utilisation de leurs données pour l’entraînement des modèles. Cette option, accessible dans les paramètres de compte ou via l’API, est un prérequis minimal pour toute organisation soucieuse de conformité IA entreprise. Elle ne règle pas tous les problèmes, mais elle réduit significativement l’exposition.
Hébergement, transferts de données et sécurité
Les données traitées par OpenAI sont hébergées aux États-Unis. Le cadre légal applicable aux transferts données hors UE repose sur les clauses contractuelles types (CCT) et, depuis 2023, sur le Data Privacy Framework UE-États-Unis. La sécurité IA générative proposée par OpenAI inclut le chiffrement des données en transit et au repos, des contrôles d’accès stricts et des certifications de sécurité (SOC 2). Ces éléments doivent être documentés dans votre registre des traitements.
4. Bonnes pratiques pour un usage conforme et maîtrisé
La conformité ne se décrète pas : elle se construit méthodiquement, en combinant cadre organisationnel, analyse juridique et formation humaine.
Mettre en place une politique interne IA
Toute organisation doit formaliser une politique d’usage des outils d’IA, précisant quels outils sont autorisés, dans quels contextes, avec quelles données. Cette politique doit distinguer les usages professionnels des usages personnels, définir les catégories de données exclues des prompts, et prévoir des mécanismes de contrôle. C’est le premier rempart contre le shadow AI entreprise.
Réaliser une analyse d’impact (DPIA)
L’analyse d’impact RGPD (ou DPIA Data Protection Impact Assessment) est obligatoire dès lors qu’un traitement est susceptible d’engendrer un risque élevé pour les personnes. L’usage de ChatGPT sur des données clients, RH ou financières répond généralement à ce critère. La DPIA permet d’identifier les risques, de les documenter et de définir les mesures d’atténuation appropriées, une étape incontournable pour la gouvernance des données IA.
Former les équipes à la gouvernance des données IA
La technique ne suffit pas sans la sensibilisation humaine. Former les collaborateurs aux risques liés aux prompts, aux bonnes pratiques de partage d’information et aux obligations du RGPD est un investissement directement lié à la réduction du risque juridique. Une équipe formée est moins susceptible de générer des incidents de sécurité IA générative et plus à même de remonter les anomalies.

5. Comment Iterates accompagne les PME belges vers une IA conforme et stratégique
Chez Iterates, nous accompagnons les PME belges dans la mise en place d’une stratégie IA à la fois performante et rigoureusement conforme. Notre approche combine expertise juridique, maîtrise technique et vision stratégique pour que l’IA devienne un levier, et non un risque.
Audit RGPD & cartographie des usages IA
Nous commençons par un état des lieux complet : quels outils IA sont utilisés dans votre organisation, par qui, sur quelles données, dans quels flux ? Cette cartographie permet d’identifier les zones de shadow AI entreprise, de qualifier les traitements au regard du RGPD, et de prioriser les actions correctrices. C’est le fondement d’une compliance IA Belgique solide et défendable.
Encadrement technique (architecture, sécurité, contrôle des flux)
Nous vous aidons à concevoir une architecture technique qui minimise les risques : cloisonnement des données, anonymisation des prompts, déploiement de solutions on-premise ou en cloud européen, mise en place de contrôles des flux sortants. L’objectif est de garantir la sécurité IA générative sans sacrifier l’efficacité opérationnelle.
Intégration d’outils IA sécurisés dans votre écosystème IT
Nous sélectionnons et intégrons des solutions IA adaptées à vos besoins métiers, respectueuses du RGPD et intelligence artificielle, et compatibles avec votre infrastructure existante. Qu’il s’agisse d’alternatives souveraines à ChatGPT, de modèles déployés localement ou de configurations sécurisées de l’API OpenAI, nous vous accompagnons à chaque étape de la stratégie à l’implémentation.


