L’intelligence artificielle fait désormais partie de votre quotidien professionnel. Que ce soit ChatGPT pour préparer vos séances, Perplexity pour vos recherches, Claude pour structurer vos accompagnements, ou un assistant IA intégré dans votre agenda, vous utilisez probablement déjà ces outils.
La question que vous devez vous poser n’est pas si vous allez utiliser l’IA, mais comment l’utiliser sans exposer vos clients à des risques juridiques et sans violer le RGPD. Chez Houjo, nous constatons que c’est l’une des questions les plus fréquentes des coachs et thérapeutes en 2026 : comment concilier productivité avec la confidentialité des données sensibles de leurs clients ?
Cet article vous donne les réponses claires et les bonnes pratiques pour utiliser l’IA de manière sécurisée et conforme.
Pourquoi cette question est cruciale pour vous
Vous êtes thérapeute, coach ou praticien du bien-être. Vous manipulez des données extrêmement sensibles : l’historique émotionnel de vos clients, leurs situations familiales, leurs secrets, parfois même leurs problèmes de santé.
Ces données ne sont pas banales.
Elles sont protégées par le RGPD et elles constituent votre responsabilité majeure.
En même temps, l’IA peut vous faire gagner énormément de temps. Elle peut vous aider à :
- rédiger rapidement un résumé de séance,
- structurer un accompagnement long,
- préparer des ressources pédagogiques,
- automatiser votre administratif,
- améliorer votre communication.
Le problème : beaucoup de coachs et thérapeutes partagent leurs données clients dans ChatGPT sans réfléchir aux conséquences. Ils pensent à tort que c’est sans danger, que « l’IA oublie » ou que « c’est juste du texte ». C’est faux. Et cela peut vous coûter très cher : amende CNIL, perte de clients, destruction de votre réputation.
Chez Houjo, nous avons accompagné des dizaines de praticiens qui ont découvert trop tard qu’ils n’étaient pas en conformité. Notre objectif ici est simple : vous donner les clés pour utiliser l’IA intelligemment, sans prendre de risques inutiles.
ChatGPT, Perplexity, Claude : pouvez-vous vraiment y partager les données de vos clients ?
C’est la question centrale. Et la réponse dépend de ce que vous entendez par « partager ».
Partager des données identifiantes dans ChatGPT public ?
Si vous tapez dans ChatGPT : « Ma cliente Sarah, 35 ans, mariée, vivant à Paris, souffre de dépression depuis 2 ans. Elle envisage de quitter son mari… », vous venez de faire entrer des données personnelles dans un système américain, hébergé chez OpenAI, qui les utilise partiellement pour l’entraînement de ses modèles.
C’est une violation claire du RGPD.
Pourquoi ? Parce que vous avez partagé des données personnelles avec un tiers (OpenAI) sans base légale claire, OpenAI est une entreprise américaine soumise au Patriot Act (lois de surveillance américaines), vous n’avez pas informé votre client que ses données seraient traitées par une IA, vous n’avez pas son consentement explicite pour cela. Le risque : amende CNIL jusqu’à 10 millions d’euros ou 2% du chiffre d’affaires annuel mondial.
Partager des données anonymisées ?
Si vous enlevez le nom, la date de naissance et la ville, est-ce « anonyme » ?
Légalement, l’anonymisation doit être irréversible et impossible à reconstituer. Or, un nombre de données combinées peuvent suffire à reconstituer l’identité : « femme, 35 ans, thérapeute à Paris, histoire familiale spécifique » = identifiable.
Exemple concret : vous écrivez « Mon client pratique l’équitation depuis l’enfance, a grandi en Dordogne, a deux enfants en école privée et suit un traitement pour l’anxiété« . Même sans nom, cela peut suffire à identifier quelqu’un si quelqu’un a accès au contexte. C’est du quasi-anonyme, pas du vrai anonyme.
La ligne de sécurité : ne partager rien qui pourrait, même combiné avec d’autres informations, permettre de reconstituer l’identité ou les données sensibles.
Utiliser une version privée de l’IA ?
Certains outils proposent des versions « privées » : ChatGPT Enterprise, Claude API avec stockage privé, ou des IA auto-hébergées.
Dans ces cas, vos données ne sont pas utilisées pour l’entraînement, elles restent dans un serveur sécurisé et chiffré, vous avez un contrat de traitement des données avec le prestataire.
C’est plus sûr. Mais cela coûte de l’argent et suppose quoi qu’il en soit d’obtenir le consentement de votre client ou d’anonymiser ses données.
Les vrais risques RGPD avec l’intelligence artificielle
Soyons concrets. Si vous utilisez mal l’IA avec les données de vos clients, voici les risques réels :
Risque 1 : Violation du droit à la confidentialité
Le RGPD impose que les données personnelles soient traitées de manière sécurisée et confidentielle. Partager des données clients avec une IA sans consentement du client et/ou sans anonymisation, c’est violer ce droit fondamental. Vos clients vous font confiance. Ils supposent que ce qu’ils vous disent reste entre vous. En les partageant dans ChatGPT, vous brisez ce contrat implicite. Conséquence légale : amende, mais aussi procédure en responsabilité civile de vos clients, perte de clients massifs si cela s’ébruite.
Risque 2 : Absence de base légale
Pour traiter des données personnelles, vous avez besoin d’une « base légale ». Pour vos clients, c’est généralement le contrat/les CGV ou le consentement explicite.
Il est donc indispensable de poser, avec vos clients, un cadre de vente clair et transparent, qui mentionne, le cas échéant, l’utilisation de l’IA.
Risque 3 : Impossibilité de respecter les droits des clients
Le RGPD donne à vos clients le droit d’accès (connaître les données), de rectification (corriger si faux), de suppression (faire effacer).
Si leurs données sont dans une IA, pouvez-vous les faire effacer ? Probablement pas facilement. Vous vous exposez à une plainte pour non-respect des droits des personnes.
Risque 4 : Hallucinations de l’IA = données fausses
L’IA fait des erreurs. Elle peut inventer des détails, mélanger des informations, ou créer des analyses inexactes sur vos clients. Si vous vous fiez à ces données pour prendre des décisions et que c’est basé sur une hallucination de l’IA, vous pouvez être responsable des conséquences. Vos clients pourraient vous poursuivre pour préjudice.
5 cas pratiques réels : erreurs à éviter absolument
Cas 1 : Le coach qui utilise ChatGPT gratuit pour rédiger les synthèses de séance
Un coach utilise ChatGPT gratuit pour mettre en forme ses notes de séance. Il y rentre : « Mon client Laurent, 38 ans, consultant en IT, situation financière précaire, vient de perdre son job. Angoisse majeure. J’aimerais structurer mon accompagnement pour les 3 prochains mois. »
Problème : Laurent est parfaitement identifiable. Ses données sont chez OpenAI. Si elles sont utilisées pour l’entraînement (ce qui est possible avec ChatGPT gratuit), Laurent pourrait retrouver sa situation dans les réponses de ChatGPT pour d’autres utilisateurs.
Solution : utiliser Claude API avec stockage privé, ou vraiment anonymiser (aucun détail identifiant).
Cas 2 : La thérapeute qui utilise Perplexity pour des recherches sans anonymiser
Une thérapeute cherche des infos sur une nouvelle approche thérapeutique. Elle utilise Perplexity et y rentre : « Mon client a un problème d’attachement lié à son enfance. Il a une phobie des araignées depuis qu’il a été traumatisé à 5 ans. Comment traiter ça avec l’EMDR ? ».
Problème : même sans nom, suffisamment de détails pour reconstituer le client si quelqu’un a accès au contexte. Et ses données sont stockées sur les serveurs de Perplexity.
Solution : poser la question en termes génériques (« Comment traiter une phobie d’araignées liée au trauma enfance avec l’EMDR ? ») sans lier au client.
Cas 3 : L’utilisation d’IA sans mise à jour du contrat
Un praticien utilise l’IA pour tous ses accompagnements mais n’a rien dit à ses clients dans son contrat. Les clients découvrent : « Comment se fait-il que vous ayez utilisé l’IA pour analyser ma séance ? Je n’ai jamais signé pour ça. »
Problème : absence de base légale. Le client peut demander des dommages. Cela peut briser la confiance et votre réputation.
Solution : mettre à jour les contrats AVANT d’utiliser l’IA. Une phrase simple suffit : « J’utilise des outils IA pour améliorer mon accompagnement. Vous pouvez refuser. »
Cas 4 : Partager un compte ChatGPT entre plusieurs praticiens
Deux thérapeutes partagent un compte ChatGPT pour économiser. L’une d’elles utilise le compte pour partager les données d’une cliente. L’autre utilisatrice (ou OpenAI) peut y accéder.
Problème : vous avez perdu le contrôle sur qui accède aux données. Violation claire du RGPD et de la confidentialité.
Solution : chacun son compte, avec authentification forte. Ne jamais partager d’accès.
Cas 5 : L’IA qui hallucine et vous êtes responsable
Un coach demande à une IA : « Ce client montre ces symptômes, à quoi peut-il souffrir ? » et il donne les réponses au client sans vérifier. L’IA invente une analyse inexacte. Le client reçoit un mauvais conseil basé sur l’hallucination.
Problème : vous êtes responsable des conseils, même s’ils viennent d’une IA. Si le client subit un préjudice, vous pouvez être poursuivi. L’IA n’est pas votre superviseur.
Solution : l’IA vous aide à réfléchir, pas à décider. Vous êtes le professionnel. Validez toujours ce que l’IA propose avant de l’utiliser avec vos clients.
Check-list complète : utiliser l’IA de façon conforme
Voici comment faire. C’est faisable, simple, mais il faut être méthodique.
1. Évaluer avant de déployer
Avant d’utiliser n’importe quelle IA, posez-vous ces questions :
- Quelles données vais-je partager ? (identité, données sensibles, historique ?),
- Où ces données vont-elles aller ? (serveur américain ? Hébergement français ?),
- Qui y a accès ? (OpenAI ? Google ? Mon prestataire cloud ?),
- Quel est le bénéfice pour mon client ? (vraiment utile ou juste pour moi ?),
- Quel est le risque si ces données fuitent ? (très grave si données sensibles).
Si le risque est élevé, n’utilisez pas cette IA. Cherchez une alternative.
2. Mettre à jour votre contrat et votre politique de confidentialité
Vos clients doivent savoir que vous utilisez l’IA. Ajoutez une clause claire dans votre contrat/CGV ou votre politique de confidentialité qui dit : « J’utilise les outils suivants : ChatGPT (version entreprise), Claude pour préparer nos séances », « Ces données sont envoyées à ces serveurs [lieu géographique] », « Ces données ne sont pas utilisées pour l’entraînement de l’IA », « Vous avez le droit de refuser qu’IA soit utilisée pour votre accompagnement ».
Exemple de clause : « Pour améliorer la qualité de mon accompagnement, j’utilise des outils d’intelligence artificielle. Ces outils ne stockent pas vos données de manière permanente et ne les utilisent pas pour l’entraînement. Vous pouvez demander à tout moment à ne pas utiliser ces outils. »
3. Utiliser les bonnes IA, avec les bons paramètres
Hiérarchie de sécurité (du plus sûr au moins sûr) :
Très sûr : IA privée / auto-hébergée. Vous avez contrôle total. Exemples : Claude API avec stockage privé, IA open-source auto-hébergée. Investissement : 100-500€/mois. Parfait pour : traitement régulier de données sensibles.
Sûr : IA entreprise avec contrat. ChatGPT Enterprise, Google Workspace IA. Les données ne sont pas utilisées pour l’entraînement. Il y a un contrat de traitement des données. Investissement : 50-100€/mois supplémentaires. Parfait pour : praticiens sérieux qui veulent la tranquillité.
Risqué : IA publique gratuite avec données anonymisées. ChatGPT gratuit, mais avec données ultra-anonymisées. Vous devez enlever absolument tout : noms, dates, lieux, métier du client. Impossible d’identifier quelqu’un. Exemple correct : « Une personne traverse une rupture difficile et a peur de la solitude. Comment structurer un accompagnement ? » Exemple incorrect : « Ma cliente Nathalie, 42 ans, graphiste à Toulouse, en rupture depuis 2 mois…« . Parfait pour : demandes génériques, pas spécifiques au client.
Interdit : partager les données réelles d’un client.
4. Informer et proposer le choix aux clients
Idéalement, demandez-leur si c’est OK. Une phrase simple : « Je peux utiliser des outils d’IA pour préparer vos séances et structurer notre travail ensemble. Cela vous convient-il ? » Si un client dit non, respectez-le.
6. Gérer les droits des clients (accès, suppression)
Si un client demande : « Je veux accès à toutes les données que vous avez sur moi » ou « Je veux que vous effaciez toutes les données », vous devez pouvoir le faire rapidement.
Foire aux questions : IA et RGPD
Si je supprime mon historique dans ChatGPT, mes données sont-elles vraiment supprimées ?
Partiellement. L’historique visible disparaît, mais OpenAI garde des traces pour des raisons de sécurité. Ce n’est pas une vraie suppression. OpenAI dit qu’il y a une période de rétention, mais personne ne sait exactement quoi. Solution : ne pas envoyer ces données en premier lieu.
Et si j’utilise un VPN pour rendre l’IA « anonyme » ?
Non. Un VPN change votre adresse IP, mais pas les données que vous envoyez. Si vous envoyez « Nathalie, 42 ans, graphiste à Toulouse », c’est identifiant. La VPN ne change rien.
Je dois respecter le RGPD si j’ai moins de 10 clients ?
Oui. Le RGPD s’applique à toutes les tailles d’entreprises. Il n’y a pas de seuil.
Mes clients ont signé un contrat où je peux utiliser « les meilleurs outils ». L’IA rentre dedans ?
Probablement pas suffisamment clair. « Les meilleurs outils » est vague. La CNIL demande de la précision : quels outils, lesquels, où stockées les données. Mettez à jour votre contrat avec des détails concrets.
Je peux utiliser une IA si mes clients donnent un consentement écrit ?
Oui, mais le consentement doit être explicite (pas une case pré-cochée), informé (ils savent exactement ce qu’ils acceptent), libre (ils peuvent refuser sans pénalité), facile à retirer (ils peuvent changer d’avis). Exemple de bon consentement : « Je vous propose d’utiliser Claude (une IA) pour structurer vos notes de séance et améliorer vos accompagnements. Les données ne seront pas utilisées pour l’entraînement. Vous pouvez refuser ou demander que je cesse toute utilisation. »
Vous souhaitez sécuriser votre utilisation de l’IA et rester conforme au RGPD ?
Chez Houjo, nous savons que vous avez mille choses en tête. La conformité RGPD, l’utilisation éthique de l’IA, la protection de la confiance de vos clients… Ce guide vous donne les fondamentaux.
Pour mettre en place les bons outils, nos packs juridiques couvrent aussi cette dimension. L’IA est votre alliée. Elle peut transformer votre efficacité. Mais elle doit rester sous votre contrôle, au service de vos clients, et en conformité avec la loi.
👉 Découvrez les packs juridiques Houjo et sécurisez votre activité avec un cadre juridique clair, simple et adapté aux métiers de l’accompagnement.



