Cliniques, cabinets médicaux, laboratoires, structures médico-sociales, e-santé : l'IA générative s'invite dans la prise de notes, la rédaction de courriers, l'aide au diagnostic, le tri administratif. Mais le secret médical, l'HDS, le RGPD article 9 et l'AI Act imposent un cadre strict que peu de structures ont formalisé. Wavoo accompagne les professionnels et structures de santé.
La santé est l'un des secteurs où l'AI Act est le plus contraignant : la majorité des systèmes d'IA en environnement médical sont qualifiés à haut risque. Mais avant même les usages cliniques, c'est l'usage administratif quotidien qui pose problème.
Quatre corpus se cumulent dans le secteur santé :
1. L'AI Act (UE 2024/1689) — Tous les systèmes d'IA destinés à l'usage médical (diagnostic, triage, aide à la décision) sont qualifiés à haut risque (annexe III). Obligations renforcées : système de gestion des risques, qualité des données, supervision humaine, transparence, robustesse, journal de fonctionnement. Article 4 sur la littératie applicable depuis février 2025.
2. La certification HDS — Toute donnée de santé à caractère personnel doit être hébergée chez un prestataire certifié HDS. ChatGPT, Claude ou Gemini grand public ne sont pas HDS. L'usage de ces outils avec des données patient identifiantes constitue une violation directe.
3. Le RGPD (article 9) — Les données de santé sont des données sensibles, leur traitement est encadré strictement. Une analyse d'impact (AIPD) est généralement obligatoire.
4. Le secret médical et la déontologie — Code de déontologie médicale, code de la santé publique, ordres professionnels. Les ordres (CNOM, CNOP, CNOI...) ont publié des recommandations sur l'IA générative qui rappellent la responsabilité pleine et entière du professionnel.
Notre approche est calibrée pour les cabinets médicaux, cliniques, laboratoires, EHPAD et structures e-santé.
Cartographie des outils déployés, articulation HDS / RGPD / AI Act, audit du shadow IA.
Charte d'usage, listes blanches/noires, formation littératie article 4 adaptée aux soignants et au personnel administratif.
Validation des nouveaux outils, articulation avec DPO et qualité, gestion d'incident, veille réglementaire.
Pas avec des données patient identifiantes, et pas dans la version grand public. Les conditions d'usage permettent à OpenAI d'utiliser les saisies pour entraîner ses modèles, et l'hébergement n'est pas HDS. Pour cet usage, il faut soit anonymiser strictement, soit utiliser un outil HDS dédié.
Oui. L'AI Act ne fait pas de seuil d'effectif. Dès qu'un professionnel de santé utilise un outil d'IA dans son exercice, il est déployeur et doit assurer sa propre littératie ainsi que celle de ses éventuels collaborateurs.
Le Conseil national de l'Ordre des médecins a publié plusieurs avis qui rappellent que le médecin reste pleinement responsable de toute décision médicale, que l'IA ne se substitue pas au jugement clinique, et que l'usage doit respecter le secret médical et l'information du patient.
Oui, lorsque l'usage de l'IA a un impact sur la prise en charge ou sur les données traitées. C'est à la fois une obligation déontologique, RGPD et AI Act (transparence).
Le référent IA travaille en coordination avec le DPO et le RSSI. Wavoo apporte la couche AI Act et la formation littératie, en s'articulant avec les fonctions existantes plutôt qu'en doublonnant.
30 minutes pour faire le point sur vos pratiques actuelles et identifier les priorités HDS, RGPD et AI Act.
Réserver un appel