2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0
2.14.0.0






đ€Â L’IA s’invite dans nos soins. Ătes-vous prĂȘts ?đ€Â
65 % des Ă©tablissements utilisent dĂ©jĂ l’IA en production (FHF, juil 25). Elle est lĂ visible ou non.
La question n’est plus « faut-il s’y mettre ? » mais « comment la maĂźtriser ? »
Un point mĂ©connu : âïžÂ La responsabilitĂ© du professionnel reste entiĂšre, mĂȘme si un SIA est impliquĂ© dans la dĂ©cision.
Aucun rĂ©gime juridique spĂ©cifique n’existe encore. C’est le droit commun qui s’applique.
đ Ce que le guide Haute AutoritĂ© de SantĂ©/ CNIL (fĂ©vr 26) pose comme socle :
đ·Â Gouvernance dâabord : Toute structure doit organiser une gouvernance de l’IA : cartographie des outils, rĂ©fĂ©rent identifiĂ©, validation avant dĂ©ploiement. Pas une formalitĂ© : une obligation de maĂźtrise.
đ·Â Formation obligatoire : La notice d’utilisation seule ne suffit pas. Le rĂšglement europĂ©en sur l’IA exige explicitement : tout utilisateur doit disposer d’un niveau suffisant de connaissances.
đ· ContrĂŽle humain non optionnel : Toute dĂ©cision mĂ©dicale assistĂ©e par IA doit faire l’objet d’une supervision humaine active et tracĂ©e. Le professionnel prĂ©sent lors de l’acte reste le seul lĂ©gitime Ă valider.
đ·Â Informer le patient, une obligation lĂ©gale : DĂšs lors quâun DM intĂ©grant de l’IA est utilisĂ©, le patient doit en ĂȘtre informĂ© (L. 4001-3 CSP) : mention dans le livret d’accueil, phrase dĂ©diĂ©e dans le compte-rendu, information exhaustive pour les SIA Ă fort impact.
đ·Â TraçabilitĂ© et vigilance dans la durĂ©e : Conserver la notice, journaliser les usages, signaler les incidents: câest dĂ©sormais la conformitĂ©, pas de la bonne volontĂ©.
đ„ Et la certification Haute AutoritĂ© de SantĂ© ?
La V2025 intĂšgre 2 critĂšres dĂ©diĂ©s Ă l’IA.
Cela signifie que les EV pourront interroger les équipes sur :
â L’existence d’une gouvernance IA structurĂ©e
â La cartographie des SIA dĂ©ployĂ©s et leur niveau de risque
â Les formations dispensĂ©es aux professionnels utilisateurs
â Les modalitĂ©s de supervision humaine et leur traçabilitĂ©
â L’information dĂ©livrĂ©e aux patients sur l’usage de l’IA dans leur parcours
Ce n’est plus un sujet rĂ©servĂ© Ă la DSI.
C’est un enjeu qualitĂ© transversal qui concerne toutes les Ă©quipes, les fonctions supports, le DPO, la qualitĂ© et la CDU.Â
đŹÂ Ce guide Haute AutoritĂ© de SantĂ©/ CNIL est en consultation publique.Â
Il s’adresse Ă tous : tĂ©lĂ©chargement
L’IA ne remplace pas le jugement clinique.
Ignorer son cadre d’usage, c’est s’exposer juridiquement, Ă©thiquement, et sĂ©curitairement.
đ Ăchangeons.
LBDA = Former, Accompagner, Soutenir
[Transmettre, Ă©changer, partager nos expĂ©riences, Ă©laborer des plans d’actions, trouver des solutions en adĂ©quation avec vos pratiques]
LBDA :Â La Boite dâAssemblage