Il est aujourd’hui banal de dire que l’Intelligence Artificielle est devenue omniprésente dans notre société. Depuis quelques années, le grand public s’est saisi de l’utilisation des LLM (Large Language Model), ces intelligences artificielles capables de générer du texte, comme ChatGPT ou Gemini, pour créer du contenu.
Parallèlement, les entreprises se sont emparées de ces outils pour automatiser leurs processus et gagner en efficacité. Mais cette utilisation n’est pas sans poser certains questionnements en termes de confidentialité, d’éthique ou encore de responsabilités. Ces questions deviennent aujourd’hui cruciales.
L’éthique désigne la réflexion sur les valeurs et les principes qui guident nos actions, au-delà du simple respect de la loi. Dans le domaine du soin, elle constitue un questionnement permanent sur la valeur et les conditions d’exercice de la pratique : comment agir au mieux, dans le respect de la personne, de sa dignité et de son autonomie. Comment penser un usage éthique de l’IA ?
Table des matières
Apprentissage et protection de la vie privée
L’Intelligence Artificielle est aujourd’hui au cœur des processus et applications médicales, notamment de santé mentale. Pour cela, ces IA ont dû être entraînées en deep learning (apprentissage profond par réseaux neuronaux artificiels) sur des données médicales spécifiques, en plus de leur apprentissage de base. Parmi ces données se trouvent des informations de santé dont elles se font le reflet plus ou moins fidèle.
Cet aspect pose d’ores et déjà un problème en termes de confidentialité : Les données de santé sont reconnues par la loi (RGPD art. 9, Code de la santé publique art. L1110-4, CNIL) comme des données sensibles et strictement confidentielles. Elles ne devraient pas être utilisées en entrainement sans le consentement des patients, et encore moins exploitées à des fins mercantiles. On a ainsi pu voir la société BetterHelp, éditrice d’une application de santé mentale, écoper d’une amende de 7,8 millions de dollars pour avoir revendu des données sensibles.
En tant que clinicien, je sais que la confidentialité du discours est au cœur du processus de soin. Un manque de confiance dans un dispositif impacte donc considérablement l’hypothétique effet thérapeutique de l’outil.
Les propositions d’entrainement des modèles d’IA à partir de publications issues des réseaux sociaux posent également un problème de consentement, les utilisateurs ayant à priori conscience du caractère public des textes diffusés, mais pas forcément de ce type d’exploitation de données.
A l’inverse, à titre d’exemple, la société française My Family Up a développé sa propre application d’IA, et a choisi d’entrainer ses modèles sur des données exclusivement produites par des professionnels de santé pour l’entrainement de l’outil, dans un souci de confidentialité et de fiabilité.
Explicabilité & transparence
Une utilisation éthique de l’IA suppose de rendre les algorithmes explicables en termes de fonctionnement, pour définir clairement les causes et responsabilités en cas de problèmes. Rappelons qu’à ce jour, une IA n’a pas d’existence légale ni de statut juridique autonome. Certaines propositions avaient envisagé en 2017 la création d’une « personnalité électronique », mais elles ont été abandonnées. De ce fait, qui est responsable en cas de dommages : le développeur, l’éditeur, ou l’utilisateur ?
Citons notamment les risques d’« hallucinations » de ces outils, c’est-à-dire lorsqu’ils produisent des réponses inexactes ou mal construites. Le terme est cependant contesté, donnant une dimension anthropomorphique à un outil qui produit une erreur technique, qui peut avoir des conséquences désastreuses sur les personnes en souffrance psychique.
Nous venons d’en avoir malheureusement l’illustration avec la mort d’un jeune américain de 16 ans qui aurait, selon les parents, suivi les conseils de ChatGPT. Open IA a réagi en précisant qu’un contrôle parental sera bientôt intégré dans l’outil.
Équité et justice sociale : les biais et SDOH
Par ailleurs, les données de santé ne reflètent pas la réalité de façon objective. Ainsi, les déterminants sociaux de la santé (SDOH – Social Determinants Of Health) désignent les conditions sociales, économiques et environnementales dans lesquelles les individus vivent. Ils représentent 80 % des résultats modifiables en santé. Par exemple, dans certaines cultures, le recours à un professionnel de santé mentale est beaucoup moins accepté socialement que dans d’autres groupe, ce à quoi s’ajoute d’autres facteurs comme la barrière de la langue (source 1, 2 et 3). De ce fait, les statistiques indiquent que ces personnes vivant dans des contextes de précarité sociale, économique ou culturelle reçoivent factuellement moins de diagnostics. Ce qui entraîne par conséquent un accès réduit aux psychothérapies ou aux traitements médicamenteux, sans que ces chiffres tiennent compte des déterminants sociaux.
De plus, la stigmatisation liée aux troubles mentaux accentue ce phénomène : elle réduit le sentiment d’appartenance et favorise la crainte d’être perçu uniquement à travers un stéréotype négatif. Cette menace identitaire conduit souvent à l’évitement des soins, amplifiant les inégalités. Les modèles entrainés sur ces données biaisées reproduisent donc ces biais, et vont donc potentiellement jusqu’à amplifier les stéréotypes, rejet et discriminations qui en résultent.
Ajoutons également que certains outils peuvent nécessiter du matériel récent (ordinateur ou smartphone connecté en fibre optique ou 5G), ce qui peut exclure les plus précaires et amplifier la fracture.
L’humain aux commandes …
Pour éviter les préjudices, l’Intelligence Artificielle doit être une aide au professionnel de santé mentale, et ne doit en aucun cas s’y substituer. La participation active de l’humain à toutes les étapes de la chaîne de conception et utilisation, appelée « Human-in-the-loop (HITL) » est donc indispensable.
Le cadre européen Responsible Research and Innovation (RRI) propose le modèle AREA (Anticipate, Reflect, Engage, Act) : en anticipant les impacts potentiels et les conséquences imprévues (Anticipate), dans la sélection des données en amont, qui se doit d’être transparente, et basée sur des données diversifiées et représentatives.
La présence d’éthique au niveau humain sera indispensable pendant le processus d’élaboration des outils : les chercheurs devront naturellement se former à une utilisation éthique de ces outils (Reflection), des éthiciens pourraient faire partie du processus de développement (Engage), qui devra être évalué et ajusté (Act) tout au long de ces étapes, jusqu’à la validation finale du contenu.
Enfin, des comités d’éthique spécialisés dans l’IA en santé, déjà existants, pourraient jouer un rôle accru dans la régulation et l’accompagnement de ces pratiques.
… aidé par les outils
D’un point de vue technique, l’élaboration d’algorithmes de débiaisage qui peuvent compenser en corrigeant, du moins partiellement, ces biais. Un outil comme The Box, une checklist interactive créée par l’AI Ethics Lab (2020), a été conçu comme un élément de réflexion sur la dimension éthique des produits. The Box propose les catégories d’autonomie, de bienfait et de justice comme critères d’évaluation éthiques.

Politique et gouvernance
Mais plus qu’au niveau de l’utilisateur individuel, ces questions pourraient être envisagées au niveau international. Certes, des cadres juridiques existent déjà : l’AI Act européen, le NIST AI Risk Management Framework américain, ou encore l’AI Governance Framework de Singapour. Mais ils demeurent cependant insuffisants et morcelés. Des régulations plus solides, et idéalement standardisées, sont nécessaires pour accompagner à la fois les professionnels de santé et les entreprises.
Enfin, cette réflexion commune pourrait inclure une dimension écologique, ces systèmes étant réputés comme excessivement énergivores.
En conclusion, l’Intelligence Artificielle ne pourra être un outil responsable et véritablement pertinent en santé mentale qu’à condition d’être une aide transparente pour le professionnel, non un substitut, et encadrée par une réflexion éthique poussée, notamment en termes d’équité et de vie privée.