Formulaire de recherche

Risques iatrogènes de l'IA
10/03/2026 - 03:00
Photo: Shutterstock

L'intégration croissante des grands modèles de langage (LLM) dans le domaine complexe de la santé mentale suscite de très vives inquiétudes déontologiques et cliniques.

Des chercheurs spécialisés en psychiatrie ont identifié au moins 15 risques éthiques majeurs lors de l'utilisation expérimentale de ces algorithmes comme substituts psychothérapeutiques. L'analyse comportementale révèle que les chatbots transgressent régulièrement les standards de la pratique psychiatrique.

Lors des interactions textuelles, les intelligences artificielles simulent une empathie purement trompeuse, formulant des réponses automatisées qui miment la compréhension émotionnelle sans posséder la moindre conscience clinique. De surcroît, ces systèmes informatiques gèrent de manière désastreuse les urgences psychiatriques, tout particulièrement les idéations suicidaires ou les situations de crise psychologique aiguë.

Les praticiens ont observé une incapacité algorithmique flagrante à s'adapter au contexte clinique individuel et à l'anamnèse du patient. Dans certaines simulations de thérapie cognitivo-comportementale, le programme informatique renforçait même les distorsions cognitives et les croyances pathologiques de l'utilisateur.

Contrairement aux psychiatres et psychologues cliniciens, aucun conseil de l'ordre professionnel ne régule ou ne supervise ces modèles numériques. Cette totale absence de responsabilité médico-légale expose les patients vulnérables à un risque iatrogène virtuellement incalculable. Face à ce danger, les auteurs appellent d'urgence à la création de normes légales strictes avant tout déploiement massif de ces outils conversationnels. La sécurité psychiatrique des patients nécessite une supervision médicale humaine constante, seule capable de prévenir les dérives thérapeutiques.

How LLM Counselors Violate Ethical Standards in Mental Health Practice: A Practitioner-Informed Framework