PandIA

Travailleurs de la santé mentale en Californie en lutte pour encadrer l’IA

Travailleurs de la santé mentale en Californie en lutte pour encadrer l’IA

Une armée de psychologues et de thérapeutes face à des algorithmes. En Californie, la bataille autour de l’intelligence artificielle ne se joue plus seulement dans les labos ou les start-up, mais directement dans les cabinets de consultation, là où se traitent anxiété, dépression et traumatismes.

2 400 soignants en grève : quand l’IA devient un motif de conflit social

Plus de 2 400 professionnels de santé mentale du nord de la Californie – psychologues, thérapeutes, travailleurs sociaux, conseillers – se sont mis en grève début janvier contre le géant médical Kaiser Permanente, l’un des plus puissants systèmes de santé intégrés des États-Unis, avec plus de 12 millions de membres et un chiffre d’affaires annuel qui dépassait les 100 milliards de dollars ces dernières années.

Officiellement, le conflit porte sur les conditions de travail, les salaires et le manque chronique de personnel. Mais un point cristallise les tensions : la volonté de Kaiser d’introduire massivement l’intelligence artificielle dans le parcours de soins en santé mentale, au risque – selon les grévistes – de remplacer progressivement l’accompagnement humain par des outils automatisés.

Pour ces professionnels, l’enjeu dépasse largement une simple question d’organisation interne : il s’agit de redéfinir les frontières de ce qui peut, ou non, être délégué à des systèmes algorithmiques dans le traitement de la souffrance psychique.

Kaiser veut faire de l’IA un pilier du soin mental

Une stratégie assumée d’automatisation

Kaiser Permanente n’a jamais caché ses ambitions en matière de santé numérique. L’organisation investit depuis des années dans la télémédecine, les applications mobiles de suivi, les chatbots de santé et l’analyse automatisée de données cliniques. La santé mentale est désormais au cœur de cette stratégie.

Les dispositifs évoqués par les syndicats et les soignants incluent :

- des outils de tri (triage) automatisé, qui orientent les patients vers des ressources numériques avant tout contact avec un humain ;

- des applications de thérapie numérique basées sur la thérapie cognitivo-comportementale (TCC), proposées en auto-usage ;

- des assistants conversationnels alimentés par des modèles de langage pour le soutien émotionnel de premier niveau ;

- des systèmes d’analyse de données et de prédiction de risque suicidaire ou de rechute, à partir de dossiers médicaux électroniques et d’interactions en ligne.

Sur le papier, ces technologies promettent de réduire les délais d’attente, d’augmenter la capacité de prise en charge et d’offrir une forme de soutien 24h/24. Dans un contexte où, aux États-Unis, près de 1 adulte sur 5 souffrirait d’un trouble de santé mentale chaque année, et où les psychiatres et psychologues manquent cruellement, l’argument de la technologie comme levier d’accès aux soins est puissant.

Le soupçon de substitut low-cost

Pour les grévistes, le discours officiel masque une autre logique : la réduction des coûts et la standardisation du soin. Un thérapeute humain formé, syndiqué, expérimenté représente une charge salariale significative. Un outil d’IA, une fois développé et déployé, coûte marginalement beaucoup moins cher.

Le craintes des soignants se concentrent sur plusieurs points :

- Que l’IA serve à justifier une stagnation voire une baisse des embauches, en présentant les outils numériques comme compensation du manque de personnel.

- Que les patients, notamment les plus précaires, soient redirigés vers des solutions automatisées par défaut, tandis que les consultations humaines deviendraient un produit premium.

- Que l’on passe insensiblement d’un modèle IA pour assister les cliniciens à un modèle IA pour remplacer une part croissante du travail clinique.

Autrement dit, la technologie n’est pas rejetée en bloc, mais sa place dans le système de soin devient un terrain de lutte sociale et professionnelle.

Santé mentale et IA : une combinaison à haut risque

La fragilité du contexte clinique

La santé mentale n’est pas une spécialité comme les autres. Les pathologies traitées – dépression, troubles anxieux, psychoses, addictions, stress post-traumatique – impliquent souvent des patients vulnérables, parfois en situation de crise aiguë ou de risque suicidaire.

Confier une partie de cet accompagnement à des systèmes d’IA soulève des questions lourdes :

- Responsabilité : qui est responsable si un chatbot donne une réponse inadaptée à une personne en crise ?

- Biais et discrimination : les modèles d’IA en santé sont déjà documentés comme pouvant sous-estimer les besoins des minorités ethniques ou des populations défavorisées. En santé mentale, ces biais peuvent se traduire par des erreurs de tri ou des prises en charge inadéquates.

- Opacité des algorithmes : dans les systèmes de prédiction de risque, les scores sont souvent difficilement interprétables, y compris par les professionnels. Cela pose un problème éthique pour des décisions aussi sensibles que l’hospitalisation d’office ou la modification d’un traitement.

L’illusion de l’empathie artificielle

Les modèles de langage avancés, capables de produire des réponses fluides, empathiques en apparence, nourrissent une idée dangereuse : celle que l’écoute thérapeutique pourrait être simulée de manière convaincante par une machine.

Or, dans la pratique clinique, la relation thérapeutique repose sur :

- une compréhension fine du contexte biographique du patient ;

- la lecture du non-verbal, des silences, des incohérences de récit ;

- une adaptation dynamique du cadre en fonction de la vulnérabilité du moment ;

- la capacité à évaluer le risque en temps réel et à déclencher, si nécessaire, des réponses d’urgence.

Les professionnels de Kaiser en grève soulignent ce décalage : même une IA extrêmement performante sur le plan linguistique reste dépourvue d’expérience humaine, de responsabilité morale et de présence incarnée. La confusion entre aide numérique et thérapie réelle pourrait, selon eux, induire un faux sentiment de sécurité chez les patients comme chez les décideurs.

En arrière-plan : la bataille syndicale sur le futur du travail

Des protections spécifiques contre l’IA

La grève californienne ne se limite pas à une contestation de principe. Les syndicats de soignants cherchent à inscrire noir sur blanc des protections contre l’usage abusif de l’IA dans les conventions collectives.

Parmi les revendications évoquées dans ce type de conflits émergents :

- l’obligation de consultation des représentants du personnel avant le déploiement d’outils d’IA impactant l’organisation clinique ;

- des clauses de non-substitution, garantissant que l’IA soit utilisée en complément, et non en remplacement, de postes humains ;

- des garanties de formation et de requalification pour les métiers les plus exposés à l’automatisation partielle ;

- la transparence sur les critères et données utilisées par les systèmes décisionnels automatisés.

La Californie, où se concentre une part significative de l’industrie technologique mondiale, devient ainsi un laboratoire avancé de la régulation sociale de l’IA au travail.

Un précédent pour tout le secteur de la santé

Le bras de fer entre Kaiser et les travailleurs de la santé mentale pourrait faire jurisprudence bien au-delà de cet acteur. D’autres grands réseaux hospitaliers et assureurs privés expérimentent eux aussi des :

- systèmes d’aide à la décision clinique ;

- plateformes de téléthérapie à bas coût ;

- programmes de thérapie guidée par IA.

Si les syndicats obtiennent des concessions formelles sur l’encadrement de ces outils, cela pourrait influencer les négociations collectives dans tout le secteur de la santé, aux États-Unis comme ailleurs. À l’inverse, un accord minimaliste laisserait le champ libre à une extension rapide des usages de l’IA, avec un risque de fait accompli.

Au-delà de Kaiser : ce que cette grève dit du rapport entre IA et soin

Cette mobilisation californienne met en lumière un point central : l’IA en santé n’est pas seulement une question de performance technologique ou de conformité réglementaire, mais un enjeu profondément politique et social.

Elle oblige à clarifier plusieurs lignes rouges :

- Quelles dimensions du soin doivent rester intrinsèquement humaines ?

- Quel niveau de contrôle doivent garder les professionnels sur les outils qui orientent leurs décisions ?

- Jusqu’où la logique de réduction des coûts peut-elle s’appliquer dans le traitement de la souffrance psychique ?

À court terme, cette grève pourrait accélérer l’inscription de garde-fous spécifiques à l’IA dans les accords collectifs, voire inspirer des dispositions législatives en Californie, État déjà très actif sur la protection des données et la régulation du numérique.

À moyen terme, l’issue de ce conflit contribuera à définir un modèle : une IA conçue comme augmentation des capacités des cliniciens, ou comme levier d’industrialisation et de rationalisation du soin. Dans la santé mentale, cette distinction n’est pas cosmétique. Elle touche à ce que la société considère comme un soin digne, à la valeur accordée au temps d’écoute, à la relation et à la présence humaine.

L’IA entre dans les cabinets de psychologues. Reste à savoir si elle s’y installera comme outil auxiliaire, sous contrôle des praticiens et au service des patients, ou comme nouvelle couche de management algorithmique imposée au nom de l’optimisation des flux et des coûts. La grève des 2 400 soignants de Kaiser marque l’un des premiers grands affrontements explicites autour de cette question. Elle ne sera vraisemblablement pas le dernier.

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter