Se confier à l’IA, symptôme d’une société en quête d’écoute (Hachem Tyal)
Dans un monde où l’intelligence artificielle s’invite désormais dans les sphères les plus intimes de notre vie, de plus en plus de personnes se confient à des machines pour évoquer leurs émotions, leurs angoisses ou leurs souffrances. Pour le Dʳ Hachem Tyal, psychiatre et président de l’Association marocaine de psychiatrie psychodynamique, cette tendance ne relève pas d’un effet de mode, mais plutôt d’un profond besoin d’adresse et de reconnaissance dans nos sociétés contemporaines.
De plus en plus de personnes se tournent vers l’intelligence artificielle pour parler de leurs problèmes personnels ou émotionnels. Est-ce, selon vous, un effet de mode, le signe d’une solitude croissante ou un véritable changement dans la manière de chercher du soutien ?
Dʳ Hachem Tyal : Je ne crois pas que ce soit un simple effet de mode. C’est un phénomène plus profond, qui révèle à la fois une mutation du lien social et une transformation du rapport à l’intime. Beaucoup de personnes trouvent dans l’intelligence artificielle (IA) une disponibilité totale, sans jugement ni attente de réciprocité. Dans une époque marquée par la précipitation et l’individualisme, cet espace virtuel agit comme un refuge. Mais, d’un point de vue psychodynamique, cela dit aussi quelque chose de notre solitude contemporaine : le sujet cherche un autre à qui s’adresser, fût-il artificiel. L’IA devient parfois ce tiers symbolique minimal quand le monde humain paraît trop bruyant ou trop distant. C’est donc moins un engouement technologique qu’un symptôme culturel : celui d’un besoin urgent d’écoute.
Certaines IA proposent des conseils, voire «diagnostiquent» des troubles psychologiques. Comment percevez-vous cela en tant que psychiatre ?
C’est une confusion de registres. Une intelligence artificielle peut repérer des corrélations, analyser des mots, proposer des pistes psychoéducatives. Mais elle n’a pas d’inconscient, pas de subjectivité, pas de responsabilité clinique. Le soin psychique repose sur la rencontre, sur la relation transférentielle et sur la singularité de la parole. Une machine peut simuler l’écoute, mais pas accueillir le non-dit. Je vois donc l’IA comme un outil, non comme un thérapeute. Elle peut accompagner, informer, préparer le terrain, mais jamais se substituer à la clinique humaine.
Lire aussi : Frais Universitaires Imposés Aux Fonctionnaires : La Polémique Secoue L’enseignement Supérieur
Ils sont multiples et parfois insidieux. Il y a d’abord le risque de dépendance affective : certaines personnes se sentent comprises par la machine et y trouvent une forme d’attachement. Ensuite, la confusion entre empathie simulée et empathie réelle : le langage naturel de l’IA peut donner l’illusion d’une présence, alors qu’il s’agit d’un miroir algorithmique. S’ajoute la question du leurre relationnel et de la vie privée : se confier à un système, c’est aussi livrer ses données les plus intimes à des logiques économiques. Mais le danger le plus profond, c’est peut-être la désubjectivation : parler sans être réellement entendu, c’est risquer de vider la parole de sa fonction symbolique. Une parole sans adresse véritable peut devenir un simple bruit intérieur.
Dans le monde du travail, l’IA suscite à la fois enthousiasme et inquiétude. Est-elle source de stress ou de soulagement ?
Les deux. Pour certains, l’IA est un facteur de soulagement, un allié pour alléger la charge mentale et automatiser des tâches répétitives. Mais elle peut aussi devenir un miroir angoissant : celui d’une performance inhumaine, d’une perfection qui menace le sentiment de compétence. Sur le plan psychique, elle questionne le narcissisme professionnel. Beaucoup se demandent : «À quoi je sers encore si la machine peut le faire ?» C’est pourquoi je plaide pour une éthique de l’usage, pas de la substitution. L’IA doit être un co-pilote réflexif, pas un instrument d’auto-dévalorisation.
Comment encadrer ces nouvelles interactions, psychologiquement et éthiquement ?
Il faut d’abord replacer l’humain au centre. Cela passe par des cadres de supervision, une transparence absolue sur l’usage des données et une éducation psychique au numérique : apprendre à se servir de l’IA sans s’y aliéner. Je défends trois principes simples : transparence (savoir qu’on parle à une machine), limite (aucun diagnostic ni conseil thérapeutique personnalisé sans supervision clinique) et bienfaisance (toujours orienter vers un soin humain en cas de souffrance manifeste). La parole numérique ne remplace pas le soin : elle doit ouvrir vers lui.
L’IA pourrait-elle devenir un outil utile en psychothérapie ?
Un outil utile en psychothérapie, pourquoi pas ? Mais si, et seulement si, elle est pensée dans le cadre du soin, pas en dehors de lui. L’IA peut ainsi aider à la psychoéducation, au suivi entre les séances, à l’auto-observation ou à la prévention des rechutes. Mais la thérapie, le travail psychologique, eux, reposent sur la présence vivante, sur la relation transférentielle et la rencontre de deux subjectivités, quelle que soit l’approche psychothérapique utilisée. La machine peut accompagner la réflexion, rappeler un exercice, aider à structurer une séance, mais elle ne peut pas symboliser ni s’inscrire dans la relation à l’autre. La parole humaine reste le lieu du soin. L’IA, bien utilisée, peut simplement en être le prolongement, jamais le substitut.
En conclusion, l’IA ne menace pas la psychanalyse, ni la psychothérapie, ni la psychiatrie, à condition qu’on la remette à sa juste place. Elle révèle, en revanche, un immense besoin d’adresse et d’écoute dans nos sociétés. Si elle permet d’amener vers le soin des personnes qui n’auraient jamais franchi le seuil d’un cabinet, alors elle devient un pont, et non un piège. Mais il faut qu’un jour, derrière la machine, quelqu’un réponde vraiment.
Découvrir davantage...
- Rejoignez notre page Facebook
- Suivez-nous sur linkedin
- Découvrez toute l'actualité des études supérieures et de la formation professionnelle
Mots Clés :
intelligence artificielle | santé mentale | écoute | psychiatrie | éthique | dépendance | outil | humanité