Catégories
actualités pratiques

De plus en plus d’élèves utilisent ChatGPT comme soutien psychologique

L’usage exponentiel de robots conversationnels par les jeunes, et en particulier à des fins thérapeutiques, interroge à la fois les limites éthiques de l’IA et les carences persistantes en matière d’accompagnement psychologique. Ces derniers temps, plusieurs cas de suicides de jeunes ont défrayé la chronique car les enquêtes ont démontré que leurs discussions avec des robots les avaient poussés à passer à l’acte.

De quoi parle-t-on ?

Créés dans les années 70, ces robots capable de converser n’étaient pas aussi loquaces qu’aujourd’hui. Le fantasme d’une machine capable d’éprouver une empathie humaine, grâce à l’intelligence artificielle, n’a jamais quitté les chercheurs.

Depuis le début des années 2020, l’explosion des services gratuits ou payants de «grands modèles de langage» (large langage models, dits LLM) a forcé sa banalisation, et ils font partie de quotidien de beaucoup de personnes désormais. Aide à la rédaction de courriels, idées de recettes à partir d’une simple photo du contenu du réfrigérateur, planification des prochaines vacances… les possibilités ne sont limitées que par l’imagination de l’utilisateur. Au lieu de se rendre sur un moteur de recherche, le réflexe d’ouvrir son application de ChatGPT, s’est vite ancré dans les habitudes.

Pourquoi la santé mentale ?

Nombreux sont les jeunes qui échangent quotidiennement avec le célèbre agent conversationnel pour régler les petits tracas, et pas seulement pour faire les devoirs.

La plus grande sensibilisation aux problématiques de santé mentale, ainsi que l’augmentation des difficultés d’ordre psychiques exprimées par la jeunesse, se sont confrontés à la réalité de l’accès aux soins. Les difficultés à obtenir un suivi ont pu pousser certains à élargir leur utilisation de l’IA, à d’autres fins que simplement pratiques.

Depuis 2022, la plateforme américaine Character.ai permet notamment de dialoguer avec divers agents conversationnels, parmi lesquels Psychologist, décrit comme « quelqu’un qui vous aide face aux difficultés de la vie » et qui rencontre un succès retentissant.

Et le phénomène est amplifié par sa visibilité sur les réseaux sociaux : les vidéos TikTok pullulent, mettant en avant l’utilisation de l’intelligence artificielle pour le développement personnel et le soutien moral.

Et pour l’infirmière scolaire ?

Les risques sont évidents : en l’absence d’un encadrement professionnel et d’une écoute humaine qualifiée, ces outils, bien que séduisants par leur accessibilité, peuvent aggraver l’isolement des jeunes, banaliser des souffrances nécessitant une prise en charge adaptée, voire, dans les cas les plus extrêmes, orienter vers des conseils inappropriés ou dangereux. Les infirmières scolaires, souvent en première ligne pour repérer les signes de détresse, se retrouvent ainsi confrontées à un double défi : rivaliser avec l’attrait immédiat de ces robots tout en comblant les lacunes d’un système de santé mentale déjà saturé.

Jusqu’où accepter que des algorithmes, conçus pour simuler l’empathie, se substituent à des relations humaines essentielles ? La réponse ne réside certainement pas dans le perfectionnement des machines, mais dans notre capacité collective à maintenir un filet de sécurité psychologique. L’enjeu n’est pas technologique, il est profondément humain.

Par Alexandre Faure-Maury

Infirmier de l'Éducation nationale depuis plus de 10 ans, sur divers types de postes et aujourd'hui en inter-degrés.