C’est un chiffre qui donne le vertige – et dit beaucoup sur notre époque. Le 27 octobre 2025, OpenAI a révélé que plus d’un million d’utilisateurs de ChatGPT évoquent chaque semaine des pensées suicidaires ou une profonde détresse émotionnelle dans leurs conversations avec le chatbot. Plus précisément, la firme de Sam Altman précise que, selon ses estimations, 0,15 % des utilisateurs actifs hebdomadaires de ChatGPT (sur un total de 800 millions de personnes) ont des conversations contenant “des signes explicites de planification ou d’intention suicidaire”.
“Ces conversations restent extrêmement rares, mais leur ampleur devient significative à cette échelle”, reconnaît l’entreprise dans un billet publié sur son blog officiel et intitulé Strengthening ChatGPT’s responses in sensitive conversations (Améliorer les réponses de ChatGPT dans les conversations sensibles). OpenAI y précise aussi que 0,07 % des utilisateurs présentent des signes possibles de psychose ou de manie, tandis que 0,15 % témoignent d’un attachement émotionnel anormalement fort envers le chatbot.
L’IA, nouveau confident des âmes en détresse
Au regard de ces chiffres, force est de constater que l’intelligence artificielle la plus utilisée au monde se retrouve, semaine après semaine, au cœur de milliers de dialogues de crise, souvent à la frontière entre la demande d’aide et l’appel au secours. Un rôle pour lequel elle n’a jamais été pensée, mais qui est devenue une réalité, sans doute faute d’alternative immédiate pour beaucoup d’usagers.
Ce glissement n’a rien d’anecdotique. Depuis son lancement public fin 2022, ChatGPT a quitté la sphère du divertissement pour s’immiscer dans la vie émotionnelle et mentale de ses utilisateurs. Certains y voient un espace d’expression sans jugement, accessible 24 heures sur 24 : une sorte de miroir bienveillant à qui confier l’indicible. Et quand, en août 2025, OpenAI a dévoilé la nouvelle mouture de son IA – ChatGPT 5 – nombre de voix parmi les utilisateurs se sont plaintes d’un ton devenu trop froid. Preuve qu’ils projettent sur l’intelligence artificielle une personnalité… L’anthropomorphisation de l’IA est une réalité.
Quand ChatGPT devient un thérapeute express : 5 minutes pour se sentir mieux
Car cette illusion d’écoute cache un paradoxe : ChatGPT n’éprouve rien, ne comprend rien, ne ressent rien. Ses réponses ne reposent que sur des corrélations statistiques entre des milliards de phrases. Ce qui ne l’empêche pas de donner, parfois, le sentiment d’une présence réconfortante. Et ce, en cinq minutes top chrono.
“Les chatbots conversationnels sont de plus en plus devenus des ‘thérapeutes express’ ou des compagnons sans jugement. Les participants ont apprécié l’anonymat et l’absence de jugement de la part des chatbots”, soulignent les conclusions d’une étude américaine menée par Aditya Naik et son équipe et intitulée “Empathie artificielle : la santé mentale basée sur l’IA”. Une bascule silencieuse, qui questionne notre rapport à la solitude et à la parole.
OpenAI veut essayer de corriger le tir
Face à ces dérives, la société dirigée par Sam Altman se veut proactive. OpenAI affirme avoir formé GPT-5 à mieux reconnaître la détresse, à désamorcer les situations critiques et à rediriger vers des structures de soutien professionnelles. Pour y parvenir, elle dit avoir consulté plus de 170 spécialistes de santé mentale – psychiatres, psychologues, urgentistes – chargés d’évaluer les réponses du modèle dans les cas de crise.
Selon des tests internes, la version la plus récente de ChatGPT aurait atteint 91 % de conformité avec les comportements attendus lors de situations sensibles, contre 77 % seulement pour une précédente mouture sortie à l’été 2025. Le modèle tiendrait aussi mieux la distance : là où les versions antérieures “déraillaient” lors de conversations trop longues, GPT-5 conserverait une stabilité émotionnelle plus constante.
L’ombre des procès et des critiques
Si OpenAI met en avant ses progrès, l’entreprise reste sous pression. Elle fait actuellement face à une procédure judiciaire lancée par les parents d’un adolescent de 16 ans, Adam Raine, s’étant suicidé après avoir confié ses pensées sombres à ChatGPT. Selon la plainte, l’IA aurait “renforcé son sentiment d’impuissance” au lieu de le diriger vers une aide humaine.
À la suite de ce drame, 45 procureurs généraux américains ont adressé un avertissement formel à OpenAI, l’exhortant à mieux protéger les jeunes utilisateurs. En réponse, la société a annoncé la création d’un “wellness council”, un conseil chargé de superviser les questions de santé mentale. Mais l’initiative a été critiquée : aucun expert de la prévention du suicide n’y figure pour l’instant.
Un miroir des fragilités contemporaines
Au-delà du cas OpenAI, ces chiffres disent beaucoup du mal-être collectif. En 2025, alors que les files d’attente pour obtenir un rendez-vous chez un psychologue s’allongent, beaucoup se tournent vers des outils numériques pour combler ce vide. La promesse d’une écoute immédiate séduit, mais elle a ses limites : l’IA ne distingue pas toujours une urgence vitale d’une simple angoisse passagère, comme l’a montré une étude publiée dans Nature Digital Medicine.
Cette dépendance émotionnelle à la machine reflète aussi un paradoxe : plus nos technologies avancent, plus le besoin d’humanité devient criant. La question n’est donc pas seulement technique, mais éthique : que dit de nous ce recours à une intelligence artificielle pour parler de la mort ?
Un outil froid et technologique, pas un thérapeute
OpenAI insiste : ChatGPT n’a pas vocation à remplacer un professionnel. “Nous voulons que le modèle sache reconnaître la détresse et orienter vers une aide humaine, pas se substituer à elle”, affirme l’entreprise. Des avertissements et liens vers des lignes d’écoute apparaissent désormais dans les conversations jugées à risque.
Reste que, pour des utilisateurs en rupture sociale ou psychologique, ce garde-fou ne suffit pas toujours. Comme l’explique au Guardian Hamilton Morrin, de l’institut de psychiatrie du King’s College de Londres, la disponibilité 24h/24 des chatbots a entraîné un “manque de limites” et un “risque de dépendance émotionnelle”. Et d’ajouter : “À court terme, cela atténue la détresse, mais en réalité, cela perpétue le cycle.”
Matt Hussey, psychothérapeute, précise : “Parce que [l’IA] est conçu pour être positive et encourageante, elle remet rarement en question une question mal formulée ou une hypothèse erronée. Au lieu de cela, elle renforce la conviction initiale de l’utilisateur, qui repart donc de l’échange en pensant : ‘Je savais que j’avais raison’. Cela peut être agréable sur le moment, mais cela peut aussi ancrer des malentendus.”
Le vertige d’une intimité artificielle
En révélant ces données, OpenAI a sans doute voulu prouver sa transparence. Mais elle met surtout en lumière une réalité dérangeante : l’intelligence artificielle est devenue un acteur de la santé mentale mondiale, qu’elle le veuille ou non. Qu’un million d’utilisateurs par semaine parlent de suicide à un robot conversationnel n’est pas seulement un signal d’alarme technologique. C’est le symptôme d’un monde où la parole cherche encore un lieu d’accueil. Outre l’urgence à encadrer ces outils, il faut aussi – surtout – penser à reconstruire des espaces humains d’écoute.