Intelligence artificielle

Une version plus empathique de ChatGPT : nouvelles améliorations de OpenAI

OpenAI améliore ChatGPT pour détecter la détresse mentale, limiter la dépendance émotionnelle et encourager le soutien humain.

images d'une femme qui discute avec un chatbot

Une avancée majeure dans la prise en charge des conversations sensibles

Le 27 octobre 2025, OpenAI a publié un article annonçant des mises à jour importantes de ChatGPT : le modèle a été retravaillé pour mieux détecter la détresse émotionnelle, désamorcer les situations fragiles et orienter l’utilisateur vers un accompagnement humain.

Voici un panorama de ce qu’il faut retenir.


Quelques objectifs clés

OpenAI vise, dans cette mise à jour, à renforcer trois grandes directions :

  1. Reconnaître les signes de troubles sévères Le modèle est désormais entraîné à identifier des symptômes comme la psychose, la manie, les idées suicidaires ou l’automutilation.

  2. Encourager l’utilisateur à solliciter un soutien humain L’IA rappelle à l’utilisateur que les relations humaines — amis, famille, professionnels — restent essentielles. Le chatbot ne remplace pas un humain.

  3. Limiter la dépendance émotionnelle à l’IA Un volet souvent moins abordé : empêcher que l’utilisateur développe une attache excessive à l’outil, au détriment du monde réel.


Principes directeurs de cette évolution

Pour orienter ces changements, OpenAI a actualisé les principes de comportement du modèle. Celui-ci doit :

  • Soutenir les relations humaines : l’IA complète les interactions humaines, sans s’y substituer.
  • Éviter de valider des croyances non fondées liées à la détresse mentale (par exemple, ne pas confirmer un délire).
  • Réagir avec empathie et prudence lorsque sont détectés des signes de manie, de psychose ou de crise.
  • Repérer les signaux indirects d’automutilation ou de suicide — souvent plus difficiles à identifier que les déclarations explicites.

Méthodologie : comment OpenAI s’y est pris

Le processus suivi par OpenAI s’articule autour de cinq grandes étapes :

  1. Définir le problème, en identifiant les risques potentiels.
  2. Mesurer les cas réels, à partir de tests et de retours d’utilisateurs.
  3. Valider la stratégie avec des experts en santé mentale.
  4. Réentraîner et ajuster le modèle, pour éviter des réponses dangereuses ou inappropriées.
  5. Tester et affiner en continu après chaque mise à jour.

Un élément notable : la création de taxonomies, des guides précis décrivant les comportements à adopter ou à éviter dans les conversations sensibles. Ces taxonomies servent de référence à l’entraînement, au suivi et à l’évaluation du modèle.


Résultats et évaluation

Les chiffres publiés par OpenAI montrent une amélioration nette :

  • Une réduction de 65 à 80 % des réponses jugées inappropriées dans les domaines liés à la santé mentale.
  • Pour les conversations liées à la psychose ou à la manie : baisse d’environ 65 % des réponses non conformes.
  • Concernant les idées suicidaires et l’automutilation : diminution similaire, d’environ 65 %.
  • Sur la dépendance émotionnelle à l’IA : amélioration estimée à 80 %.
  • Dans des tests internes simulant des conversations complexes, le nouveau modèle atteint plus de 90 % de réponses conformes, contre moins de 30 % auparavant.

Trois domaines majeurs d’amélioration

OpenAI a concentré ses efforts sur trois zones prioritaires :

  1. Psychose et manie : meilleure détection des signes, réponses plus prudentes et empathiques.
  2. Suicide et automutilation : interventions plus sûres, avec une orientation vers des lignes d’aide et un ton de soutien.
  3. Dépendance émotionnelle à l’IA : rappels à la réalité, encouragement à faire des pauses et à privilégier les liens humains.

Collaboration et perspectives

Plus de 170 experts en santé mentale ont collaboré à ce projet. Des cliniciens indépendants ont souligné les progrès notables dans la qualité et la sécurité des réponses. OpenAI intègre désormais dans ses critères de sécurité standard des tests liés à la dépendance émotionnelle et aux urgences non suicidaires, en plus des évaluations classiques sur le suicide et l’automutilation.

À long terme, l’objectif est clair : faire de ChatGPT un outil plus empathique, prudent et responsable, capable de mieux accompagner les utilisateurs dans des contextes émotionnellement sensibles.


Ce que cela signifie pour l’utilisateur

  • Un chatbot plus attentif : il repère mieux les signes de détresse, explicites ou implicites, et adapte ses réponses.
  • Une orientation vers du réel : l’IA encourage à parler à un proche ou à consulter un professionnel, plutôt que de rester dans la conversation.
  • Une transparence accrue : ChatGPT rappelle ses limites et sa nature d’outil d’assistance.
  • Une vigilance continue : malgré les progrès, la détection des situations à risque reste un défi et demande une évaluation permanente.

Limites et zones d’ombre

Les conversations à risque (psychose, manie, idées suicidaires) restent rares, mais leur détection demeure complexe. Même avec ces améliorations, l’IA peut se tromper dans des échanges longs ou émotionnellement denses. Les experts eux-mêmes n’ont pas toujours un avis unanime sur ce qu’est une “bonne” réponse, preuve que ces sujets demandent une sensibilité humaine difficile à modéliser.

Ces avancées ne remplacent donc pas un accompagnement professionnel : elles visent à rendre l’outil plus sûr, sans en faire un substitut à un thérapeute.


En résumé

Cette mise à jour marque un tournant dans la conception des modèles de langage. En collaborant avec des spécialistes, en définissant des comportements précis et en évaluant rigoureusement les réponses, OpenAI montre qu’une IA peut apprendre à répondre avec plus de tact, d’écoute et de prudence. Les fondations d’une IA empathique et responsable sont désormais posées — mais la route vers une compréhension émotionnelle authentique reste longue.


FAQ

Q1 : ChatGPT peut-il remplacer un thérapeute ? Non. Même amélioré, ChatGPT n’est pas un professionnel de santé mentale et ne doit pas être utilisé comme tel.

Q2 : Que fait l’IA si elle détecte des idées suicidaires ? Elle répond avec empathie, évite les formulations dangereuses et oriente vers des ressources humaines et des lignes d’aide.

Q3 : Comment ChatGPT limite-t-il la dépendance émotionnelle ? Le modèle rappelle que l’IA ne remplace pas les relations humaines et encourage à interagir avec des proches.

Q4 : Ces améliorations sont-elles visibles pour tous les utilisateurs ? Oui. Elles sont intégrées par défaut dans GPT-5, bien que les situations rares ou complexes puissent encore poser problème.

Q5 : L’IA est-elle totalement fiable dans ces cas ? Non. Les cas à risque restent difficiles à détecter et demandent une vigilance humaine constante.


Sources