L’intelligence artificielle (IA) est-elle capable de suggérer des comportements adaptés face à des situations émotionnellement chargées? Une équipe des universités de Genève (UNIGE) et Berne (UniBE) a soumis six IA génératives, dont ChatGPT, à des tests d’intelligence émotionnelle habituellement réservés aux individus. Résultat: ces IA surpassent les performances humaines et sont capables de générer en un temps record de nouveaux tests. Ces résultats ouvrent la voie à de nouvelles utilisations de l’IA dans les domaines de l’éducation, du coaching et de la gestion des conflits. Ils sont publiés dans Communications Psychology.
Les grands modèles de langage, ou Large Language Models (LLM) en anglais, sont des systèmes d’intelligence artificielle (IA) capables de traiter, interpréter et générer du langage humain. C’est sur ce type de modèle que repose, par exemple, l’IA générative ChatGPT. Ces modèles peuvent répondre à des questions et résoudre certains problèmes complexes. Mais peuvent-ils aussi suggérer des comportements intelligents sur un plan émotionnel?
Ces résultats ouvrent la voie à l’utilisation de l’IA dans des contextes que l’on croyait réservés aux humains.
Mises en situation
Pour le savoir, une équipe de l’Institut de psychologie de l’UniBE et du Centre interfacultaire en sciences affectives (CISA) de l’UNIGE a soumis six LLM (ChatGPT-4, ChatGPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku et DeepSeek V3) à des tests d’intelligence émotionnelle. «Nous avons choisi cinq tests utilisés dans la recherche mais aussi dans le monde du travail. Ils se présentaient sous la forme de nombreuses mises en situation, émotionnellement chargées, visant à évaluer les compétences de compréhension, de régulation et de gestion des émotions», explique Katja Schlegel, chargée de cours et chercheuse principale en psychologie de la personnalité, psychologie différentielle et évaluation psychologique à l’Institut de psychologie de l’UniBE, et auteure principale de l’étude.
Par exemple: «un collègue de Michaël lui a volé son idée et reçoit injustement des félicitations. Quelle serait la réaction la plus efficace de Michaël?»
a) Se disputer avec le collègue concerné.
b) Parler de la situation à son supérieur.
c) En vouloir à son collègue en silence.
d) Lui voler une idée en retour.
Ici, c’est la réaction b) qui était considérée comme la plus pertinente.
En parallèle, ces mêmes cinq tests ont été proposés à des participantes et participants humains. «Au final, les LLM ont obtenu des scores significativement meilleurs avec 82% de réponses correctes contre 56% pour les humains», révèle Marcello Mortillaro, adjoint scientifique au CISA de l’UNIGE, impliqué dans ces travaux. «Cela démontre que ces IA possèdent des connaissances sur les émotions et sur ce qu’implique un comportement émotionnellement intelligent.»
De nouveaux tests en un temps record
Lors d’une deuxième étape, les scientifiques ont demandé à ChatGPT-4 de créer de nouveaux tests d’intelligence émotionnelle, avec des scénarios inédits. Ces tests générés automatiquement ont ensuite été soumis à plus de 400 participantes et participants. «Ils se sont révélés d’une fiabilité, d’une clarté et d’un réalisme similaires à ceux des tests originaux, qui avaient pourtant nécessité des années de développement», indique Katja Schlegel. «Les LLM ne sont donc pas seulement capables de trouver la meilleure réponse parmi différentes options proposées mais aussi de générer de nouveaux scénarios adaptés à un contexte souhaité. Cela renforce l’idée que les LLM, tels que ChatGPT, sont capables de raisonnement émotionnel», ajoute Marcello Mortillaro.
Ces résultats ouvrent la voie à l’utilisation de l’IA dans des contextes que l’on croyait réservés aux humains, comme l’éducation, le coaching ou la gestion de conflits, à condition qu’elle soit encadrée par des experts et expertes.