Une étude récente publiée dans la revue Rapports scientifiques suggère que les chatbots IA à grand modèle de langage (LLM) pourraient exceller au-delà de l’humain moyen dans des tâches créatives, comme le brainstorming d’utilisations alternatives d’objets courants – reflet d’une pensée divergente. Cependant, les personnes ayant obtenu les scores les plus élevés dans ces tâches ont quand même dépassé les résultats du chatbot le plus performant.
La pensée divergente est un type de processus de pensée souvent lié à la créativité, mettant l’accent sur la génération de nombreuses idées ou solutions différentes pour une tâche spécifique.
Il est généralement évalué avec la tâche des utilisations alternatives (AUT), dans laquelle les participants sont invités à proposer autant d’utilisations alternatives que possible pour un objet du quotidien dans un court laps de temps. Les réponses sont notées selon quatre catégories différentes : maîtrise, flexibilité, originalité et élaboration.
Mika Koivisto et Simone Grassini ont comparé les réponses de 256 participants humains avec celles de trois chatbots IA (ChatGPT3, ChatGPT4 et Copy.Ai) aux AUT pour quatre objets : une corde, une boîte, un crayon et une bougie. Les auteurs ont évalué l’originalité des réponses en les évaluant sur la distance sémantique (le degré de relation entre la réponse et l’utilisation originale de l’objet) et la créativité.
Une méthode informatique a été utilisée pour quantifier la distance sémantique sur une échelle de 0 à 2, tandis que des évaluateurs humains, aveugles aux auteurs des réponses, évaluaient subjectivement la créativité de 1 à 5. En moyenne, les réponses générées par le chatbot ont obtenu des scores nettement supérieurs à ceux des réponses. réponses humaines pour la distance sémantique (0,95 contre 0,91) et la créativité (2,91 contre 2,47).
Les réponses humaines présentaient une plage beaucoup plus grande dans les deux mesures : les scores minimum étaient bien inférieurs à ceux des réponses de l’IA, mais les scores maximum étaient généralement plus élevés. La meilleure réponse humaine a surpassé la meilleure réponse de chaque chatbot dans sept catégories de notation sur huit.
Ces résultats suggèrent que les chatbots IA peuvent désormais générer des idées créatives au moins aussi bien que l’humain moyen. Cependant, les auteurs notent qu’ils n’ont pris en compte que la performance dans une seule tâche associée à l’évaluation de la créativité. Les auteurs proposent que de futures recherches explorent la manière dont l’IA peut être intégrée au processus créatif pour améliorer les performances humaines.
L’étude a été financée par l’Université de Bergen.