in

L'utilisation d'outils d'IA comme Chatgpt peut réduire les compétences de réflexion critique

L'utilisation d'outils d'IA comme Chatgpt peut réduire les compétences de réflexion critique

Une enquête auprès des travailleurs qui ont utilisé une IA générative pour effectuer des tâches ont révélé qu'ils utilisaient moins la pensée critique lorsqu'ils faisaient confiance à l'IA pour effectuer la tâche avec précision

L'utilisation d'outils d'IA comme Chatgpt peut réduire les compétences de réflexion critique

Perdons-nous des compétences de pensée critique à l'intelligence artificielle?

Les outils d'IA génératifs peuvent limiter la pensée critique des utilisateurs lors de la réalisation des tâches. Les personnes utilisant une IA générative pensent également moins de manière critique lorsqu'ils font confiance à l'IA pour effectuer une tâche, comme développer un argument pour un article ou une présentation. Les chercheurs derrière les résultats disent que la solution est d'adapter la technologie, plutôt que de limiter son utilisation.

Lev Tankelitch à Microsoft Research et ses collègues ont demandé à 319 personnes de participer à une enquête. Les participants, qui ont été recrutés par le biais de la plate-forme prolifique de crowdsourcing, ont été invités à partager trois exemples de la façon dont ils ont utilisé des outils d'IA généraux tels que Chatgpt dans leur travail. On leur a alors demandé s'ils s'étaient engagés dans la pensée critique en faisant chaque tâche.

S'ils ont répondu oui, on leur a demandé de fournir un exemple sur la façon dont ils l'ont fait, dont les résultats ont été analysés. Les répondants ont également été invités à évaluer l'effort de l'activité nécessaire par rapport à le faire sans IA, sur une échelle de cinq points et leur confiance dans le travail qui en résulte.

Pour environ quatre tâches sur 10, les participants ont déclaré n'utiliser aucune pensée critique. Les chercheurs suggèrent que même si l'utilisation de l'IA pourrait aider à améliorer la vitesse à laquelle les gens apprennent, la facilité avec laquelle les outils d'IA génératifs créent et présentent le contenu qu'ils pourraient ne pas apprendre aussi profondément. « Lors de l'étude du comportement humain, des idées apparemment opposées peuvent être vraies à la fois », a déclaré Tankelevitch dans une réponse écrite aux questions.

«Cela sous-tend un soupçon profond et à long terme avec les technologies cognitives», explique Richard Whittle à l'Université de Salford au Royaume-Uni. « Que leur utilisation diminuera les compétences humaines, qu'il s'agisse d'une calculatrice réduisant notre capacité à faire de simples calculs mentaux ou à Google Maps en supprimant la nécessité de naviguer. »

Même lorsque l'IA s'améliore, cela soulève des préoccupations importantes. Si les utilisateurs ont des compétences de réflexion de moins en moins critiques, ils peuvent ne pas être en mesure de déterminer si l'IA est correct, ou de savoir comment procéder sans l'IA lorsqu'ils le reconnaissent. Mais il peut y avoir encore des contrôles et des contrepoids en place, selon les auteurs de l'étude. « Notre étude basée sur l'enquête suggère que lorsque les gens considèrent une tâche comme des enjeux faibles, ils peuvent ne pas examiner les résultats aussi de manière critique », a déclaré TankElevitch. «Cependant, lorsque les enjeux sont plus élevés, les gens s'engagent naturellement dans une évaluation plus critique.»

TankElevitch a défendu la recherche et ses recommandations: «Toutes les recherches en cours pour comprendre l'impact de l'IA sur la cognition sont essentielles pour nous aider à concevoir des outils qui favorisent la pensée critique. Les modèles de raisonnement profond soutiennent déjà cela en rendant les processus de l'IA plus transparents, ce qui permet aux utilisateurs de revoir, de remettre en question et d'apprendre les idées qu'ils génèrent. »

D'autres ne sont pas aussi convaincus. «L'écriture consiste à développer une pensée critique, et nous ne devons déléguer cela à personne ou quoi que ce soit, sans parler des machines conçues par des entreprises technologiques ayant des intérêts financiers clairs», explique Carissa Véliz à l'Université d'Oxford. Elle dit que cela pourrait avoir des implications sociétales plus importantes. «La démocratie est une sorte de conversation. Si nous externalisons le dialogue aux machines, nous perdons notre place dans le dialogue. »

Futuristic battery

Les batteries quantiques se chargent plus rapidement plus elles sont grandes

Pourquoi nous pouvons avoir envie de dessert même lorsque nous sommes pleins de dîner

Pourquoi nous pouvons avoir envie de dessert même lorsque nous sommes pleins de dîner