Chaque morceau de fiction contient un noyau de vérité, et il est maintenant temps d’avoir une longueur d’avance sur les dystopies de science-fiction et de déterminer quel peut être le risque que la sensibilité machine peut représenter pour les humains.
Bien que les gens réfléchissent depuis longtemps à l’avenir des machines intelligentes, ces questions sont devenues d’autant plus pressantes avec l’essor de l’intelligence artificielle (IA) et apprentissage automatique. Ces machines ressemblent aux interactions humaines : elles peuvent aider à résoudre des problèmes, créer du contenu et même mener des conversations. Pour les fans de science-fiction et de romans dystopiques, une question pourrait se profiler à l’horizon : et si ces machines développaient un sens de conscience ?
Les chercheurs ont publié leurs résultats dans le Journal d’informatique sociale.
Bien qu’aucune donnée quantifiable ne soit présentée dans cette discussion sur la sensibilité artificielle (SA) dans les machines, de nombreux parallèles sont établis entre le développement du langage humain et les facteurs nécessaires aux machines pour développer le langage de manière significative.
La possibilité de machines conscientes
« Beaucoup de personnes préoccupées par la possibilité de développer la sensibilité des machines s’inquiètent de l’éthique de notre utilisation de ces machines, ou de la question de savoir si les machines, étant des calculatrices rationnelles, attaqueraient les humains pour assurer leur propre survie », a déclaré John Levi Martin, auteur et chercheur. . « Nous craignons ici qu’ils n’attrapent une forme d’éloignement de soi en passant à une forme de sensibilité spécifiquement linguistique. »
Les principales caractéristiques qui rendent une telle transition possible semblent être : l’apprentissage profond non structuré, comme dans les réseaux de neurones (analyse informatique des données et exemples de formation pour fournir un meilleur feedback), l’interaction entre les humains et les autres machines, et un large éventail d’actions pour poursuivre l’apprentissage autonome. Un exemple en serait les voitures autonomes. De nombreuses formes d’IA cochent déjà ces cases, ce qui suscite des inquiétudes quant à la prochaine étape de leur « évolution ».
Cette discussion affirme qu’il ne suffit pas de se préoccuper uniquement du développement de l’AS dans les machines, mais soulève la question de savoir si nous sommes pleinement préparés à l’émergence d’un type de conscience dans nos machines. À l’heure actuelle, avec l’IA capable de générer des articles de blog, de diagnostiquer une maladie, de créer des recettes, de prédire des maladies ou de raconter des histoires parfaitement adaptées à ses données, il n’est pas loin d’imaginer avoir ce qui ressemble à une véritable connexion avec une machine qui a appris son état d’être. Cependant, préviennent les chercheurs de cette étude, c’est exactement à ce moment-là que nous devons nous méfier des résultats que nous recevons.
Les dangers de la sensibilité linguistique
« Devenir un être linguistique consiste davantage à s’orienter vers le contrôle stratégique de l’information et introduit une perte d’intégralité et d’intégrité… ce que nous ne souhaitons pas dans les appareils que nous rendons responsables de notre sécurité », a déclaré Martin. Comme nous avons déjà confié à l’IA la responsabilité d’une grande partie de nos informations, en s’appuyant essentiellement sur elle pour apprendre de la même manière que le fait le cerveau humain, il est devenu un jeu dangereux à jouer lorsque l’on lui confie autant d’informations vitales de manière presque virtuelle. manière imprudente.
Imiter les réponses humaines et contrôler stratégiquement les informations sont deux choses très distinctes. Un « être linguistique » peut avoir la capacité d’être fourbe et calculé dans ses réponses. Un élément important est le suivant : à quel moment découvrons-nous que nous sommes joués par la machine ?
Ce qui attend est entre les mains des informaticiens qui développeront des stratégies ou des protocoles pour tester la sensibilité linguistique des machines. L’éthique derrière l’utilisation de machines qui ont développé une forme linguistique de sensibilité ou un sentiment de « soi » n’est pas encore pleinement établie, mais on peut imaginer que cela deviendrait un sujet d’actualité sociale. La relation entre une personne auto-réalisée et une machine sensible sera certainement complexe, et les eaux inexplorées de ce type de parenté susciteraient sûrement de nombreux concepts concernant l’éthique, la moralité et l’utilisation continue de cette technologie « consciente d’elle-même ». .