Des chercheurs de l’Université du Missouri font progresser l’autonomie des drones grâce à l’IA, en se concentrant sur la navigation et l’interaction environnementale sans recourir au GPS. Crédit : Issues.fr.com
Un projet de pointe dirigé par des chercheurs de l’Université du Missouri vise à équiper les drones de capacités de navigation visuelle autonomes, transformant potentiellement la façon dont les drones fonctionnent et aident dans des scénarios critiques comme les catastrophes naturelles.
Des algorithmes d'IA sont en cours de développement pour permettre aux drones de naviguer de manière autonome et d'effectuer des tâches complexes, notamment dans GPS-environnements compromis, utilisant les progrès de la technologie des capteurs et du calcul haute performance.

Les étudiants de l'Université du Missouri ont passé un mois au Yuma Proving Grounds en Arizona, l'une des plus grandes installations militaires au monde, travaillant à collecter des données vidéo visibles et infrarouges à l'aide de drones fabriqués sur mesure. Leur projet a contribué à jeter les bases de ce projet de deux ans soutenu par le Centre de recherche et de développement des ingénieurs de l'armée américaine. Crédit Département américain de la Défense
Navigation par drone pilotée par l'IA
Grâce à des algorithmes intelligents alimentés par intelligence artificielle (IA), les drones pourraient un jour se piloter eux-mêmes – aucun humain n’étant nécessaire – en utilisant des repères visuels pour les aider à naviguer d’un point à un autre. C'est l'objectif d'un projet de deux ans dirigé par des chercheurs de l'Université du Missouri et soutenu par une subvention de 3,3 millions de dollars du US Army Engineer Research and Development Center (ERDC), le premier centre de recherche et de développement du Corps des ingénieurs de l'armée américaine.
Autonomie dans les situations critiques
La capacité de fonctionner de manière autonome devient critique dans les situations où il y a une interruption ou une perte du signal de navigation GPS, comme à la suite d'une catastrophe naturelle ou dans des situations militaires, a déclaré Kannappan Palaniappan, professeur émérite des conservateurs de génie électrique et d'informatique et directeur enquêteur sur le projet.
« Cela se produit généralement à la suite de catastrophes naturelles, d'occlusions dans l'environnement bâti et le terrain ou à la suite d'une intervention humaine », a déclaré Palaniappan. « La plupart des drones utilisés aujourd'hui nécessitent une navigation GPS pour voler, donc lorsqu'ils perdent ce signal, ils ne sont pas en mesure de s'orienter et atterrissent généralement là où ils se trouvent. Contrairement aux applications de navigation GPS au sol, qui peuvent vous rediriger si vous manquez un virage, les drones aéroportés n'ont actuellement aucune possibilité de se réorienter dans ces situations.

Les étudiants de l'Université du Missouri ont passé un mois au Yuma Proving Grounds en Arizona, l'une des plus grandes installations militaires au monde, travaillant à collecter des données vidéo visibles et infrarouges à l'aide de drones fabriqués sur mesure. Leur projet a contribué à jeter les bases de ce projet de deux ans soutenu par le Centre de recherche et de développement des ingénieurs de l'armée américaine. Crédit Département américain de la Défense
Améliorer les drones avec une technologie intelligente
Actuellement, quelqu'un doit piloter manuellement un drone et avoir un haut niveau de conscience de la situation pour le maintenir à l'écart des obstacles dans son environnement, comme des bâtiments, des arbres, des montagnes, des ponts, des panneaux ou d'autres structures importantes, tout en restant dans le champ de vision du pilote du drone. . Aujourd'hui, grâce à une combinaison de capteurs visuels et d'algorithmes, Palaniappan et son équipe développent un logiciel qui permettra aux drones de voler de manière autonome, en percevant et en interagissant indépendamment avec leur environnement tout en atteignant des buts ou des objectifs spécifiques.

Kannappan Palaniappan. Crédit : Université du Missouri-Columbia
« Nous voulons prendre l'éventail de compétences, d'attributs, de connaissances contextuelles de la scène, de planification de mission et d'autres capacités que possèdent les pilotes de drones et les intégrer – ainsi que les conditions météorologiques – dans le logiciel du drone afin qu'il puisse prendre toutes ces décisions de manière indépendante », Palaniappan. dit.
Faire progresser la perception intelligente des scènes
Ces dernières années, les progrès de la technologie des capteurs visuels tels que la détection et la télémétrie de la lumière, ou lidar, et l'imagerie thermique ont permis aux drones d'effectuer des tâches limitées de niveau avancé telles que la détection d'objets et la reconnaissance visuelle. Lorsqu'il est combiné avec les algorithmes de l'équipe, alimentés par l'apprentissage profond et apprentissage automatiqueun sous-ensemble d’IA – les drones pourraient aider au développement d’images avancées 3D ou 4D pour les applications de cartographie et de surveillance.
« En tant qu'humains, nous intégrons des modèles 3D et une connaissance dynamique des schémas de mouvement dans notre environnement en utilisant notre système visuel depuis que nous sommes petits », a déclaré Palaniappan. « Maintenant, nous essayons de décoder les principales caractéristiques du système visuel humain et d'intégrer ces capacités dans des algorithmes de navigation aérienne et terrestre autonomes basés sur la vision. »
Surmonter les limites technologiques
Le développement de capacités d'imagerie avancées nécessite des ressources informatiques telles que la puissance de traitement, la mémoire ou le temps. Cette capacité va au-delà de ce qui est actuellement disponible via le système logiciel généralement disponible à bord d’un drone. Ainsi, l’équipe dirigée par MU étudie comment tirer parti de la force des méthodes de cloud computing, de hautes performances et de edge computing pour une solution potentielle.
« Après une violente tempête ou une catastrophe naturelle, les bâtiments, les voies navigables et d'autres formes d'infrastructures seront endommagés », a déclaré Palaniappan. « Une reconstruction 3D de la zone pourrait aider les premiers intervenants et les responsables gouvernementaux à comprendre l'ampleur des dégâts. En permettant au drone de collecter les données brutes et de transmettre ces informations au cloud, le cloud prenant en charge le logiciel de calcul haute performance peut compléter l'analyse et développer le modèle de jumeau numérique 3D sans qu'il soit nécessaire qu'un logiciel supplémentaire soit physiquement installé et accessible sur le drone. .»
L'équipe de MU comprend Prasad Calyam, Filiz Bunyak et Joshua Fraser. L'équipe comprend également des chercheurs de l'Université de Saint Louis, de l'Université de Californie à Berkeley et Université de Floride.