Vaisseau spatial auto-conduite? La commande de vérification de l’IA fonctionnera comme prévu

vaisseau-spatial-auto-conduite?-la-commande-de-verification-de-l'ia-fonctionnera-comme-prevu

Pour se préparer à l’auto-conduite, les entreprises de mobilité ont passé plus d’une décennie à collecter des données sur des milliers de véhicules équipés de caméras, radars, lidar, récepteurs GPS et centrales de mesure inertielles. Il n’existe pas de base de données comparable pour les entreprises ou les organismes publics qui souhaitent donner plus d’autonomie aux engins spatiaux.

«Nous n’avons pas la pléthore de données ou de capteurs», a déclaré Franklin Tanner, ingénieur en apprentissage automatique et en vision par ordinateur à Raytheon, au mois de mai à la Space Tech Expo de Pasadena, en Californie. «Nous pouvons simuler beaucoup d’activités et faire de la modélisation, mais n’avons pas autant de données réelles.»

Les opérateurs d’engins spatiaux vont acquérir certaines des données dont ils ont besoin pour créer et former des algorithmes d’apprentissage automatique dans le cadre de projets tels que le test de redirection d’astéroïdes (DART), une mission de la NASA qui enverra une sonde en 2021 à Didymos, un système binaire d’astéroïdes. La mission principale de DART est de lancer une sonde dans la lune Didymos B pour mesurer le changement de son orbite autour de Didymos A. Un objectif secondaire de DART est de tester l’intelligence artificielle pour une approche rapprochée, un rendez-vous et un amarrage, a déclaré Roberto Carlino, le matériel du centre de recherche de la NASA Ames, ingénieur de test logiciel pour Astrobee, des robots en vol libre sur la Station spatiale internationale.

Les conférenciers de la Space Tech Expo ont abordé le défi de la validation de l’intelligence artificielle et de l’autonomie pour les applications spatiales. De gauche à droite: Blaine Levedahl, directeur des programmes du gouvernement américain chez Olis Robotics; Christine Stevens, aérospatiale.

« Beaucoup de joueurs souhaitent implémenter l’intelligence artificielle en tant que partie secondaire de la mission pour commencer à collecter des données », a déclaré Carlino.

Une fois que des entreprises ou des organismes gouvernementaux commencent à manifester leur intérêt pour l’acquisition de données haute fidélité afin de former des algorithmes d’apprentissage automatique destinés aux engins spatiaux, davantage de données sont susceptibles de devenir disponibles. «Les utilisateurs tenteront activement de créer ces données, car elles auront une valeur ajoutée», a déclaré Blaine Levedahl, directeur des programmes gouvernementaux américains chez Olis Robotics, une société basée à Seattle qui s’appuie sur AI pour offrir divers degrés d’autonomie aux systèmes robotiques mobiles. Un marché similaire incite les entreprises à rassembler et à vendre des données de formation pour les systèmes d’IA basés au sol, a-t-il ajouté.

Jusqu’à ce qu’une pléthore de données spatiales soit disponible, les exploitants d’engins spatiaux envisagent de passer progressivement à l’autonomie, car ils constatent des avantages considérables.

Pour l’espace de sécurité nationale, «nous voulons des actifs très résistants en orbite, adaptables et réactifs aux menaces en constante évolution», a déclaré Christine Stevens, ingénieur principale chez Aerospace Corp. pour les opérations des programmes spatiaux. En utilisant l’IA, un vaisseau spatial peut être capable de reconnaître une menace, d’en tirer des leçons et de la neutraliser ou de prendre des mesures évasives. Ou encore, un seul satellite dans une constellation pourrait apprendre quelque chose et diffuser ses connaissances nouvellement acquises à d’autres satellites de la constellation, a déclaré Stevens.

Cependant, les opérateurs d’engins spatiaux n’accepteront l’IA que lorsqu’ils auront la certitude que cela ne créera pas de nouveaux problèmes.

« Quand le système voit quelque chose qu’il n’a jamais vu auparavant, comment pouvons-nous avoir confiance qu’il ne fera pas quelque chose qui mettrait en danger le vaisseau spatial ou une manœuvre qui causerait des problèmes? », A demandé Tanner. « Comprendre la boîte noire est d’une importance vitale dans nos applications. »

Il est parfois fait référence aux applications d’intelligence artificielle pour demander aux boîtes noires parce qu’elles proposent des actions ou des solutions mais ne peuvent expliquer leur raisonnement. Cela rend les gens hésitants à leur faire confiance pour prendre des décisions importantes.

Les opérateurs d’engins spatiaux pourraient gagner la confiance en l’intelligence artificielle grâce aux activités traditionnelles de vérification et de validation. En vérifiant à plusieurs reprises que le produit final atteint ses objectifs, une approche possible, a déclaré Stevens.

Olis Robotics recommande de laisser l’opérateur humain au courant. « La plupart du temps, un fonctionnement totalement autonome n’est pas possible », a déclaré Levedahl. De plus, développer des systèmes entièrement autonomes serait extrêmement coûteux. « Cela en vaut-il le coût? » « Ou est-il préférable de garder l’opérateur au courant et d’accroître l’autonomie tout en mettant en place des systèmes? »

Stevens a suggéré que l’industrie envisage de casser le problème en petits morceaux. « Peut-être y a-t-il un moyen de gagner en confiance dans la façon dont le système apprend et prend les décisions », a-t-elle déclaré.

Un employé d’Olis Robotics démontre l’utilisation de son contrôleur BluHaptics avec le Robonaut 2 de la NASA. Crédit: vidéo Olis Robotics

Une approche possible serait de concevoir et de tester des modules ou des conteneurs AI individuels. Une fois que les modules sont réputés fiables, ils peuvent être combinés. « Peut-être qu’il y a un moyen de faire de la mission l’assurance en petits morceaux et de les agréger ensemble », a déclaré Stevens.

Quelles que soient les méthodes choisies par l’industrie pour renforcer la confiance, elle devrait fournir des applications d’intelligence artificielle permettant d’élargir les capacités des systèmes spatiaux de nouvelle génération sans exagérer les avantages potentiels, a déclaré Tanner.

«Nous avons traversé l’hiver de l’IA et probablement le printemps de l’IA», a déclaré Tanner. «Nous sommes en été dans l’IA, mettant en place des applications d’intelligence artificielle et autonomes qui ont un impact dans mon domaine: la sécurité nationale. »

Néanmoins, le secteur doit rester vigilant pour tenir la promesse d’Amnesty International sans en exagérer les avantages potentiels, a déclaré Tanner.

«Si nous ne tenons pas certaines des promesses avec un système digne de confiance, résilient et réalisant les objectifs visés, nous pourrions bientôt rentrer dans un autre hiver de l’IA», a-t-il ajouté.


 » Source (traduit de l’anglais) : Spacenews

error: Content is protected !!