L’US Air Force progresse rapidement sur les avions de chasse pilotés par l’IA

Lors des tests en décembre, deux programmes d’IA ont été intégrés au système : les opérations de combat aérien autonomes (AACO) du laboratoire de recherche de l’armée de l’air et l’évolution du combat aérien (ACE) de la Defense Advanced Research Projects Agency (DARPA). Les agents d’IA d’AACO se sont concentrés sur le combat avec un seul adversaire au-delà de la portée visuelle (BVR), tandis qu’ACE s’est concentré sur des manœuvres de type combat aérien avec un ennemi simulé plus proche et «visible».

Alors que VISTA nécessite un pilote certifié dans le cockpit arrière en tant que remplaçant, lors des vols d’essai, un ingénieur formé aux systèmes d’IA s’est occupé du cockpit avant pour faire face à tous les problèmes techniques qui se posaient. Au final, ces problèmes étaient mineurs. Bien qu’il ne soit pas en mesure d’élaborer sur les subtilités, le responsable du programme DARPA, le lieutenant-colonel Ryan Hefron, explique que tout contretemps était “à prévoir lors de la transition du virtuel au direct”. Dans l’ensemble, il s’agissait d’une étape importante vers la réalisation de l’objectif de Skyborg de faire décoller des avions autonomes dès que possible.

Le ministère de la Défense souligne que l’AACO et l’ACE sont conçus pour compléter les pilotes humains, et non pour les remplacer. Dans certains cas, les systèmes de copilote IA pourraient agir comme un mécanisme de soutien pour les pilotes en combat actif. Avec AACO et ACE capables d’analyser des millions d’entrées de données par seconde et ayant la capacité de prendre le contrôle de l’avion à des moments critiques, cela pourrait être vital dans des situations de vie ou de mort. Pour les missions plus courantes qui ne nécessitent pas d’intervention humaine, les vols pourraient être entièrement autonomes, le nez des avions étant remplacé lorsqu’un cockpit n’est pas requis pour un pilote humain.

“Nous n’essayons pas de remplacer les pilotes, nous essayons de les augmenter, de leur donner un outil supplémentaire”, a déclaré Cotting. Il fait l’analogie des soldats des campagnes passées chevauchant des chevaux au combat. “Le cheval et l’humain devaient travailler ensemble”, dit-il. “Le cheval peut très bien courir la piste, donc le cavalier n’a pas à se soucier d’aller du point A au point B. Son cerveau peut être libéré pour penser à de plus grandes pensées.” Par exemple, dit Cotting, un premier lieutenant avec 100 heures d’expérience dans le cockpit pourrait artificiellement gagner le même avantage qu’un officier de rang beaucoup plus élevé avec 1 000 heures d’expérience de vol, grâce à l’augmentation de l’IA.

Pour Bill Gray, pilote d’essai en chef à l’USAF Test Pilot School, l’intégration de l’IA est une extension naturelle du travail qu’il effectue avec des étudiants humains. « Chaque fois que nous [pilots] parlez aux ingénieurs et aux scientifiques des difficultés de formation et de qualification des agents d’IA, ils traitent généralement cela comme un nouveau problème », dit-il. “Cela me dérange, car je forme et qualifie des agents d’intelligence naturelle hautement non linéaires et imprévisibles – des étudiants – depuis des décennies. Pour moi, la question n’est pas : « Pouvons-nous former et qualifier des agents IA ? C’est, ‘Pourquoi pouvons-nous former et qualifier les humains, et qu’est-ce que cela peut nous apprendre sur la façon de faire de même pour les agents de l’IA ?’

Gray pense que l’IA n’est «pas un outil miracle qui peut résoudre tous les problèmes», mais plutôt qu’elle doit être développée dans une approche équilibrée, avec des mesures de sécurité intégrées pour éviter les accidents coûteux. Une dépendance excessive à l’IA – une “confiance dans l’autonomie” – peut être dangereuse, estime Gray, soulignant les échecs du programme de pilote automatique de Tesla malgré que Tesla affirme la nécessité pour le conducteur d’être au volant en secours. Cotting est d’accord, qualifiant la possibilité de tester les programmes d’IA dans VISTA de “plan de réduction des risques”. En entraînant l’IA sur des systèmes conventionnels tels que le VISTA X-62, plutôt que de construire un avion entièrement nouveau, les limites automatiques et, si nécessaire, l’intervention du pilote de sécurité peuvent aider à empêcher l’IA de mettre en danger l’avion au fur et à mesure de son apprentissage.

commentaires

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Le plus populaire