Français ▾
Changer de langue
Allemand (All) Anglais (Ang)
Français ▾
Changer de langue
Allemand (All) Anglais (Ang)

Conçu pour offrir le contrôle de l'autonomie

Nos principaux domaines de développement sont axés sur les logiciels. Nos roboticiens passent la plupart de leur temps sur l'automatisation intelligente, les opérations multi-navires et la formation d'équipe avec/sans équipage (MUM-T) et travaillent beaucoup sur la vision par ordinateur pour un atterrissage de précision, la reconnaissance d'objets et l'évitement d'obstacles. La majorité de nos principales capacités sont basées sur des algorithmes, et nos experts en IA développent constamment de nouveaux comportements d'autonomie avancés et améliorent la planification de chemin autonome. Ces efforts incluent l'utilisation de l'apprentissage automatique et de la sortie de capteurs pour enrichir notre compréhension de l'environnement, améliorant ainsi constamment les algorithmes employés. La visualisation de l'état du véhicule, le plan de navigation, la planification et l'exécution de la mission sont une grande partie de ce que nous faisons et nous l'utilisons dans nos postes de commande, l'Advanced Aerial Mobility, et dans notre travail en réalité augmentée/virtuelle/mixte.

Formation d'équipe avec/sans équipage avec des UAS hautes performances

Nous fournissons des logiciels d'interface homme-machine et de contrôle d'autonomie depuis 2016. Dans ces images, nous travaillons avec Kratos Unmanned Aerial Systems pour contrôler leurs véhicules aériens UTAP-22 Mako à partir de commandes de tablettes mobiles dans des avions de combat habités et des avions de commandement/contrôle. Dans une image, nous contrôlons simultanément deux véhicules aériens réels et deux simulés. Notre logiciel était hébergé sur la tablette renforcée de l'image ci-dessous et était connecté aux cellules à partir du moment où elles étaient sur le rail de lancement, en passant par le vol et la récupération au sol.

Archives Autonodyne

Automatisation intelligente et fonctionnement simplifié du véhicule

Dans l'aviation, l'automatisation intelligente est définie comme l'automatisation de certains éléments des préparatifs de vol et des commandes de vol. Plus précisément, elle cible les tâches contextuelles pour réduire les pics de charge de travail et la charge de travail globale de l'homme. Nous considérons cela comme un moyen d'accomplir des opérations de véhicules simplifiées. Quelques exemples, pour n'en nommer que quelques-uns :

Autonodyne traite l'automatisation intelligente comme un « adossement » initial pour atténuer l'impact de l'homme comme point d'échec unique dans la prise de décision. À long terme, avec les progrès de la technologie de l'IA, les opérations à prédominance humaine céderont la place à une automatisation ultra-fiable. À terme, cette évolution progressive permettra une autonomie totale.

La complexité du système de vol et du mode de vol ne cesse d'augmenter. Tout comme la variation entre les versions des aéronefs et des logiciels dans les systèmes hérités sur le terrain. Ces quelques tendances à elles seules mettent en évidence la nécessité d'une approche plus simple.

Autonodyne pense que l'automatisation intelligente commence par des tâches critiques mais déterministes pour le vol (par exemple, l'utilisation de la liste de contrôle nominale, la surveillance du système, etc.). De plus, au fur et à mesure que l'expérience et la confiance du pilote dans l'automatisation intelligente augmentent, le pendule de l'automatisation oscillera pour inclure également des tâches non déterministes (planification de vol/mission, planification d'urgence, aide à la décision, conservation de soi, réaction aux menaces imminentes) dans la transition de ces opérations gérées par l'homme vers l'automatisation ultra-fiable.

Nous exploitons actuellement un Véhicule Piloté en Option (Cessna 182 expérimental) dans lequel nous expérimentons l'automatisation intelligente, les opérations de véhicule simplifiées et les formes avancées d'assistance au pilote. Nous avons également modifié un Cirrus SR-22 pour servir de VPO et de banc d'essai volant pour ces technologies.

Directions intelligentes

L'algorithme de planification de trajectoire d'Autonodyne qui dirige le comportement de contrôle du véhicule démontre la puissance de « l'automatisation intelligente » et sert de transition logique vers une véritable autonomie et finalement une IA complète. Dans ce scénario, un colis sera livré à sa destination selon l'itinéraire le plus court et le plus rapide. D'autres scénarios utilisent l'itinéraire le plus économe en énergie et d'autres encore utilisent la probabilité de détection moindre (par exemple, les parcours de « bon voisinage » dans les cas d'utilisation civile et l'évitement des menaces dans les cas d'utilisation en défense).

1

Les obstacles statiques tels que les maisons, les tours, les collines et les montagnes sont cartographiés en 2D/3D dans la mémoire interne en fonction des données du GPS et des capteurs. Les algorithmes éliminent les risques en définissant des périmètres d'interdiction de vol.

Les obstacles dynamiques dus à la météo, l'espace aérien et le trafic aérien sont également cartographiés en 2D/3D.

2

Au fur et à mesure que le drone avance, plusieurs parcours sont évalués en quelques secondes autour des obstacles identifiés jusqu'à ce qu'un parcours optimal soit déterminé.

3

Le drone livre son colis.

4

1

Les obstacles statiques tels que les maisons, les tours, les collines et les montagnes sont cartographiés en 2D/3D dans la mémoire interne en fonction des données du GPS et des capteurs. Les algorithmes éliminent les risques en définissant des périmètres d'interdiction de vol.

Les obstacles dynamiques dus à la météo, l'espace aérien et le trafic aérien sont également cartographiés en 2D/3D.

2

Au fur et à mesure que le drone avance, plusieurs parcours sont évalués en quelques secondes autour des obstacles identifiés jusqu'à ce qu'un parcours optimal soit déterminé.

3

Le drone livre son colis.

4

1

Les obstacles statiques tels que les maisons, les tours, les collines et les montagnes sont cartographiés en 2D/3D dans la mémoire interne en fonction des données du GPS et des capteurs. Les algorithmes éliminent les risques en définissant des périmètres d'interdiction de vol.

Au fur et à mesure que le drone avance, plusieurs parcours sont évalués en quelques secondes autour des obstacles identifiés jusqu'à ce qu'un parcours optimal soit déterminé.

3

1

Le drone livre son colis.

4

Les obstacles dynamiques dus à la météo, l'espace aérien et le trafic aérien sont également cartographiés en 2D/3D.

2

Au fur et à mesure que le drone avance, plusieurs parcours sont évalués en quelques secondes autour des obstacles identifiés jusqu'à ce qu'un parcours optimal soit déterminé.

1

Les obstacles statiques tels que les maisons, les tours, les collines et les montagnes sont cartographiés en 2D/3D dans la mémoire interne en fonction des données du GPS et des capteurs. Les algorithmes éliminent les risques en définissant des périmètres d'interdiction de vol.

3

1

Le drone livre son colis.

4

Les obstacles dynamiques dus à la météo, l'espace aérien et le trafic aérien sont également cartographiés en 2D/3D.

2

SOURCE : Archives Autonodyne

RCU-1000 fonctionnant sur un Panasonic FZ-N1 Android EUD connecté à un sUAS Teal Golden Eagle

Postes de commande

Autonodyne conçoit et fabrique des logiciels de poste de commande (par exemple, « RCU-1000 ») qui servent d'outil de supervision pour les véhicules sans équipage ou non exploités/pilotés de façon traditionnelle. Une variante de ces postes de commande est les « postes de commande communs » où nous utilisons des « logiciels enveloppe » qui savent comment communiquer avec un véhicule en utilisant l'infrastructure, le matériel et les protocoles de communication existants. Dans ces cas, nous n'ajoutons aucun matériel ou logiciel spécial à l'UV. Que vous utilisiez un poste de commande physique Autonodyne RCU-1000 ou que vous téléchargiez notre logiciel sur votre matériel, l'une ou l'autre approche permet à un seul opérateur de contrôler tous les véhicules d'un réseau en même temps.

Autonodyne possède une expertise considérable dans la conception d'interfaces utilisateur naturelles (NUI). Cette capacité technique nous permet de fournir à n'importe quel opérateur de poste de commande une interface utilisateur de pointe qui est graphiquement élégante, intuitive et conviviale. Dans la mesure où l'opérateur humain a besoin d'interagir avec le ou les véhicules, cette interface est une extension naturelle de l'homme lui-même.

Nos postes de commande peuvent fonctionner sur une multitude de plates-formes matérielles différentes (téléphones mobiles, tablettes, PC, ordinateurs portables, etc.), de systèmes d'exploitation (Android, Microsoft Windows et Linux) et sont indépendantes des liaisons. Les périphériques d'entrée qu'actuellement en charge comprennent un clavier/souris traditionnel, des manettes de jeu commerciales (par exemple, Xbox), des commandes vocales/gestuelles, des appareils de réalité augmentée (par exemple, HoloLens) et d'autres. Sur les supports à écran tactile, vous pouvez utiliser des comportements multi-tactiles auxquels vous êtes habitué, notamment le pincement, le zoom, etc. Voir Présentation du produit pour une liste complète.

SOURCE : Archives Autonodyne

Un mélange de postes de commande portables exécutant le logiciel Autonodyne.

SOURCE : Archives Autonodyne

L'un des véhicules aériens sans pilote Kratos UTAP-22 Mako volant comme un ailier sans pilote avec cet AV-8B Harrier, le tout sous le contrôle de notre tablette.

Formation d'équipe avec/sans équipage (MUM-T)

Les capacités fournies par les technologies MUM-T offrent un nouveau niveau d'interopérabilité (LOI) entre les forces terrestres, les aéronefs pilotés et les véhicules sans équipage (UV).

La capacité des forces terrestres et des aéronefs pilotés à partager les produits UV augmente considérablement la connaissance de la situation et améliore la qualité de la prise de décision. Par exemple, les images en direct et fixes acquises à partir des charges utiles des capteurs UV peuvent être partagées sur le réseau. Dans le domaine aérien, des groupes de « fidèles ailiers » sans équipage et à faible coût agissent à l'unisson avec des aéronefs pilotés pour servir de multiplicateurs de force en ajoutant de la masse et de la quantité.

SOURCE : Archives Autonodyne

Formation d'équipe avec/sans équipage - une paire d'ailiers sans pilote Kratos UTAP-22 à un AV-8 Harrier.

Autonodyne construit et teste en vol des systèmes qui permettent la formation d'équipe avec/sans équipage depuis la création de l'entreprise. Nous avons construit le matériel et les logiciels de l'ordinateur de mission embarqué et le logiciel du poste de commande externe pour plusieurs programmes MUM-T. Ces produits ont été testés en vol selon TRL-7 (une démonstration de prototype de système dans un environnement opérationnel).

Nos conceptions utilisent une approche basée sur les tâches (par exemple, « Suivre », « Attendre », « Survoler », « Surveiller », « Organiser », « Empiler », «RTB», etc.) pour fournir une myriade de fonctionnalités. Cela permet au superviseur humain, la partie habitée de l'équipe avec/sans équipage, de réduire considérablement la quantité de bande passante cognitive nécessaire pour contrôler ou diriger les membres d'équipe sans pilote.

Ceci est également applicable dans plusieurs domaines (air, mer et terre).

Puissance d'équipe

Dans ce scénario de formation d'équipe avec/sans équipage (MUM-T), un pilote impliqué dans une opération de recherche et de sauvetage relaie les sites potentiels d'un opérateur au sol pour rechercher un randonneur perdu. L'opérateur envoie immédiatement divers UV pour observer ces zones.

La vidéo recueillie par les drones du réseau est partagée avec l'équipe de recherche et de sauvetage.

Véhicules sans pilote

(Drones)

Homme opérant un avion équipé d'un ordinateur de mission

L'opérateur scanne la vidéo collectée par les UV dans le réseau.

Un essaim de drones repère un randonneur. Le pilote confirme le randonneur à partir d'un flux vidéo et une opération de sauvetage commence.

2

1

Homme avec un poste de commande mobile

Véhicules sans pilote

(Drones)

La vidéo recueillie par les drones du réseau est partagée avec l'équipe de recherche et de sauvetage.

Homme opérant un avion équipé d'un ordinateur de mission

L'opérateur scanne la vidéo collectée par les UV dans le réseau.

Un essaim de drones repère un randonneur. Le pilote confirme le randonneur à partir d'un flux vidéo et une opération de sauvetage commence.

2

1

Homme avec un poste de commande mobile

Homme opérant un avion équipé d'un ordinateur de mission

Homme avec un poste de commande mobile

Véhicules sans pilote

(Drones)

L'opérateur scanne la vidéo collectée par les UV dans le réseau.

1

Un essaim de drones repère un randonneur. Le pilote confirme le randonneur à partir d'un flux vidéo et une opération de sauvetage commence.

2

La vidéo recueillie par les drones du réseau est partagée avec l'équipe de recherche et de sauvetage.

Homme opérant un avion équipé d'un ordinateur de mission

Véhicules sans pilote

(Drones)

L'opérateur scanne la vidéo collectée par les UV dans le réseau.

1

Un essaim de drones repère un randonneur. Le pilote confirme le randonneur à partir d'un flux vidéo et une opération de sauvetage commence.

2

La vidéo recueillie par les drones du réseau est partagée avec l'équipe de recherche et de sauvetage.

Homme avec un poste de commande mobile

SOURCE : Archives Autonodyne

Opérations collaboratives multi-navires à partir du même poste de commande commun Autonodyne.

Opérations autonomes collaboratives multi-navires

Le logiciel d'Autonodyne a été spécialement conçu pour prendre en charge les opérations autonomes collaboratives multi-navires. Cette approche permet à des UV dissemblables de communiquer les uns avec les autres pour réaliser des comportements de type essaim. Bien que plusieurs architectures soient possibles pour activer ces capacités, à ce jour, nous avons mis en œuvre une approche basée sur le réseau IP afin que chaque ordinateur de mission et poste de commande soit une entité du réseau.

Sur le front du comportement en essaim, les exemples de fonctionnalités prises en charge jusqu'à présent comprennent de multiples formes de maintien de la station de décalage x-y-z, telles que le vol en formation avec d'autres aéronefs, le maintien d'une position ou un modèle faisant référence à un élément à position fixe. Un autre exemple que nous avons mis en œuvre est un comportement marsupial où un véhicule aérien sans pilote se déplace à l'arrière d'un rover terrestre sans pilote et lorsque le rover au sol ne peut pas aller plus loin, le véhicule aérien se lance automatiquement depuis son dos pour continuer la mission. (Voir Comportements autonomes).

Nous passons également à des architectures de réseau maillé prenant en charge n>>1 ou des comportements d'essaimage. À ce jour, nous utilisons régulièrement 10 UV différents simultanément sous l'œil vigilant d'un seul opérateur humain à l'aide d'un appareil mobile pour interagir avec l'essaim lorsque cela est nécessaire ou souhaité. La formation collaborative fonctionne comme un collectif distribué pour trouver des cibles, réaffecter les rôles de formation, si nécessaire, et partager diverses formes de données acquises par des capteurs.

Travailler en groupe, avec d'autres équipes

Dans le cadre d'une mission humanitaire, un opérateur de commande a dépêché un essaim de quadricoptères autonomes pour livrer les fournitures de premiers secours nécessaires. Il se déplacera dans une zone déchirée par la guerre dans une région montagneuse, il a donc programmé un ensemble de comportements qui permettent à un seul drone, ou au groupe, de suivre un itinéraire sûr. Autres capacités à la disposition de l'opérateur :

Autonodyne prend en charge ces fonctionnalités

Fonctionnalités en cours de développement

L'opérateur peut partager des informations sur l'état du sol avec les avions cargo.

D'autres drones, ou essaims, peuvent être activés pour soutenir la mission.

Plusieurs drones à voilure fixe peuvent être appelés pour étudier les dégâts.

Des sous-marins autonomes peuvent être envoyés pour étudier les dommages à un port de livraison.

Un convoi peut livrer des fournitures dans des régions éloignées.

Des bateaux de livraison autonomes peuvent transporter des fournitures le long des voies navigables.

Autonodyne prend en charge ces fonctionnalités

Fonctionnalités en cours de développement

L'opérateur peut partager des informations sur l'état du sol avec les avions cargo.

D'autres drones, ou essaims, peuvent être activés pour soutenir la mission.

Plusieurs drones à voilure fixe peuvent être appelés pour étudier les dégâts.

Des sous-marins autonomes peuvent être envoyés pour étudier les dommages à un port de livraison.

Un convoi peut livrer des fournitures dans des régions éloignées.

Des bateaux de livraison autonomes peuvent transporter des fournitures le long des voies navigables.

Autonodyne prend en charge ces fonctionnalités

D'autres drones, ou essaims, peuvent être activés pour soutenir la mission.

Fonctionnalités en cours de développement

L'opérateur peut partager des informations sur l'état du sol avec les avions cargo.

Des sous-marins autonomes peuvent être envoyés pour étudier les dommages à un port de livraison.

Plusieurs drones à voilure fixe peuvent être appelés pour étudier les dégâts.

Des bateaux de livraison autonomes peuvent transporter des fournitures le long des voies navigables.

 

Un convoi peut livrer des fournitures dans des régions éloignées.

D'autres drones, ou essaims, peuvent être activés pour soutenir la mission.

Autonodyne prend en charge ces fonctionnalités

Fonctionnalités en cours de développement

L'opérateur peut partager des informations sur l'état du sol avec les avions cargo.

Des sous-marins autonomes peuvent être envoyés pour étudier les dommages à un port de livraison.

Plusieurs drones à voilure fixe peuvent être appelés pour étudier les dégâts.

 

Des bateaux de livraison autonomes peuvent transporter des fournitures le long des voies navigables.

 

Un convoi peut livrer des fournitures dans des régions éloignées.

SOURCE : Archives Autonodyne

Notre algorithme de détection et de classification par vision sur ordinateur fonctionnant sur le flux vidéo de Times Square.

Intelligence artificielle

Autonodyne associe des capacités d'intelligence artificielle dans le but de pouvoir un jour servir d'agent de confiance pour les humains. Lorsque nous y arriverons, cela éliminera de nombreux fardeaux cognitifs et physiques sur les humains et élargira radicalement le champ des possibles. Ceci est mieux compris dans des cas d'utilisation réels tels que :

C'est plus qu'un simple multiplicateur de force : il a le pouvoir et le potentiel de débloquer bien plus.

Nous expérimentons des « réseaux de Petri colorés », en regroupant une bibliothèque de nos comportements d'autonomie existants et en cours de développement dans des séquences logiques. En nous appuyant sur cette bibliothèque de séquences, nous pouvons, comme au football, créer des « systèmes », appeler les systèmes et finalement créer des « missions » complètes. Lorsque le logiciel de la mission est regroupé en un « moteur d'autonomie », la fonctionnalité collective du logiciel permet de piloter le ou les véhicules en réponse à l'entrée du capteur d'un véhicule et aux objectifs de mission de l'opérateur.

Nous commençons maintenant à nous plier au raisonnement sémantique pour construire une « conscience contextuelle ». Cette prise de conscience signifie que le logiciel détecte et évalue l'environnement du véhicule autonome et construit une scène virtuelle en fonction de ce qu'il détecte. Sur cette scène, il fusionne les données d'autres entrées disponibles. Ensuite, il peut effectuer un raisonnement à la marge pour tirer des conclusions et déterminer ses propres plans d'action (COA) possibles. À partir de ces COA, il construit un plan de jeu et utilise les écrans de notre station de contrôle comme un moyen de transmettre ces plans à tous les superviseurs humains en boucle. L'humain peut choisir parmi les COA proposés, construire manuellement sa propre mission ou simplement laisser le logiciel suivre son cours.

Pour l'instant, notre homme sur la boucle sert de vérificateur de cohérence et de figure d'autorité des systèmes autonomes activés par l'IA. Au fur et à mesure que les hommes développeront leur confiance dans ces systèmes d'IA, ils abandonneront lentement leurs « petites roues »dans la collaboration d'équipe sans pilote et utiliseront la technologie qui vise à assurer une autonomie assurée.

Source : archives Autonodyne

Nous avons modifié le logiciel de la série Avidyne IFD d'ordinateurs de mission pour assurer la connectivité avec nos postes de commande mobiles communes. Ces unités ont d'abord été testées dans notre laboratoire, puis installées dans le Cessna 182 expérimental de la société que nous utilisons comme banc d'essai de vol de véhicule piloté en option.

Ordinateurs de mission

Autonodyne conçoit et construit des logiciels informatiques de mission pour les applications de défense et civiles. Les ordinateurs de mission gèrent un large éventail de fonctions, notamment la navigation du véhicule, la santé et l'état du véhicule, le contrôle des systèmes embarqués comme les charges utiles, les communications vers/depuis d'autres systèmes embarqués tels que les pilotes automatiques et les liaisons de communication externes.

Le logiciel de contrôle de vol autonome d'Autonodyne peut être associé au matériel informatique de mission de la série IFD d'Avidyne (rangée du bas) et du NIU1A de North Atlantic Industries (en haut). Les systèmes de gestion de vol sont une avionique certifiée FAA.

Source : archives Autonodyne

Nous avons appliqué notre logiciel de véhicule piloté en option à un Cirrus SR-22 (vu en vol lors des essais en vol OPV et stationné au sol après le vol) et à un Cessna 182.

Mobilité aérienne avancée/véhicules pilotés en option

Autonodyne pense qu'une nouvelle génération de véhicules à décollage et atterrissage vertical (VTOL) permettra une nouvelle forme de transport urbain. Désormais appelé Advanced Aerial Mobility (AAM), le modèle de transport ressemblera beaucoup à ses homologues de transport de surface urbain Uber et Lyft. À cette fin, Autonodyne peut fournir :

Source  : NASA

La NASA envisage un système de transport aérien qui déplace les personnes et le fret entre des endroits auparavant non desservis ou mal desservis par l'aviation (locale, régionale, intrarégionale, urbaine) en utilisant de nouveaux aéronefs révolutionnaires qui ne font que devenir possible.

SOURCE : Archives Autonodyne

Intégration de réalité augmentée (Microsoft Hololens) avec Autonodyne RCU-1000.

Réalité augmentée (RA)

Autonodyne a mené des recherches et des développements considérables pour créer un poste de commande à réalité augmentée (RA) à l'aide de dispositifs RA disponibles dans le commerce tels que Microsoft HoloLens ou Meta 2. Nos opérations d'essais en vol de RA ont identifié quelques domaines dans lesquels la RA peut avoir un impact profond. Ces objectifs sont notamment  :