Deutsch ▾
Sprache ändern
English (eng) François (fra)
Deutsch ▾
Sprache ändern
English (eng) François (fra)

Gebaut, um Kontrolle in die Autonomie zu bringen

Unsere Kernentwicklungsbereiche sind softwarebezogen. Unsere Robotikingenieure verbringen den größten Teil ihrer Zeit mit smarter Automatisierung, Mehrschiffbetrieb und bemanntem-unbemanntem Teaming (MUM-T) und arbeiten viel mit Computer Vision für präzise Landung, Objekterkennung und Vermeidung von Hindernissen. Der Großteil unserer Kernkompetenzen basiert auf Algorithmen, und unsere KI-Experten entwickeln ständig neue fortschrittliche Autonomieverhaltensweisen und verbessern die autonome Pfadplanung. Diese Bemühungen umfassen die Verwendung von maschinellem Lernen und Sensorausgaben, um unser Verständnis der Umgebung zu verbessern und dadurch die verwendeten Algorithmen konsequent zu verbessern. Die Visualisierung des Fahrzeugzustands, des Navigationsplans, der Missionsplanung und -ausführung ist ein großer Teil unserer Arbeit und wird in unseren Leitstellen, erweiterter Luftmobilität und in unserer Arbeit mit erweiterter/virtueller/gemischter Realität verwendet.

Bemannt-Unbemanntes Teaming mit unbemannten Hochleistungs-Flugsystemen

Seit 2016 bieten wir Software für die Mensch-Maschine-Schnittstelle und die Steuerung der Autonomie an. Diese Bilder zeigen unsere Zusammenarbeit mit Kratos Unmanned Aerial Systems, um ihre UTAP-22 Mako-Luftfahrzeuge über mobile Tablet-Steuerungen aus bemannten Kampfflugzeugen und Command/Control-Flugzeugen zu steuern. Ein Bild zeigt, wie wir gleichzeitig zwei tatsächliche Luftfahrzeuge und zwei simulierte steuern. Unsere Software wurde auf dem robusten Tablet im Bild unten gehostet und war ab dem Zeitpunkt, an dem sie sich auf der Startschiene befanden, über den Flug und die Rückkehr zum Boden mit den Flugzeugzellen verbunden.

Autonodyne Archivbilder

Smarte Automatisierung und vereinfachter Fahrzeugbetrieb

In der Luftfahrt wird Smarte Automatisierung als Automatisierung bestimmter Elemente der Flugvorbereitung und Flugsteuerung definiert. Insbesondere zielt es auf kontextsensitive Aufgaben ab, um die Arbeitslastspitzen und die Gesamtarbeitslast des Menschen zu reduzieren. Wir betrachten dies als ein Mittel, um einen vereinfachten Fahrzeugbetrieb zu erreichen. Um nur einige Beispiele zu nennen:

Autonodyne betrachtet Smarte Automatisierung als ein erstes „Sicherheitsnetz“, um die Möglichkeit des Menschen als einzelne Schwachstelle bei der Entscheidungsfindung abzuschwächen. Mit den Fortschritten in der KI-Technologie werden auf lange Sicht vorwiegend von Menschen betriebene Vorgänge einer äußerst zuverlässigen Automatisierung weichen. Letztendlich wird diese schrittweise Entwicklung volle Autonomie ermöglichen.

Die Komplexität von Flugsystem und Flugmodus nimmt ständig zu. Ebenso wie die Variation zwischen Flugzeug- und Softwareversionen in eingesetzten Legacy-Systemen. Allein diese wenigen Trends unterstreichen die Notwendigkeit eines einfacheren Ansatzes.

Autonodyne ist der Ansicht, dass Smarte Automatisierung mit flugkritischen, aber deterministischen Aufgaben beginnt (z. B. nominelle Verwendung von Checklisten, Systemüberwachung usw.). Wenn zusätzlich die Erfahrung und das Vertrauen eines Piloten in Smarte Automatisierung zunehmen, wird das Pendel der Automatisierung auch zu nicht deterministischen Aufgaben (Flug-/Missionsplanung, Notfallplanung, Entscheidungsunterstützung, Selbsterhaltung, Reaktion auf unmittelbare Bedrohungen) schwingen und diese vom Menschen geführten Einsätze hin zu einer äußerst zuverlässigen Automatisierung überführen.

Wir betreiben derzeit ein optional bemanntes Fahrzeug (experimentelle Cessna 182), in dem wir mit Smarter Automatisierung, vereinfachtem Fahrzeugbetrieb und fortschrittlichen Formen der Pilotenunterstützung experimentieren. Wir haben auch eine Cirrus SR-22 als optional bemanntes Fahrzeug modifiziert, die als Flugprüfstand für diese Technologien dient.

Intelligente Richtungen

Der Pfadplanungsalgorithmus von Autonodyne, der das Fahrzeugsteuerungsverhalten steuert, demonstriert die Leistungsfähigkeit der „Smarten Automatisierung“ und dient als logischer Übergang zu echter Autonomie und schließlich zu vollständiger KI. In diesem Szenario wird ein Paket auf kürzestem, schnellstem Weg an sein Ziel geliefert. Andere Szenarien verwenden das energieeffizienteste Routing und wieder andere verwenden die geringste Erkennungswahrscheinlichkeit (z. B. Pfade mit „guten Nachbarn“ in zivilen Anwendungsfällen und Vermeidung von Bedrohungen in Verteidigungsanwendungsfällen).

1

Statische Hindernisse wie Häuser, Türme, Hügel und Berge werden basierend auf GPS- und Sensordaten in 2D/3D im internen Speicher abgebildet. Algorithmen eliminieren das Risiko, indem sie den Flugverbotsumfang festlegen.

Dynamische Hindernisse wie Wetter, Luftraum und Luftverkehr werden ebenfalls in 2D/3D dargestellt.

2

Während sich die Drohne vorwärts bewegt, werden mehrere Pfade in Sekunden um die identifizierten Hindernisse herum ausgewertet, bis ein optimaler Pfad bestimmt ist.

3

Die Drohne liefert ihr Paket ab.

4

1

Statische Hindernisse wie Häuser, Türme, Hügel und Berge werden basierend auf GPS- und Sensordaten in 2D/3D im internen Speicher abgebildet. Algorithmen eliminieren das Risiko, indem sie den Flugverbotsumfang festlegen.

Dynamische Hindernisse wie Wetter, Luftraum und Luftverkehr werden ebenfalls in 2D/3D dargestellt.

2

Während sich die Drohne vorwärts bewegt, werden mehrere Pfade in Sekunden um die identifizierten Hindernisse herum ausgewertet, bis ein optimaler Pfad bestimmt ist.

3

Die Drohne liefert ihr Paket ab.

4

1

Statische Hindernisse wie Häuser, Türme, Hügel und Berge werden basierend auf GPS- und Sensordaten in 2D/3D im internen Speicher abgebildet. Algorithmen eliminieren das Risiko, indem sie den Flugverbotsumfang festlegen.

Während sich die Drohne vorwärts bewegt, werden mehrere Pfade in Sekunden um die identifizierten Hindernisse herum ausgewertet, bis ein optimaler Pfad bestimmt ist.

3

1

Die Drohne liefert ihr Paket ab.

4

Dynamische Hindernisse wie Wetter, Luftraum und Luftverkehr werden ebenfalls in 2D/3D dargestellt.

2

Während sich die Drohne vorwärts bewegt, werden mehrere Pfade in Sekunden um die identifizierten Hindernisse herum ausgewertet, bis ein optimaler Pfad bestimmt ist.

1

Statische Hindernisse wie Häuser, Türme, Hügel und Berge werden basierend auf GPS- und Sensordaten in 2D/3D im internen Speicher abgebildet. Algorithmen eliminieren das Risiko, indem sie den Flugverbotsumfang festlegen.

3

1

Die Drohne liefert ihr Paket ab.

4

Dynamische Hindernisse wie Wetter, Luftraum und Luftverkehr werden ebenfalls in 2D/3D dargestellt.

2

QUELLE: Autonodyne-Archive

RCU-1000 läuft auf einem Panasonic FZ-N1 Android Endnutzergerät, das mit einem Teal Golden Eagle (kleines unbemanntes Flugsystem) verbunden ist

Leitstellen

Autonodyne entwirft und baut Leitstellensoftware (z. B. „RCU-1000“), die als Überwachungswerkzeug für unbemannte oder nicht traditionell betriebene/pilotierte Fahrzeuge dient. Eine Variante dieser Leitstellen sind „Gemeinsame Leitstellen“, bei denen wir „Software Wrapper“ verwenden, die wissen, wie man mit vorhandenen Infrastruktur-, Hardware- und Kommunikationsprotokollen mit einem Fahrzeug kommuniziert. In diesen Fällen fügen wir dem unbemannten Fahrzeug keine spezielle Hardware oder Software hinzu. Unabhängig davon, ob Sie eine physische Autonodyne RCU-1000-Leitstelle verwenden oder unsere Software auf Ihre Hardware herunterladen, ermöglicht jeder Ansatz einem einzelnen Bediener, alle Fahrzeuge in einem Netzwerk gleichzeitig zu steuern.

Autonodyne verfügt über beträchtliche Erfahrung im Design von Natürlichen Anwenderoberflächen. Diese technische Fähigkeit ermöglicht es uns, jedem Bediener einer Leitstelle eine branchenführende Anwenderoberfläche zur Verfügung zu stellen, die grafisch elegant, intuitiv und benutzerfreundlich ist. In dem Maße, in dem der menschliche Bediener mit dem Fahrzeug oder den Fahrzeugen interagieren muss, ist diese Schnittstelle als eine natürliche Erweiterung des Menschen selbst anzusehen.

Unsere Leitstellen können auf einer Vielzahl verschiedener Hardwareplattformen (Mobiltelefone, Tablets, PCs, Laptops usw.) und Betriebssystemen (Android, Microsoft Windows und Linux) ausgeführt werden und sie sind verbindungsunabhängig. Zu den unterstützten Eingabegeräten gehören eine herkömmliche Tastatur/Maus, kommerzielle Spielcontroller (z. B. Xbox), Sprach-/Gestenbefehle, Geräte für erweiterte Realität (z. B. HoloLens) und andere. Auf Touchscreen-Geräten können Sie Multi-Touch-Gesten verwenden, die Sie bereits kennen, einschließlich Pinch, Zoom usw. Eine vollständige Liste finden Sie in der Produktübersicht .

QUELLE: Autonodyne-Archive

Eine Mischung aus tragbaren Leitstellen, auf denen Autonodyne-Software ausgeführt wird.

QUELLE: Autonodyne-Archive

Eines der unbemannten Kratos UTAP-22 Mako-Luftfahrzeuge, das mit dieser AV-8B Harrier als unbemannter Rottenflieger fliegt, während es sich unter unserer Tablet-Kontrolle befindet.

Bemannt-Unbemanntes Teaming

Die durch bemannt-unbemannte Teams-Technologien bereitgestellten Funktionen bieten ein neues Maß an Interoperabilität zwischen Bodentruppen, bemannten Flugzeugen und unbemannten Fahrzeugen.

Die Fähigkeit von Bodentruppen und bemannten Flugzeugen, UV-Produkte gemeinsam zu nutzen, erhöht das Situationsbewusstsein erheblich und verbessert die Qualität der Entscheidungsfindung. Beispielsweise können Live- und Standbilder, die von den Sensoren der unbemannten Fahrzeuge aufgenommen wurden, über das Netzwerk gemeinsam genutzt werden. Im Luftbereich agieren Gruppen von kostengünstigen, nicht besetzten „loyalen Rottenfliedern“ im Einklang mit bemannten Flugzeugen, um als Kraftmultiplikatoren zu dienen, indem sie Masse und Menge hinzufügen.

QUELLE: Autonodyne-Archive

Bemannt-Unbemanntes Teaming – ein Paar unbemannter Kratos UTAP-22-Rottenflieger einer AV-8 Harrier.

Autonodyne hat seit Unternehmensgründung Systeme entwickelt und getestet, die Bemannt-Unbemanntes Teaming ermöglichen. Wir haben die integrierte Missionscomputer-Hardware und -Software sowie die integrierte Leitstellen-Software für mehrere Programme für bemannt-unbemannte Teams entwickelt. Diese Produkte wurden im Flug nach TRL-7 getestet (eine Demonstration eines Systemprototyps in einer Betriebsumgebung).

Unsere Entwürfe verwenden einen aufgabenbasierten Ansatz (z. B. „Folgen“, „Warteflug“, „Darüber fliegen“, „Überwachen“, „Bereitstellen“, „Stapeln“, „Rückkehr zur Basis (RTB)“ usw.), um eine Vielzahl an Funktionalitäten zu bieten. Auf diese Weise kann der menschliche Beobachter, der bemannte Teil des bemannt-unbemannten Teams, die kognitive Bandbreite, die zur Leitung oder Steuerung der unbemannten Teammitglieder erforderlich ist, erheblich reduzieren.

Dies gilt gleichermaßen für mehrere Domänen (Luft, Meer und Land).

Team-Kraft

In diesem Szenario des bemannten-unbemannten Teaming leitet ein Pilot, der an einer Such- und Rettungsaktion beteiligt ist, potenzielle Standorte an eine am Boden befindliche Einsatzkraft weiter, um nach einem verlorenen Wanderer zu suchen. Die Einsatzkraft sendet sofort verschiedene unbemannte Fahrzeuge, um diese Bereiche zu beobachten.

Das von den Drohnen im Netzwerk gesammelte Videomaterial wird mit dem Such- und Rettungsteam geteilt.

Unbemannte Fahrzeuge

(Drohnen)

Mensch, der ein Flugzeug bedient, das mit einem Missionscomputer ausgestattet ist.

Die Einsatzkraft sieht sich Videos an, die von den unbemannten Fahrzeugen im Netzwerk erfasst werden.

Ein Drohnenschwarm entdeckt einen Wanderer. Der Pilot bestätigt den Wanderer anhand eines Video-Feeds und eine Rettungsaktion beginnt.

2

1

Mensch mit einer mobilen Leitstelle.

Unbemannte Fahrzeuge

(Drohnen)

Das von den Drohnen im Netzwerk gesammelte Videomaterial wird mit dem Such- und Rettungsteam geteilt.

Mensch, der ein Flugzeug bedient, das mit einem Missionscomputer ausgestattet ist.

Die Einsatzkraft sieht sich Videos an, die von den unbemannten Fahrzeugen im Netzwerk erfasst werden.

Ein Drohnenschwarm entdeckt einen Wanderer. Der Pilot bestätigt den Wanderer anhand eines Video-Feeds und eine Rettungsaktion beginnt.

2

1

Mensch mit einer mobilen Leitstelle.

Mensch, der ein Flugzeug bedient, das mit einem Missionscomputer ausgestattet ist.

Mensch mit einer mobilen Leitstelle.

Unbemannte Fahrzeuge

(Drohnen)

Die Einsatzkraft sieht sich Videos an, die von den unbemannten Fahrzeugen im Netzwerk erfasst werden.

1

Ein Drohnenschwarm entdeckt einen Wanderer. Der Pilot bestätigt den Wanderer anhand eines Video-Feeds und eine Rettungsaktion beginnt.

2

Das von den Drohnen im Netzwerk gesammelte Videomaterial wird mit dem Such- und Rettungsteam geteilt.

Mensch, der ein Flugzeug bedient, das mit einem Missionscomputer ausgestattet ist.

Unbemannte Fahrzeuge

(Drohnen)

Die Einsatzkraft sieht sich Videos an, die von den unbemannten Fahrzeugen im Netzwerk erfasst werden.

1

Ein Drohnenschwarm entdeckt einen Wanderer. Der Pilot bestätigt den Wanderer anhand eines Video-Feeds und eine Rettungsaktion beginnt.

2

Das von den Drohnen im Netzwerk gesammelte Videomaterial wird mit dem Such- und Rettungsteam geteilt.

Mensch mit einer mobilen Leitstelle.

QUELLE: Autonodyne-Archive

Kollaborative Einsätze mit mehreren Schiffen von derselben Autonodyne gemeinsamen Leitstelle aus.

Kollaborative autonome Einsätze mit mehreren Schiffen

Die Software von Autonodyne wurde speziell entwickelt, um kollaborative autonome Einsätze mit mehreren Schiffen zu unterstützen. Dieser Ansatz ermöglicht es unterschiedlichen unbemannten Fahrzeugen, miteinander zu kommunizieren, um schwarmähnliche Verhaltensweisen auszuführen. Obwohl mehrere Architekturen möglich sind, um diese Funktionen zu aktivieren, haben wir einen IP-Netzwerk-basierten Ansatz implementiert, sodass jeder Missionscomputer und jede Leitstelle eine Einheit im Netzwerk ist.

In Bezug auf das Schwarmverhalten umfasst die bisher unterstützte Beispielfunktionalität mehrere Formen der XYZ-Versatz-Stationierung, z. B. das Fliegen in Formation mit anderen Flugzeugen, das Beibehalten einer Position oder ein Muster, das sich auf ein Asset mit fester Position bezieht. Ein weiteres Beispiel, das wir implementiert haben, ist ein Beuteltierverhalten, bei dem ein unbemanntes Luftfahrzeug auf dem Rücken eines unbemannten Bodenrovers fährt. Wenn der Bodenrover nicht weiter fahren kann, startet das Luftfahrzeug automatisch, um die Mission fortzusetzen. (Siehe Autonome Verhaltensweisen).

Wir wechseln auch zu Mesh-Netzwerkarchitekturen, die n >> 1 oder Schwarmverhalten unterstützen. Bisher betreiben wir routinemäßig 10 verschiedene unbemannte Fahrzeuge gleichzeitig unter dem wachsamen Auge eines einzelnen menschlichen Bedieners, der ein mobiles Gerät verwendet, um bei Bedarf oder Wunsch mit dem Schwarm zu interagieren. Die kollaborative Formation arbeitet als verteiltes Kollektiv, um Ziele zu finden, Formationsrollen neu zuzuweisen – falls erforderlich – und verschiedene Formen von vom Sensor erfassten Daten auszutauschen.

Arbeiten in Gruppen mit anderen Teams

Im Rahmen einer humanitären Mission hat ein Leitstellenbetreiber einen Schwarm autonomer Quadcopter entsandt, um die benötigten Erste-Hilfe-Güter zu liefern. Er wird durch ein vom Krieg heimgesuchtes Gebiet in einer Bergregion fliegen, also programmierte er eine Reihe von Verhaltensweisen, die es einer einzelnen Drohne oder einer Gruppe von Drohnen ermöglichen, einem sicheren Weg zu folgen. Weitere Funktionen, die dem Bediener zur Verfügung stehen:

Autonodyne unterstützt diese Funktionen

Funktionen in der Entwicklung

Der Bediener kann Bodenzustandsinformationen mit Frachtflugzeugen teilen.

Andere Drohnen oder Schwärme können aktiviert werden, um die Mission zu unterstützen.

Es können mehrere Starrflügeldrohnen gerufen werden, um den Schaden zu überwachen.

Autonome U-Boote können geschickt werden, um Schäden an einem Lieferhafen zu überwachen.

Ein Konvoi kann Lieferungen in entlegene Gebiete liefern.

Autonome Lieferboote können Vorräte entlang von Wasserstraßen transportieren.

Autonodyne unterstützt diese Funktionen

Funktionen in der Entwicklung

Der Bediener kann Bodenzustandsinformationen mit Frachtflugzeugen teilen.

Andere Drohnen oder Schwärme können aktiviert werden, um die Mission zu unterstützen.

Es können mehrere Starrflügeldrohnen gerufen werden, um den Schaden zu überwachen.

Autonome U-Boote können geschickt werden, um Schäden an einem Lieferhafen zu überwachen.

Ein Konvoi kann Lieferungen in entlegene Gebiete liefern.

Autonome Lieferboote können Vorräte entlang von Wasserstraßen transportieren.

Autonodyne unterstützt diese Funktionen

Andere Drohnen oder Schwärme können aktiviert werden, um die Mission zu unterstützen.

Funktionen in der Entwicklung

Der Bediener kann Bodenzustandsinformationen mit Frachtflugzeugen teilen.

Autonome U-Boote können geschickt werden, um Schäden an einem Lieferhafen zu überwachen.

Es können mehrere Starrflügeldrohnen gerufen werden, um den Schaden zu überwachen.

Autonome Lieferboote können Vorräte entlang von Wasserstraßen transportieren.

 

Ein Konvoi kann Lieferungen in entlegene Gebiete liefern.

Andere Drohnen oder Schwärme können aktiviert werden, um die Mission zu unterstützen.

Autonodyne unterstützt diese Funktionen

Funktionen in der Entwicklung

Der Bediener kann Bodenzustandsinformationen mit Frachtflugzeugen teilen.

Autonome U-Boote können geschickt werden, um Schäden an einem Lieferhafen zu überwachen.

Es können mehrere Starrflügeldrohnen gerufen werden, um den Schaden zu überwachen.

 

Autonome Lieferboote können Vorräte entlang von Wasserstraßen transportieren.

 

Ein Konvoi kann Lieferungen in entlegene Gebiete liefern.

QUELLE: Autonodyne-Archive

Unser Computer Vision Algorithmus zur Erkennung und Klassifizierung, der auf dem Times Square-Video-Feed ausgeführt wird.

Künstliche Intelligenz

Autonodyne verbindet künstliche Intelligenz mit dem Ziel, dass sie eines Tages als vertrauenswürdiger Agent für Menschen dienen kann. Wenn wir dort ankommen, wird dies viele der kognitiven und physischen Belastungen für den Menschen verringern und die Kunst des Möglichen radikal erweitern. Dies lässt sich am besten in realen Anwendungsfällen verstehen, wie z. B.:

Dies ist mehr als nur ein Kraftmultiplikator – es hat die Kraft und das Potenzial, so viel mehr zu ermöglichen.

Wir experimentieren im Grunde genommen mit „gefärbten Petri-Netzen“ und fassen eine Bibliothek unserer vorhandenen und in Arbeit befindlichen Autonomieverhalten in logischen Sequenzen zusammen. Indem wir auf dieser Sequenzbibliothek aufbauen, können wir wie beim Football „Spielzüge“ erstellen, die Spielzüge aufrufen und letztendlich vollständige „Missionen“ erstellen. Wenn die Software der Mission in einer „Autonomie-Engine“ zusammengefasst ist, kann die kollektive Funktionalität der Software Fahrzeuge als Reaktion auf die Sensoreingabe eines Fahrzeugs und die Missionsziele des Bedieners steuern.

Wir fangen jetzt an, semantisches Denken hinzuzufügen, um ein „Kontextbewusstsein“ aufzubauen. Dieses Bewusstsein bedeutet, dass die Software die Umgebung des autonomen Fahrzeugs erfasst und bewertet und eine virtuelle Szene basierend auf dem, was es erfasst, erstellt. In dieser Szene werden Daten von anderen verfügbaren eingehenden Daten zusammengeführt. Dann kann es einige Überlegungen anstellen, um Schlussfolgerungen zu ziehen und seine eigenen möglichen Vorgehensweisen selbst zu bestimmen. Aus diesen Vorgehensweisen wird ein Spielplan erstellt und unsere Leitstellenanzeige als Mittel verwendet, um diese Pläne an alle beteiligten menschlichen Beobachter weiterzuleiten. Der Mensch kann aus den angebotenen Vorgehensweisen auswählen, manuell seine eigene Mission erstellen oder einfach die Software laufen lassen.

Fürs Erste dient unser eingebundener Mensch als Vernunftprüfer und Autoritätsperson für KI-fähige autonome Systeme. Wenn Menschen mehr Vertrauen in diese KI-Systeme entwickeln, werden sie in der bemannten und unbemannten Teamzusammenarbeit langsam ihre „Stützräder“ abnehmen und die Technologie einsetzen, die eine gesicherte Autonomie gewährleisten soll.

QUELLE: Autonodyne-Archive

Wir haben die Software in der Avidyne IFD-Serie für Missionscomputer so modifiziert, dass sie mit unseren mobilen gemeinsamen Leitstellen in Verbindung steht. Diese Einheiten wurden zuerst in unserem Labor getestet und dann in unserer experimentellen Cessna 182 installiert, die wir als Prüfstand für optional pilotierte Fahrzeuge verwenden.

Missionscomputer

Autonodyne entwirft und baut Missionscomputersoftware für Verteidigungs- und zivile Anwendungen. Die Missionscomputer verwalten eine breite Palette von Funktionen, einschließlich Fahrzeugnavigation, Fahrzeugzustand und -status, Steuerung der Bordsysteme wie Nutzlasten, Kommunikation zu/von anderen Bordsystemen wie Autopiloten und externe Kommunikationsverbindungen.

Die autonome Flugsteuerungssoftware von Autonodyne kann mit Missionscomputerhardware aus der IFD-Serie (untere Reihe) von Avidyne und der NIU1A von North Atlantic Industries (obere Reihe) gebündelt werden. Die Flugmanagementsysteme sind FAA-zertifizierte Avionik.

QUELLE: Autonodyne-Archive

Wir haben unsere Software für optional pilotierte Fahrzeuge in einer Cirrus SR-22 (im Flug während des Flugtests für optional pilotierte Fahrzeuge und nach dem Flug auf dem Boden geparkt abgebildet) und einer Cessna 182 installiert.

Flugsysteme mit erweiterter Luftmobilität/Optional pilotierten Fahrzeugen

Autonodyne glaubt, dass eine neue Generation von Fahrzeugen, die vertikal starten und landen können, eine neue Form städtischer Verkehrsmittel ermöglichen wird. Das Transportmodell, das jetzt als Erweiterte Luftmobilität bezeichnet wird, wird seinen Pendants Uber und Lyft für den städtischen Bodenverkehr sehr ähnlich sein. Zu diesem Zweck kann Autonodyne Folgendes bereitstellen:

Quelle: Nasa

Die NASA stellt sich ein Lufttransportsystem vor, das Menschen und Fracht zwischen Orten befördert, die zuvor nicht von der Luftfahrt bedient wurden oder unterversorgt waren – lokal, regional, überregional, städtisch. Dabei sollen revolutionäre neue Flugzeuge eingesetzt werden, die gerade jetzt erst möglich werden.

QUELLE: Autonodyne-Archive

Einbindung erweiterter Realität (Microsoft HoloLens) mit Autonodyne RCU-1000.

Erweiterte Realität

Autonodyne hat umfangreiche Forschungs- und Entwicklungsarbeiten durchgeführt, um eine Leitstelle für erweiterte Realität mit handelsüblichen AR-Geräten wie Microsoft HoloLens oder Meta 2 zu erstellen. Unsere Flugtests mit erweiterter Realität haben einige Bereiche identifiziert, in denen AR tiefgreifende Auswirkungen haben kann. Dazu zählen: