Von der prozeduralen Generierung zum Determinismus: Ansätze zur Modellierung synthetischer Daten für selbstfahrende Autos

Bild



Simulationen sind in vielen Branchen von entscheidender Bedeutung, um die Entwicklung von Entwurfsmethoden zu beschleunigen. Im Bereich der selbstfahrenden Fahrzeugsysteme werden Simulationen traditionell verwendet, um Planungs- und Bewegungssteuerungsalgorithmen zu testen. Wiederholte Simulationen werden verwendet, um Erkennungssysteme zu entwickeln, in denen Daten von Verkehrssensoren aufgezeichnet und unter Verwendung einer Vielzahl von Software-Stacks zur Leistungsüberprüfung wiedergegeben werden. Diese Simulationen beschränkten sich jedoch meist auf Szenarien in realen Autos.



Es gibt eine andere Art der Simulation, die immer wichtiger wird - die Erzeugung hochwertiger künstlicher Daten, die Informationen über reale Verkehrssituationen genau vermitteln. Das Problem bei der ausschließlichen Verwendung von Straßendaten besteht darin, dass große Datenmengen gesammelt und kartiert werden müssen, um den Grenzen der Erkennungsmodule in verschiedenen Betriebsbereichen näher zu kommen. Darüber hinaus entsprechen die Erkennungsalgorithmen nicht mehr den verfügbaren Daten und schlagen fehl, wenn sie außerhalb der Arbeitsumgebung und unter anderen Bedingungen betrieben werden. Synthetische Daten können wiederum schnell und kostengünstig generiert werden, und ihre Beschreibungen werden automatisch unter Verwendung der Grundkenntnisse der simulierten Umgebung generiert.



Probleme bei der Erzeugung synthetischer Daten für Wahrnehmungsmodule



Obwohl die Aufgabe der synthetischen Datenmodellierung für Sensoren einfach und offensichtlich erscheint, ist sie tatsächlich sehr schwierig. Neben der Schaffung realistischer synthetischer Umgebungen für verschiedene Regionen (z. B. San Francisco oder Tokio) erfordert die Modellierung jedes Sensortyps detaillierte Kenntnisse der grundlegenden physikalischen Eigenschaften und Eigenschaften verschiedener in der Industrie verwendeter Sensoren. Während Simulationen für andere Anwendungen erheblich langsamer sein können als in Echtzeit, erfordern die meisten fahrerlosen Fahralgorithmen eine Leistung in nahezu Echtzeit. Daher sind in verschiedenen Anwendungsfällen unterschiedliche Simulationsleistungen und -genauigkeiten erforderlich.



Obwohl erhebliche Anstrengungen unternommen werden, um jeden der Sensoren zu modellieren, erwarten Experten, dass in naher Zukunft eine spürbare Lücke zwischen realen und synthetischen Daten bestehen wird. Wahrnehmungsalgorithmen können an realen Daten von Sensoren trainiert und an synthetischen Daten (Übergang von realen Daten zu synthetischen Daten) und umgekehrt (Übergang von synthetischen Daten zu realen Daten) getestet werden, und Algorithmen verschiedener Typen funktionieren auf unterschiedliche Weise. Dieses Problem ist nicht auf Simulationsdaten beschränkt. Wahrnehmungsalgorithmen mit einem bestimmten Satz von Sensoren, die auf kalifornischen Straßen trainiert wurden, schneiden mit einem anderen Satz von Sensoren wahrscheinlich schlechter ab. Außerdem funktioniert dieser Algorithmus möglicherweise nicht gut, wenn er auf Straßen in anderen Regionen getestet wird.



Bild



Zahl: Schritt 1 - Testen von Wahrnehmungssystemen auf synthetischen Daten



Erstellung von synthetischen 3D-Umgebungen



Viele Ansätze zur Schaffung von Umgebungen wurden als Ergebnis jahrzehntelanger Arbeit in der Unterhaltungsindustrie entwickelt. Es gibt jedoch erhebliche Unterschiede zwischen der Selbstfahrer- und der Unterhaltungsindustrie. Während in beiden Bereichen hohe Anforderungen an den Fotorealismus gestellt werden, gibt es zusätzliche Anforderungen an autonome Fahrzeugumgebungen: Sie müssen kostengünstig und schnell erstellt werden (in der Unterhaltungsindustrie kann dies Monate dauern) und müssen äußerst realistisch sein (as für das menschliche Auge und für Sensoren) und variabel und sollte auch viele Testfälle unterstützen.



Normalerweise werden 3D-Umgebungen von Hand erstellt - der 3D-Künstler erstellt Assets und platziert sie in der erstellten Welt. Dieser Ansatz liefert fotorealistische Ergebnisse und eignet sich hervorragend für Demonstrationen. Aufgrund seiner manuellen Natur lässt es sich jedoch nicht skalieren, um virtuelle Regionen aus der ganzen Welt zu erstellen, und lässt nicht so viele virtuelle Umgebungen zu, wie zum Testen autonomer Fahrzeuge erforderlich sind. Daher sind wir mit den Einschränkungen virtueller Umgebungen konfrontiert.



Ein alternativer Ansatz besteht darin, reale Scan-Techniken zu verwenden, um sicherzustellen, dass die erstellte Umgebung ihrem Muster entspricht. Der Nachteil dieser Methode ist, dass die Daten in der realen Welt häufig viele Fehler und Ungenauigkeiten aufweisen. Da die Beleuchtung eingebrannt ist und das Material nicht von der Oberfläche bestimmt werden kann, liefern Kameras und Lidars nur ungefähre Daten. Darüber hinaus kann die Umgebung Lücken, falsche Beschreibungen und sich bewegende Objekte enthalten, die entfernt werden müssen. Diese Methode stellt auch erhebliche Anforderungen an Ressourcen für die Datenspeicherung und -berechnung und kann auch nur die Bereiche simulieren, die im wirklichen Leben zu finden sind.



Ein relativ neuer Ansatz ist die Schaffung virtueller Welten auf der Grundlage der prozeduralen Generierung. Auf diese Weise können große Gebiete und Städte auf der Grundlage einer Vielzahl von Eingabedaten schnell erstellt werden, was zur Schaffung der Welt mit mathematischen Methoden führt (Abb. 2). Mit diesem Ansatz können Sie auch viele verschiedene Umgebungsoptionen angeben, um eine Überanpassung zu verhindern. Parameter wie Tageszeit oder Wetter können geändert werden, solange die Anmerkungen korrekt sind. Im Allgemeinen können neue Karten in einem Bruchteil der Zeit erstellt werden, die zum manuellen Erstellen virtueller Umgebungen erforderlich ist. Die Komplexität dieses Ansatzes liegt in der Sicherstellung einer qualitativ hochwertigen Erstellung realer Objekte ohne manuelle Änderungen.



Bild



Zahl: 2: hochauflösende prozedural erzeugte Gebäude



Genaue Sensorsimulation



Bei der Generierung synthetischer Daten werden die oben genannten Umgebungen als Eingabedaten für Sensoren verwendet. Diese Sensoren sollten in der Lage sein, Lidartiefenschätzungen, digitale Radarstrahlformungseigenschaften und Rauschquellen in Kameras zu simulieren. Gleichzeitig müssen diese Sensoren leistungsfähig genug sein, um Software- und Hardwaretests durchzuführen oder mit Anwendungen für maschinelles Lernen zu arbeiten, die große Datenmengen erfordern.



Obwohl davon ausgegangen wird, dass ein Sensor Hunderte oder Tausende verschiedener Bedingungen und Topologien verarbeiten kann, müssen letztendlich alle dieselben Grundprinzipien der Energieübertragung und Informationstheorie befolgen. Eine gut durchdachte Sensorsimulationsstruktur kann der in verschiedenen Umgebungen verwendeten Struktur Flexibilität verleihen. Diese Grundphilosophie basiert auf dem Wunsch, die Werkzeuge für die Entwicklung elektrooptischer Systeme und Signalverarbeitungssysteme von der Welt des Sensordesigns in die Welt der Simulations- und Sensortechnologie zu übertragen.



Selbst wenn ein System aus theoretischer Sicht gut durchdacht ist, ist es nur so wertvoll, wie es die Eigenschaften seines Gegenstücks aus der realen Welt erfassen kann. Der Grad der Korrelation zwischen Realität und Modell hängt stark von den Anwendungsfällen ab. In einfachen Szenarien kann eine einfache Pivot-Datentabelle ausreichend sein, während in anderen Fällen eine quantitative statistische Bewertung verschiedener Eigenschaften und Merkmale erforderlich sein kann - dies beinhaltet normalerweise eine Kombination von Labor- und Feldversuchen, um die spezifischen Eigenschaften des Sensors zu bestimmen. Daher kann die Simulation der Sensorleistung (und der Genauigkeit dieser Simulation) als eine Wissenschaft angesehen werden, in der ein Benchmark erstellt und dann schrittweise verschlechtert wird.



Bild



Zahl: 3: Simulation eines rotierenden Lidars mit 128 Lasern



Effizienz und Wiederholbarkeit synthetischer Daten



Es gibt zwei Aspekte, die die Verwendbarkeit synthetischer Daten einschränken - Effizienz und Wiederholbarkeit. Aus einer Vielzahl von Gründen besteht die größte Herausforderung bei der Simulation von Sensoren für selbstfahrende Systeme in der Genauigkeit, die innerhalb der Echtzeit-Verarbeitungsanforderungen erreicht werden kann. Genauigkeit und Leistung hängen auch eng mit der Skalierbarkeit synthetischer Sensorgenerationen zusammen. Um eine skalierbare Lösung zu erstellen, wird es immer wichtiger, Ressourcen parallel zu verwenden.



Diese Koordination der Ressourcen bringt uns natürlich zum Thema Wiederholbarkeit. Damit die Parallelisierung von Vorteil ist, muss ein Gleichgewicht zwischen paralleler und nicht paralleler Modellierung hergestellt werden. Determinismus ist eine Schlüsselkomponente, mit der Ingenieure Änderungen an ihren Algorithmen isoliert testen und dabei eine Vielzahl von Modellierungsfunktionen nutzen können.



Sensorsimulation: Anpassung an Sonderfälle



Sobald die Methoden zur Entwicklung von Umgebungen und Sensoren festgelegt wurden, stellt sich die nächste Frage: Reichen die erhaltenen synthetischen Daten für alle Anwendungsfälle aus? Die Anwendungsfälle können je nach Verfügbarkeit der Software variieren, von der Validierung der Sensorplatzierung mithilfe synthetischer Daten bis zum Testen der endgültigen Produktionssysteme vor deren Bereitstellung.



Jeder Anwendungsfall stellt unterschiedliche Anforderungen an die Modellgenauigkeit. Diese Genauigkeitsstufen bestimmen die Verifizierungs- und Validierungsprozesse. Die Validierung beschreibt den Prozess der Bestimmung, ob das resultierende Modell mit der ursprünglichen Spezifikation übereinstimmt (haben wir es geschafft, das zu erstellen, was wir ursprünglich geplant hatten?). Die Überprüfung bezieht sich auch auf die Definition des Determinismus (werden die Ergebnisse des Modells jedes Mal unter denselben Bedingungen reproduziert?) Bei der Validierung ist das Gegenteil der Fall: Um festzustellen, ob das Modell den Anforderungen der Zielanwendung entspricht, werden die Anforderungen des Endbenutzers berücksichtigt. In einigen Fällen ist es sogar akzeptabel, eine grobe Annäherung an das dem Sensor zugrunde liegende physikalische Modell zu verwenden. Anwendungsfälle für Produktionstests erfordern jedoch synthetische Sensormodelle, die unter Laborbedingungen getestet wurden.und im wirklichen Leben - dies ist notwendig, um die genaue Einhaltung der akzeptablen Unsicherheitsniveaus sicherzustellen.



Die Bewertung von Sensormodellen ist auch komplexer als die einfache Überprüfung des Ausgangssignalpegels. Während dies für viele Wahrnehmungstechnologien in selbstfahrenden Systemen gilt, ist der Endbenutzer auch daran interessiert, dass Wahrnehmungsmodelle sowohl für synthetische als auch für reale Daten effektiv funktionieren. Diese Modelle können auf Computer Vision basieren oder mit einer Vielzahl von Techniken des maschinellen Lernens und des tiefen Lernens erstellt werden. In diesen Anwendungsfällen sind die Unsicherheitsquellen unbekannt (falls kein volles Vertrauen in das Sensormodell besteht).



Angewandter Intuitionsansatz



Applied Intuition hat von Grund auf ein Tool zur Simulation von Wahrnehmungssystemen entwickelt, um die oben beschriebenen Probleme zu lösen. Dieses Tool enthält Tools zum Erstellen großer Umgebungen, zum Entwickeln von Sensoren mit mehreren Genauigkeitsstufen und zum Ermöglichen von Tests basierend auf Anwendungsfällen. Die Generierung der prozeduralen Umgebung erfolgt über eine einzigartige Pipeline, die hinsichtlich geografischer Gebiete, autonomer Fahranwendungen und Datenquellen flexibel ist.










Bild



Stellenangebote
, , , - .



, , , .



, , . , , , , , .



, , .







Über ITELMA
- automotive . 2500 , 650 .



, , . ( 30, ), -, -, - (DSP-) .



, . , , , . , automotive. , , .





All Articles