Files
DissLiteratur/storage/T7PH574M/.zotero-ft-cache
Johannes Paehr c4354c0441 init
2025-10-18 15:35:31 +02:00

2520 lines
191 KiB
Plaintext
Raw Permalink Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
AutoUni Schriftenreihe
Jonas Kaste
Künstliche neuronale Netzwerke zur adaptiven Fahrdynamikregelung
AutoUni Schriftenreihe
Band 171
Reihe herausgegeben von Volkswagen Aktiengesellschaft, Volkswagen Group Academy, Volkswagen Aktiengesellschaft, Wolfsburg, Deutschland
Jonas Kaste
Künstliche neuronale Netzwerke zur adaptiven Fahrdynamikregelung
Jonas Kaste AutoUni Wolfsburg, Niedersachsen, Deutschland
Zugl.: Braunschweig, Techn. Univ., Diss., 2023
ISSN 1867-3635
ISSN 2512-1154 (electronic)
AutoUni Schriftenreihe
ISBN 978-3-658-43108-2
ISBN 978-3-658-43109-9 (eBook)
https://doi.org/10.1007/978-3-658-43109-9
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2024
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede kommerzielle Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Autors und ggf. des Herausgebers. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Der Verlag hat eine nicht-exklusive Lizenz zur kommerziellen Nutzung des Werkes erworben. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
Planung/Lektorat: Carina Reibold Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Das Papier dieses Produkts ist recyclebar.
Vorwort
Die vorliegende Arbeit entstand während meiner Tätigkeit als Doktorand in der Forschungsabteilung für Fahrdynamik der Konzernforschung der Volkswagen AG. Die Ergebnisse, Meinungen und Schlüsse dieser Dissertation sind nicht notwendigerweise die der Volkswagen AG.
Mein besonderer Dank gilt meinem Doktorvater Herrn Prof. Dr.-Ing. Joachim Axmann für die hervorragende Betreuung und die wertvollen Anmerkungen. Während der gesamten Zeit unterstützte er die Arbeiten mit viel Interesse und großem Vertrauen und ermöglichte so den notwendigen selbstständigen wissenschaftlichen Fortschritt, um die Arbeit fertigzustellen. Darüber hinaus möchte ich Herrn Prof. Dr.-Ing. Peter Hecker, geschäftsführender Leiter des Instituts für Flugführung der Technischen Universität Braunschweig für die Übernahme des Koreferats sowie für das Interesse an der Arbeit danken. Herrn Prof. Dr.-Ing. Roman Henze möchte ich für die Übernahme des Prüfungsvorsitzes sowie die konstruktive Atmosphäre bei der Durchführung des Verfahrens danken.
My special thanks also go to Prof. Chris Gerdes, who welcomed me with open arms during my PhD time at the Stanford DDL Lab. Thank you to all of the students, especially Nathan Spielberg, Vincent Laurense, and John Subosits, who created a supportive, enthusiastic and motivating atmosphere for studying vehicle dynamics.
Insbesondere möchte ich mich bei Herrn Dr. Felix Kallmeyer und Herrn Dr. Björn Mennenga bedanken, die es mir durch Ihre unermüdliche Unterstützung ermöglichten diese Arbeit anzufertigen. Darüber hinaus möchte ich mich bei Herrn Filip Zielinski für die Anregungen und das wertvolle Feedback in der finalen Phase des Verfahrens bedanken. Mein herzlicher Dank gilt außerdem meinen Kollegen für die außergewöhnliche Zusammenarbeit, die konstruktiven Gespräche und die Unterstützung während der letzten Jahre, die einen
V
VI
Vorwort
unschätzbaren Wert für die vorliegende Arbeit darstellten. Hervorheben möchte ich Dr. Jens Hoedt, Dr. Kristof van Ende, Dr. Paul Hochrein, Dr. Sevsel Gamze Kabil, Maximilian Templer, Dr. Sascha Barton-Zeipert und Dr. Dennis Schaare. Ich möchte mich auch beim weiteren RacePilot-Team für die Unterstützung, insbesondere bei den Arbeiten am Versuchsträger sowie die Atmosphäre, die jede einzelne Erprobungsfahrt besonders gemacht hat, bedanken. Mein ausdrücklicher Dank gilt Sebastian Kranz, Mario Hahn und Dr. Dirk Schütte von der IAV GmbH, Thomas Behrens von der KST innovations GmbH sowie Dr. Ingmar Gundlach von der Technischen Universität Darmstadt. Mit jedem der genannten Kolleg(inn)en bleibe ich freundschaftlich verbunden.
Ich möchte mich ebenfalls bei Herrn Dr. Philipp Schnetter bedanken. Durch seine motivierende und begeisternde Art für maschinelles Lernen und Regelungstechnik sowie die Betreuung meiner ersten wissenschaftlichen Arbeiten an der Technischen Universität Braunschweig hat er meinen persönlichen Werdegang maßgeblich beeinflusst. Die unzähligen fachlichen Gespräche während der Promotionszeit haben mir sehr geholfen und häufig Zweifel aus dem Weg geräumt.
Hervorheben möchte ich auch die Zusammenarbeit mit dem Technikum der Volkswagen Konzernforschung. Durch die außergewöhnlichen Fähigkeiten jedes einzelnen wurden die umfangreichen Erprobungen in den RacePilot Versuchsträgern ermöglicht und für jede dieser Erfahrungen bin ich zutiefst dankbar.
Zuletzt möchte ich meiner Familie und meinen Freunden danken. In dieser herausfordernden Zeit habe ich stets den Rückhalt und das Vertrauen gespürt, wodurch mir die Sicherheit gegeben wurde die Arbeit fertigzustellen. Auch für die kleinen Ablenkungen als notwendigen Ausgleich zu langen Arbeiten im Büro bin ich unendlich dankbar.
Jonas Kaste
Übersicht
Autonome Fahrzeuge bieten das Potential kosteneffizientere, emissionsreduzierte und sichere Mobilität im Vergleich zum heutigen Individualverkehr anzubieten. Um eine präzise und gleichzeitig komfortable Fahrzeugführung in einem breiten Spektrum unterschiedlicher Szenarien gewährleisten zu können, ist eine robuste Fahrdynamikregelung notwendig. Modellbasierte Regelalgorithmen verfügen grundsätzlich über das Potential menschliche Fahrer bei der Fahrzeugführung bis an die fahrdynamischen Grenzen übertreffen zu können. Dabei ist eine präzise Abbildung des Fahrzeugs durch das für die Regelung herangezogene Modell notwendig. Bei Abweichungen von den für die Modellierung herangezogenen Arbeitspunkten, z.B. im Rahmen sich ändernder Bedingungen im Realbetrieb, resultiert eine geringere Genauigkeit bezüglich des Folgeverhaltens einer gewünschten Soll-Trajektorie.
Um diese Limitierungen zu reduzieren, wird in der vorliegenden Arbeit der Einsatz eines hybriden Regelungskonzeptes untersucht. Dabei wird ein modellbasierter kaskadierter Querdynamikregler um ein künstliches neuronales Netzwerk (KNN) ergänzt. Das zu Grunde liegende Fahrzeugmodell stellt eine stark vereinfachte lineare Abbildung der Realität dar. Das KNN wird ohne „Vorwissen“ implementiert und aktiv im geschlossenen Regelkreis trainiert. Um die Eignung des Ansatzes in einem breiten Einsatzspektrum aufzuzeigen, werden zunächst im Rahmen von Simulationen KNN mit unterschiedlichen Trainingsverfahren, Netzwerktopologien, Aktivierungsfunktionen und Startgewichten für einen geometrisch einfachen Rundkurs untersucht. In der Folge werden diese um Trainingsschranken, Regularisierungsmethoden sowie eine geeignete Eingangsnormalisierung ergänzt, um einen robusten Langzeitbetrieb zu gewährleisten. Die gewonnenen Erkenntnisse werden anschließend, zunächst simulativ, auf komplexere Strecken und grenzbereichsnahe Fahrdynamik sowie fehlerbehaftete
VII
VIII
Übersicht
Systemzustände übertragen. Im letzten Schritt erfolgen Untersuchungen im realen Versuchsträger.
Die Versuche zeigen das Leistungsvermögen des hybriden Regelungskonzeptes. Bei geringer Fahrzeugdynamik ist eine präzise Fahrzeugführung auch ohne KNN möglich. Bei hoher Dynamik resultieren jedoch Abweichungen vom Sollkurs, die durch das iterativ lernende Netzwerk schrittweise reduziert werden können. Durch die situationsabhängige Optimierung der Netzwerkgewichte wird der Einfluss des systematischen Fehlers des zu Grunde liegenden Modells kompensiert und die Regelgüte verbessert. Dieses Verhalten kann durch geeignete Auswahl der Designparameter des KNN für jedes der betrachteten Szenarien aufgezeigt werden. Die Anpassung der Netzwerkgewichte im Regelkreis ermöglicht sowohl im Fehlerfall als auch bei hoher Fahrzeugdynamik und ungenauer Systemidentifikation eine Verbesserung der Regelgüte im Vergleich zum Basisregler.
Abstract
Autonomous vehicles offer the potential to provide more cost-efficient, emissionreduced and safer mobility compared to current vehicle concepts. In order to guarantee precise and at the same time comfortable vehicle guidance in a wide range of different scenarios, robust vehicle dynamics control is necessary. To realize this, it has been shown in the past that model-based control algorithms have the potential to outperform human drivers in vehicle control up to the limits of driving dynamics. This requires a precise representation of the vehicle by the model used for control. Deviations from the operating points used for modelling, e.g. in the context of changing conditions during operation, result in lower performance with respect to the path following behaviour of a desired trajectory.
In order to reduce these limitations, the use of a hybrid control concept is investigated in the present work. A model-based, cascaded lateral dynamics controller is extended by an artificial neural network (ANN). The underlying vehicle model describes a highly simplified, linear representation of reality. The ANN is implemented without „prior knowledge“ and actively trained during closedloop control. In order to demonstrate the suitability of the approach in a wide range of applications, ANN with different training methods, network topologies, activation functions and starting weights for a geometrically simple track are first investigated in simulations. Subsequently, these are extended with training bounds, regularization methods, and suitable input normalization to ensure robust long-term operation. The gained knowledge is then transferred, initially in simulation, to more complex tracks and vehicle dynamics close to the limit as well as fault-prone system states. In the final step, investigations are carried out in a real test vehicle.
The findings demonstrate the performance capability of the hybrid control concept. At low dynamics, precise vehicle control is possible even without the
IX
X
Abstract
additional ANN. At high dynamics, however, deviations from the nominal course occure, which can be reduced step by step by the iterative learning network. The situation-dependent optimization of the network weights compensates for the influence of the systematic error of the underlying model and improves the control performance. This behaviour can be demonstrated by appropriate selection of the neural network design parameters for each of the considered scenarios. The adaptation of the network weights within the control loop allows an improvement of the control performance in the case of errors as well as in the case of high dynamics and inaccurate system identification compared to the base controller.
Inhaltsverzeichnis
1 Motivation und Stand der Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Ziele und Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.1 Ziele der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2.2 Aufbau der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Stand der Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3.1 Historische Entwicklung des automatischen Fahrens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3.2 Historische Entwicklung von künstlicher Intelligenz und neuronalen Netzwerken . . . . . . . . . . . . . . 11 1.3.3 Lernende Regelungsansätze im Kontext des automatischen Fahrens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.3.4 Einordnung der durchgeführten Untersuchungen in den Stand der Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Fahrzeugtechnische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.1 Fahrzeugmodellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2 Das lineare Einspurmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3 Das erweiterte Einspurmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.3.1 Das Wankmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.3.2 Das nichtlineare Einspurmodell . . . . . . . . . . . . . . . . . . . . . 35 2.3.3 Reifenmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.3.4 Annäherung des Übertragungsverhaltens der Regelstrecke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
XI
XII
Inhaltsverzeichnis
3 Theorie künstlicher neuronaler Netzwerke . . . . . . . . . . . . . . . . . . . . . 43 3.1 Biologische Neuronen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.2 Abstrahierte Neuronen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.2.1 McCulloch-Pitts-Zelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.2.2 Gewichtete Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.3 Mehrschichtige Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.3.1 Das Multilayer Perceptron (MLP) . . . . . . . . . . . . . . . . . . . 50 3.3.2 Aktivierungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.4 Lernen in künstlichen neuronalen Netzwerken . . . . . . . . . . . . . . . 62 3.4.1 Klassifizierung von Lernalgorithmen . . . . . . . . . . . . . . . . . 63 3.4.2 Der Backpropagations-Algorithmus . . . . . . . . . . . . . . . . . . 68 3.4.3 Trainings- / Lernverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4 Adaptive Fahrdynamikregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.1 Anforderungen an den adaptiven Regler und Motivation der hybriden Regelungsarchitektur . . . . . . . . . . . . . . . . . . . . . . . . . 86 4.2 Adaptive Querdynamikregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.2.1 Kaskadisch aufgebauter Querdynamikregler mit invertiertem Modell der Regelstrecke . . . . . . . . . . . . . . . . 91 4.2.2 Umsetzung des Basisreglers . . . . . . . . . . . . . . . . . . . . . . . . 93 4.2.3 Erweiterung des Basisreglers um neuronale Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 4.2.4 Betrachtung des invertierten Modells der Regelstrecke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 4.3 Längsdynamikregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5 Simulationen als Grundlage für Fahrversuche . . . . . . . . . . . . . . . . . . 105 5.1 Aufbau der Simulationsumgebung zur Bewertung der untersuchten Fahrdynamikregelungskonzepte . . . . . . . . . . . . . . . 106 5.2 Validierung der Simulationsumgebung . . . . . . . . . . . . . . . . . . . . . . 109 5.2.1 Linearer Betriebsbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5.2.2 Nichtlinearer Betriebsbereich . . . . . . . . . . . . . . . . . . . . . . . 113 5.3 Integration des künstlichen neuronalen Netzwerkes . . . . . . . . . . . 115 5.3.1 Querdynamikregelung ohne künstliches neuronales Netzwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 5.3.2 Querdynamikregelung mit integriertem neuronalen Netzwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
Inhaltsverzeichnis
XIII
6 Effekte auf die Adaptionsgeschwindigkeit des KNN im geschlossenen Regelkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 6.1 Einfluss unterschiedlicher Trainingsverfahren auf das neuronale Netzwerk im geschlossenen Regelkreis . . . . . . . . . . . . 126 6.1.1 Auswahl geeigneter Hyperparameter . . . . . . . . . . . . . . . . . 128 6.2 Einfluss unterschiedlicher Aktivierungsfunktionen auf die Adaptionsgeschwindigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 6.3 Einfluss der Netzwerktopologie und des Trainingsverfahrens auf die Echtzeitfähigkeit des Netzwerktrainings . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 6.4 Einfluss von Gewichtsinitialisierung und Netzwerktopologie auf die Adaptionsgeschwindigkeit des KNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
7 Langzeitstabilität des neuronalen Netzwerkes im geschlossenen Regelkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 7.1 Einfluss von Lernrate, Trainingsverfahren und Fehlerschranken auf die Langzeitstabilität des neuronalen Netzwerkes im geschlossenen Regelkreis . . . . . . . . . . . . . . . . . . . 170 7.2 Einfluss von Eingangsnormalisierung auf die neuronal gestützte Fahrdynamikregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 7.3 Einfluss von Regularisierung der Netzwerkgewichte auf die neuronal gestützte Fahrdynamikregelung . . . . . . . . . . . . . . . . 181
8 Generalisierbarkeit bisheriger Erkenntnisse . . . . . . . . . . . . . . . . . . . . 189 8.1 Fehler in Folge hoher Dynamik und Annäherung an die Kraftschlussgrenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 8.2 Lernen auf Strecken mit komplexer Streckengeometrie . . . . . . . 195 8.3 Adaptive Fahrdynamikregelung in fehlerbehafteten Systemzuständen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 8.3.1 Fehler aus unzureichender Systemidentifikation . . . . . . . 201 8.3.2 Sprunghaft aufgeschaltete Fehler . . . . . . . . . . . . . . . . . . . . 206
9 Auswertung der Fahrversuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 9.1 Versuchsträger und Messtechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 9.2 Fahrversuche auf Hoch- und Niedrigreibwert . . . . . . . . . . . . . . . . 218 9.2.1 Einfache Streckengeometrie und unterschiedliche Dynamikbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 9.2.2 Langzeitstabilität des neuronalen Netzwerkes bei kontinuierlich aufgeschalteten Systemstörungen . . . . . . . 226
XIV
Inhaltsverzeichnis
9.3 Experimente zum Nachweis des robusten Betriebs des adaptiven Reglers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 9.3.1 Experimente auf Niedrigreibwert . . . . . . . . . . . . . . . . . . . . 244 9.3.2 Applikation der adaptiven Regelstrategie auf Rennstrecken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 9.3.3 Applikation des neuronalen Netzwerkes in einer abweichenden Regelstrategie . . . . . . . . . . . . . . . . . . . . . . . . 256
10 Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
Formelverzeichnis
Lateinische Buchstaben
a
Steigungsfaktor der linearen Erweiterung einer sigmoiden
Aktivierungsfunktion
ax
Längsbeschleunigung
ay
Querbeschleunigung
b
Biasgewicht
b1
Glättungsparameter des Gradienten beim Adam Verfahren
b2
Glättungsparameter der quadrierten Summe der Gradienten beim
Adam Verfahren
C
Formparameter des Magic Formula Reifenmodells
cL
Lenksteifigkeit
csh
Schräglaufsteifigkeit an der Hinterachse
csv
Schräglaufsteifigkeit an der Vorderachse
cw
Ersatzdrehsteifigkeit
D
Formparameter des Magic Formula Reifenmodells
d
Hyperparameter im Netzwerktraining, beschreibt eine
Abklingkonstante
dy
Seitlicher Versatz zu einer gewünschten Soll-Trajektorie
dw
Ersatzdrehdämpfung
E
Formparameter des Magic Formula Reifenmodells
E
Fehlerfunktion, die zum Netzwerktraining herangezogen wird
Fx
Kraft, längs zur Fahrzeuglängsachse angreifend
Fx ,h
Kraft, längs zur Fahrzeuglängsachse an der Hinterachse angreifend
Fx ,v
Kraft, längs zur Fahrzeuglängsachse an der Vorderachse angreifend
Fy
Kraft, quer zur Fahrzeuglängsachse angreifend
XV
XVI
Formelverzeichnis
Fy,h Fy,v Fz Fz,h Fz,max Fz,v f a(lj ) f o(lj ) Gt hw iL in i˜n Jx Jz l lh lv m Mw nL nk on pAnteil
Rmax Rmi n
sh
sv
s Ad a tn t u v W
Kraft, quer zur Fahrzeuglängsachse an der Hinterachse angreifend Kraft, quer zur Fahrzeuglängsachse an der Vorderachse angreifend Radlast Radlast an der Hinterachse angreifend Maximale Radlast Radlast an der Vorderachse angreifend
Aufsummierte Eingänge des j-ten Neurons der l-ten Schicht
Aktivierungsfunktion des j-ten Neurons der l-ten Schicht Summe der quadratischen Gradienten bis zum Zeitpunkt t Höhe des Wankpols über der Fahrbahn Lenkübersetzung Eingang des n-ten Neurons Normierter Eingang des n-ten Neurons Trägheitsmoment um die x-Achse Trägheitsmoment um die z-Achse Radstand Abstand vom Schwerpunkt zur Hinterachse Abstand vom Schwerpunkt zur Vorderachse Fahrzeugmasse Wankmoment Reifennachlauf konstruktiver Reifennachlauf Ausgabe des n-ten Neurons Anteil der Gesamtregelausgabe, die durch den Proportionalregler gestellt wird Obere Skalierungsgrenze bei der Normierung der Netzwerkeingänge Untere Skalierungsgrenze bei der Normierung der Netzwerkeingänge Verschiebung der Kennlinie des Magic Formula Reifenmodells in horizontaler Richtung Verschiebung der Kennlinie des Magic Formula Reifenmodells in vertikaler Richtung Glättungsterm des Adagrad Lernverfahrens Zielwert der durch das n-te Neuron abgebildet werden soll Rechenzeit, bzw. Simulationszeit Regelgröße, bzw. Steuergröße Fahrzeuggeschwindigkeit Gewichtsmatrix des neuronalen Netzwerkes
Formelverzeichnis
XVII
wi(,l)j
||W ||F x zw
Gewicht zwischen dem i-ten Neuron der l-ten Schicht zum j-ten Neuron der (l+1)-ten Schicht Frobenius Norm der Netzwerkgewichte Zustandsgrößen Abstand des Wankpols zum Fahrzeugschwerpunkt
Griechische Buchstaben
α
Momentum Term
α
Fahrbahnsteigung
α
Schräglaufwinkel
β
Schwimmwinkel
β˙
Schwimmwinkelrate
W Veränderung der Netzwerkgewichte in einem Zeitschritt
δ
Rückwärtsverteilter Fehler
δL Lenkradwinkel
δR Radwinkel
∂E ∂ w1(1,1)
Partielle Ableitung der Fehlerfunktion nach dem 1. Gewicht der 1.
Schicht
||ζ || Euklidische Norm des Trainingsfehlers
θ
Schwellenwert der Aktivierung eines Neurons
∇ E Gradient der Fehlerfunktion
λ
Regularisierungsparameter
μ Lernrate beim Netzwerktraining
μ Fahrbahnreibwert
ϕ
Wankwinkel
ϕ˙
Wankwinkelrate
ϕ¨
Wankwinkelbeschleunigung
χ
Kurswinkel
ψ Gierwinkel
ψ˙
Gierrate
ψ¨
Gierbeschleunigung
XVIII
Formelverzeichnis
Indizes
ahead aero alt beo drag grade H h hid ist k LR l neu R r ref roll s soll turn V v x
y
Vorgesteuerter Term Den Luftwiderstand betreffend Konfiguration vor einem Optimierungsschritt Aufbereitete Signale aus dem Fahrdynamikbeobachter Den Widerstand betreffend Den aus der Fahrbahnsteigung resultierenden Widerstand betreffend Auf den Winkel am Lenkrad bezogen An der Fahrzeughinterachse angreifend Auf die versteckte(n) Schicht(en) bezogen Ist-Zustand Kommandierte Größe Regenanteil des Linearreglers Am Lenkrad wirkend Konfiguration nach einem Optimierungsschritt Auf den Regler bezogen Am Rad angreifend Referenzwerte, bzw. Vorgaben aus dem Bahnplaner Den Rollwiderstand betreffend Soll-Zustand Soll-Zustand Den Kurvenwiderstand betreffend Auf die Vorsteuerung bezogen An der Fahrzeugvorderachse angreifend In Richtung der Fahrzeuglängsachse wirkende Kräfte, Beschleunigungen, etc. Quer zur Fahrzeuglängsachse wirkende Kräfte, Beschleunigungen, etc.
Abkürzungen
ABD ABS AI ANN BASt CNN
Anthony Best Dynamics Ltd Antiblockiersystem Artificial Intelligence Artificial Neural Network Bundesanstalt für Straßenwesen Convolutional Neural Network
Formelverzeichnis
XIX
DGPS DoF DTM ELU EPS ESC FB FFW GD GDM GDNM GPS HIL ILC KI KNN LReLU LSTM MLP MPC MSE NARX PRELU PROMETHEUS
PT1-Glied
PWG ReLU SELU SNARC VaMP
VITA VisLab
Differential Global Positioning System Degree of Freedom Deutsche Tourenwagen Meisterschaft Exponential Linear Unit Electric Power Steering Electronic Stability Control Feedback Control Feed Forward Control Gradientenabstiegsverfahren Gradientenabstiegsverfahren mit zusätzlichem Momentum Gradientenabstiegsverfahren mit Nesterov Momentum Update Global Positioning System Hardware in the Loop Iterative Learning Control Künstliche Intelligenz Künstliches neuronales Netzwerk Leaky Rectified Linear Unit Long Short-Term Memory Multilayer Perceptron Model Predictive Control Mean Squared Error Nonlinear Autoregressive with Exogenous Inputs Parametric Rectified Linear Unit PROgraMme for a European Traffic of Highest Efficiency and Unprecedented Safety Übertragungsglied mit proportionalem Übertragungsverhalten und Verzögerung 1. Ordnung Pedalwertgeber Rectified Linear Unit Scaled Exponential Linear Units Stochastic Neural Analog Reinforcement Computer VaMoRs (Versuchsfahrzeug für autonome Mobilität und Rechnersehen) Passenger Car Vision Technology Application Artificial Vision and Intelligent Systems Laboratory
Abbildungsverzeichnis
Abbildung 1.1 Entwicklung und Planung relevanter Fahrerassistenzsysteme nach [8] . . . . . . . . . . . . . . . . . . . 10
Abbildung 1.2 Schwerpunkte und Forschungsfrage der vorliegenden Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Abbildung 2.1 Darstellung des Regelkreises Fahrzeugführung analog zu [72] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Abbildung 2.2 Polizeilich erfasste Unfälle der letzten 60 Jahre in Deutschland nach [31], [139] . . . . . . . . . . . . . . . . . . . 25
Abbildung 2.3 In Deutschland angemeldete Kraftfahrzeuge seit 1960 [89] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Abbildung 2.4 Darstellung des Einspurmodells sowie im Modell anliegender Kräfte und Winkel nach [74] . . . . . . . . . . . 30
Abbildung 2.5 Das Wankmodell analog zu [74] . . . . . . . . . . . . . . . . . . . 34 Abbildung 2.6 Darstellung der Rad-Seitenkraft über dem
Schräglaufwinkel in Abhängigkeit der Radlast, analog zu [160] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Abbildung 2.7 Interpretation der Magic Formula Parameter analog zu [133] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 Abbildung 2.8 Darstellung von nicht-invertierbaren und invertierbaren Magic-Formula-Reifenmodellen in Abhängigkeit des Reibungsbeiwerts . . . . . . . . . . . . . . 40 Abbildung 2.9 Entwurf von Aktorbegrenzungen und Zeitverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Abbildung 3.1 Typisches Neuron im menschlichen Nervensystem nach [170] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
XXI
XXII
Abbildungsverzeichnis
Abbildung 3.2 Vereinfachte Form des in Abschnitt 3.1 erläuterten Neurons (a) und die mathematische Analogie (b) . . . . . 47
Abbildung 3.3 Darstellung einer McCulloch-Pitts-Zelle (a), sowie der Zellenausgabe bei Schwellwertüberschreitung (b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Abbildung 3.4 Darstellung des einfachen Perzeptrons . . . . . . . . . . . . . . 50 Abbildung 3.5 Vollständig vernetztes vorwärts gerichtetes 2-3-2
Netzwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 Abbildung 3.6 Darstellung eines idealisierten Neurons . . . . . . . . . . . . . 52 Abbildung 3.7 Lineare Aktivierungsfunktionen: (a) lineare
Aktivierungsfunktion mit festem Gewicht und variablem Bias bei einem Neuroneneingang, (b) lineare Aktivierungsfunktion mit variablen Gewichten ohne Bias bei einem Neuroneneingang . . . . 54 Abbildung 3.8 Aktivierungsfunktionen neuronaler Netzwerke: (a) und (b) logistische Aktivierungsfunktion, (c) und (d) tanh Aktivierungsfunktion . . . . . . . . . . . . . . . . . 56 Abbildung 3.9 Lineare Erweiterung sigmoider Aktivierungsfunktionen: (a) logistische Aktivierungsfunktion + linearer Anteil, (b) tanh-Aktivierungsfunktion + linearer Anteil . . . . . . . . . 57 Abbildung 3.10 Aktivierungsfunktionen neuronaler Netzwerke: ReLU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Abbildung 3.11 Exemplarische Darstellung der Aktivität eines vorwärts gerichteten Netzwerkes mit ReLU Aktivierungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Abbildung 3.12 Exemplarische Darstellung der notwendigen Schritte beim Training neuronaler Netzwerke . . . . . . . . 63 Abbildung 3.13 Die wesentlichen Lernparadigmen künstlicher neuronaler Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Abbildung 3.14 Klassifikation durch Supervised Learning: (a) Gute Approximation, (b) Overfitting . . . . . . . . . . . . . . . 65 Abbildung 3.15 Unsupervised Learning: (a) Geclusterter Datensatz, (b) Umsetzung des Clustering Problems mittels KNN . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Abbildung 3.16 (a) Räumliche Trennung nach Training durch rein gelabelte Daten, (b) Räumliche Trennung nach Training auf Basis eines Datensatzes mit gelabelten und ungelabelten Daten . . . . . . . . . . . . . . . . . 67
Abbildungsverzeichnis
XXIII
Abbildung 3.17 (a) Interaktion zwischen Agent und Umwelt beim Reinforcement Learning nach [177], (b) Lösung eines Labyrinths, aus der unterschiedliche Belohnungen / Bestrafungen resultieren . . . . . . . . . . . . . 68
Abbildung 3.18 Visualisierung eines vorwärtsgerichteten Backpropagationsnetzes mit n-Eingängen, m-versteckten Schichten und p-Ausgaben . . . . . . . . . . . 70
Abbildung 3.19 Erweiterungen des in Abbildung 3.6 dargestellten idealisierten Neurons um einen Backpropagationsschritt . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Abbildung 3.20 Erweiterung des Netzwerkes zur Berechnung der Fehlerfunktion sowie Backpropagation bis in die erste Gewichtsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Abbildung 3.21 Backpropagation durch die versteckten Schichten . . . . 75 Abbildung 3.22 Lösung des XOR-Problems mit einem online
und einem offline trainierten, vorwärtsgerichteten 2-3-1 Netzwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 Abbildung 4.1 Darstellung des Regelkreises Fahrzeugführung nach [72] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Abbildung 4.2 Unterschiedliche Konzepte zur Fahrdynamikregelung mit Vor- und Nachteilen sowie Motivation für den herangezogenen, hybriden Regelungsansatz . . . . . . . . . . . . . . . . . . . . . . . . 90 Abbildung 4.3 Exemplarischer Aufbau eines kaskadierten Gierwinkelreglers mit drei Regelkaskaden . . . . . . . . . . . 92 Abbildung 4.4 Übersicht des im Rahmen der Arbeit herangezogenen Regelungsansatzes zur Querführung eines automatisierten Fahrzeuges . . . . . . . 93 Abbildung 4.5 Ansatz zur Navigationsregelung nach [76] . . . . . . . . . . 94 Abbildung 4.6 Ansatz zur Kursregelung, analog zu [158] . . . . . . . . . . . 96 Abbildung 4.7 Integration des neuronalen Netzwerkes in die Regelstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Abbildung 4.8 Iteratives Lernen des neuronalen Netzwerkes im Kontext der Fahrzeugführung als Wirkketten-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 Abbildung 5.1 Elemente der Simulationsumgebung zur Evaluierung des untersuchten Fahrdynamikreglers . . . . 106
XXIV
Abbildungsverzeichnis
Abbildung 5.2 Geometrischer Verlauf sowie offline generierte Kartendaten einer exemplarischen 8-förmigen Trajektorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Abbildung 5.3 Vergleich der gemessenen und simulierten Querbeschleunigung für den linearen Betriebsbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Abbildung 5.4 Vergleich der gemessenen und simulierten Gierrate für den linearen Betriebsbereich . . . . . . . . . . . 112
Abbildung 5.5 Reifenkennlinie für unterschiedliche Reibkoeffizienten an der Vorder- und Hinterachse Realfahrdaten und Modell . . . . . . . . . . . . 113
Abbildung 5.6 Vergleich der gemessenen und simulierten Querbeschleunigung für den nichtlinearen Betriebsbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
Abbildung 5.7 Vergleich der gemessenen und simulierten Gierrate für den nichtlinearen Betriebsbereich . . . . . . . 115
Abbildung 5.8 Geometrischer Streckenverlauf sowie offline generierte Kartendaten einer exemplarischen quadratischen Trajektorie . . . . . . . . . . . . . . . . . . . . . . . . . 116
Abbildung 5.9 Soll-Ist-Abgleich für den zuvor beschriebenen Streckenverlauf in Bezug auf Position, Querablage und Geschwindigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Abbildung 5.10 Soll-Ist-Abgleich für den zuvor beschriebenen Streckenverlauf in Bezug auf Position, Querablage sowie Trainingsfehler für eine Runde mit dem Basisregler sowie mit anschließender Aktivierung des neuronalen Netzwerks . . . . . . . . . . . . . . . . . . . . . . . . 121
Abbildung 5.11 Frobenius Norm, aufsummierte Querablage und aufsummierter Trainingsfehler über dem Streckenmeter für den Basisregler und ein mit dem GDM Verfahren trainiertes KNN . . . . . . . . . . . . . . 122
Abbildung 5.12 Darstellung der Regelanteile der inneren Regelkaskade über der Zeit . . . . . . . . . . . . . . . . . . . . . . . 123
Abbildung 5.13 Lenkradwinkel sowie Anteil des P-Reglers für eine Runde ohne aufgeschaltetes Netzwerk und eine Runde mit integriertem KNN . . . . . . . . . . . . . . . . 124
Abbildungsverzeichnis
XXV
Abbildung 6.1 Frobenius Norm, aufsummierte Querablage sowie aufsummierter Trainingsfehler über dem Streckenmeter für unterschiedliche Trainingsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
Abbildung 6.2 Vergleich der mittleren quadratischen Fehler (MSE) der Querablage und des Trainingsfehlers normiert auf eine simulierte Runde ohne aktiviertes KNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Abbildung 6.3 Frobenius Norm, aufsummierte Querablage und aufsummierter Trainingsfehler in Abhängigkeit von der Lernrate. Aufgetragen über dem Streckenmeter für ein mit dem Vanilla Update trainiertes Netzwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Abbildung 6.4 Einfluss der Lernrate auf die Querablage, den Trainingsfehler sowie die Stellaktivität von Basisregelungskonzept und neuronalem Netzwerk für unterschiedliche Lernraten beim Vanilla Update . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Abbildung 6.5 Netzwerkausgabe über dem Streckenmeter in Abhängigkeit von der Lernrate für das Vanilla Update . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
Abbildung 6.6 Vanilla Update: Einfluss zu hoher Lernraten auf die Frobenius Norm, den Trainingsfehler sowie Stellaktivität des Netzwerkes . . . . . . . . . . . . . . . . . . . . . . 133
Abbildung 6.7 Vanilla Update: Netzwerkausgabe über dem Streckenmeter in Abhängigkeit von zu groß gewählten Lernraten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Abbildung 6.8 Einfluss des Momentum Terms bei niedrig gewählter Lernrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
Abbildung 6.9 Netzwerkausgabe über dem Streckenmeter in Abhängigkeit des Momentum Terms für das GDM Verfahren mit einer Lernrate von μ = 0.002 . . . 135
Abbildung 6.10 Einfluss des Momentum Terms bei hoher Lernrate . . . 136 Abbildung 6.11 Vergleich der Simulationsergebnisse für das GDM
und das GDNM Verfahren in Abhängigkeit vom Momentum Term . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Abbildung 6.12 Vergleich für das GDM und das GDNM Verfahren in Abhängigkeit vom Momentum Term für eine hohe initiale Lernrate von μ = 0.016 . . . . . . . 139
XXVI
Abbildungsverzeichnis
Abbildung 6.13 Frobenius Norm, aufsummierter Trainingsfehler sowie MSE des Trainingsfehlers normiert auf die Konfiguration mit dem größten Fehler. Dargestellt für je eine simulierte Runde für das Adagrad Verfahren mit unterschiedlichen Start Lernraten . . . . . . 140
Abbildung 6.14 Netzwerkausgabe über dem Streckenmeter für das Adagrad Verfahren bei unterschiedlicher Basislernrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
Abbildung 6.15 Aufsummierte Lernrate für alle Gewichte für das Adagrad Verfahren bei unterschiedlicher Basis Lernrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
Abbildung 6.16 Frobenius Norm sowie aufsummierte Trainingsfehler für das RMSprop Verfahren bei unterschiedlichen Abminderungsfaktoren . . . . . . . . . . . . 145
Abbildung 6.17 Netzwerkausgabe und Trainingsfehler über dem Streckenmeter für das RMSprop Verfahren in Abhängigkeit vom Abminderungsfaktor d . . . . . . . . 145
Abbildung 6.18 Logarithmische Summe der Lernrate für alle Gewichte für das RMSprop Verfahren in Abhängigkeit vom Abminderungsfaktor d . . . . . . . . 146
Abbildung 6.19 Frobenius Norm, Netzwerkausgabe sowie aufsummierter Trainingsfehler über dem zurückgelegten Streckenmeter für das Adam Verfahren bei unterschiedlicher Wahl des Parameters β1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
Abbildung 6.20 Netzwerkausgabe über dem zurückgelegten Streckenmeter für das Adam Verfahren bei unterschiedlicher Auswahl von β1 . . . . . . . . . . . . . . . . . 148
Abbildung 6.21 Logarithmische Summe der Lernrate aller Gewichte im Netzwerk sowie aufintegrierte Lernrate aller Gewichte über dem Streckenmeter für das Adam Verfahren bei unterschiedlicher Auswahl von β1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
Abbildung 6.22 Frobenius Norm, aufsummierte Netzausgabe sowie aufsummierter Trainingsfehler über dem zurückgelegten Streckenmeter für das Adam Verfahren bei unterschiedlicher Auswahl von β2 . . . . . 150
Abbildungsverzeichnis
XXVII
Abbildung 6.23 Netzwerkausgabe über dem zurückgelegten Streckenmeter für das Adam Verfahren bei unterschiedlicher Auswahl von β2 . . . . . . . . . . . . . . . . . 150
Abbildung 6.24 Vergleich der Performanz des GDM und des ADAM Verfahrens bei Variation der Aktivierungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
Abbildung 6.25 Querablage und Trainingsfehler über dem Streckenmeter für das GDM und Adam Verfahren bei implementierter Softplus Aktivierungsfunktion . . . . 153
Abbildung 6.26 Netzwerkausgabe über dem Streckenmeter für das GDM und Adam Verfahren bei implementierter Softplus Aktivierungsfunktion . . . . . . . . . . . . . . . . . . . . . 153
Abbildung 6.27 Frobenius Norm sowie aufsummierter Trainingsfehler für das GDM-Verfahren bei unterschiedlicher Wahl der Aktivierungsfunktion . . . . . 154
Abbildung 6.28 Frobenius Norm sowie aufsummierter Trainingsfehler über dem zurückgelegten Streckenmeter für das Adam Verfahren bei unterschiedlicher Auswahl der Aktivierungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
Abbildung 6.29 Einfluss der Netzwerktopologie und des Trainingsverfahrens auf die Ausführungsgeschwindigkeit der Simulationsumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Abbildung 6.30 Ausführungsgeschwindigkeit eines Rechenzeitschritts während der Simulation des in Abbildung 5.8 dargestellten Rundkurses. Aufgetragen sind unterschiedliche Netzwerktopologien, die mit dem GDM, bzw. Adam Verfahren trainiert wurden . . . . . . . . . . . . . . . . . . 158
Abbildung 6.31 Trainingsfehler für unterschiedliche mit dem GDM Verfahren trainierte KNN auf dem in Abbildung 5.8 dargestellten Kurs für eine simulierte Runde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
Abbildung 6.32 Frobenius Norm, aufsummierter Trainingsfehler sowie aufsummierte Netzwerkausgabe über dem Streckenmeter für unterschiedlich tiefe Netzwerke mit einer zufälligen Startgewichtsinitialisierung von ±0.01 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
XXVIII
Abbildungsverzeichnis
Abbildung 6.33 MSE des Trainingsfehler für je 50 Netzwerke unterschiedlicher Tiefe bei einer zufälligen Initialisierung der Startgewichte von ±0.01 . . . . . . . . . 161
Abbildung 6.34 Frobenius Norm, aufsummierter Trainingsfehler sowie aufsummierte Netzwerkausgabe über dem Streckenmeter für unterschiedlich tiefe Netzwerke mit einer zufälligen Startgewichtsinitialisierung von ±0.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
Abbildung 6.35 MSE des Trainingsfehler für je 50 Netzwerke unterschiedlicher Tiefe bei einer zufälligen Initialisierung der Startgewichte von ±0.1 . . . . . . . . . . 162
Abbildung 6.36 Frobenius-Norm, aufsummierter Trainingsfehler sowie aufsummierte Netzwerkausgabe über dem Streckenmeter für unterschiedlich tiefe Netzwerke mit einer zufälligen Startgewichtsinitialisierung von ±0.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
Abbildung 6.37 MSE des Trainingsfehler für je 50 Netzwerke unterschiedlicher Tiefe bei einer zufälligen Initialisierung der Startgewichte von ±0.5 . . . . . . . . . . 164
Abbildung 7.1 Streuung des Trainingsfehlers für 10 Netzwerke mit einer versteckten Schicht und 25 Neuronen sowie einer Gewichtsinitialisierung von ±0.5, für fünf simulierte Runden auf dem in Abbildung 5.8 dargestellten Rundkurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
Abbildung 7.2 Frobenius Norm und MSE des Trainingsfehlers für ein 12-25-25-1 Netzwerk mit einer Gewichtsinitialisierung von ±0.01 über 100 Runden auf dem in Abbildung 5.8 dargestellten Rundkurs mit und ohne Fehlerschranken . . . . . . . . . . . . 172
Abbildung 7.3 Aktive Trainingszeit eines 12-25-25-1 Netzwerk mit einer Gewichtsinitialisierung von ±0.01 über 100 Runden auf dem in Abbildung 5.8 dargestellten Rundkurs. Trainiert wurden die Netzwerke mit dem GDM und dem Adam Verfahren mit unterschiedlichen Lernraten unter Berücksichtigung von Fehlerschranken . . . . . . . . . . . . . 174
Abbildungsverzeichnis
XXIX
Abbildung 7.4 Abbildung 7.5 Abbildung 7.6
Abbildung 7.7 Abbildung 7.8 Abbildung 7.9
Frobenius Norm und MSE des Trainingsfehlers für ein 12-25-25-25-1 Netzwerk mit einer Gewichtsinitialisierung von ±0.5 über 100 Runden auf dem in Abbildung 5.8 dargestellten Rundkurs mit und ohne Fehlerschranken . . . . . . . . . . . . 175 Frobenius Norm und MSE des Trainingsfehlers für ein 12-25-1 Netzwerk mit einer Gewichtsinitialisierung von ±0.1. Verglichen werden Netzwerke, deren Eingänge in normalisierter Form vorliegen, bzw. für die keine Normalisierung erfolgt . . . . . . . . . . . . . . . . . . . . . . 179 Frobenius Norm und MSE des Trainingsfehlers für ein 12-25-1 Netzwerk mit einer Gewichtsinitialisierung von ±0.1. Verglichen werden Netzwerke, deren Eingänge in normalisierter Form vorliegen, bzw. für die keine Normalisierung erfolgt. Zusätzlich sind Fehlerschranken aktiv, die bei Unterschreitung das Netzwerktraining aussetzen . . . . . . . . . . . . . . . . . . . 180 Frobenius Norm und MSE des Trainingsfehlers für ein 12-25-1 Netzwerk mit einer Gewichtsinitialisierung von ±0.1. Untersucht wurden unterschiedliche Regularisierungsverfahren zur Stabilisierung des Netzwerktrainings. Fehlerschranken und Eingangsnormalisierung wurden vernachlässigt . . . . . . 184 Streuung der Neuronenausgabe, Änderung der Gewichte sowie Gewichtsregularisierung für ein 12-25-1 Netzwerk mit einer Gewichtsinitialisierung von ±0.1 für 10 simulierte Runden. Die Netzwerkgewichte wurden mit der L2 Regularisierung bestraft . . . . . . . . . . . . . . . . 186 Streuung der Neuronenausgabe sowie Gewichtsänderung für ein 12-25-1 Netzwerk mit einer Gewichtsinitialisierung von ±0.1 für 10 simulierte Runden. Für die Netzwerkgewichte wurde keine Regularisierung vorgenommen . . . . . . . . . 187
XXX
Abbildungsverzeichnis
Abbildung 8.1 Seitenkräfte und GG-Diagramme für simulierte Fahrten im linearen Operationsbereich (oben) sowie nichtlinearen Operationsbereich (unten) auf der in Abbildung 5.8 dargestellten Trajektorie . . . . . . . 191
Abbildung 8.2 Querablage und Lenkradwinkel für simulierte Fahrten im linearen sowie nichtlinearen Operationsbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Abbildung 8.3 Frobenius Norm und MSE des Trainingsfehlers für simulierte Fahrten im linearen sowie nichtlinearen Operationsbereich . . . . . . . . . . . . . . . . . . . 193
Abbildung 8.4 Seitenkräfte und GG-Diagramm für simulierte Fahrten bei zu hoher Geschwindigkeitsvorgabe . . . . . . 194
Abbildung 8.5 Querablage und Lenkradwinkel für simulierte Fahrten bei zu hoher Geschwindigkeitsvorgabe . . . . . . 195
Abbildung 8.6 Streckenführung und GG-Diagramme für die Rennstrecken in Most und Portimao . . . . . . . . . . . . . . . 196
Abbildung 8.7 Entwicklung von MSE des Trainingsfehlers und Frobenius Norm für Simulationen auf den Rennstrecken Most und Portimao über mehrere Runden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
Abbildung 8.8 Entwicklung der Frobenius Norm für Simulationen für die Rennstrecken Most und Portimao über mehrere Runden . . . . . . . . . . . . . . . . . . . 199
Abbildung 8.9 Querablage über dem Streckenmeter für Simulationen auf den Rennstrecken Most und Portimao. Aufgetragen sind die Ergebnisse für den Basisregler, ein iterativ lernendes Netz in der letzten Runde sowie ein ausführendes Netz mit den Gewichten des finalen Trainingsschritts . . . . . . . . . 200
Abbildung 8.10 Gewählte Abweichung der für den Inversionsregler herangezogenen Parameter im Vergleich zur Regelstrecke . . . . . . . . . . . . . . . . . . . . . . . 202
Abbildung 8.11 Für die Simulationen in Abschnitt 8.3.1 betrachtete Strecken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
Abbildung 8.12 Entwicklung der Querablagen über dem Streckenmeter für die in Abbildung 8.11 dargestellten Strecken bei fehlerhafter Parametrierung des Inversionsreglers entsprechend Abbildung 8.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Abbildungsverzeichnis
XXXI
Abbildung 8.13 Wegpunkte an denen der Fehler auf- und abgeschaltet wird sowie für die Simulationen betrachtete Geschwindigkeitsverläufe für die Rennstrecke in Portimao . . . . . . . . . . . . . . . . . . . . . . . . . 208
Abbildung 8.14 Querablage über dem Streckenmeter für eine simulierte Runde auf der Rennstrecke in Portimao bei aufgeschaltetem Fehler und fehlerfreier, grenzbereichsnaher Fahrt mit dem Basisregler ohne künstliches neuronales Netzwerk . . . . . . . . . . . . . . 208
Abbildung 8.15 Querablage sowie Regelaktivität über dem Streckenmeter für den Basisregler sowie das neuronal gestützte Regelungskonzept bei hochdynamischer Fahrt . . . . . . . . . . . . . . . . . . . . . . . . . . 211
Abbildung 8.16 Querablage sowie Regelaktivität über dem Streckenmeter für den Basisregler sowie das neuronal gestützte Regelungskonzept bei hochdynamischer Fahrt und unterschiedlichen Trainingsverfahren mit hoher Lernrate . . . . . . . . . . . . . . 212
Abbildung 9.1 Oben: Modifizierter Golf VII GTI Performance an der Rennstrecke Autodrom Most. Links unten: Messfahrten auf einem schneebedeckten See bei Fahrten nahe des nördlichen Polarkreises. Rechts unten: Messfahrten bei sommerlichen Temperaturen an der Rennstrecke Autódromo Internacional do Algarve in Portimao . . . . . . . . . . . . . . 216
Abbildung 9.2 Übersicht der relevanten verbauten Komponenten des modifizierten Versuchsträgers . . . . . . . . . . . . . . . . . . 217
Abbildung 9.3 Trajektorie und Geschwindigkeitsprofile der Messfahrten im Testgelände Ehra-Lessien . . . . . . . . . . . 219
Abbildung 9.4 Messfahrten mit unterschiedlicher Fahrdynamik auf einer quadratischen Trajektorie im Testgelände Ehra-Lessien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
Abbildung 9.5 Entwicklung von gemittelter Frobenius Norm, mittlerer Gewichtsregularisierung und MSE der Querablage über mehrere Runden für Messfahrten mit unterschiedlicher Fahrdynamik auf einer quadratischen Trajektorie im Testgelände Ehra-Lessien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
XXXII
Abbildungsverzeichnis
Abbildung 9.6 Entwicklung der Regelaktivität von Netzwerk und Basisregler über mehrere Runden, exemplarisch dargestellt für das Geschwindigkeitsprofil V70% . . . . . . 225
Abbildung 9.7 Links: Streckengeometrie inklusive des Bereiches, in dem der Versuchsträger durch sprunghaftes Aufschalten eines temporär im System verbleibenden Lenkradwinkeloffsets von 90◦ destabilisiert wird. Rechts: Für die Messungen von der Bahnplanung vorgegebenes Geschwindigkeitsprofil . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
Abbildung 9.8 Querablage und Querbeschleunigung über dem Streckenmeter für den Basisregler ohne KNN. Betrachtet wird eine fehlerfreie Runde sowie eine Fahrt mit sprunghaft aufgeschaltetem Lenkwinkelfehler von 90◦ . . . . . . . . . . . . . . . . . . . . . . . . 228
Abbildung 9.9 Stellaktivität über dem Streckenmeter für den Basisregler ohne KNN. Betrachtet wird eine fehlerfreie Runde sowie eine Fahrt mit einem sprunghaft aufgeschalteten Lenkwinkelfehler von 90◦. In der oberen Zeile ist die Stellaktivität des Basisreglers in der inneren Regelkaskade abgebildet, in der mittleren Zeile der Ausgang des invertierten Fahrzeugmodells, unten der angeforderte Lenkradwinkel . . . . . . . . . . . . . . . . . . . . . . 229
Abbildung 9.10 Gemittelte Frobenius Norm, gemittelte absolute Netzwerkausgabe sowie gemittelte absolute Querablage über den zurückgelegten Runden für die adaptive Regelstrategie mit Netzwerken gleicher Topologie und Startgewichten für unterschiedliche Aktivierungsfunktionen . . . . . . . . . . . . 231
Abbildung 9.11 Entwicklung der gemittelten Frobenius Norm sowie der gemittelten Ausgaben von Basisregler und Netzwerk über den zurückgelegten Runden im Fahrversuch. Untersucht wurden identische Netzwerke mit und ohne Gewichtsregularisierung . . . . 233
Abbildung 9.12 Entwicklung der Ausgabe des Basisreglers für zwei identische Netzwerke mit und ohne Gewichtsregularisierung über dem Streckenmeter für mehrere im Fahrversuch zurückgelegte Runden . . . 235
Abbildungsverzeichnis
XXXIII
Abbildung 9.13 Entwicklung der Netzwerkausgabe für zwei identische Netzwerke mit und ohne Gewichtsregularisierung über dem Streckenmeter für mehrere im Fahrversuch zurückgelegte Runden . . . 236
Abbildung 9.14 Entwicklung der Querablage über dem Streckenmeter für mehrere im Fahrversuch zurückgelegte Runden für ein neuronales Netzwerk mit Gewichtsregularisierung . . . . . . . . . . . . . . 237
Abbildung 9.15 Stellaktivität über dem Streckenmeter für die adaptive Regelungsstrategie bei aufgeschaltetem Systemfehler. In der oberen Zeile ist die Stellaktivität des KNNs abgebildet, dazu die Stellaktivität des Basisreglers in der inneren Regelkaskade, der Ausgang des invertierten Fahrzeugmodells und der vom Regelsystem an die Lenkung übergebene Soll-Lenkradwinkel . . . . . 239
Abbildung 9.16 Entwicklung der Querablage über dem Streckenmeter für mehrere im Fahrversuch zurückgelegte Runden für den adaptiven Querdynamikregler mit künstlich aufgeschaltetem Systemfehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
Abbildung 9.17 Entwicklung der Frobenius Norm über dem Streckenmeter für eine fehlerfreie und fehlerbehaftete Messung bei identischem Netzwerkdesign . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
Abbildung 9.18 Entwicklung der mittleren Frobenius Norm sowie der mittleren quadratischen Querablage über den zurückgelegten Runden. Verglichen werden Experimente mit und ohne aktiviertem Systemfehler sowie mit und ohne aktiviertem neuronalen Netzwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Abbildung 9.19 Trajektorie bei Fahrt mit sequentiell zu hoher Längsdynamik. Die Bereiche, in denen der Versuchsträger rutscht, sind farblich markiert. Zusätzlich sind die berechneten Seitenkräfte über dem Schräglaufwinkel für die Vorder- und Hinterachse abgebildet . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
XXXIV
Abbildungsverzeichnis
Abbildung 9.20 Häufigkeitsverteilung der Schräglaufwinkel an Vorder- und Hinterachse für unterschiedliche Streckensegmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
Abbildung 9.21 Häufigkeitsverteilung der Regelaktivität für Basisregler und neuronales Netzwerk für unterschiedliche Streckensegmente . . . . . . . . . . . . . . . . . 247
Abbildung 9.22 Netzwerkausgabe über der Querbeschleunigung und Netzwerkausgabe über der Querablage für Messfahrten im Rahmen einer Kaltlanderprobung . . . . 248
Abbildung 9.23 Frobenius Norm, Gewichtsregularisierung und Querablage über dem zurückgelegten Streckenmeter für Messfahrten im Rahmen einer Kaltlanderprobung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
Abbildung 9.24 Oben: Häufigkeitsverteilung der Querbeschleunigung für eine Runde auf dem Autódromo Internacional do Algarve in Portimao. Dargestellt sind der adaptive Regler und der Referenzregler. Unten: GG-Diagramme der Messfahrten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Abbildung 9.25 Ergebnisse für Messfahrten des Referenzreglers (2-Freiheitsgrade-Regler) und des adaptiven Reglers für eine Runde auf dem Autódromo Internacional do Algarve in Portimao. Obere Zeile: Darstellung der Häufigkeitsverteilung der Querablage für beide Regler. Untere Zeile: Darstellung der Querablage über der Querbeschleunigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
Abbildung 9.26 Darstellung der Stellaktivität über der Querbeschleunigung für eine Runde auf dem Autódromo Internacional do Algarve in Portimao. In der linken Spalte sind die Messergebnisse für den adaptiven Regler aufgetragen. In der rechten Spalte die Werte des Referenzreglers . . . . . . . . . . . . . . . 255
Abbildung 9.27 Regelungskomponenten der Querdynamikregelung und GG-Diagramm der dargestellten Experimente, eingefärbt nach Runden . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Abbildung 9.28 Trajektorie der beschriebenen Messfahrten. Zusätzlich markiert ist der Fehlerbereich, der Nullpunkt und die Fahrtrichtung . . . . . . . . . . . . . . . . . . . 258
Abbildungsverzeichnis
XXXV
Abbildung 9.29 Querablage und Fehlerbild im Fehlerbereich für 3 Runden mit unterschiedlichen Reglerkonfigurationen sowie mit und ohne aufgeschaltetem Systemfehler . . . . . . . . . . . . . . . . . . . . . 259
Abbildung 9.30 Gesamtregelausgabe, Stellaktivität des neuronalen Netzwerkes sowie Trajektorienfolgereglers im Fehlerbereich über die drei zurückgelegten Runden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
Abbildung 9.31 Regelquerschnitt einer viel befahrenen Landstraße nach RAS-Q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
Abbildung 9.32 Frobenius Norm der Netzwerkgewichte über dem zurückgelegten Streckenmeter . . . . . . . . . . . . . . . . . . . . . 262
Tabellenverzeichnis
Tabelle 2.1 Einführung von schützenden Maßnahmen sowie Assistenz- und Automatisierungsfunktionen in Bezug auf die Fahrzeugführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Tabelle 2.2 Grade der Automatisierung in der Automobilbranche nach [52] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Tabelle 2.3 Winkel im Einspurmodell nach [72] . . . . . . . . . . . . . . . . . . . 30 Tabelle 2.4 Interpretation der Magic Formula Reifenmodell
Parameter nach [133, 160] . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 Tabelle 3.1 In der Literatur präsentierte Variationen von
Aktivierungsfunktionen künstlicher neuronaler Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 Tabelle 4.1 Anforderungen an das Regelungskonzept zur Fahrzeugquerführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 Tabelle 5.1 In der Karte hinterlegte Referenzgrößen zur Beschreibung der Soll-Trajektorie . . . . . . . . . . . . . . . . . . . . . 108 Tabelle 5.2 Designparameter für das Netzwerk in der Basiskonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 Tabelle 5.3 Maximale und minimale Querablage nach Streckensegmenten für den Basisregler und eine zum Vergleich herangezogene Erweiterung des Basisreglers um ein KNN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 Tabelle 6.1 Vergleich des Adagrad Verfahrens für eine moderate sowie eine hohe Basislernrate, in deren Folge es zu Oszillationen kommt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
XXXVII
XXXVIII
Tabellenverzeichnis
Tabelle 6.2 Einfluss des Trainingsverfahrens und der Netzwerktopologie auf die Simulationsgeschwindigkeit bei einer vorgegebenen Zielzeit von 0.005s pro Task . . . . . 157
Tabelle 8.1 Simulationsergebnisse für die Rennstrecken in Most und Portimao für den Basisregler (1. Runde) sowie einen Regler mit aktiv unterstützendem KNN . . . . . . . . . . . 198
Tabelle 8.2 Simulationsergebnisse für die in Abbildung 8.11 dargestellten Strecken bei fehlerhafter Parametrierung des Inversionsreglers entsprechend Abbildung 8.10 . . . . . . . 204
Tabelle 8.3 Maximale und mittlere Querablage für unterschiedliche simulierte Streckenabschnitte und Runden auf der Rennstrecke in Portimao. Betrachtet werden unterschiedliche Trainingsparameter und Verfahren bei sprunghafter Auf- und Abschaltung eines Lenkradwinkeloffsets von 90◦ . . . . . . . . . . . . . . . . . . . . . . . . . 209
Tabelle 9.1 Mittlere und maximale absolute Querablage für den Basisregler ohne neuronales Netzwerk auf der achtförmigen Trajektorie für eine fehlerfreie und eine fehlerbehaftete Runde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Tabelle 9.2 Analyse des Streckensegments mit aufgeprägtem Fehler für drei betrachtete Runden und unterschiedliche Szenarien . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
Tabelle 9.3 Vergleich der Zeiten und Wegstrecke, die aufgrund des Fehlerfalls ein Verlassen der Fahrspur bedeuten würden . . . 262
Motivation und Stand der Technik
1
1.1 Motivation
Die prognostizierte Entwicklung des zukünftigen Mobilitätsbedarfes stellt für die Automobilindustrie Chancen, jedoch auch große Herausforderungen dar. Für Deutschland wird vorhergesagt, dass sich der demographische Wandel und die Urbanisierung bis 2030 regressiv auf die Anzahl potentieller Autokäufer auswirken wird [141], die Nachfrage und Bereitstellung alternativer Mobilitätskonzepte zur Befriedigung des individuellen Mobilitätsanspruches jedoch weiter steigt [111, 141] und sich das Verkehrsaufkommen progressiv verhält [19].
Um den Ansprüchen nach individueller, sicherer und verfügbarer Mobilität gerecht zu werden, bieten automatisch fahrende Fahrzeuge die Möglichkeit, in Zukunft bisher nicht nutzbare Potentiale bestehender Konzepte auszuschöpfen und die Bereitstellung von Mobilität für den Personen- und Güterverkehr auf langfristige Sicht zu revolutionieren. Aus diesem Grund ist der beobachtbare Trend einer sukzessiven Automatisierung von Fahraufgaben in den vergangenen Jahren nicht überraschend. Neben der Entlastung des Fahrzeugführers und einer effizienteren Nutzung der Aufenthaltsdauer im Fahrzeug sowie der Erschließung neuer Mobilitätspotentiale für Randgruppen, prognostizieren Experten eine signifikante Reduzierung von Emissionen sowie von Verkehrsunfällen, einhergehend mit einer Erhöhung der Sicherheit im Straßenverkehr [45, 106].
Aufgrund des hohen Anteils der durch menschliches Fehlverhalten verursachten Unfälle im Straßenverkehr wird angenommen, dass durch die Einführung autonomer Fahrzeuge die Anzahl an Unfällen um bis zu 90% reduziert werden kann [106]. Auch wenn derartige Prognosen zunächst praktisch nachzuweisen sind, ist eine Verminderung solcher Unfälle, die auf stark überhöhte Geschwindigkeit, Unerfahrenheit am Steuer oder auf den Einfluss von Fahrtauglichkeit reduzierender
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH,
1
ein Teil von Springer Nature 2024
J. Kaste, Künstliche neuronale Netzwerke zur adaptiven Fahrdynamikregelung,
AutoUni Schriftenreihe 171, https://doi.org/10.1007/978-3-658-43109-9_1
2
1 Motivation und Stand der Technik
Substanzen zurückzuführen sind, durch eine Entkopplung des Fahrzeugführers realistisch. Unfälle, die auf komplexe Umgebungsbedingungen, wie beispielsweise ein erhöhtes Gefährdungspotenzial durch Witterungsverhältnisse oder auf die Interaktion mit Hindernissen auf der Fahrbahn zurückzuführen sind, stellen auch weiterhin ein Risiko für Fahrzeuge und Insassen dar. Zudem eröffnen sich für automatisch fahrende Fahrzeuge neue Gefährdungspotentiale wie beispielsweise die Manipulation sicherheitsrelevanter Funktionen durch Cyber-Terroristen [113]. Während der ersten Jahre könnte zudem die Vermischung zwischen manuell bewegten und pilotierten Fahrzeugen zu einer Erhöhung der Unfallzahlen führen, wie in [165] prognostiziert wird.
Um den komplexen Herausforderungen des automatischen Fahrens begegnen zu können, wurden in den vergangenen Jahren die Untersuchungen in unterschiedlichen Bereichen intensiviert. Schwerpunkte sind dabei die Umfelderkennung und Interpretation, Umfeldmodellierung und Datenfusion, Bahnplanung sowie Car2CarKommunikation [42]. Durch die stetige Steigerung von Rechenleistung und der Möglichkeit, große Mengen an Daten sammeln, speichern und für Trainingszwecke aufbereiten zu können, gewinnen Methoden aus dem Feld der künstlichen Intelligenz für die Automobilindustrie verstärkt an Bedeutung [140]. Da diese modellfreien Methoden komplexe Zusammenhänge erfassen und abbilden können, eröffnet sich für Techniken aus dem Kontext des maschinellen Lernens ein breites Spektrum möglicher Anwendungsbereiche [140]. Die jüngsten Erfolge im Bereich des sogenannten Deep Learnings zeigen durch den Einsatz komplexer neuronaler Netzwerke ein deutlich höheres Potential gegenüber herkömmlichen Klassifikationsalgorithmen [92], wodurch der Einsatz von sogenannten Convolutional Neural Networks (CNN) in Bereichen der Objektklassifikation und Umfeldwahrnehmung auch in fahrzeugtechnischen Anwendungen zunehmend zum Gegenstand aktueller Forschung wird [30, 131, 161]. Selbst End-to-End Anwendungen, wie die Fahrzeugführung durch Interpretation von Sensordaten ohne die explizite Hinterlegung eines physikalischen Modells, werden in der Literatur diskutiert [1, 44, 121].
Trotz des unbestrittenen Potentials solcher Technologien sind die meisten sicherheitskritischen Anwendungen, die physikalische Modelle durch neuronale Netzwerke ersetzen, weitestgehend im Stadium der Forschung, kaum jedoch in der Serienentwicklung zu finden, was insbesondere auf den „Black-box“-Charakter neuronaler Netzwerke, den komplexen Nachweis des robusten Betriebs außerhalb der erlernten Trainingsdaten und die Gewährleistung der Generalisierungseigenschaften unter komplexen Randbedingungen zurückzuführen ist [140].
Um die sichere Fahrzeugführung autonomer Fahrzeuge auf der Straße zu gewährleisten und die Umgebungsinformationen sowie die dynamische Interaktion mit den umgebenden Verkehrsteilnehmern auf einer vorgesehenen Trajektorie
1.2 Ziele und Aufbau der Arbeit
3
zu garantieren, ist eine robuste Regelungsstrategie notwendig, die durch Ansteuerung der Aktorik zur Fahrzeuglängs- und Querführung eine präzise und komfortable Fahrt bereitstellt. Aufgrund der variierenden Anforderungen an die Regelungsstrategie in einem breiten Spektrum von Operationsbereichen des Fahrzeuges, ist der Entwurf eines allumfassenden Fahrdynamikreglers nicht trivial. Einerseits soll eine möglichst komfortable Fahrt sichergestellt werden, andererseits soll die laterale und longitudinale Regelung des Fahrzeuges in der Lage sein, ein hohes Maß an dynamischem Potential ausnutzen zu können, sollte ein Notausweichmanöver bei hoher Geschwindigkeit notwendig sein. Aus diesem Grund wurde in der Vergangenheit die Beherrschbarkeit autonomer Fahrzeuge außerhalb des linearen Einsatzbereiches nachgewiesen und aufgezeigt, dass robuste, pilotierte Fahrten auch unter Ausnutzung des gesamten Dynamikpotentials möglich sind [5, 91]. In [91] wird für die Fahrzeugquerführung an der Grenze des Kraftschlusspotentials die Kombination eines modellbasierten Feed-Forward Regelungsanteils und eines Feedback-Anteils, der aktuelle Zustandsinformationen der Fahrdynamikregelung einbezieht, untersucht und gute Ergebnisse für die präzise Trajektorienfolge unter komplexen Rahmenbedingungen erzielt.
Ein derartiger Regelungsansatz ist robust, solange sich das geregelte Fahrzeug im oder nahe des Auslegungsbereiches des Reglers befindet. Sollte es jedoch zu unvorhergesehenen Störungen beispielsweise durch Systemschäden jeglicher Art kommen, die das hinterlegte Modell nicht hinreichend genau beschreiben kann, wird die Regelgüte signifikant reduziert. Das kann bei Fahrten mit hoher Geschwindigkeit fatale Folgen nach sich ziehen [24, 136, 156, 162]. Um die Toleranz gegenüber Schäden zu erhöhen, wird in der Literatur die Erweiterung klassischer, modellbasierter Regelungsansätze um künstliche neuronale Netzwerke vorgeschlagen [76, 90, 159, 184], die durch ihre Lernfähigkeit eine Anpassung an starke Variation der Umgebungsbedingungen ermöglichen sollen. In [158] wird in umfangreichen Simulationen angedeutet, dass die Erweiterung eines modellbasierten Regelungskonzeptes um neuronale Netzwerke den Einfluss von Schäden und Modellunsicherheiten bis zu einem gewissen Maß reduzieren und die Einhaltung der gewünschten Bahn gewährleisten kann.
1.2 Ziele und Aufbau der Arbeit
In der Folge wird zunächst auf die Ziele der Arbeit eingegangen und diese in den Kontext bereits existierender Veröffentlichungen gesetzt. Im zweiten Teil des folgenden Abschnitts wird der inhaltliche Aufbau der Ausarbeitung erläutert und der Inhalt der jeweiligen Kapitel grob skizziert.
4
1 Motivation und Stand der Technik
1.2.1 Ziele der Arbeit
Im Rahmen der Arbeit werden neuronale Regelungsstrategien in Simulation und Fahrversuch für ein pilotiertes Fahrzeug untersucht. Die analysierten Fahrten spreizen dabei den gesamten Dynamikbereich des Versuchsträgers auf. Das bedeutet, dass Messfahrten sowohl im linearen Applikationsbereich bis hin zu Untersuchungen auf Rennstrecken und Niedrigreibwert im physikalischen Grenzbereich durchgeführt werden. Dabei ist die Zielstellung, nicht die physikalischen Modelle zu ersetzen, die der Fahrzeugregelung zu Grunde liegen. Anstatt einer solchen Substitution, soll eine gezielte Erweiterung klassischer Modelle erfolgen, um Nichtlinearitäten zu erlernen und zu kompensieren, die im Rahmen der Modellierung nicht oder nur unzureichend erfasst wurden. Dies erscheint, wie in [10] beschrieben, mehr Potential für eine breitere Akzeptanz zu bieten, als ein vollständiger Austausch physikalischer Modelle durch neuronale Netzwerke. Ziel ist es, einerseits das transiente Ausgabeverhalten „online“-trainierter neuronaler Netzwerke bei Fehlerintrusion zu untersuchen. Die grundsätzliche Eignung konnte in Simulationen unter anderem in [54, 76, 90] sowie in wenigen Realversuchen in [158] nachgewiesen werden. Der Fokus in diesen Arbeiten lag jedoch weniger in der Aufarbeitung und Integration einer breiten Anzahl an Konfigurationsparametern neuronaler Netzwerke, noch wurden umfangreiche Studien unter Realbedingungen mit Blick auf den robusten Langzeitbetrieb sich online adaptierender Netzwerke in echtzeitfähigen Reglerarchitekturen durchgeführt.
Aus diesem Grund werden in dieser Arbeit „State-of-the-Art“-Methoden zur Parametrierung und Design sich iterativ adaptierender neuronaler Netzwerke im Kontext der Fahrdynamikregelung eines autonomen Versuchsträgers bis in den physikalischen Grenzbereich innerhalb umfangreicher Fahrversuche in wechselnden Umgebungsbedingungen untersucht und gegenüberstellt. Unter Berücksichtigung der Anforderung, eine echtzeitfähige Optimierung der Netzwerkgewichte innerhalb des geschlossenen Regelkreises zu ermöglichen, werden im Rahmen der Datenvorverarbeitung sinnvolle Netzwerkeingänge und Normierungsverfahren evaluiert, zur Steigerung der Netzwerkperformanz verschiedene Trainingsverfahren, Netzwerkarchitekturen und Aktivierungsfunktionen verglichen und unter dem Aspekt des robusten Langzeitbetriebes unterschiedliche Formen der Netzwerkregularisierung bewertet. Das Ziel dabei ist es, durch eine breite experimentelle Basis geeignete Netzwerkkonfigurationen zur adaptiven Fahrdynamikregelung zu ermitteln und im letzten Schritt einen möglichen Wissenstransfer der abgeleiteten Designparameter zwischen variierenden Regelungskonzepten zu bewerten.
1.2 Ziele und Aufbau der Arbeit
5
1.2.2 Aufbau der Arbeit
Das erste Kapitel beschreibt die Motivation der Arbeit, den Aufbau sowie den Stand der Technik. Dabei werden die Forschungsfrage und Ziele der Ausarbeitung erörtert und die Notwendigkeit in Relation zu aktuellen Trends und Prognosen zukünftiger Mobiltätskonzepte gesetzt. Des Weiteren wird die geschichtliche Entwicklung sowie der derzeitige Stand der Technik für die beiden Kernaspekte automatisches Fahren und künstliche neuronale Netzwerke dargestellt und auf existierende Ansätze zur Integration von neuronalen Netzwerken in die Fahrdynamikregelung eingegangen. Zudem wird die vorliegende Arbeit in Relation zu existierenden Arbeiten in diesem Themenfeld bewertet und Überschneidungen sowie neuartige Betrachtungen und Konzepte dargestellt.
Im zweiten Kapitel werden die fahrzeugtechnischen Grundlagen erläutert, die als Basis der modellierten Regelstrecke in der „closed-loop“-Simulation sowie der modellbasierten Anteile der Regelungsstrategie im späteren Fahrversuch dienen. Zunächst werden die Herausforderungen diskutiert, die sich für die Fahrdynamikregelung in Bezug auf die im Rahmen dieser Arbeit untersuchte laterale Regelung eines automatisch fahrenden Versuchsträgers bis in den physikalischen Grenzbereich ergeben und geeignete Modelle dargestellt. Dabei wird der Fokus auf das lineare Einspurmodell sowie geeignete Erweiterungen wie ein Wankmodell, Aktormodelle und nichtlineare Reifenmodelle gelegt.
Das dritte Kapitel liefert eine Übersicht zu den theoretischen Grundlagen künstlicher neuronaler Netzwerke. Dabei wird zunächst auf die biologisch motivierte Abbildung abstrahierter Neuronenmodelle eingegangen und verschiedene, für die Arbeit relevante Modelle unterschiedlicher Komplexität dargestellt. Anschließend steht die Signalverarbeitung innerhalb des Netzwerks im Fokus. Ein Aspekt ist die Diskussion unterschiedlicher Aktivierungsfunktionen sowie deren Vor- und Nachteile. Darüber hinaus wird der Trainingsprozess, der das Erlernen von funktionalen Zusammenhängen ermöglicht, beschrieben. Zuletzt werden in der Literatur diskutierte Lösungsstrategien dargestellt, die auf Basis eines Gradientenabstiegs unterschiedliche Strategien zur Gewichtsanpassung innerhalb des neuronalen Netzwerkes bereitstellen und im Rahmen der Arbeit implementiert und mit Blick auf die adaptive Fahrdynamikregelung untersucht werden.
Das vierte Kapitel betrachtet das herangezogene Regelungskonzept, welches um ein online trainiertes neuronales Netzwerk zum Ausgleich von Störungen, Fehlern und Modellunsicherheiten erweitert wird. Zunächst werden die Anforderungen an das Regelungskonzept dargestellt und die Gründe der hybriden Regelungsarchitektur erläutert. Für weite Teile der im Fahrversuch und Simulation durchgeführten Untersuchungen wird ein Inversionsregler zur lateralen Fahrdynamikregelung
6
1 Motivation und Stand der Technik
verwendet. Daher liegt der Fokus auf der verständlichen Darstellung der Reglerarchitektur des Basisreglers sowie dessen Erweiterung um ein künstliches neuronales Netzwerk. Darüber hinaus werden kurz die Annahmen zur Längsdynamikregelung dargestellt.
Im fünften Kapitel wird zunächst die betrachtete Simulationsumgebung erläutert und auf bisher vernachlässigte Komponenten wie Bahnplanung, „Map-Matching“ und Zustandsbeobachter eingegangen. Um eine spätere Eignung der in der Simulation gewonnenen Erkenntnisse für den Realversuch bewerten zu können, werden zunächst Simulationsergebnisse für die Basisregelarchitektur mit Daten aus dem Fahrversuch verglichen. Dazu werden bei identischer Trajektorie, Parametrierung und Geschwindigkeitsprofil die Verläufe für Querbeschleunigung und Gierrate im linearen und nichtlinearen Operationsbereich bewertet, um eine Aussage über die Abbildegenauigkeit der Simulation gegenüber dem Realfahrzeug generieren zu können. Anschließend wird ein Szenario definiert, welches die Grundlage für initiale Untersuchungen des Basisreglers sowie der Erweiterung um ein neuronales Netzwerk darstellt.
Das sechste Kapitel analysiert im Rahmen des zuvor beschriebenen Szenarios die Einflüsse von unterschiedlichen Trainingsverfahren, Aktivierungsfunktionen und Netzwerkarchitekturen auf die Fahrzeugquerführung. Der Fokus liegt in diesem Abschnitt auf der Adaptionsgeschwindigkeit der Netzwerkgewichte und einer Abschätzung geeigneter Hyper- und Designparameter. Diese werden miteinander verglichen und sowohl für unterschiedliche Netzwerktopologien, als auch über eine statistische Mittelung gleicher Topologien mit unterschiedlicher Gewichtsinitialisierung auf reproduzierbare Trainingsergebnisse, Robustheit und Echtzeitfähigkeit bewertet.
Im siebten Kapitel werden die bisherigen Erkenntnisse unter der Randbedingung eines robusten Langzeitbetriebes untersucht. Dabei wird die Eignung neuronaler Netzwerke zur iterativen Verbesserung der Führungsgenauigkeit für das zuvor betrachtete Szenario bewertet und geeignete Schritte zur Stabilisierung und Überwachung des Netzwerks im Rahmen der Anwendung im geschlossenen Regelkreis diskutiert. Der Fokus liegt auf geeigneter Vorverarbeitung der Daten sowie Regularisierung der Netzwerkgewichte und Implementierung von Fehlerschranken.
Im achten Kapitel sollen die gewonnenen Erkenntnisse bezüglich geeigneter Trainingsverfahren, Netzwerktopologie und Stabilisierungsmetriken simulativ für eine breitere Auswahl unterschiedlicher Szenarien erfolgen. Dabei werden sowohl die Streckengeometrie als auch die Systemdynamik variiert, um aufzuzeigen, dass ein stabiler Betrieb des neuronalen Netzwerkes in variablen, komplexen Umgebungsbedingungen möglich ist. Ein weiterer Aspekt der untersucht wird, ist die sukzessive Annäherung an die physikalischen Grenzen der zu Grunde liegenden
1.3 Stand der Technik
7
Reifenmodelle, um das Verhalten des Netzwerkes mit Berücksichtigung implementierter Stabilisierungsmetriken, in grenzbereichsnahen Szenarien, bewerten zu können. Zuletzt werden die evaluierten Parameter bezüglich der Konvergenzgeschwindigkeit beim Aufschalten einer externen Störung untersucht und die Möglichkeit einer echtzeitfähigen Adaption an unvorhergesehene Systemzustände diskutiert.
Im neunten Kapitel werden die Erkenntnisse, die im Rahmen der Simulationen gewonnen wurden, im Realfahrversuch umgesetzt und der Einfluss der bereits analysierten Netzwerkparameter unter den komplexen Randbedingungen realer Umgebungseinflüsse untersucht. Dabei wird die um neuronale Netzwerke erweiterte Fahrdynamikregelung bis in den physikalischen Grenzbereich auf Hoch- und Niedrigreibwert sowie für unterschiedliche Trajektorien und unter den Gesichtspunkten eines robusten Langzeitbetriebs sowie schneller Fahrzeugstabilisierung im Falle synthetischer Störungen evaluiert. Dies geschieht unter dem Gesichtspunkt echtzeitfähiger Anpassung der Netzwerkgewichte auf nicht speziell für die Ausführung neuronaler Netzwerke entwickelter Hardware.
Im letzten Kapitel werden die gewonnenen Ergebnisse der Arbeit zusammengefasst und final diskutiert. Zum Abschluss erfolgt ein Ausblick auf mögliche Anknüpfungspunkte für folgende Arbeiten.
1.3 Stand der Technik
In diesem Abschnitt wird näher auf die historische Entwicklung und den aktuellen Stand der Technik der beiden Kernaspekte der vorliegenden Arbeit eingegangen. Im ersten Teilabschnitt werden die Fortschritte des automatischen Fahrens der vergangenen einhundert Jahre beschrieben. Im zweiten Teilabschnitt werden die anfänglichen Gedanken zu künstlicher Intelligenz und künstlichen neuronalen Netzwerken und deren Entwicklung zu den komplexen Modellen der Gegenwart beschrieben. Anschließend werden existierende Arbeiten, die neuronale Netzwerke im Kontext des automatischen Fahrens betrachten, aufgeführt und zuletzt eine Einordnung der vorliegenden Arbeit zum Stand der Technik vorgenommen.
1.3.1 Historische Entwicklung des automatischen Fahrens
Anfang der 1920er Jahre führte in den USA die einsetzende Massenmotorisierung zu einem deutlichen Anstieg tödlicher Autounfälle [108]. Die primäre Ursache wurde dabei auf menschliches Fehlverhalten bei der Fahrzeugführung
8
1 Motivation und Stand der Technik
zurückgeführt, wodurch die Idee einer Steigerung der Sicherheit durch die Ausgliederung der Störgröße Mensch aus dem Regelkreis entstand [108].
Inspiriert durch die Innovationen der Luftfahrt, in der etwa zeitgleich die ersten Autopilotensysteme vorgestellt wurden [23], sowie die Fortschritte im Bereich der Radiotechnik, die es ermöglichten erstmals bewegliche Objekte mittels Funkwellen fernzusteuern [67], wurde im Jahre 1921 das erste Fahrzeug vorgestellt, bei dem keine Notwendigkeit eines menschlichen Fahrers im Fahrzeug für die aktive Steuerung bestand. Da die Kontrolle über eine Funkfernsteuerung aus einem nachfolgenden Fahrzeug erfolgte, handelte es sich jedoch lediglich um ein ferngesteuertes Fahrzeug [108].
Die frühen Ansätze zu ferngesteuerten Fahrzeugen wurden Mitte der 1930er Jahre durch die Vision automatisierter Straßen hinter sich gelassen. In [118] spricht E. W. Murtfeldt 1938 von „wissenschaftlich konstruierten Autobahnen, die von crashsicheren Fahrzeugen in nicht allzu ferner Zukunft“ befahren werden. Murtfeldt beschreibt den Gedanken eines in die Straße eingelassenen, elektromechanischen Kabels, über das die longitudinale und laterale Steuerung des Verkehrs erfolgen soll, ohne dass der Fahrer in die Fahrzeugführung eingebunden sein muss.
Im Rahmen der Weltausstellung 1939 in New York präsentierte Norman Bel Geddes innerhalb der Ausstellung „Futurama: Highways & Horizons“ unter großem Zuspruch der Öffentlichkeit eine detaillierte Vision eines automatisierten Highways [53]. Dabei setzte sich Bel Geddes mit der Problematik eines gesteigerten Verkehrsaufkommens auseinander und stellte die Idee eines neuartigen Highway-Konzeptes vor, das wesentliche Faktoren wie Sicherheit, Reisekomfort, Geschwindigkeit und Wirtschaftlichkeit in die Modellbildung mit einbezieht. Dabei spricht Bel Geddes von transkontinentalen Straßen für Geschwindigkeiten zwischen 50 und 100mph, die von automatisch fahrenden Fahrzeugen befahren werden, die in der Lage sind, Distanzen sicher zu bewältigen, auch ohne aktiven Einfluss des Fahrzeugführers am Steuer. In seiner Vision beschreibt er mit Blick auf die Fahrzeuge und Highways der Zukunft integrierte Vorrichtungen, die menschliche Fehleingriffe in die Fahrzeugführung korrigieren und so die Sicherheit erhöhen [53]. Auch wenn die Vision Bel Geddes, für deren Umsetzung er das Jahr 1960 nannte, nicht in größerem Umfang realisiert wurde, manifestierten seine Ausführungen den Gedanken automatisierter Mobilität fest in den Köpfen von Entwicklern, Herstellern und Bevölkerung.
Während des zweiten Weltkrieges wurde der Wunsch, die Fahraufgabe zu automatisieren zunächst eingebremst. Militärische Errungenschaften wie beispielsweise die Entwicklung der Radartechnologie, waren in der Folge jedoch auch für zivile Zwecke zugänglich und versprachen neue Möglichkeiten für autonome Fahrzeuge. Das Konzept in die Straße integrierter Führungskabel wurde ebenfalls weiterentwickelt und so konnte die Eignung zur automatisierten Fahrzeugführung 1953 zunächst
1.3 Stand der Technik
9
anhand eines verkleinerten Modells, 1958 in einem realen Fahrzeug im Rahmen einer eine Meile umfassenden Testfahrt erfolgreich demonstriert werden [108].
Im Gegensatz zu der schwierig realisierbaren Umsetzung modifizierter Straßen, eröffnete das von Ralph Teetor entwickelte Konzept des Tempomaten, welches er im Jahre 1945 patentieren ließ, eine Teilautomatisierung der Fahraufgabe für eine serientaugliche Anwendung [108]. Zwar wurde der Tempomat erst ab 1958 durch die Vermarktung von Chrysler öffentlich wirksam präsentiert, ließ durch die sofortige Verfügbarkeit die Vision vollständig autonomer Fahrzeuge jedoch zunächst in Vergessenheit geraten [108]. Der Weg ein Fahrzeug mit Hilfe einer elektronischen Vorrichtung zu regeln, bei der ein menschlicher Fahrer aktiv die Kontrolle an das Fahrzeug übergibt, wurde im Jahr 1968 durch zwei von Daniel Aaron Wisner eingereichte Patentschriften zur „Automotive electronic cruise control“ geebnet [190, 191]. Im gleichen Jahr fand in Wien eine UN-Konferenz statt, in deren Rahmen innerhalb der Wiener Straßenverkehrskonventionen ein internationaler Vertrag erarbeitet wurde, der die Sicherheit im Straßenverkehr durch standardisierte Verkehrsregeln erhöhen sollte. Ein Punkt des Vertrages war die Forderung, dass ein menschlicher Fahrzeugführer dauerhaft die vollständige Kontrolle über das zu steuernde Fahrzeug besitzt und entsprechend die Verantwortung für eine sichere Integration des Fahrzeuges innerhalb des Verkehrs beim Fahrer liegt.
Im Jahr 1969 unternahm Continental einen ersten Versuch in Richtung automatisiertes Testen. Mit dem Ziel standardisierte Tests für Reifen im Realfahrbetrieb zu ermöglichen, wurde mit Hilfe eines modifizierten Fahrzeuges ein runder Testkurs autonom abgefahren. Die Fahrzeugführung wurde mit Hilfe eines in den Boden eingelassenen Kabels realisiert und ermöglichte so den Testbetrieb, unter Ausschluss eines menschlichen Fahrers [28]. Ein weiterer Meilenstein wurde im Jahr 1977 durch ein Team im Tsukuba Mechanical Engineering Lab erreicht. Dieses entwickelte ein Fahrzeug, das in der Lage war, mit Hilfe von Kamerabildern weiße Markierungen auf der Fahrbahn zu erkennen und anhand der extrahierten Informationen selbstständig zu navigieren und das Fahrzeug bei Geschwindigkeiten von bis zu 30 km/h zu bewegen [182]. Dabei wird von einem „intelligenten“ Fahrzeug gesprochen, welches mit Hilfe von künstlicher Intelligenz Straßenmuster und Hindernisse darin erkennt.
Im mit 749 Millionen Euro bis dato umfangreichsten Projekt zum automatischen Fahren wurde im Rahmen des PROMETHEUS (PROgraMme for a European Traffic of Highest Efficiency and Unprecedented Safety) Projektes zwischen 19861995 durch ein Team um Ernst Dickmanns von der Bundeswehr Universität München ein autonomer 7t-Kastenwagen (VITA) entwickelt, der erste autonome Fahrfunktionen demonstrierte. Im Jahr 1994 wurde in der Nähe von Paris eine Demonstration durchgeführt, in der zwei Mercedes S-Klassen (VITA II und VaMP) im normalen
10
1 Motivation und Stand der Technik
Straßenverkehr autonom Spurwechsel und Überholmanöver durchführten und dies bei Geschwindigkeiten von bis zu 130 km/h mit Hilfe von ausschließlich visueller Wahrnehmung demonstrierten [33, 34].
Im Jahr 2004 wurde im Rahmen der Darpa Challenge das Ziel ausgerufen, eine 150 Meilen lange Strecke durch die Mojave Wüste automatisch fahrend zurückzulegen. Allerdings konnte kein Teilnehmer die Strecke vollständig bewältigen. Im Jahr 2009 wurde von Google X ein Projekt zum automatischen Fahren angestoßen, in dessen Rahmen bereits mehr als 4 Millionen Meilen auf öffentlichen Straßen innerhalb der Vereinigten Staaten zurückgelegt wurden [188]. Ein weiterer Meilenstein wurde im Jahr 2010 durch VisLab (Artificial Vision and Intelligent Systems Laboratory) an der University of Parma erreicht. Das Team bewältigte mit vier autonomen Fahrzeugen die Strecke von Parma bis Shanghai, wobei neun Länder und 16000 km in mehr als hundert Tagen zurückgelegt wurden [167]. In den Jahren zwischen 20032015 wurde durch die Einführung neuer Assistenzsysteme in Serienfahrzeugen eine Teilautomatisierung unterschiedlicher Funktionen der lateralen und longitudinalen Fahrzeugführung in millionenfacher Ausführung realisiert. Als Beispiele sind Systeme wie Adaptive Cruise Control, Lane Assist, Parkassistenten und Notbremsassistenten zu nennen. In Abbildung 1.1 ist eine Übersicht relevanter Fahrerassistenzsysteme dargestellt, die bereits in Fahrzeugen umgesetzt sind oder sich noch in Planung befinden [8].
Grad der Automatisierung
Vollständig automatische Fahrfunktion
Autom. persönliche Mobilität Autom. On-Demand Mobilität
Teilweise automatische Fahrfunktion
Autobahnpilot Automatisches Parken Stauassistent
Fahrerassistenz ABS
Notbremsassistent Parkassistenten Spurhalteassistent Bremsassistent ACC ESC
Fahrerinformation
Toter Winkel Assistent Verkehrsschilderkennung
Kollisionswarnung
Einparkhilfe
Fahrerüberwachung
Navigationssystem
LDW
1980
1990
2000
2010
2020
Erfolgte und geplante Umsetzungen [Jahr]
Abbildung 1.1 Entwicklung und Planung relevanter Fahrerassistenzsysteme nach [8]
1.3 Stand der Technik
11
Ein weiterer Meilenstein für die Anwendung automatischer Fahrfunktionen, die über den Prototypenstatus hinausgehen, sind die Verabschiedung unterschiedlicher Gesetze, die es beispielsweise seit dem Jahr 2011 in verschiedenen Staaten der USA ermöglichen, unter gewissen Voraussetzungen Fahrzeuge legal automatisch auf öffentlichen Straßen zu betreiben. Im Jahr 2014 wurden zudem Änderungen des 1968 erlassenen Wiener Verkehrsabkommen beschlossen, die eine automatische Fahrzeugführung erlauben, solange die Systeme durch einen Fahrer überwacht und übersteuert werden können. Im Jahr 2014 zeigte Audi vor Live-Publikum beim Finale der Deutschen Tourenwagen-Meisterschaft eine Demonstration zum automatischen Fahren bis in den physikalischen Grenzbereich. Dabei erreichte der 560P S starke Audi RS7 Geschwindigkeiten von bis zu 240 km/h und stellte unter Beweis, dass die präzise Beherrschung eines automatisch fahrenden Fahrzeuges bis an das physikalische Limit auf einer Rennstrecke zu realisieren ist [5]. Im Rahmen der größeren Verfügbarkeit automatisch fahrender Versuchsträger auf öffentlichen Straßen, sowie der Möglichkeit aus Daten einen Mehrwert für Fahrfunktionen generieren zu können, startete Continental im Jahr 2015 im Rahmen des Road Database Projects damit, mit Hilfe von Sensorik aus Serienfahrzeugen Straßen zu kartographieren und die Daten in einem Back-End bereitzustellen. Dadurch kann die Straßengeometrie und Beschilderung nicht nur hoch genau erfasst, sondern auch in Echtzeit für Fahrzeugführer oder Assistenzsysteme bereitgestellt werden [29]. Seit Ende 2016 liefert Tesla alle Fahrzeuge in einer Hardware-Konfiguration aus, die es erlauben soll, die Fahrzeuge voll autonom zu betreiben [180]. Die Software dazu ist nicht aktiv, kann aber über ein over-the-air Upgrade freigeschaltet werden. Die für Ende 2017 von Tesla angestrebte Reife für ein solches Upgrade konnte jedoch bis heute nicht realisiert werden.
1.3.2 Historische Entwicklung von künstlicher Intelligenz und neuronalen Netzwerken
Der Wunsch komplexe, menschliche Handlungen auf technische Prozesse zu übertragen und es so zu ermöglichen, aus einem gelernten Handlungsportfolio die für einen Prozess unter variierenden, nichtlinearen Randbedingungen bestmögliche Entscheidung zu treffen oder darüber hinausgehend aus den Randbedingungen und dem hinterlegten „Wissen“ selbstständig neue Lösungsstrategien zu entwickeln, ist nicht erst in den vergangenen Jahren oder Jahrzehnten aufgekommen. In [17] wird der Ursprung künstlicher Intelligenz in Philosophie, Fiktion und Fantasie vergangener Generationen dargestellt. Bekannte Science Fiction Autoren wie Jules Verne im 19. Jahrhundert und Isaac Asimov im 20. Jahrhundert, der im Jahr 1942 in
12
1 Motivation und Stand der Technik
seiner Kurzgeschichte „Runaround“ die drei bekannten Gesetze der Robotik formulierte, setzten sich früh mit der Thematik intelligenter Maschinen auseinander und L. Frank Baum beschreibt im Zauberer von Oz den mechanischen Mann Tiktok im Jahr 1907 als „Extra-Responsive, Thought-Creating, Perfect-Talking Mechanical Man… Thinks, Speaks, Acts, and Does Everything but Live.“ [7, 17]. Im Verlauf des zweiten Weltkrieges wurden beispielsweise durch Alan Turing („Turing-Bombe“) oder Howard Aiken (Mark I) deutliche Fortschritte bezüglich der Rechenleistung zeitgemäßer Computer erzielt, was dazu führte, dass die Rechenmaschinen in den 1940er Jahren als „giant brains“ bezeichnet wurden [17].
In diesem Zeitraum begannen ebenfalls die ersten Untersuchungen, die sich mit dem Grundgedanken künstlicher neuronaler Netzwerke auseinandersetzten. Im Jahr 1943 veröffentlichten W. McCulloch und W. Pitts ihre Untersuchungen zu neurologischen Netzwerken, die theoretisch in der Lage sein sollten, beliebige arithmetische Funktionen zu berechnen [110]. Mit der McCulloch-Pitts-Zelle, die ein erstes, stark vereinfachtes Neuronenmodell darstellt, wurde der Grundstein für die Integration künstlicher neuronaler Netzwerke in technischen Anwendungen gelegt und das Gebiet der Neuroinformatik begründet [147].
In „The Organization of Behavior A Neuropsychological Theory“ erläutert Donald O. Hebb im Jahr 1949 erstmals die Interaktion zwischen Neuronen im menschlichen Gehirn und das Prinzip der synaptischen Plastizität, welches die Übertragungsstärke von Synapsen in Abhängigkeit von deren Aktivierung beschreibt und einen wesentlichen Beitrag zum grundlegenden Verständnis der Lernprozesse und der Gedächtnisbildung im Gehirn darstellt [70]. Die Hebbsche Lernregel stellt dabei bis heute eine Grundlage für das Training neuronaler Netzwerke dar. Es wird die Annahme getroffen, dass zwei Neuronen, die gleichzeitig aktiv sind, ein höheres Maß an Interaktion entwickeln sollen als Neuronen deren Aktivität nicht miteinander korreliert [147]. Für künstliche neuronale Netzwerke wird die Hebbsche Lernregel zur Veränderung der Gewichtsmatrizen verwendet und stellt die älteste und einfachste Trainingsmethode dar.
Im Jahr 1950 veröffentlichte Alan Turing die Grundlage für den später als „Turing Test“ bezeichneten Ansatz zum Nachweis, ob eine Maschine bzw. ein Computer in der Lage ist, intelligente Handlungen auszuführen [183]. Dieser Test besitzt bis heute Relevanz. Im Rahmen des Tests steht ein Proband zwei Gesprächspartnern gegenüber, die für den Probanden nicht sichtbar sind und von denen ein Gesprächsteilnehmer eine Maschine bzw. ein Computer ist. Wenn im Rahmen des Gesprächs nicht deutlich wird, welcher der unsichtbaren Gesprächspartner nicht menschlich ist, so gilt der Test als bestanden.
1.3 Stand der Technik
13
Ein Jahr später präsentierte der Mathematiker Marvin Minsky den ersten Neurocomputer SNARC (Stochastic Neural Analog Reinforcement Computer), der in der Lage war 40 Neuronen zu simulieren [153]. Im Jahr 1956 wurde der Begriff „Artificial Intelligence“ durch John McCarthy geprägt, der in einem zehn Teilnehmer umfassenden Workshop am Dartmouth College führende Experten aus dem Feld der künstlichen Intelligenz zusammenbrachte und durch die adressierten Themenfelder den Rahmen für ein eigenständiges Forschungsfeld definierte, welches Aspekte der Mathematik, Regelungstechnik oder Entscheidungstheorie beinhaltet, jedoch ganzheitlich von keiner dieser Disziplinen beschrieben wird [109, 153].
Die grundlegenden Eigenschaften und Strukturen heutiger künstlicher neuronaler Netzwerke wurden erstmals im Jahre 1958 in abstrahierter Form durch F. Rosenblatt im Rahmen des Perzeptron-Modells beschrieben [148]. Rosenblatt beschäftigte sich mit der Frage, in welcher Form Informationen gespeichert werden und wie diese abgelegten Informationen das Verhalten beeinflussen. Das ursprüngliche einfache Perzeptron-Modell bestand dabei lediglich aus einem Neuron mit anpassbaren Gewichten und einem Schwellenwert. Diesem einfachen und stark abstrahierten Modell konnten jedoch Defizite bei der Abbildung logischer Funktionen nachgewiesen werden [115], die nur von komplexeren Netzwerkarchitekturen in mehrschichtigen Anordnungen, dem sogenannten „Multilayer-Perceptron“ modelliert werden können [149]. Im Jahr 1963 erstellte und veröffentlichte Edward A. Feigenblatt die erste Sammlung von Fachliteratur, die das Thema künstliche Intelligenz in den Vordergrund stellte [47]. In der Sammlung wurden 20 Veröffentlichungen berücksichtigt, die demonstrierten wie Computer Schach spielen, logische und mathematische Probleme lösen, visuelle Muster erkennen oder in natürlicher Sprache kommunizieren. Da über einen langen Zeitraum Literatur zum Thema künstliche Intelligenz nicht vorhanden oder schwer zugänglich war, ermöglichte diese Sammlung, die Arbeit der Pioniere, die das Thema maßgeblich geformt und den Weg für heutige Anwendungen gestaltet haben, einem großen Publikum zugänglich zu machen.
In der Folge wuchs zwar das Interesse an Anwendungen aus dem Feld der künstlichen Intelligenz, mangelnde Rechenleistung und einhergehend Schwierigkeiten die Algorithmen effizient zu trainieren, führten über einen langen Zeitraum zu geringem funktionalem Fortschritt. Dies änderte sich Mitte der 80er Jahre als David Rumelhart in [152] den bereits im Jahre 1969 entwickelten Backpropagationsalgorithmus [16] zur Optimierung von Lernproblemen nutzte und so den Grundstein für erfolgreiches Training künstlicher neuronaler Netzwerke legte [153].
In den vergangenen Jahren haben sich KI-basierte Ansätze in vielen Disziplinen stark entwickelt und stellen so auch aus kommerzieller Sicht interessante Ansätze in
14
1 Motivation und Stand der Technik
sehr unterschiedlichen Industriezweigen dar. In der Unterhaltungsindustrie spielen für eine Reihe von Anwendungen KI-Gegenspieler eine große Rolle. Im Jahre 1997 erregte ein unter Turnierbedingungen ausgetragener Wettkampf zwischen Schachweltmeister Garri Kasparow und dem von IBM entwickelten Schachcomputer Deep Blue große Aufmerksamkeit. Am Ende setzte sich das Programm mit 3,5 zu 2,5 durch und war damit der erste Schachcomputer, der einen Wettkampf unter Turnierbedingungen gegen einen amtierenden Weltmeister für sich entscheiden konnte [22]. Im Jahr 2011 schlug das ebenfalls von IBM entwickelte Computerprogramm Watson in einer Live Übertragung der Fernsehquizshow Jeopardy zwei frühere Gewinner der Show. Dabei mussten die Entwickler zahlreiche Herausforderungen wie Syntaxanalyse, Klassifizierung der Fragen, automatisierte Erfassung und Bewertung von Eingaben, Erfassung von Relationen, Generierung von logischen Ausgaben, Wissensrepräsentation und die Möglichkeit Schlussfolgerungen zu gewährleisten, im Entwurf des Algorithmus berücksichtigen [48]. Die grundlegenden Disziplinen, die es für die erfolgreiche Bewältigung der beschriebenen Herausforderungen zu meistern gilt, sind nicht nur für die Unterhaltungsindustrie interessant, sondern bieten das Potential, eine Software zu generieren, die einfache Aufgaben menschlicher Sachbearbeiter übernimmt. So hat das japanische Versicherungsunternehmen Fukoku Mutual Life Insurance über 30 Angestellte durch eine KI auf Grundlage von IBMs Programm Watson Explorer ersetzt, um Patientenansprüche zu berechnen und Gehaltskosten einzusparen [21].
Im Jahr 2016 konnte das von Google Deepmind entwickelte Programm AlphaGo den Südkoreaner Lee Sedol, einen der besten Go-Spieler unter Wettkampfbedingungen besiegen. Da ein Go-Spielfeld mit 19 mal 19 Feldern über etwa 1048 zulässige Kombinationsmöglichkeiten verfügt, galt die Entwicklung einer KI, die sich mit menschlichen Spielern auf professionellem Niveau messen kann, als komplexe Herausforderung. Der Algorithmus kombiniert unterschiedliche Techniken des Machine Learning [164]. Ein Policy Network, das mögliche Züge bestimmt, wurde zunächst überwacht (supervised learning) trainiert, später mit Hilfe von Reinforcement Learning optimiert. Ein Value Network bewertet die Positionen des Aktionsraums und wurde durch Reinforcement Learning trainiert. Darauf aufbauend berechnet eine Monte Carlo Baumsuche alle Varianten, um den maximal möglichen Ertrag für jeden Zug zu generieren. Für die komplexen Rechenoperationen wurden 1920 CPUs und 280 GPUs verwendet, was den hohen Komplexitätsgrad und Rechenaufwand für die dargestellte Umsetzung der beschriebenen Kombination aus Machine Learning Ansätzen verdeutlicht.
Neben den Erfolgen, die Ansätze auf Basis von KI bei der Bewältigung komplexer Spiele aufzeigen konnten, bietet der Fortschritt im Bereich der Spracherkennung und Verarbeitung Potential für zahlreiche Anwendungen. In den vergangenen
1.3 Stand der Technik
15
Jahren bieten persönliche Assistenten wie Siri, Cortana, Google Assistant oder Alexa dem Anwender die Möglichkeit, durch Spracheingaben Informationen zu erhalten und mit dem Assistenten zu interagieren [20]. Zur Verarbeitung der gesprochenen Eingaben sowie zur Generierung der ebenfalls in natürlicher Sprache erfolgenden Antworten, werden tiefe künstliche neuronale Netzwerke (deep neural networks) eingesetzt [102].
Die Möglichkeit robust natürliche Sprache verarbeiten und wiedergeben zu können sowie die Fähigkeit aus großen Datenmengen komplexe Zusammenhänge zu erfassen, öffnet eine Vielzahl unterschiedlicher Sektoren von hoher wirtschaftlicher Relevanz für KI basierte Algorithmen, was ebenfalls durch signifikant gestiegene Investitionen während der vergangenen Jahre innerhalb des KI-Sektors deutlich wird [18]. Nachfolgend wird ein Ausschnitt dieser Bereiche aufgeführt.
Im medizinischen Sektor ist der Einfluss von Machine Learning Anwendungen zuletzt stark gewachsen. KI wird unter anderem zur Erstdiagnose und Unterstützung / Entlastung von Fachärzten, Erstellung von personifizierten Behandlungsplänen oder Medikamentenzusammensetzungen eingesetzt [66, 116]. Im Einzelhandel hilft KI das Kaufverhalten von Kunden zu identifizieren und personenbezogene Werbung anhand der ermittelten Muster abzuleiten [187, 197]. Außerdem wird Machine Learning eingesetzt, um Trends und Kaufverhalten zu prognostizieren und so Lagerbestände entsprechend des veranschlagten Bedarfs zu optimieren [104]. Die Fähigkeit, aus natürlicher Sprache den Kontext geschlossener Sätze abzuleiten, bzw. diesen innerhalb geschriebener Texte zu erfassen, hat dazu geführt, dass KI zur Bearbeitung spezifischer Kundenanfragen eingesetzt wird [192, 194]. Weitere Einsatzgebiete von künstlicher Intelligenz sind die Echtzeitübersetzung von gesprochenen Texten [60] sowie Gebärdensprache [51], die Identifizierung und Bekämpfung von Spam Nachrichten [6, 125] und die Robotik, die neben einer intelligenten Software-Komponente auch Hardware benötigt, um den softwareseitigen Wunsch in eine Handlung zu überführen [142].
Es wird deutlich, dass künstliche Intelligenz in einem breiten Spektrum unterschiedlicher Anwendungen eine zunehmend bedeutende Rolle einnimmt. Es sind jedoch weitere Investitionen notwendig, um die Technologie zu entwickeln, zu verstehen sowie deren Robustheit gegenüber Störungen und Effizienz hinsichtlich Rechenleistung und Trainingszeit zu steigern. Um diese Investitionen zu rechtfertigen, ist ein tragendes Geschäftsmodell notwendig, welches das Potential bietet, durch einen hinreichend großen Markt derartige Investitionen gewinnbringend zurückzuerhalten. Ein Anwendungsgebiet, welches in Zukunft Methoden der künstlichen Intelligenz in unterschiedlichen Disziplinen kundennah und in großer Stückzahl zum Einsatz bringen wird, ist das automatische Fahren [127, 171]. Automatisierte Fahrfunktionen bieten eine geeignete Plattform für Methoden der künstlichen
16
1 Motivation und Stand der Technik
Intelligenz, da in unterschiedlichen Disziplinen hochgradig nichtlineare, menschenähnliche Interaktionen mit der umgebenden Umwelt notwendig sind und die Bereitstellung automatischer Fahrfunktionen einen breiten Markt anspricht [59].
Um eine, vom menschlichen Fahrer vollständig entkoppelte Fahrt zu gewährleisten, ist auf Seiten der Hardware eine durchgängige Ansteuerung von Lenkung, Gas, Bremse und Schaltung zu gewährleisten. Darüber hinaus muss das Fahrzeug über hinreichend redundante Sensorik verfügen, die es ermöglicht ein präzises Umfeldmodell zu erstellen, welches den Ansprüchen einer automatischen Fahrt genügt. Dabei muss eine 360◦ Überwachung um das Fahrzeug gewährleistet sein und mit Hilfe von Sensorfusion Informationen aus beispielsweise Kameras, Radar und Laserscannern zu einem redundanten Umfeldmodell fusioniert werden, welches andere Verkehrsteilnehmer, Straßenbeschaffenheit, -typ und -verlauf, Schilder und Hindernisse sensiert und deren Position sowie im Falle von dynamischen Objekten, Trajektorie, ermittelt.
Methoden der künstlichen Intelligenz bieten für die softwareseitige Verarbeitung, Fusionierung und Interpretation der aufgezeichneten Daten im Vergleich zu klassischen Ansätzen großes Potential. Einerseits ist es notwendig eine Karte zu erstellen, in der das Fahrzeug verortet und durch Kopplungsnavigation eine präzise Positionsbestimmung in Relation zu der umgebenden Umwelt gewährleistet wird. Andererseits ist eine kosteneffiziente Aktualisierung des Umfeldmodells notwendig, um Änderungen der Umgebung und damit eine möglichst akkurate Darstellung der Realität für die Aufgabe der Fahrzeugführung bereitstellen zu können. Einen Überblick über Anwendungen von künstlicher Intelligenz im Kontext der Umfeldmodellierung, Wahrnehmung und Interpretation liefern [80] und [199].
Für die Überführung des Umfeldmodells auf Navigations- und Planungsebene gewinnen Methoden der künstlichen Intelligenz ebenfalls an Bedeutung. Dabei wird in erster Linie versucht, das Verhalten menschlicher Fahrer aus aufgezeichneten Fahrmanövern zu extrahieren [145, 175]. Eine weitere Möglichkeit ist die Anwendung von Deep Reinforcement Learning, wobei ein Agent durch Interaktion mit einem Umgebungsmodell innerhalb einer Simulationsumgebung Bahnplanungsstrategien erlernt [195].
Der letzte Schritt ist es, die zur Verfügung stehenden Informationen in eine Fahrstrategie zu überführen. Diese Aufgabe erfordert selbst von menschlichen Fahrern eine Kombination aus Training und Erfahrung. Die Interaktion mit anderen Verkehrsteilnehmern, die Prädiktion möglicher Aktionen und die sichere und sinnvolle Reaktion auf diese sowie die Berücksichtigung von länder- und städtespezifischen Regularien, stellt für die Umsetzung einer Fahrstrategie für vollständig automatische Fahrzeuge eine komplexe Herausforderung dar. Um die geplante Fahrstrategie in eine gewünschte Reaktion des automatischen Fahrzeuges zu überführen, ist zudem
1.3 Stand der Technik
17
die Ansteuerung der Aktorik mit einer Regelungsstrategie durchzuführen, mit deren Hilfe sichergestellt ist, dass das Fahrzeug robust und in einer störungsbehafteten Umgebung auf der geplanten Trajektorie verbleibt.
Da im Rahmen dieser Arbeit künstliche neuronale Netzwerke im regelungstechnischen Kontext des automatischen Fahrens untersucht werden, stellt der folgende Abschnitt den Stand der Technik von lernenden Regelungsansätzen im Kontext des automatischen Fahrens dar. Im darauffolgenden Abschnitt wird das Forschungsvorhaben in den Stand der Technik eingeordnet.
1.3.3 Lernende Regelungsansätze im Kontext des automatischen Fahrens
Klassische modellbasierte Regelungskonzepte nutzen ein identifiziertes Prozessmodell mit festen, im Vorfeld bestimmten Systemparametern. Diese Ansätze ermöglichen die präzise Fahrzeugführung für eine Reihe unterschiedlicher Szenarien, insbesondere bei einem gut identifizierten Prozessmodell mit bekannter Umwelt sowie Regelstrecke. Systemzustände, die durch das zu Grunde liegende Modell nicht hinreichend beschrieben werden, führen zu einer Verringerung der Regelgenauigkeit und damit im Falle des automatischen Fahrens zu erhöhtem Risiko, die gewünschte Trajektorie zu verlassen. Diese unzureichend identifizierten oder modellierten Systemzustände können beispielsweise die Folge einer veränderten Umgebung, z.B. durch spontane Änderungen des Untergrunds oder aus einer Änderung des Systems, z.B. durch Degradationen der Regelstrecke, resultieren. Ebenfalls kann eine unzulängliche Abbildung der Systemdynamik zu einer Verringerung der Regelgüte führen. Daher existiert der Wunsch nach lernenden Regelstrategien, denen kein festes Modell zu Grunde liegt. Diese Verfahren erlernen die Nichtlinearitäten und Modellunsicherheiten aus aufgezeichneten Daten und bilden so das reale Verhalten der Regelstrecke sowie die nichtlinearen Effekte reproduzierbarer Störungen über der Zeit genauer ab als klassische Verfahren [59].
Für echtzeitfähige Systeme werden häufig online-fähige Regressionsmethoden herangezogen. So werden beispielsweise in [112] und [123] Regressionstechniken genutzt, um invertierte Dynamikmodelle zu erlernen. In [128, 129] wird eine nichtlineare modellprädiktive Regelung (MPC = Model Predictive Control) in Kombination mit einem erlernten Modell für Störungen zur Regelung eines Roboters auf einem Offroad-Kurs appliziert. Eine Übersicht über Regressionstechniken zur online-Modellierung in Robotiksystemen wird in [163] geliefert.
Neben Regressionsverfahren wird in der Literatur die Kombination eines lernenden Regelelementes mit einem zuvor hinterlegten Prozessmodell beschrieben.
18
1 Motivation und Stand der Technik
Ein aus der Prozesssteuerung auf die Regelung von Fahrzeugen abgeleiteter Ansatz ist die iterativ lernende Regelung (ILC = Iterative Learning Control), bei der ein Modellfehler in Folge sich häufig wiederholender Arbeitsschritte reduziert wird. Als ein solcher reproduzierbarer Prozess kann auch die autonome Fahrzeugführung betrachtet werden, für die sich Szenarien regelmäßig wiederholen. In [135] wurde ein iterativ lernender Regler zur Verbesserung des Führungsverhaltens beim parallelen Einparken eines Modellfahrzeuges untersucht. Zur Erweiterung einer modellbasierten Vorsteuerung und der rundenbasierten Verbesserung des lateralen Versatzes wurden ILCs auf einem Roboter zur Bewältigung eines Offroad Rundkurses appliziert [130] sowie auf einem autonom operierenden Fahrzeug auf einer Rennstrecke bei hoher Dynamik [84].
In den vergangenen Jahren hat zudem die Kombination aus modellprädiktiver Regelung (MPC) und lernenden Ansätzen im Kontext des automatischen Fahrens verstärkt an Bedeutung gewonnen. Der MPC kann bei der Berechnung erforderlicher Stellgrößen, im Rahmen der Lösung des zu Grunde liegenden Optimierungsproblems, auch komplexe nichtlineare Systeme mit Beschränkungen der Eingangsund Zustandsgrößen berücksichtigen. Lernende Ansätze ermöglichen eine verbesserte Identifikation nichtlinearer Systemzustände, die im Rahmen des MPCKostenfunktionals Anwendung finden können und damit eine Verbesserung der Prädiktion des Fahrzeugverhaltens ermöglichen [59].
In [100, 101] wird ein erlerntes Fahrermodell mit einem MPC kombiniert. Das Fahrermodell kann über Imitation Learning aus zuvor aufgezeichneten Daten unterschiedliche Fahrstile abbilden, der MPC garantiert Sicherheit durch gesetzte Beschränkungen. [38] nutzt ein Convolutional Neural Network (CNN) um aus Videosequenzen ein Kostenfunktional für einen MPC zu approximieren. Dies wird direkt zur Trajektorienoptimierung genutzt und der konzeptionelle Nachweis auf einem Modellfahrzeug erbracht. [150] beschreibt einen lernenden nichtlinearen MPC, um auf einem Rundkurs rundenzeitoptimiert automatisch zu fahren. Informationen aus vergangenen Runden werden genutzt, um die Rundenzeit zukünftiger Runden zu verbessern. Das Fahrzeug wird in den zu Grunde liegenden Simulationen bis ans Limit der physikalischen Grenzen bewegt. Einen ähnlichen Ansatz der zyklischen Verbesserung eines MPC beschreibt [15]. Auf einem 1:10 Fahrzeugmodell wird mit einem lernenden MPC die Rundenzeit und Konvergenz in Relation zu der gewünschten Trajektorie verbessert.
Eine weitere Methode um nichtlineare Systemzustände aus Daten zu erfassen ist der Einsatz künstlicher neuronaler Netzwerke, die in unterschiedlichen Anwendungen Einfluss auf die Regelung automatischer Fahrzeuge nehmen können. Die Eignung neuronaler Netzwerke zur Abbildung des dynamischen Verhalten eines Fahrzeuges wird unter anderem in [55] und [154] nachgewiesen. In [168] wird aufgezeigt,
1.3 Stand der Technik
19
dass ein auf unterschiedliche Straßenreibwerte trainiertes neuronales Netzwerk ein verbessertes Folgeverhalten eines realen Versuchsträgers herbeiführen kann, als ein zum Vergleich herangezogenes physikalisches Modell. Für die gekoppelte Dynamik in Längs- und Querrichtung werden in [32] zwei neuronale Netzwerke trainiert, um den Lenkwinkel an der Vorderachse sowie das Moment an den Rädern zu kommandieren. Die Untersuchungen finden simulativ statt und die Daten werden mit einem Modell, welches über neun Freiheitsgrade verfügt (9 DoF-Modell), erzeugt. Es wird aufgezeigt, dass Szenarien in denen eine starke Kopplung aus Längs- und Querdynamik vorliegt, präzise abgebildet werden können. In [82] wird die Kombination aus einem robusten Fahrdynamikregler und einem neuronalen Netzwerk untersucht, um die Unsicherheit bei der Abschätzung der nichtlinearen Bereiche der Reifenkennlinie für Fahrmanöver am Limit zu verbessern. Die Experimente werden in der Simulation sowie auf einem Hardware-in-the-Loop (HIL)-Prüfstand durchgeführt. Das neuronale Netzwerk wird unter Berücksichtigung einer Lyapunov-Funktion analysiert, um Stabilität des geschlossenen Regelkreises zu gewährleisten. Es wird aufgezeigt, dass eine verbesserte Robustheit bei externen Störungen sowie gute Führungsgenauigkeit und Gierstabilität für grenzbereichsnahe Fahrt darstellbar ist. Die Kombination aus modellbasierten Regelansätzen und neuronalen Netzwerken wird zudem in [158] untersucht und in einem Versuchsträger aufgezeigt, dass der Ausgleich von Störungen eines sich online adaptierenden neuronalen Netzwerkes im realen Fahrzeug möglich ist.
Neben den Ansätzen, die eine Kombination aus klassischer Modellbildung und lernenden Algorithmen darstellen, ist in den vergangenen Jahren ein gesteigertes Interesse an End2End-Ansätzen im Kontext des automatischen Fahrens zu erkennen [59]. Dabei werden Sensordaten direkt in Stellvorgaben der Aktorik überführt, ohne dass Module zur Verortung, Objekterkennung, Planung und Regelung einzeln durchlaufen werden. Bereits im Jahr 1979 wurden in [182] Methoden der künstlichen Intelligenz herangezogen, um ein Fahrzeug in variierenden Straßenbedingungen bis zu einer Fahrgeschwindigkeit von 30 km/h zu bewegen. Dabei wurden die Straße sowie Hindernisse in der Umgebung mit TV Kameras erfasst, um einen Regelausgang in Relation zum Umfeld zu generieren. Im Jahr 1988 wurde ALVINN (An Autonomous Vehicle in a Neural Network) entwickelt, um einem erfassten Straßenverlauf zu folgen. Dafür wurden Bilder aus Kameras und Laserscannern in eine Richtungsinformation überführt, die Methode auf Basis von simulierten Straßenrändern trainiert und erfolgreich auf reale Straßen übertragen [138]. In [99] erfolgt die Querdynamikregelung eines prototypischen Versuchsträgers mit einem neuronalen Netzwerk, welches für Geschwindigkeiten bis 40 km/h menschenähnliches Führungsverhalten erlernt. So ist es in der Lage, mit aus Kamerabildern extrahierten Features, eine präzise Querführung des Fahrzeuges für unterschiedliche
20
1 Motivation und Stand der Technik
Streckenprofile zu gewährleisten. In [98] wird ein End2End-Ansatz zur Regelung mobiler Offroad Roboter beschrieben. Das Training des Algorithmus erfolgt überwacht aus Daten eines menschlichen Fahrers für unterschiedliche Witterungs- und Lichtbedingungen sowie variierende Untergründe und Hindernisse.
Derzeit wächst das Interesse an Ansätzen, die mittels Deep Learning aus großen Datensätzen Zusammenhänge zwischen Rohdaten und Stellgrößen für die autonome Fahrzeugführung extrahieren und teils in realen Versuchsträgern unter komplexen Randbedingungen appliziert werden [11, 44, 193]. Der Nachteil dieser Ansätze ist die reine Abbildung aufgezeichneter Verhaltensmuster eines Experten über Imitation Learning. Ein Ansatz der die direkte Interaktion des lernenden Algorithmus mit der Umwelt über einen Agenten beinhaltet und daher in der Vergangenheit ebenfalls viel Aufmerksamkeit für End2End-Ansätze generiert hat, ist Deep Reinforcement Learning (DRL). Aufgrund der Komplexität des Aktions- und Zustandsraumes, der Absicherung sowie benötigten Rechenleistung erfolgen DRL-Ansätze zur Fahrzeugführung bisher jedoch weitestgehend simulativ [71, 81, 134, 137, 155].
1.3.4 Einordnung der durchgeführten Untersuchungen in den Stand der Technik
Maschinelle Lernverfahren und künstliche Intelligenz stellen heute einen wesentlichen Bestandteil der Forschung in unterschiedlichen Forschungsfeldern dar. Auch in Bezug auf die Regelung autonomer Fahrzeuge stellt der Einsatz künstlicher Intelligenz einen Forschungsschwerpunkt dar. Von Interesse sind insbesondere nichtlineare und komplex zu modellierende Zustände, die klassische Modellbildung und Regelungskonzepte vor große Herausforderungen stellen. Ein Schwerpunkt der Forschung im Bereich der künstlichen Intelligenz sind künstliche neuronale Netzwerke, die mit gesteigerter Rechenkapazität sowie der Möglichkeit große Datenmengen speichern und verarbeiten zu können auch in Bezug auf seriennahe Hardware applizierbar werden. Die Anwendungen in Bezug auf die Fahrzeugführung konzentrieren sich dabei insbesondere auf End2End Ansätze, die mit Hilfe von Deep Learning a priori aufgezeichnete Daten und Fahrzeugverhalten in einem rechenintensiven Training auf das Netzwerk übertragen. Der Nachteil dabei ist der komplexe mathematische Nachweis der Robustheit sowie die Bereitstellung eines umfassenden Trainingsdatensatzes, der für den Realbetrieb alle fahrdynamischen Bereiche, Umgebungszustände und Einflussfaktoren auf die Regelung hinreichend präsentiert. Um die direkte Interaktion mit der Umwelt abbilden und im Rahmen der Regelungsstrategie berücksichtigen zu können, wächst das Interesse an Reinforcement Learning für die Fahrzeugführung. Die bisherigen Untersuchungen sind jedoch nahezu ausschließlich simulationsbasiert und eine Aussage bezüglich des Verhaltens in einem
1.3 Stand der Technik
21
im Vergleich zur Simulation deutlich höher dimensionalen Aktions- und Zustandsraum ist nicht ohne Weiteres möglich.
Im Regelkreis lernende Algorithmen bieten den Vorteil, dass klassische Modellbildung mit sich an den Systemzustand adaptierenden Ansätzen kombiniert werden können. Dadurch können unter gewissen Voraussetzungen Annahmen für Stabilität und Reglerentwurf aus der klassischen Regelungstechnik Anwendung finden [59]. Der Nachteil dieser Verfahren liegt darin begründet, dass ein Vorwissen über die Störung, die es auszugleichen gilt, vorliegen muss oder es sich um einen reproduzierbaren Fehler handeln muss, der schrittweise erlernt wird. Bei plötzlich auftretenden Änderungen im System, die beispielsweise durch einen Hardwaredefekt oder sich ändernden Untergrund ausgelöst werden, können lernende Verfahren, die mehrere Zyklen des identischen Fehlers zur Konvergenz benötigen, eine Stabilisierung des Systems nicht garantieren. In diesem Kontext ist der Ausgleich plötzlich auftretender Fehler durch ein online trainiertes neuronales Netzwerk denkbar [158].
Der Fokus dieser Ausarbeitung liegt in der Untersuchung der Anwendbarkeit künstlicher neuronaler Netzwerke in Kombination mit einem modellbasierten Regelungsansatz zur Querdynamikregelung eines realen Versuchsträgers im gesamten fahrdynamischen Spektrum. Abbildung 1.2 zeigt eine Übersicht der Schwerpunkte der vorliegenden Arbeit.
Forschungsfrage
Kann eine Kombination aus klassischer Modellbildung und einem künstlichen neuronalen Netzwerk im Realfahrzeug ohne implementiertes Vorwissen robust appliziert werden?
Stand der Technik
Deep Learning & Offline Training
Normalisierung Regularisierung Trainingsverfahren Aktivierungs-
funktionen Netzwerkarchitektur
Forschungsschwerpunkt
Online Training
Applikation & Bewertung in der
Simulation
Applikation & Bewertung im realen
Versuchsträger
Analysen und Richtlinien für den robusten Betrieb eines neuronalen Netzwerkes zur Fahrdynamikregelung im geschlossenen Regelkreis
Abbildung 1.2 Schwerpunkte und Forschungsfrage der vorliegenden Arbeit
Die Ausarbeitung fokussiert sich auf die Untersuchung von Erkenntnissen aus offline Applikationen in Bezug auf ein effizientes und robustes Netzwerktraining
22
1 Motivation und Stand der Technik
im geschlossenen Regelkreis. Das Netzwerk verfügt bei der Applikation weder über spezifisches Vorwissen, noch werden a priori Informationen über Störungen in Form von Expertenwissen im Regelkreis bereitgestellt. Die Erkenntnisse werden systematisch in der Simulation untersucht und bewertet und im Anschluss in direkter Interaktion mit der Umgebung im realen Versuchsträger appliziert. Dabei stehen sowohl die Langzeitstabilität und der Ausgleich systematischer, sich wiederholender Fehler, als auch die Konvergenz nach synthetisch generierten Störungen im Fokus. Die systematische Applikation und Bewertung unterschiedlicher Methoden in Bezug auf die Netzwerkstabilität im Kontext der Fahrdynamikregelung sowie umfassende Analysen im gesamten fahrdynamischen Spektrum eines autonom operierenden Versuchsträgers stellen dabei den wesentlichen Beitrag der Ausarbeitung dar.
Fahrzeugtechnische Grundlagen
2
Im Rahmen der Arbeit werden adaptive Regelungsstrategien für die Querführung eines automatisch fahrenden Versuchsträgers untersucht. Die Querbewegung des Fahrzeuges ist die Folge unterschiedlicher Querkräfte, die in erster Linie aus der Lenkbewegung des Fahrzeugführers oder Fahrdynamikreglers resultieren. Sie setzen sich aus den Seitenführungskräften an den Rädern, der Fliehkraft bei Kurvenfahrt, aus Seitenwind resultierenden Kräften und aufgrund von Fahrbahnneigung aufgebauter Querkraft zusammen [72]. Solange die vom Reifen maximal übertragbaren Seitenkräfte nicht überschritten werden, ist das Fahrzeug in der Lage den vorgegebenen Lenkbewegungen zu folgen. Erst bei Annäherung an den Grenzbereich, d.h. der Annäherung der Kraftschlussgrenze und damit der maximal übertragbaren Kraft zwischen Reifen und Fahrbahn, überlagert das Eigenlenkverhalten des Fahrzeugs das gewünschte Folgeverhalten [72].
Wird der Fahrer als primärer Regler innerhalb der Fahrzeugführung betrachtet, so sind unterschiedliche Aufgaben notwendig, um einen Streckenabschnitt erfolgreich zu durchfahren. Diese Schritte sind in Abbildung 2.1 exemplarisch dargestellt.
Im ersten Schritt werden verschiedene Navigationslösungen anhand unterschiedlicher Gütekriterien, z.B. maximal zur Verfügung stehende Zeit, Streckenbedarf, Straßentypen, Maut, etc. verglichen und anhand dieser ersten, taktischen Planung eine Route ausgewählt.
Ergänzende Information Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann https://doi.org/10.1007/978-3-658-43109-9_2.
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH,
23
ein Teil von Springer Nature 2024
J. Kaste, Künstliche neuronale Netzwerke zur adaptiven Fahrdynamikregelung,
AutoUni Schriftenreihe 171, https://doi.org/10.1007/978-3-658-43109-9_2
24
2 Fahrzeugtechnische Grundlagen
Navigation
Bahnplanung
Störgrößen (z.B. Modellunsicherheiten)
Sollkurs Istkurs
Fahrdynamikregler (bzw. Fahrer)
Stellgröße
Zustandsgrößen
Fahrzeugmodell (bzw. Fahrzeug)
Störgrößen (z.B. Wind, Systemschäden, …)
Abbildung 2.1 Darstellung des Regelkreises Fahrzeugführung analog zu [72]
Auf Basis dieser festgelegten Route wird im zweiten Schritt eine Trajektorie geplant, der es zu folgen gilt. Beim Befahren der ermittelten Kursvorgabe werden Fahrzeug- und Umgebungsinformationen aufgenommen, verarbeitet und dazu genutzt, der gewünschten Trajektorie mit Hilfe von Aktorikansteuerung zu folgen. Dabei werden Störeinflüsse wie wechselnder Verkehrsfluss, Witterungseinflüsse, Straßensignale und Interaktion mit anderen Verkehrsteilnehmern durch den Fahrzeugführer sowohl in der Planung als auch in der Regelung des Fahrzeugs berücksichtigt. Da diese Aufgabe nicht trivial ist und ein hoher prozentualer Anteil verursachter Unfälle aus menschlichem Fehlverhalten resultiert [77], hat in den vergangenen Jahren eine sukzessive Steigerung des Automatisierungsgrads der Fahraufgabe stattgefunden, um mit Hilfe unterschiedlicher Assistenzsysteme die Komplexität der Fahraufgabe zu reduzieren und damit die Sicherheit im Straßenverkehr zu erhöhen. Die direkte Korrelation zwischen einem erhöhten Grad der Assistenz und gesteigerter Sicherheit im Straßenverkehr wird aus den vom statistischen Bundesamt erhobenen polizeilich erfassten Unfallzahlen der vergangenen 60 Jahre deutlich [31]. Diese sind in Abbildung 2.2 dargestellt.
Die Abbildung zeigt in der oberen Darstellung, dass die Anzahl der polizeilich erfassten Unfälle innerhalb Deutschlands zunächst etwa stetig gestiegen ist und sich seit 1991 annähernd konstant verhält. Bei den Personenschäden ist zunächst ein deutlicher Anstieg erkennbar, bis sich die Zahlen ungefähr konstant und seit Ende der 90er Jahre regressiv verhalten. Da das Verkehrsaufkommen und die Anzahl der angemeldeten Kraftfahrzeuge in Deutschland, wie in Abbildung 2.3 dargestellt, in den vergangenen Jahren annähernd stetig gestiegen ist [77, 89], hängt die Korrelation dieser Entwicklung mit den ergriffenen schützenden Maßnahmen und eingeführter Assistenzsysteme zusammen. Dies wird insbesondere in der unteren Darstellung von Abbildung 2.2 deutlich, in der Todesfälle im deutschen Straßenverkehr technischen
2 Fahrzeugtechnische Grundlagen
25
Unfälle insgesamt
Personenschäden
x 106 2.5
2
1.5
1
0.5
0
5
x 10 6 5.5 5 4.5 4 3.5 3
x 104 2
1960 1960
1.5
1
S1 A1
0.5
0 1960
Polizeilich erfasste Unfälle
1970
1980 Jahr
1990
2000
2010
1970
1980 Jahr
1990
2000
2010
S2 S3 S4 A2 S5
1970
1980 Jahr
S6 A3
1990
schützende Maßnahmen (Sn) Assistenz & Automation (An)
A4
A5 S7
A6 A7 A8
A9 A10
2000
2010
Todesfälle
Abbildung 2.2 Polizeilich erfasste Unfälle der letzten 60 Jahre in Deutschland nach [31], [139]
Innovationen und schützenden Maßnahmen gegenübergestellt werden. Die Erläuterungen zu Maßnahmen und Assistenzsystemen sind in Tabelle 2.1 zusammengestellt. Ein bis in die Gegenwart fortgeführter rückläufiger Trend der Todesopfer ist ab 1970 zu erkennen. Zu dieser Zeit wurden eine Reihe schützender Maßnahmen und ab 1978 das Antiblockiersystem (ABS) eingeführt, wodurch die Sicherheit im Straßenverkehr deutlich erhöht wurde. Mitte der 90er Jahre wurden zahlreiche technische Innovationen in Fahrzeuge integriert, woraus sich der abfallende Trend bei den Todesopfern ergibt, zudem die Personenschäden deutlich reduziert wurden und die insgesamt erfassten Unfälle trotz steigendem Verkehrsaufkommen konstant gehalten werden konnten.
26
2 Fahrzeugtechnische Grundlagen
Tabelle 2.1 Einführung von schützenden Maßnahmen sowie Assistenz- und Automatisierungsfunktionen in Bezug auf die Fahrzeugführung
Jahr
Zeichen
1957 S1
1958
A1
1972 S2
1973 S3
1974 S4
Maßnahmen zum Insassenschutz
Tempolimit von 50km/h in Ortschaften
Tempolimit von 100km/h auf Landstraßen
Einführung der 0,8‰ Grenze
Richtgeschwindigkeit auf Autobahnen
Assistenzsystem
Tempomat
1978 1980 S5
1984 S6 1987 1995
1998 S7 1998 2001 2002 2002 2006 2008
A2
Anti-Blockiersystem
Einführung der
Helmtragepflicht
Gurtanlegepflicht
A3
Antriebsschlupfregelung
A4
Elektronisches Stabilitätsprogramm
Einführung der 0,5‰ Grenze
A5
Abstandsregeltempomat
A6
Spurhalteassistent
A7
A8
Adaptives Kurvenlicht Notbremsassistent
A9
Kollisionswarnsystem
A10
Fernlichtassistent
Der erkennbare Trend ist eine weitere Steigerung des Automatisierungsgrads im Fahrzeug und die schrittweise Entkopplung des Fahrzeugführers aus dem Regelkreis. Um eine Grundlage für die juristische Bewertung, der aus einer zunehmenden Fahrzeugautomatisierung resultierenden rechtlichen Fragen zu schaffen, wurde von der Bundesanstalt für Straßenwesen (BASt) eine Definition unterschiedlicher Automatisierungsgrade vorgenommen [52]. Die Automatisierung wird in fünf Stufen unterteilt, die von der vollständigen Fahrzeugkontrolle durch einen menschlichen Fahrer bis zum vollautomatisierten Fahren abgestuft werden und in Tabelle 2.2 aufgeführt sind.
2 Fahrzeugtechnische Grundlagen
27
Abbildung 2.3 In Deutschland angemeldete Kraftfahrzeuge seit 1960 [89]
Tabelle 2.2 Grade der Automatisierung in der Automobilbranche nach [52]
Nomenklatur Aufgabenverteilung zwischen System und Fahrer
Driver Only
Der Fahrer übernimmt die vollständige Fahrzeugführung in Längs- und Querrichtung.
Assistiert
Teilautomatisiert
Längs- oder Querführung werden vom Fahrer dauerhaft ausgeführt. Die jeweils andere Aufgabe kann vom System ausgeführt werden, sofern der Fahrer dieses dauerhaft überwacht und zur vollständigen Übernahme der Fahraufgabe bereit ist.
Für einen gewissen Zeitraum, bzw. in speziellen Situationen wird die vollständige Längs- und Querführung vom System übernommen. Der Fahrer muss das System dauerhaft überwachen und zur vollständigen Übernahme der Fahraufgabe bereit sein.
Hochautomatisiert
Vollautomatisiert
Für einen gewissen Zeitraum, bzw. in speziellen Situationen wird die vollständige Längs- und Querführung vom System übernommen. Der Fahrer muss das System dabei nicht dauerhaft überwachen. Falls notwendig, fordert das System den Fahrer zu einer Übernahme innerhalb eines gewissen Zeithorizontes auf. Die zu Grunde liegenden Systemgrenzen werden vollständig vom System erkannt, jedoch ist es nicht möglich, einen risikominimalen Zustand zu jeder Ausgangssituation herbeizuführen.
Für einen definierten Anwendungsfall wird die vollständige Längsund Querführung vom System übernommen. Der Fahrer muss das System dabei nicht überwachen. Nachdem der Anwendungsfall beendet wurde, wird der Fahrer vom System zur Übernahme aufgefordert. Erfolgt diese nicht innerhalb eines gewissen Zeithorizontes, so wechselt das System in einen risikominimalen Zustand. Die zu Grunde liegenden Systemgrenzen werden vollständig vom System erkannt, und es ist in der Lage, einen risikominimalen Zustand zu jeder Ausgangssituation herbeizuführen.
28
2 Fahrzeugtechnische Grundlagen
Im Rahmen der Arbeit wird die automatische Fahrdynamikregelung bis in den dynamischen Grenzbereich untersucht. Dafür wird der Fahrzeugführer aus dem, in Abbildung 2.1 dargestellten Regelkreis entkoppelt. Die Aufgabe der Navigation und Bahnplanung werden im Rahmen dieser Arbeit nicht detailliert betrachtet, es wird von einer im voraus geplanten Trajektorie ausgegangen, wie in Kapitel 5 eingehender erläutert wird. Die entscheidenden Komponenten für diese Arbeit sind einerseits der Fahrdynamikregler, der für die Fahrzeugquerführung um neuronale Netzwerke erweitert und auf Tauglichkeit in unterschiedlichen Situationen außerhalb des linearen Einsatzbereiches üblicher Fahrzeuge untersucht wird. Andererseits spielt die Modellierung der Regelstrecke eine entscheidende Rolle, um die untersuchten Regelstrategien simulativ auf die Eignung im späteren Fahrversuch zu evaluieren. Im folgenden Abschnitt wird auf die Modellierung des Fahrzeuges eingegangen und die in der Arbeit getroffenen Annahmen erläutert. Dazu werden zunächst die mathematischen Zusammenhänge des linearen Einspurmodells beschrieben und die Möglichkeiten einer sukzessiven Erweiterung des Modells erörtert, um die Eignung für eine Modellierung des Fahrverhaltens nahe des physikalischen Grenzbereiches zu erhöhen.
2.1 Fahrzeugmodellierung
Um den Herausforderungen, die der Entwurf einer robusten Fahrdynamikregelung
für automatische Fahrzeuge bis in den querdynamischen Grenzbereich mit sich
bringt, gerecht zu werden, ist eine hinreichende Modellierung der Regelstrecke
erforderlich. Dabei sind innerhalb der Fahrdynamikregelung Effekte zu berücksich-
tigen, die ein direktes Resultat aus der Wechselwirkung der am Fahrzeug anliegen-
den Kräfte und Momente sind. Diese lassen sich in die Klassen der Längsdynamik,
Querdynamik und Vertikaldynamik unterteilen [74]. Die Bewegungen in der hori-
zontalen Ebene, die quer zur Fahrzeuglängsachse wirken, werden unter dem Begriff
Querdynamik zusammengefasst und beschreiben insbesondere das Kurvenverhal-
ten, die Fahrstabilität und die Spurführung. Dieses Verhalten spielt bei der Ausle-
gung von Fahrdynamikregelungssystemen eine entscheidende Rolle [72]. Da sich
die vorliegende Arbeit auf die Erweiterung von modellbasierten Fahrdynamikre-
gelungskonzepten um künstliche neuronale Netzwerke zur Fahrzeugquerführung
fokussiert, wird zunächst auf das lineare Einspurmodell eingegangen, welches eine
gute
Abbildung
des
Lenkverhaltens
bis
zu
einer
Querbeschleunigung
von
ca.
4
m s2
bereitstellt. In diesem Dynamikbereich sind die vom Reifen übertragenden Sei-
tenkräfte annähernd linear [72]. Um auch Effekte genauer abbilden zu können,
die mit dem linearen Einspurmodell nicht präzise modelliert werden, sind zudem
2.2 Das lineare Einspurmodell
29
unterschiedliche Erweiterungen implementiert, wie das in [74, 185] beschriebene Wankmodell, ein nichtlineares Reifenmodell [72] sowie eine Modellierung der Aktordynamik, die das resultierende Übertragungsverhaltens zwischen Lenkradeinschlag und Fahrzeugreaktion abbildet.
2.2 Das lineare Einspurmodell
Das lineare Einspurmodell bildet die Grundlage für die in den Kapiteln 5 bis 8 durchgeführten Simulationen zur Bewertung der untersuchten Fahrdynamikregelungskonzepte. Dabei wird das vereinfachte Modell nicht ausschließlich als Regelstrecke zur Abbildung des im Fahrversuch eingesetzten Versuchsträgers herangezogen, sondern stellt in invertierter Form auch die Grundlage des modellbasierten Anteils zur Querdynamikregelung dar, der in Kapitel 4 genauer erläutert wird. Im ersten Schritt erfolgen vereinfachende Annahmen, die sich auf Betrachtungen im linearen Fahrdynamikbereich nur geringfügig auswirken, die Komplexität des Systems jedoch deutlich reduzieren und dadurch die Analyse vereinfachen [72, 117]:
1. Der Fahrzeugschwerpunkt liegt auf Fahrbahnhöhe, Wanken wird vernachlässigt. 2. Die Belastung der kurveninneren Räder und Entlastung von kurvenäußeren
Rädern wird vernachlässigt. 3. Die Radaufstandspunkte von Vorder- bzw. Hinterachse werden zusammenge-
führt, das Modell betrachtet nur eine Spur. 4. Das Modell wird im ersten Schritt als linear angenommen. Das bedeutet, dass
sich die Seitenkraft proportional zum Schräglaufwinkel verhält [117].
In Abbildung 2.4 sind analog zu [74] ein Einspurmodell und die relevanten Winkel für die betrachteten Freiheitsgrade der Gier- und Schwimmbewegung dargestellt. Eine Erläuterung der anliegenden Winkel erfolgt nach [72] in Tabelle 2.3.
Im ersten Schritt wird das Kräftegleichgewicht um den Schwerpunkt aufgestellt. Für die Kraft, die quer zum Fahrzeug wirkt, folgt:
Fy = m · ay = Fy,v + Fy,h .
(2.1)
Dabei beschreibt Fy die quer zur Fahrzeuglängsachse wirkende Kraft, m die Fahrzeugmasse und ay die Querbeschleunigung. Die Indizes v und h verweisen auf die Vorder- bzw. Hinterachse. Die im Schwerpunkt angreifende Trägheitskraft kann
30
2 Fahrzeugtechnische Grundlagen
Abbildung 2.4 Darstellung des Einspurmodells sowie im Modell anliegender Kräfte und Winkel nach [74]
Tabelle 2.3 Winkel im Einspurmodell nach [72]
Winkel χ ψ β α δ
Bezeichnung Definition
Kurswinkel
Beschreibt die Richtung der Fahrzeugbewegung in einem ortsfesten Koordinatensystem, analog zu [189]
Gierwinkel
Winkellage des Fahrzeuges im Inertialkoordinatensystem bezogen auf die Längsachse
Schwimmwinkel Winkel zwischen Fahrzeuglängsachse und Geschwindigkeitsvektor im Schwerpunkt
Schräglaufwinkel Winkel zwischen Reifenlängsachse und Reifengeschwindigkeitsvektor
Radwinkel
Winkel zwischen Fahrzeuglängsachse und Reifenlängsachse
mit Hilfe der Gierrate ψ˙ , Fahrzeuggeschwindigkeit v und Schwimmwinkelrate β˙ ausgedrückt werden. Es folgt:
m · ay = m · v · ψ˙ β˙ .
(2.2)
Der Drallsatz um die z-Achse kann durch Gleichung (2.3) beschrieben werden:
Jz · ψ¨ = Fy,v · lv + Fy,h · lh .
(2.3)
Jz beschreibt das Trägheitsmoment um die z-Achse, ψ¨ die Gierbeschleunigung und lv, bzw. lh die Radstände. Bezogen wird sich in den dargestellten Gleichungen
2.2 Das lineare Einspurmodell
31
auf das fahrzeugfeste Koordinatensystem, bei dem die x-Achse in Fahrzeuglängsrichtung nach vorne, die y-Achse quer zum Fahrzeug nach links und die z-Achse senkrecht zur Fahrbahn nach oben zeigt. Die in Gleichung (2.1) und (2.3) betrachteten Seitenkräfte an der Vorder- und Hinterachse können ebenfalls anhand der an den Achsen anliegenden Schräglaufwinkel (αv, bzw. αh) sowie den Schräglaufsteifigkeiten (csv und csh), die die Elastizitäten der Radaufhängung berücksichtigen [72], beschrieben werden:
Fy,v = csv · αv, Fy,h = csh · αh .
bzw.,
(2.4) (2.5)
Der formelmäßige Zusammenhang zur Beschreibung der Schräglaufwinkel kann aus Abbildung 2.4, analog zu [117] hergeleitet werden. Unter der Annahme, dass sich die Geschwindigkeitskomponenten in Längsrichtung nicht verändern, d.h. das Fahrzeug verhält sich starr und dehnt sich nicht, folgt für die Vorder- und Hinterachse:
v · cos(β) = vv · cos(δv αv),
(2.6)
v · cos(β) = vh · cos(αh).
(2.7)
Im Gegensatz zu den Komponenten in Längsrichtung unterscheiden sich die Geschwindigkeitsanteile quer zum Fahrzeug durch die Gierrate ψ˙ :
vv · si n(δv αv) = lv · ψ˙ + v · si n(β),
(2.8)
vh · sin(αh) = lh · ψ˙ v · sin(β).
(2.9)
Nun lässt sich Gleichung (2.6) in (2.8) und Gleichung (2.7) in (2.9) überführen, wodurch folgt:
t a n (δv
αv )
=
lv
·
ψ˙ v
+ v · sin(β · cos(β)
)
,
t a n(αh )
=
lh
·
ψ˙ v
v · sin(β) · cos(β)
.
(2.10) (2.11)
Unter der Annahme ausschließlich kleiner Winkel vereinfachen sich die Gleichungen weiter und die Schräglaufwinkel an der Vorder- und Hinterachse können wie folgt beschrieben werden:
32
2 Fahrzeugtechnische Grundlagen
ψ˙ αv = −β + δv lv · v ,
ψ˙ αh = −β + lh · v .
(2.12) (2.13)
Durch Einsetzen der Gleichungen für die Schräglaufwinkel (2.12) und (2.13) sowie der einzelnen Komponenten für die Seitenkräfte an der Vorder- und Hinterachse, in den, aus dem Kräftegleichgewicht resultierenden Zusammenhang (2.1), sowie den durch Gleichung (2.3) beschriebenen Drallsatz, folgt:
m · v · ψ˙ β˙ = csv · αv + csh · αh
= csv ·
−β
+
δv
lv
·
ψ˙ v
+ csh ·
−β
+
lh
·
ψ˙ v
β˙ =
cs
v+ m·
cs v
h
·β +
1
csh
·
lh csv m · v2
·
lv
· ψ˙
csv m·v
· δv, (2.14)
bzw. Jz · ψ¨ = csv · αv · lv + csh · αh · lh
ψ¨ = csv · lv2 + csh · lh2 · ψ˙ + Jz · v
csv · lv csh · lh Jz
·β+
csv · lv Jz
· δv.
(2.15)
Mit Hilfe der in den Gleichungen (2.14) und (2.15) beschriebenen Zusammenhänge, kann bei bekannten Reifenparametern, Lenkwinkel und Fahrzeuggeschwindigkeit der Schwimmwinkel sowie die Gierrate bestimmt werden [72]. Analog zu [74] ist es möglich, die Gleichungen in eine Zustandsraumdarstellung der Form:
x˙ = A · x + b · u
(2.16)
zu überführen. In der Systemmatrix A sind die Parameter zusammengefasst, die in direkter Korrelation mit dem Zustandsvektor x stehen. Der Eingangsvektor u wird im Falle des linearen Einspurmodells durch den Lenkwinkel δ beschrieben und die Parameter, die in direkter Korrelation mit dem Lenkwinkel stehen, im Vektor b zusammengefasst. Für die Zustandsraumdarstellung des linearen Einspurmodells folgt:
2.3 Das erweiterte Einspurmodell
β˙ ψ¨
=
cs
v +csh m·v
csh ·lh csv ·lv
Jz
1
csv ·lv csh ·lh m·v2
csv
·lv2 +cs Jz ·v
h
·lh2
⎠·
β ψ˙
+
csvmc·sl·vvv
Jz
· δv.
33 (2.17)
Mit Hilfe dieser Darstellung kann das lineare Einspurmodell als dynamisches System mit entsprechendem Übertragungsverhalten aufgefasst werden, welches für grundlegende fahrdynamische Untersuchungen eine geeignete Basis darstellt [160].
2.3 Das erweiterte Einspurmodell
Die Ergebnisse, die mit Hilfe des linearen Einspurmodells generiert werden, sind
ausschließlich in einem Bereich hinreichend genau, in dem die vom Reifen über-
tragenden
Seitenkräfte
linear
sind
(ca.
4
m s2
[72]).
Eine
Annäherung
an
den
physi-
kalischen Grenzbereich geht mit einer deutlich reduzierten Abbildungsgüte einher.
Durch gezielte Erweiterungen des linearen Einspurmodells, können nicht berück-
sichtigte Effekte jedoch kompensiert werden. Um die Annahmen kleiner Winkel
und linearisierter Schräglaufsteifigkeiten genauer abzubilden, die in der Realität für
spezielle Fahrmanöver das physikalische Fahrzeugmodell nicht hinreichend genau
beschreiben, können die Bewegungsgleichungen für ein nichtlineares Einspurmo-
dell aufgestellt werden [72] und um ein Reifenmodell zur mathematischen Annä-
herung der nichtlinearen Korrelation zwischen Seitenkraft und Schräglaufwinkel
erweitert werden [117, 133, 160]. Um Wankeffekte in Folge dynamischer Radla-
ständerungen, die aus der Fahrzeugaufbaubewegung bei Kurvenfahrt resultieren,
darzustellen, wird in [74, 185] die Erweiterung des linearen Einspurmodells um ein
Wankmodell vorgeschlagen. Zudem kann mit Hilfe einer implementierten Aktordy-
namik das Ansprechverhalten der Regelstrecke angenähert werden [86].
2.3.1 Das Wankmodell
Für das in [74] beschriebene Wankmodell werden die Vorder- und Hinterachse zusammengelegt und die Wankbewegung anhand eines Wankpols, analog zu Abbildung 2.5 beschrieben.
Es wird angenommen, dass die Querbeschleunigung im Aufbauschwerpunkt angreift und die resultierenden Kräfte (in Dämpfern, Federn und Stabilisatoren) mit Hilfe der Ersatzdrehsteifigkeit cw und der Ersatzdrehdämpfung dw beschrieben werden können [74]. Der formelmäßige Zusammenhang für das Drehmoment, welches um den Wankpol wirkt, kann wie folgt formuliert werden:
34
2 Fahrzeugtechnische Grundlagen
z
φw dw m, Jx
Fy cw
zw Mw hw
Abbildung 2.5 Das Wankmodell analog zu [74]
Jx · ϕ¨w = Fy · zw cw · ϕw dw · ϕ˙w,
(2.18)
dabei ist der Gewichtskraftanteil m · g · sin(ϕw) näherungsweise in cw enthalten. Die Betrachtung der Wankdynamik beeinflusst die in den Gleichungen (2.12) und (2.13) dargestellten Zusammenhänge für die Schräglaufwinkel an Vorder- und Hinterachse. Unter Berücksichtigung des Wankwinkels erweitern sich die Gleichungen wie folgt:
αv
=
−β
+
δv
lv
·
ψ˙ v
zw
· ϕ˙w , v
αh
=
−β
+
lh
·
ψ˙ v
zw
· ϕ˙w . v
(2.19) (2.20)
Entsprechend werden auch die Gleichungen für das Kräftegleichgewicht (2.14) und den Drallsatz (2.15) modifiziert:
β˙ =
csv + m·
csh v
·β +
1
csh
·
lh csv m · v2
·
lv
zw
· (csv + m · v2
csh )
· ϕ˙w,
bzw.
· ψ˙
csv m·v
· δv (2.21)
2.3 Das erweiterte Einspurmodell
35
ψ¨ = csv · lv2 + csh · lh2 · ψ˙ + Jz · v
+
zw
· (csh · lh m · v2
csv
· lv)
·
ϕ˙w .
csv · lv csh · lh Jz
·β +
csv · lv Jz
· δv
(2.22)
2.3.2 Das nichtlineare Einspurmodell
Die bisherigen Betrachtungen wurden für eine linearisierte Form des Einspurmodells unter der Annahme kleiner Winkel dargestellt. Bei Untersuchungen, die Schwimmwinkel von größer 10◦ betrachten und einhergehend Schräglaufwinkel, die 3-4◦ überschreiten, ist die linearisierte Form nicht mehr in der Lage, die gegebenen Zusammenhänge hinreichend genau abzubilden [72]. Die Annahme, dass die Reifenseitenkräfte orthogonal zur Fahrzeuglängsachse wirken entsprechen nicht der Realität, in der die Kräfte senkrecht zur Radlängsachse wirken, wie in Abbildung 2.4 an der Vorderachse dargestellt ist. Da in dieser Arbeit ausschließlich Fahrzeuge mit Vorderradlenkung betrachtet werden, wird davon ausgegangen, dass die Radlängsachse der Hinterachse der Fahrzeuglängsachse entspricht. Für das Kräftegleichgewicht aus Gleichung (2.1) folgt:
m · ay = Fy,v · cos (δv) + Fy,h,
(2.23)
außerdem ergibt sich ein resultierender Kraftanteil in Längsrichtung:
m · ax = Fy,v · si n (δv) .
(2.24)
Die Beschleunigungen in x- und y-Richtung können analog zu [72] beschrieben werden:
ax = v˙ · cos (β) + v · ψ˙ β˙ · sin (β) , ay = v˙ · sin (β) + v · ψ˙ β˙ · cos (β) .
(2.25) (2.26)
Eingesetzt in die Gleichungen (2.23) und (2.24) folgt:
m · v˙ · si n (β) + v · ψ˙ β˙ · cos (β) = Fy,v · cos (δv) + Fy,h, m · v˙ · cos (β) + v · ψ˙ β˙ · sin (β) = Fy,v · sin (δv) .
(2.27) (2.28)
36
2 Fahrzeugtechnische Grundlagen
Um analog zu Abschnitt 2.2 die Differentialgleichungen für Schwimmwinkelgeschwindigkeit und Gierbeschleunigung unter Berücksichtigung der Winkelzusammenhänge zu ermitteln, sind Umformungen erforderlich, welche in Anhang A.1.1 im elektronischen Zusatzmaterial dargestellt sind. Nach den Umformungen können die Bewegungsgleichungen des nichtlinearen Einspurmodells durch die folgenden Differentialgleichungen beschrieben werden:
β˙
=
ψ˙
1 m·
v
·
csv ·
δv
+
β
lv
· ψ˙ v
· cos (δv + β) + csh ·
β
+
lh
· ψ˙ v
ψ¨ = 1 Jz
csv ·
δv
+
β
lv
· ψ˙ v
· lv · cos (δv) csh ·
β + lh · ψ˙ v
· lh .
· cos (β) , (2.29) (2.30)
2.3.3 Reifenmodelle
Wie bereits in den vorherigen Abschnitten erwähnt, haben die Annahmen, die für das Einspurmodell getroffen werden, nur unter gewissen Randbedingungen Gültigkeit. Die gemäß Gleichung (2.4) und (2.5) berechneten Seitenkräfte, die am Rad angreifen, nähern den Zusammenhang zwischen Querkraft und Schräglaufwinkel linear an. Abbildung 2.6 stellt die Seitenkraft Fy über dem Schräglaufwinkel α in Abhängigkeit der Radlast Fz dar. Es wird deutlich, dass die Annahme linearer Zusammenhänge nur für sehr kleine Schräglaufwinkel zutrifft.
Fz1 > Fz2 > Fz3
cs(Fz1) cs(Fz2) cs(Fz3)
Abbildung 2.6 Darstellung der Rad-Seitenkraft über dem Schräglaufwinkel in Abhängigkeit der Radlast, analog zu [160]
2.3 Das erweiterte Einspurmodell
37
Bei zunehmenden Schräglaufwinkeln flacht die Kraftkurve zunächst ab, bis die maximale Kraft aufgebaut ist. Bei weiter ansteigenden Schräglaufwinkeln fällt die maximal übertragbare Kraft im Anschluss leicht ab. Die als konstant angenommene Schräglaufsteifigkeit ist zudem, wie in der Abbildung deutlich wird, von der Radlast abhängig. Um diesen Sachverhalt realistischer anzunähern und die Modellierungsgenauigkeit insbesondere im Bereich höherer Querbeschleunigungen und daraus resultierend höheren Schräglaufwinkeln zu erhöhen, kann die in Abbildung 2.6 dargestellte Beziehung zwischen Querkraft und Schräglaufwinkel durch Reifenmodelle nachgebildet werden.
Zur Modellierung der Reifenkräfte werden grundsätzlich drei Arten von Reifenmodellen verwendet [160]. Dabei handelt es sich um mathematische oder physikalische Modelle bzw. Mischformen dieser beiden Typen. Bei mathematischen Modellen wird versucht, die physikalischen Eigenschaften des Reifens durch algebraische Funktionen zu approximieren. Diese Art von Reifenmodellen hat den Vorteil, dass der Rechenaufwand gering ist und die Modelle echtzeitfähig berechnet werden können [72]. Das Ziel ist es, mit einer möglichst geringen Parameteranzahl die Charakteristik eines Reifens anzunähern. Ein bekanntes mathematisches Modell ist das „Magic Formula Tire Model“ von Pacejka [133], welches in der Literatur häufig Anwendung findet [72, 117, 160] und auch im Rahmen dieser Arbeit für die vereinfachte Modellierung der Reifencharakteristika herangezogen wird.
Magic Formula Modelle Das Magic Formula Modell beschreibt eine rein mathematische Annäherung der Reifencharakteristika und ermöglicht eine Approximation von Seitenführungskraft, Bremskraft und Rückstellmoment des Reifens. Ziel ist es eine geeignete Funktion zu entwickeln, die die Umfangskraft mit dem Umfangsschlupf, die Querkraft mit dem Schräglaufwinkel und das Rückstellmoment mit dem Schräglaufwinkel verknüpft und dabei die Beschreibung aller stationären Reifeneigenschaften, leichte Generierbarkeit der Daten, physikalische Interpretation der Ergebnisse, wenig komplexe Auswertbarkeit und ein hohes Maß an Genauigkeit bereitstellt [160]. Eine solche Funktion wird in [133] vorgeschlagen und ist in Gleichung (2.31) dargestellt:
y(x) = D · sin (C · ar ctan (B · x E (B · x ar ctan (B · x)))) , Y (x) = y(x) + sv,
x = X + sh.
(2.31) (2.32) (2.33)
Die Beschreibung der Parameter des Magic Formula Reifenmodells ist in Tabelle 2.4, bzw. Abbildung 2.7 veranschaulicht.
38
2 Fahrzeugtechnische Grundlagen
y Y
D
ya
arctan(BCD)
sv
xm
x X
sh
Abbildung 2.7 Interpretation der Magic Formula Parameter analog zu [133]
Tabelle 2.4 Interpretation der Magic Formula Reifenmodell Parameter nach [133, 160]
Parameter Y (x) X B
Interpretation Umfangskraft, Querkraft oder Rückstellmoment Längsschlupf oder Schräglaufwinkel Formfaktor, beschreibt die Neigung im Ursprung („Steifigkeitsfaktor“)
D
Formfaktor, beschreibt die maximale Kraft oder das maximale Moment
C
Formfaktor, streckt die Kurve in x-Richtung
E
Formfaktor, beschreibt die Dehnung oder Kompression der Kurve
sv
Verschiebung der Kennlinie in vertikaler Richtung
sh
Verschiebung der Kennlinie in horizontaler Richtung
Die Formfaktoren, die die wesentlichen Eigenschaften der Kurve beschreiben, stehen gemäß der Gleichungen (2.34) und (2.35) in Beziehung zueinander [160]:
C = 1 ± 2 ar csin ya ,
π
D
E=
B · xm tan
π 2·C
, (wenn C > 1) .
B · xm arctan (B · xm)
(2.34) (2.35)
2.3 Das erweiterte Einspurmodell
39
Um eine genaue Abbildung der Reifencharakteristika zu gewährleisten, müssen die dargestellten Formfaktoren anhand von aufgezeichneten Messdaten aus definierten Manövern approximiert bzw. durch Optimierungsverfahren angenähert werden [133]. Zudem kann mit Hilfe des Magic Formula Modells nur das stationäre Verhalten des Reifens beschrieben werden, der zeitlich verzögerte Aufbau der Reifenkräfte wird nicht berücksichtigt [160].
Das dargestellte Reifenmodell bietet bei hinreichend genauer Identifikation der Formfaktoren eine gute Annäherung der Reifencharakteristika. Für die in Abschnitt 4.2 beschriebenen modellbasierten Ansätze der untersuchten Regelungskonzepte, ist eine Inversion der Regelstrecke notwendig. Diese ist, wie in Abbildung 2.7 deutlich wird, durch das dargestellte Modell unter Umständen nicht gegeben, da die Kurve bis zu einem gewissen Maß ansteigt und anschließend wieder abflacht. So kann einer anliegenden Kraft kein eindeutiger Wert des Schräglaufwinkels zugeordnet werden. Um die Anforderungen der Regelungsstrategie zu erfüllen, kann das in den Gleichungen (2.31) bis (2.35) beschriebene Modell weiter vereinfacht werden [160]. Die vereinfachte Magic Formula für die Reifenseitenkräfte an der Vorder- bzw. Hinterachse lautet:
Fy,v = Fz,v · μ · si n (Cv · ar ctan (Bv · αv)) , Fy,h = Fz,h · μ · si n (Ch · ar ctan (Bh · αh)) .
(2.36) (2.37)
Dabei wird die Kurve durch den Reibungsbeiwert μ und die Reifenparameter Cv, Ch und Bv, Bh beschrieben. Die Annäherung des Verlaufs der Querkraft über dem Schräglaufwinkel wird durch die oberen Gleichungen in Relation zum Reifenmodell, das durch die Gleichungen (2.31) bis (2.35) beschrieben wird, in Abbildung 2.8 dargestellt. In der Abbildung sind Verläufe für die Querkraft über dem Schräglaufwinkel bei konstanter Radlast und variierendem Reibungsbeiwert dargestellt. Für alle dargestellten Beispiele kann das vereinfachte Magic Formula Reifenmodell mit zwei Formfaktoren eine gute Annäherung an das komplexere Modell generieren. Dabei wird das Abfallen nach Erreichen des Kraftpeaks bei entsprechender Parametrierung innerhalb des invertierten Modells nicht abgebildet, um eine eindeutige Beschreibung der Beziehung zwischen Schräglaufwinkel und Querkraft zu ermöglichen.
40
2 Fahrzeugtechnische Grundlagen
Trockener Asphalt μ
Schnee
Eis
Magic Formula (4 Formfaktoren) Magic Formula (2 Formfaktoren)
Abbildung 2.8 Darstellung von nicht-invertierbaren und invertierbaren Magic-FormulaReifenmodellen in Abhängigkeit des Reibungsbeiwerts
2.3.4 Annäherung des Übertragungsverhaltens der Regelstrecke
Um die in der Simulationsumgebung abgebildete Regelstrecke weiter an die Realität anzunähern, kann das Übertragungsverhalten von angeforderter Reglerausgabe über den Stellvorgang am Lenkrad bis hin zu einer aus dem Reifeneinschlag resultierenden Fahrzeugreaktion angenähert werden. Da eine sprunghafte Übertragung der angeforderten Stellgröße nicht realisierbar ist, werden die Modelle mit einer Stellratenbegrenzung versehen. Des Weiteren müssen die physikalischen Grenzen des maximalen Lenkradeinschlags in der Modellbildung berücksichtigt werden sowie eine Modellierung des Zeitverhaltens zwischen Lenkradeinschlag und Fahrzeugreaktion. Der grundsätzliche Entwurf der Annäherung des Übertragungsverhaltens ist in Abbildung 2.9 dargestellt.
Abbildung 2.9 Entwurf von Aktorbegrenzungen und Zeitverhalten
Das gewünschte Stellsignal us,δL wird in der Rate begrenzt und zu einem angeforderten Lenkradwinkel δL,s aufintegriert.
2.3 Das erweiterte Einspurmodell
41
Für die späteren Untersuchungen werden die vom Regler angeforderten Stell-
signale mit Hilfe einer modifizierten Lenkung an das Fahrzeug übergeben. Für
die autonome Fahrzeugführung werden geeignete Lenkrobotor, beispielsweise von
AB D angeboten,
die
mit
Lenkradwinkelgeschwindigkeiten
zwischen
1000 s
und
2500 s das Potential menschlicher Fahrer übersteigen [3]. In [49] wird das mensch-
liche Fahrverhalten modelliert und zu diesem Zweck eine Einteilung in unter-
schiedlicher Klassen nach Erfahrungsschatz und Risikobereitschaft vorgenommen.
Der Klasse „risikobereit und erfahren“ werden dabei maximale Lenkradwinkelge-
schwindigkeiten
von
1100 s
zugetraut.
Auch
[35] schätzt
Lenkradwinkelgeschwin-
digkeiten in einer Größenordnung von 500 - 1000 s als realistisch ein. Für die vorlie-
gende Arbeit wird die maximale Lenkradwinkelgeschwindigkeit so eingeschränkt,
dass die Stellrate sowohl unter dem angenommenen maximalen Potential mensch-
licher Fahrer, als auch unterhalb der größtmöglichen Stellrate der beschriebenen
Lenkrobotor liegt.
Nach Durchlaufen der Stellratenbegrenzung wird der Lenkradwinkel entspre-
chend der physikalischen Voraussetzungen des Versuchsfahrzeuges im Maximalaus-
schlag begrenzt. Anschließend wird der begrenzte Soll-Lenkradwinkel δˆL,s mit Hilfe einer kon-
stanten Gesamt-Lenkübersetzung iL (zusammengesetzt aus Lenkgetriebe und Lenk-
gestänge), in einen gewünschten Radwinkel überführt. Die Annahme einer konstan-
ten Lenkübersetzung ist eine weitere Näherung und kann durch Berücksichtigung
der anliegenden Seitenkraft Fy,v, des Reifennachlaufs n R und des konstruktiven
Reifennachlaufs nk sowie der Lenksteifigkeit cL genauer angenähert werden [108].
Es folgt:
δR
=
δL iL
Fy,v
· (nk cL
+ nR).
(2.38)
Im letzten Schritt des modellierten Übertragungsverhalten, der in Abbildung 2.9 als „Zeitverhalten“ bezeichnet ist, wird die Verzögerung zwischen gewünschtem Sollwinkel am Rad δR,s und kommandiertem Radausschlag δR,k angenähert. Dies erfolgt mit Hilfe einer aus Fahrdaten identifizierten Zeitverzögerung, kombiniert mit einem PT1-Glied.
3 Theorie künstlicher neuronaler Netzwerke
Ein Blick auf die zahlreichen Errungenschaften der vergangenen Jahre und Jahrzehnte, die im Feld der künstlichen Intelligenz (KI) innerhalb unterschiedlichster Themenfelder erzielt wurden, verdeutlicht die Komplexität, eine allgemeingültige Definition der Zielstellung dieses Arbeitsfeldes zu formulieren. KI-Forscher verfolgen das ambitionierte Ziel, nicht nur die komplexen Zusammenhänge intelligenter Handlungen zu verstehen, sondern diese nachzubilden und auf Maschinen zu übertragen [9, 146, 153]. Dabei wird üblicherweise der zu erlernende Handlungsraum in Form von retrospektiven Daten eines menschlichen Experten, dessen Verhalten es nachzuahmen gilt, für den Machine Learning Algorithmus bereitgestellt. Für die erfolgreiche Umsetzung ist es nicht erforderlich, die Handlungen des Experten als Modellwissen a priori innerhalb des Algorithmus zu implementieren. Bei einem qualitativ und quantitativ hinreichenden Trainingsdatensatz wird das zu Grunde liegende Modell aus den bereitgestellten Datenpunkten erlernt. Repräsentative Eingänge beschreiben Zustände aus denen Modellwissen extrahiert wird, das abzubildende Wunschverhalten wird, sofern bekannt, mit synchronisierten Zielwerten an den Algorithmus übergeben. Dabei ist sicherzustellen, dass die Zusammenhänge der bereitgestellten Muster erfasst werden, um die Generalisierung auf vergleichbare Systemzustände außerhalb des Trainingsdatensatzes übertragen zu können.
Im Vergleich zu klassischer Modellbildung bieten aus Daten abgeleitete Modelle, unabhängig vom verwendeten Lernverfahren, den Vorteil, dass nicht jeder
Ergänzende Information Die elektronische Version dieses Kapitels enthält Zusatzmaterial, auf das über folgenden Link zugegriffen werden kann https://doi.org/10.1007/978-3-658-43109-9_3.
© Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH,
43
ein Teil von Springer Nature 2024
J. Kaste, Künstliche neuronale Netzwerke zur adaptiven Fahrdynamikregelung,
AutoUni Schriftenreihe 171, https://doi.org/10.1007/978-3-658-43109-9_3
44
3 Theorie künstlicher neuronaler Netzwerke
Systemzustand explizit modelliert werden muss. Bei sinnvoll zusammengestellten Trainingsdatensätzen, die die physikalischen Zusammenhänge zwischen Umwelt und auszuführender Handlung hinreichend detailliert abbilden, kann erlerntes Wissen auf unbekannte Datensätze übertragen werden. Ein weiterer Vorteil liegt darin, dass kein Modellwissen für die Funktionsentwicklung notwendig ist [153]. Wie bereits in Abschnitt 1.3.2 erwähnt, haben Anwendungen, die KI-basierte Algorithmen zur Modellierung komplexer Prozesse heranziehen, in den vergangenen Jahren deutlich zugenommen. Diese Entwicklung ist insbesondere auf die jüngsten Fortschritte im Bereich der Robotik, Datengenerierung und Verarbeitung sowie Sprachund Bildverarbeitung zurückzuführen. Ein Ansatz aus dem Bereich der künstlichen Intelligenz, der häufig Anwendung findet, ist der Einsatz künstlicher neuronaler Netzwerke [2, 13, 36, 43, 58, 73, 126].
In dieser Ausarbeitung steht ein künstliches neuronales Netzwerk als lernfähiges Element einer adaptiven Regelungsstrategie in Kombination mit einem modellbasierten Regelungskonzept im Fokus. Da die Analyse unterschiedlicher Netzwerktopologien, Aktivierungsfunktionen, Lernverfahren und Parameter für das Training im geschlossenen Regelkreis einen wesentlichen Aspekt der Arbeit darstellt, wird im folgenden Abschnitt die Theorie künstlicher neuronaler Netzwerke ausführlich beschrieben. Damit wird die Grundlage zum Verständnis der in den Kapiteln 5 bis 9 in Simulation und Fahrversuch untersuchten Experimente geschaffen.
Im ersten Abschnitt des Kapitels wird auf die Informationsverarbeitung, die dem biologischen Prozess welcher als Vorbild für den Transfer auf technische Anwendungen zu Grunde liegt, eingegangen. Anschließend werden die getroffenen Annahmen zur Abstraktion der biologischen Informationsverarbeitung auf idealisierte Neuronen erläutert, die in technischen Prozessen in unterschiedlichen Ausprägungen eingesetzt werden. Im darauf folgenden Abschnitt wird die Zusammensetzung einzelner Neuronen zu einer komplexeren Netzwerkarchitektur dargestellt und die im Rahmen dieser Arbeit eingesetzten Strukturen näher beschrieben. Im letzten Abschnitt wird auf die Informationsverarbeitung im künstlichen neuronalen Netzwerk eingegangen sowie auf die Schritte, die zum Netzwerktraining erforderlich sind.
3.1 Biologische Neuronen
Im ersten Abschnitt wird der Prozess der Informationsverarbeitung im menschlichen Gehirn kurz erläutert, da dieser die Grundlage für unterschiedliche technische Abstraktionen darstellt, die in der Folge beschrieben werden und in der vorliegenden Arbeit Anwendung finden. Um die neurobiologischen Grundlagen zu
3.1 Biologische Neuronen
45
veranschaulichen, die mit der Reizverarbeitung im Nervensystem die Basis für natürliche Lernprozesse darstellen, wird analog zu [147, 170] in Abbildung 3.1 ein typisches Neuron im menschlichen Nervensystem abgebildet. Dieser Abschnitt dient insbesondere der Orientierung und erhebt keinen Anspruch auf eine vollständige Beschreibung der komplexen elektrochemischen Prozessabläufe im menschlichen Gehirn. Für eine umfassendere Beschreibung sei an dieser Stelle auf [105, 147, 157] verwiesen.
terminale Verästelung eines Axons
Zellkern (Nucleus) Zellkörper (Soma)
Dendriten
Nervenfaser (Axon)
präsynaptische Terminale
Myelinhülle
Abbildung 3.1 Typisches Neuron im menschlichen Nervensystem nach [170]
Das in Abbildung 3.1 aufgezeigte Neuron stellt ein einzelnes Element einer approximierten Gesamtanzahl von 1011 1012 vergleichbaren Neuronen dar, die innerhalb einer komplexen, hochgradig vernetzten Struktur mit ca. 1014 Verbindungen die Arbeitsweise des menschlichen Gehirns ermöglichen [105] und die Grundeinheit im Nervensystem darstellen. Dabei wird das Potential des Gehirns nicht über die Leistungsfähigkeit einzelner Zellen, sondern durch die hohe Anzahl miteinander interagierender Neuronen erreicht [105]. Nur ein Bruchteil der verschalteten Neuronen ist zur selben Zeit aktiv [103]. Dies reicht jedoch aus, um komplexe Aufgaben zu bewältigen.
Bevor auf die Reizverarbeitung im Nervensystem eingegangen wird, sollen die wesentlichen Elemente der Nervenzelle, die auch in Abbildung 3.1 dargestellt sind, beschrieben werden.
Der Zellkörper (Soma) bezeichnet den Bereich des Neurons der den Zellkern (Nucleus) umschließt. Axon und Dendriten entspringen aus dem Zellkörper, sind
46
3 Theorie künstlicher neuronaler Netzwerke
jedoch nicht Teil des Somas. Neben dem Zellkern umfasst dieser beispielsweise das Endoplasmatische Retikulum, Mitochondrien und den Golgi-Apparat. Im Zellkörper werden alle notwendigen Stoffe produziert, die eine störungsfreie Funktionalität des Neurons gewährleisten [147].
Als Axon wird die Nervenfaser bezeichnet, über die Informationen/ Anregungen von einem Neuron an andere mit dem Axon verschaltete Nervenzellen übertragen werden. Der Ort, an dem das Axon aus dem Soma gebildet wird, heißt Axonhügel. An diesem Ort ist das Potential, dass zum Auslösen eines neuronenspezifischen Schwellwertes notwendig ist und damit zur Anregung des Neurons geringer als an anderen Punkten des Somas, wodurch die Wahrscheinlichkeit durch präsynaptische Terminale eine Aktion des Neurons auszulösen an dieser Stelle am höchsten ist [157]. Wird ein Neuron erregt, wird diese Erregung über das Axon bis in die am Ende der Nervenfaser auftretende Verästlung transportiert und über präsynaptische Terminale an verbundene Neuronen übermittelt. Die direkte Informationsübertragung zwischen Nervenzellen erfolgt über die Synapsen, die an den Dendriten sowie am Soma eines zu erregenden Neurons über das Synapsenendköpfchen verbunden sind und Reize über einen Neurotransmitter übertragen.
Die eingehenden Informationen werden im Zellkörper aufsummiert und an den Axonhügel weitergeleitet. Je näher die Synapsen am Soma bzw. Axonhügel sitzen, desto höher ist ihr Einfluss auf die Aktivierung einer Zelle. Wird ein Schwellwert überschritten, so wird das Aktionspotential eines Neurons aktiviert und es „feuert“, d.h. es übermittelt die Information über das Axon an verschaltete Nervenzellen. Unmittelbar nach der Aktivierung benötigt die Zelle eine Pause, bevor sie erneut feuern kann. Wird in dieser Ruhephase der Schwellwert zur Aktivierung durch eingehende Reize überschritten, so wird in dieser Zeit kein neues Aktionspotential ausgebildet.
3.2 Abstrahierte Neuronen
Um die Prozesse, die der Informationsverarbeitung im menschlichen Gehirn zu Grunde liegen auf technische Prozesse zu übertragen, wurden in der Vergangenheit unterschiedliche Ansätze präsentiert, die sich in ihrem Komplexitätsgrad stark unterscheiden. Grundsätzlich erfolgt eine Übertragung des in Abbildung 3.1 dargestellten biologischen Neurons auf eine mathematische Funktion analog zu Abbildung 3.2.
Die Dendriten liefern die Eingabesignale, die im Zellkern zu einer Ausgabeinformation verarbeitet und über Synapsen weitergeleitet werden. Analog dazu werden die Funktionseingänge bei dem mathematischen Äquivalent durch eine Aktivierungsfunktion in eine Funktionsausgabe transformiert. Dabei kann die Art
3.2 Abstrahierte Neuronen
47
Abbildung 3.2 Vereinfachte Form des in Abschnitt 3.1 erläuterten Neurons (a) und die mathematische Analogie (b)
und Weise der Präsentation der Eingabeinformationen, die Komplexität der Aktivierungsfunktion sowie der Wertebereich den Informationen im Netzwerk annehmen, je nach Neuronenmodell variieren. Innerhalb des folgenden Abschnitts werden unterschiedliche Modellannahmen vorgestellt, Vor- und Nachteile beschrieben und in den Kontext der vorliegenden Arbeit eingeordnet.
3.2.1 McCulloch-Pitts-Zelle
Die einfachste Form eines Neuronenmodells, in dem der Transfer des biologischen Prozesses auf ein stark abstrahiertes Modell transferiert werden soll, stellt die McCulloch-Pitts-Zelle dar, die im Jahr 1943 präsentiert wurde [110]. Sowohl die Eingänge in ein Netz, als auch die Ausgaben der McCulloch-Pitts-Zellen, liefern ausschließlich binäre Signale [147]. Die Eingaben werden dabei durch hemmende oder anregende Leitungen an das Neuron übermittelt. McCulloch und Pitts unterschieden zwischen Netzen mit Schleifen (rekurrente Netzwerke) und Netzen ohne Schleifen (vorwärts gerichtete Netzwerke).
Vorwärtsgerichtete Netze Ein vorwärts gerichtetes McCulloch-Pitts-Netz enthält eine Anzahl von Knoten, also McCulloch-Pitts-Zellen sowie hemmende und anregende Leitungen [147]. Es werden die folgenden Annahmen für die Modellbildung getroffen:
1. Ein Neuron ist entweder aktiv oder inaktiv („all-or-none“-Charakter). 2. Eine feste Anzahl von Synapsen muss angeregt werden, um ein Neuron zu akti-
vieren. Die notwendige Anzahl ist dabei unabhängig von vorheriger Aktivität
48
3 Theorie künstlicher neuronaler Netzwerke
und Position des Neurons (ein fester Schwellenwert θ muss überschritten werden). 3. Die einzig relevante Verzögerung innerhalb des Nervensystems ist die synaptische Verzögerung, d.h. für die betrachtete Umsetzung werden Eingabeinformationen verzögerungsfrei in eine Ausgabe überführt. 4. Eine (oder mehrere) hemmende Leitung(en) verhindern die Anregung des Neurons zu dem jeweiligen Zeitpunkt. 5. Das Netzwerk verfügt über eine feste Struktur mehrerer Zellen, die sich nicht mit der Zeit ändert.
In Abbildung 3.3 (a) ist eine McCulloch-Pitts-Zelle mit n Eingaben exemplarisch dargestellt.
Abbildung 3.3 Darstellung einer McCulloch-Pitts-Zelle (a), sowie der Zellenausgabe bei Schwellwertüberschreitung (b)
Ist in den n Eingaben in die Zelle die Anzahl aktiver hemmender Leitungen ≥ 1, so ist die Ausgabe des Neurons Null, d.h. eine aktive hemmende Leitung ist ausreichend um den Einfluss aller anregenden Leitungen außer Kraft zu setzen. In Abwesenheit von hemmenden Eingaben wird die Summe der anregenden Eingabeleitungen gebildet. Entspricht oder übertrifft diese den Schwellwert θ , so beträgt die Ausgabe des Neurons Eins, wie in Abbildung 3.3 (b) dargestellt. Ist die Summe der anregenden Eingabeleitungen kleiner als der Schwellenwert, so beträgt die Neuronenausgabe Null (3.1).
o=
1, 0,
falls
n j =1
i
j
θ
fu¨r jeden anderen Fall
.
(3.1)
3.2 Abstrahierte Neuronen
49
Der eindeutige Ausgabewert kann an mehrere nachgeschaltete Neuronen weitergeleitet werden. Sollte der Schwellenwert eines Neurons größer sein als die Anzahl der Eingaben, so ist das entsprechende Neuron dauerhaft inaktiv [147]. Aufgrund des binären Charakters sind McCulloch-Pitts-Zellen in ihrer Funktionalität eingeschränkt. Bei der Berechnung von logischen Funktionen stellt der Zusammenschluss unterschiedlicher McCulloch-Pitts-Zellen jedoch ein effizientes Mittel dar. So ist ein zweischichtiges McCulloch-Pitts-Netzwerk in der Lage, beliebige logische Funktionen zu berechnen [147]. McCulloch und Pitts haben darüber hinaus komplexere Neuronenmodelle mit einer zeitlichen Komponente beschrieben, sogenannte Rekurrente Netze [110, 147]. Ausführungen zu diesen Zellen sind in Anhang B.1 im elektronischen Zusatzmaterial dargestellt.
3.2.2 Gewichtete Netzwerke
Die im vorangegangenen Abschnitt beschriebenen McCulloch-Pitts-Zellen sind in der Lage, beliebige logische Funktionen darzustellen [147]. Für einen Lernprozess der sich am biologischen Vorbild orientiert, ist diese Form der Abstraktion jedoch nicht ideal. In der zuvor beschriebenen Architektur müssten im Rahmen des Netzwerktrainings dauerhaft die Netzwerktopologie sowie die Schwellenwerte der eingebetteten Neuronen variiert werden, was einen erheblichen Aufwand darstellt und nur schwer zu realisieren ist [147]. Um den Trainingsprozess zu vereinfachen, werden daher üblicherweise die Neuroneneingänge gewichtet und die Gewichte im Rahmen des Lernprozesses optimiert. Auch in dieser Arbeit werden daher komplexere Neuronenmodelle mit gewichteten Eingängen betrachtet. Ein Beispiel ist das Perzeptron-Modell, welches Frank Rosenblatt im Jahr 1958 [148] vorstellte. Dieses Modell stellt bis heute die Grundlage künstlicher neuronaler Netzwerke dar und soll in der Folge erläutert und um für die vorliegende Arbeit relevante Annahmen und Funktionen ergänzt werden.
Das Perzeptron-Modell Grundsätzlich unterscheidet sich das von Rosenblatt beschriebene einfache Perzeptron nur geringfügig von der McCulloch-Pitts-Zelle. Jede Eingabe i j wird nun mit einem Wichtungsfaktor w j versehen und die Berechnung der Ausgabe o erfolgt entsprechend Gleichung (3.2):
o=
1, 0,
falls
n j =1
ij
· wj
θ
fu¨r jeden anderen Fall
.
(3.2)
50
3 Theorie künstlicher neuronaler Netzwerke
Die Modellierung des einfachen Perzeptrons ist in Abbildung 3.4 graphisch dargestellt.
Abbildung 3.4 Darstellung des einfachen Perzeptrons
Mit Blick auf logische Funktionen können mit zu einem Netzwerk zusammengeschalteten Perzeptronen beliebige logische Funktionen abgebildet werden [115]. Bei einzelnen Perzeptronen ist dies nicht ohne weiteres möglich. Minsky und Papert wiesen 1969 nach, dass XOR-Funktionen nicht durch ein einlagiges Perzeptron dargestellt werden können [115]. Eine veranschaulichende Betrachtung des XORProblems ist in Anhang B.2 im elektronischen Zusatzmaterial dargestellt. Es wird deutlich, dass die Betrachtung einzelner Zellen nicht ausreichend ist, um komplexere Problemstellungen zu adressieren. Entsprechend ist eine Vernetzung vieler dieser aus mathematischer Sicht einfachen Zellen notwendig.
3.3 Mehrschichtige Netzwerke
Im vorangegangen Abschnitt wurde die Eignung unterschiedlicher Neuronenmodelle zur Nachbildung logischer Funktionen aufgezeigt, jedoch auch auf die entsprechenden Limitierungen einzelner Einheiten verwiesen. Um komplexere Funktionen abbilden zu können, ist die Verschaltung von Recheneinheiten zu komplexen Architekturen notwendig. Bereits kurze Zeit nach der Präsentation des einfachen Perzeptrons wurde von Rosenblatt das Multilayer Perceptron (MLP) vorgestellt [149], welches in der Lage ist, die Defizite einschichtiger Perzeptronen zu beheben und die Grundlage vieler auch heutzutage angewandter Netzwerke bildet.
3.3.1 Das Multilayer Perceptron (MLP)
Im Gegensatz zum einschichtigen Perzeptron ist das MLP in der Lage, wie in Anhang B.2 im elektronischen Zusatzmaterial exemplarisch dargestellt, beliebige logische
3.3 Mehrschichtige Netzwerke
51
Funktionen abzubilden [147]. Die Netzwerkarchitektur des MLP wird aus mehreren verschalteten Perzeptronen gebildet, die in Schichten angeordnet sind. Ein MLP verfügt über mindestens drei (oder mehr) Schichten, d.h. eine oder mehrere versteckte Schicht(en). Es wird somit als tiefes neuronales Netzwerk (Deep Neural Network) bezeichnet. Die Anordnung der Neuronen erfolgt analog zu Abbildung 3.5.
Abbildung 3.5 Vollständig vernetztes vorwärts gerichtetes 2-3-2 Netzwerk
Dargestellt ist ein exemplarisches 2-3-2 Netzwerk, welches eine Information ausschließlich vorwärts gerichtet propagiert. Dabei stehen die Zahlen für die Anzahl der Neuronen in der jeweiligen Schicht. In der ersten Schicht existieren 2 Neuronen, in der zweiten Schicht 3 Neuronen und in der letzten Schicht 2 Neuronen. Bei einem 2-3-2 Netzwerk handelt es sich entsprechend um ein Netzwerk mit 3 Schichten.
Um in der Folge den Aufbau neuronaler Netzwerke darzustellen, wird zunächst die in dieser Arbeit gewählte Nomenklatur anhand des beschriebenen vorwärts gerichteten Netzwerkes sowie eines idealisierten Neuronenmodells, welches in Abbildung 3.6 dargestellt ist, erläutert. Mehrschichtige Netzwerke sind, wie der Name impliziert, in mehrere Schichten angeordnete Neuronen. Jedes Netzwerk enthält eine Eingabeschicht und eine Ausgabeschicht mit grundsätzlich beliebig vielen Neuronen, die sich nach der Anzahl der Eingänge in das Netzwerk bzw. der Ausgänge aus dem Netzwerk richten. Im Beispiel aus Abbildung 3.5 liegen entsprechend jeweils zwei Eingabe- und Ausgabeneuronen vor. Zwischen der Eingabe- und
52
3 Theorie künstlicher neuronaler Netzwerke
Ausgabeschicht können theoretisch beliebig viele versteckte Schichten mit grundsätzlich beliebig vielen Neuronen angeordnet sein.
Diese Überlegung ist theoretischer Natur und die Berechnung und Ausführbarkeit sowie das Training sehr tiefer neuronaler Netzwerke mit einer hohen Anzahl von Freiheitsgraden ist durch verfügbare Rechenleistung begrenzt. Auch wenn die Anzahl der Gewichte und Verbindungen im menschlichen Gehirn für technische Abbildungen derzeit nicht darstellbar ist, so führen tiefe Convolutional Neural Networks (CNN) eine hohe Anzahl von Rechenoperationen aus. Das in [92] präsentierte ImageNet zur Klassifizierung von Bildern verfügt beispielsweise über 60 Millionen Parametern und 650000 Neuronen, die im Rahmen des Trainingsprozess optimiert werden.
Abbildung 3.6 Darstellung eines idealisierten Neurons
Abbildung 3.6 zeigt die Informationsverarbeitung innerhalb eines idealisierten j-ten Neurons der l-ten Schicht. Die Eingabeinformationen stammen aus den Ausgaben der q Neuronen der vorangegangenen Schicht (o1(l1) bis oq(l1)) multipliziert mit den gewichteten Verbindungen (w1(lj1) bis wq(lj1)). Dabei beschreiben die Indizes der Gewichte das Start- und Ziel-Neuron der gewichteten Verbindung und die Exponenten die Schicht von der die Information ausgeht. Zusätzlich geht in jedes Neuron ein Bias ein, der als zusätzlicher Freiheitsgrad von den vorgeschalteten Prozessen unabhängig ist und den Lernerfolg, wie in den Ausführungen in Abschnitt 3.4 beschrieben, maßgeblich beeinflussen kann. Das in Abbildung 3.5 dargestellte Netzwerk ist vollständig vernetzt. Das bedeutet, dass eine Neuronenausgabe an sämtliche Neuronen der Folgeschicht übermittelt wird, jedoch nicht direkt mit tiefer angeordneten Schichten oder vorgelagerten Neuronen interagiert.
3.3 Mehrschichtige Netzwerke
53
Bei der Funktionsapproximation von komplexen nichtlinearen Funktionen durch neuronale Netzwerke ist die Verarbeitung von Eingabeinformationen durch sprunghafte Aktivierungsfunktionen, wie sie in den bisherigen Neuronenmodellen in Form von Schwellwerten beschrieben wurden, nicht zielführend. In realen Applikationen wirkt sich eine plötzliche, durch den Sprung bei Erreichen des Schwellwertes induzierte Ausgabenänderung nachteilig auf die Approximation glatter Funktionen aus. Aus diesem Grund werden im nächsten Schritt geläufige Aktivierungsfunktionen innerhalb des Netzwerkes beschrieben.
3.3.2 Aktivierungsfunktionen
In den Abschnitten 3.2 bis 3.2.2 wurde bereits auf unterschiedliche mathematische Modelle von Nervenzellen eingegangen. Bei der Prozessverarbeitung eines künstlichen neuronalen Netzwerkes spielen die innerhalb der Neuronen implementierten Aktivierungsfunktionen eine entscheidende Rolle bei der Realisierung eines erfolgreichen Netzwerktrainings. Im folgenden Abschnitt werden geläufige Aktivierungsfunktionen vorgestellt und die Vor- und Nachteile, die für das Netzwerktraining resultieren, erläutert.
Lineare Aktivierungsfunktion
Die lineare Aktivierungsfunktion, auch Identitätsfunktion genannt, stellt die einfachste Form der Informationsübertragung innerhalb eines Neurons dar. Zur Dar-
stellung nichtlinearer Funktionen ist eine Kombination von linearen Aktivierungsfunktionen und nichtlinearen Funktionen notwendig. In dieser Arbeit werden Netzwerkarchitekturen untersucht, die sowohl in Eingabe- als auch Ausgabeschicht über lineare Aktivierungsfunktionen verfügen. Die Ausgaben eines Neurons mit linearer
Aktivierungsfunktion sind in Abbildung 3.7 dargestellt.
Die Ausgabe eines linearen Neurons berechnet sich entsprechend Gleichung
(3.3) zu:
n
o(jl) = b(jl) +
oi(l1) · wi(lj1)
i =1
(3.3)
und ist im Gegensatz zu den vorherigen Betrachtungen kein binärer Wert. Aus Gleichung (3.3) sowie Abbildung 3.7 wird ersichtlich, dass eine Änderung des Bias eine Verschiebung der Aktivierungsfunktion entlang der y-Achse bewirkt, wohingegen eine Gewichtsänderung die Steigung der linearen Ausgabe der Aktivierungsfunktion verändert. Diese Anpassungen ermöglichen es, innerhalb eines Netzwerkes lineare Funktionen zu erlernen. Allerdings ist es für die Approximation
54
3 Theorie künstlicher neuronaler Netzwerke
Abbildung 3.7 Lineare Aktivierungsfunktionen: (a) lineare Aktivierungsfunktion mit festem Gewicht und variablem Bias bei einem Neuroneneingang, (b) lineare Aktivierungsfunktion mit variablen Gewichten ohne Bias bei einem Neuroneneingang
nichtlinearer Zusammenhänge erforderlich, zumindest in Teilen des neuronalen Netzwerkes nichtlineare Aktivierungsfunktionen zu wählen. Die in der Folge beschriebenen, nichtlinearen Funktionen finden ausschließlich in den versteckten Schichten der für die Untersuchungen im Rahmen dieser Arbeit verwendeten Netzwerke Anwendung.
Binäre Schwellwertfunktion Grundsätzlich wurde die binäre Schwellwertfunktion bereits in Abschnitt 3.2.1 beschrieben. Zunächst werden die Eingänge des Neurons aufsummiert, um anschließend, bei Überschreitung eines festen Schwellwertes, ein festes Aktivitätspotential zu senden. Neben der Schreibweise für die Ausgabe eines Neurons mit binärer Schwellwertfunktion, die in Gleichung (3.2) für gewichtete Netzwerke ohne Biaswerte angenommen wurde, kann eine alternative Schreibweise gewählt werden, die einen Biaswert berücksichtigt:
n
i
(l j
)
=
b(jl)
+
oi(l1) · wi(lj1),
i =1
(3.4)
o(jl) =
1, falls
i
(l ) j
0
,
0, fu¨r jeden anderen Fall
(3.5)
Vergleicht man beide Schreibweisen, so wird deutlich, dass die Bedingungen für θ = b(jl) identisch sind.
3.3 Mehrschichtige Netzwerke
55
Logische Rechenoperationen stellen für die Ableitung von Zusammenhängen aus großen, undurchsichtigen Datenmengen kein optimales Paradigma dar. Für die Nachbildung komplexer Funktionen sind in der Vergangenheit Netzwerke in den Vordergrund gerückt, deren Aktivierungsfunktionen durch glatte nichtlineare Funktionen [43, 90, 158, 178] oder einer Kombination aus linearen und binären Schwellenwertfunktionen [56, 57, 69]) beschrieben werden.
Sigmoide Aktivierungsfunktionen
Sigmoide Funktionen ermöglichen neuronalen Netzwerken die Approximation
nichtlinearer Zielfunktionen. Sigmoide werden häufig aufgrund des glatten, ste-
tig differenzierbaren Verlaufs, der asymptotisch gegen einen endlichen Grenzwert
strebt, in künstlichen neuronalen Netzwerken implementiert. Dabei sind logistische
Funktionen der Form:
o(jl)
=
1
+
1 ei
j
(l )
,
(3.6)
die in Abbildung 3.8 (a) und (b) dargestellt sind, bzw. die Tangens-Hyperbolicus
(tanh) Funktion:
o(jl)
=
t
an
h(i
(l j
))
=
1
1
+
2
e
2·i
(l ) j
,
(3.7)
dargestellt in Abbildung 3.8 (c) und (d), mit
n
i
(l j
)
=
b(jl)
+
oi(l1) · wi(lj1),
i =1
(3.8)
am geläufigsten [97]. Auch wenn die in Gleichung (3.6) dargestellte logistische Funktion eine aus Sicht
des biologischen Vorbildes plausiblere Lösung darstellt [57], können mit der tanhAktivierungsfunktion, analog zu Gleichung (3.7), bessere Trainingsergebnisse in mehrschichtigen neuronalen Netzwerken erzielt werden. Die Erklärung liegt darin begründet, dass die logistische Funktion nicht symmetrisch bezüglich des Ursprungs ist, wodurch der Mittelwert der Neuronenausgaben immer positiv ist. Ähnlich wie bei einer Normalisierung der Eingänge in das Netzwerk sollte dieser im Mittel jedoch nah an Null liegen [97]. Dies hat zur Folge, dass zum Ursprung symmetrische, sigmoide Funktionen schneller konvergieren.
Probleme bei der Verwendung symmetrischer sigmoider Aktivierungsfunktionen liegen beispielsweise im Abflachen der Fehlerfläche in der Nähe des Ursprungs, weshalb diese Netzwerke nicht mit sehr kleinen Startgewichten initialisiert werden sollten sowie in der ebenfalls flachen Fehlerfläche in der Nähe der gesättigten
56
3 Theorie künstlicher neuronaler Netzwerke
Abbildung 3.8 Aktivierungsfunktionen neuronaler Netzwerke: (a) und (b) logistische Aktivierungsfunktion, (c) und (d) tanh Aktivierungsfunktion
Bereiche [97]. Um die flachen Bereiche der Fehlerfläche zu vermeiden, kann, wie in Abbildung 3.9 dargestellt, ein linearer Anteil zu den sigmoiden Aktivierungsfunktionen hinzugefügt werden. Dieser sogenannte Twisting-Term verhindert die Annäherung der Funktion an eine obere Schranke [97]. Beschrieben wird dieser Zusammenhang durch:
o(jl)
=
1 1 + ei j (l)
+
a(l)
·
i
(l j
)
,
(3.9)
bzw.
o(jl) = tanh(i (jl)) + a(l) · i (jl).
(3.10)
3.3 Mehrschichtige Netzwerke
57
Abbildung 3.9 Lineare Erweiterung sigmoider Aktivierungsfunktionen: (a) logistische Aktivierungsfunktion + linearer Anteil, (b) tanh-Aktivierungsfunktion + linearer Anteil
Auch wenn die Ergänzung eines linearen Twisting-Terms positiven Einfluss auf das Training neuronaler Netzwerke mit sigmoiden Aktivierungsfunktionen hat, ist in den vergangenen Jahren insbesondere beim Training tieferer Netzwerkarchitekturen die Rectifier Aktivierungsfunktion immer stärker in den Fokus gerückt [57, 96, 143]. Die verbesserten Ergebnisse beim Netzwerktraining liegen insbesondere darin begründet, dass der Gradient der beim Netzwerktraining rückwärts durch das Netzwerk propagiert wird, beim Durchlauf mehrerer sigmoider Schichten gegen Null strebt („Vanishing Gradient“, [75, 97]), was die effiziente Optimierung der Netzwerkgewichte erschwert.
Rectifier Aktivierungsfunktion (ReLU) Neuronen mit Rectifier Aktivierungsfunktion (ReLU = Rectified linear Units) stellen eine Kombination der zu Beginn dieses Abschnitts dargestellten linearen Neuronen und solchen mit binärer Schwellwertfunktion dar. Deswegen werden sie auch als „linear threshold neurons“ bezeichnet. Abbildung 3.10 zeigt Rectifier Funktionen für unterschiedliche Konfigurationen des Bias (a), bzw. des Gewichts der eingehenden Verbindung (b).
Es ist offensichtlich, dass sich die Ausgabe eines Neurons mit Rectifier Aktivierungsfunktion nicht linear verhält. Das Neuron wird bis zu einem Schwellenwert θ , der sich analog zu den im vorherigen Abschnitt beschriebenen Neuronen durch den negativen Bias (θ = b) definieren lässt, nicht aktiviert. Das bedeutet, dass bis zu diesem Schwellenwert eine Netzausgabe von Null generiert wird. Beim Erreichen bzw. Überschreiten des Schwellenwertes erfolgt eine lineare Neuronenausgabe. Es gilt:
58
3 Theorie künstlicher neuronaler Netzwerke
Abbildung 3.10 Aktivierungsfunktionen neuronaler Netzwerke: ReLU
n
i
(l ) j
=
b
+
oi(l1) · wi(ll1),
i =1
o(jl) =
i (jl), falls
i
(l j
)
0
.
0, fu¨r jeden anderen Fall
Dieser Zusammenhang kann wie folgt beschrieben werden:
o(jl)
=
i
(l j
)+
=
max
0,
i
(l j
)
.
(3.11) (3.12) (3.13)
Der Vorschlag, eine Aktivierungsfunktion mit Hilfe des in Gleichung (3.13) dargestellten Zusammenhangs zu beschreiben, erfolgte erstmals im Jahre 2000 in [65]. In der Vergangenheit erhielten Rectifier Funktionen zum Training tiefer neuronaler Netzwerke ein hohes Maß an Aufmerksamkeit, da sie üblicherweise zu deutlich schnelleren Trainingserfolgen führen als beispielsweise sigmoide Funktionen [56, 57, 96, 119]. In [57] wird aufgezeigt, dass die ReLU Funktion, verglichen mit einer sigmoiden Aktivierungsfunktion, eine bessere Abbildung eines biologischen Neurons darstellt und trotz der Defizite eines nicht stetig differenzierbaren Verlaufes bei Aktivierung der Funktion die Performanz von sigmoiden Funktionen beim Training tiefer Netzwerke übertroffen werden kann. Bereits in Abschnitt 3.1 wurde auf die Inaktivität einer Vielzahl von Neuronen im menschlichen Gehirn hingewiesen. Auch [4] beschreibt bei Studien zum Energieaufwand im menschlichen Gehirn, dass die Informationsentschlüsselung verstreut über verteilte aktive Neuronen erfolgt. Über diese Eigenschaft verfügen künstliche neuronale Netzwerke mit sigmoiden Aktivierungsfunktionen nicht. Bei Initialisierung sehr kleiner Gewichte sind alle
3.3 Mehrschichtige Netzwerke
59
Neuronen in einer Region aktiv, die aufgrund der symmetrischen Eigenschaften von Sigmoiden der Hälfte des Schwellenwertes entsprechen, was keinerlei biologisch motivierten Hintergrund hat und einem effizienten, gradientenbasierten Netzwerktraining schadet [57, 97]. Mit dem Einsatz von Rectifiern als Aktivierungsfunktion wird bei zufälliger Gewichtsverteilung ein Netzwerk generiert, welches im initialen Zustand nur zu etwa 50% aktiv ist. Das bedeutet, dass nur etwa die Hälfte aller Neuronen eine von Null abweichende Ausgabe liefert. Auch in Folge des Netzwerktrainings führen unterschiedliche Eingangskonfigurationen zu einer Variation der aktiven Bereiche im Netzwerk, was exemplarisch in Abbildung 3.11 dargestellt ist und der Signalverarbeitung des biologischen Vorbildes deutlich näher kommt [57].
aktive gewichtete Verbindung deaktivierte gewichtete Verbindung aktives Neuron
aktive Bias-Verbindung deaktivierte Bias-Verbindung deaktiviertes Neuron
Abbildung 3.11 Exemplarische Darstellung der Aktivität eines vorwärts gerichteten Netzwerkes mit ReLU Aktivierungsfunktionen
In dem dargestellten Netzwerk verändern sich mit einer Variation der Eingabegrößen die Kombinationen aus aktiven Neuronen und damit die Pfade der Informationspropagation durch das Netzwerk. Da sich die Rectifier Funktion nach Überschreiten des Schwellwertes linear verhält, ist die einzige Nichtlinearität in der Verarbeitung der Eingabegrößen die Variation der aktiven Neuronen [57]. Die Ausgabe ist entsprechend eine Zusammensetzung der linearen Funktionsanteile der
60
3 Theorie künstlicher neuronaler Netzwerke
Aktivierungsfunktionen aller aktiven Neuronen. Im Vergleich zu sigmoiden Funktionen kann der negative Einfluss des Vanishing Gradient Problems vermieden werden. Außerdem ist der Rechenaufwand geringer, da keine Exponentialfunktionen berechnet werden müssen [57].
Vorbehalte gegenüber der Implementierung von ReLU Funktionen resultieren insbesondere aus der harten Grenze bei Erreichen des Schwellenwerts θ und des daraus resultierenden nicht stetig differenzierbaren Verlaufes der Funktion. Aus diesem Grund wird beispielsweise in [26] und [119] die Softplus Funktion genannt, die eine glatte Annäherung der ReLU Funktion darstellt. Dabei wird der zuvor beschriebene Aspekt der „harten“ Abschaltung der betroffenen Neuronen geopfert, um durch den glatten Funktionsverlauf das Netzwerktraining zu vereinfachen. In [57] werden trotz des unstetigen Verlaufs mit klassischen ReLU Funktionen gute Ergebnisse für unterschiedliche Trainingsdatensätze erzielt. Die Annäherung an lokale Minima erfolgt mit vergleichbarer oder besserer Qualität, verglichen zur Softplus Funktion, bei höherer biologischer Plausibilität und effizienter Berechnung. Der Autor vertritt die These, dass das harte Abschalten nicht problematisch ist, solange aktive Pfade durch jede versteckte Schicht existieren. Ein weiteres Problem, welches sowohl für die ReLU, als auch die Softplus Aktivierungsfunktion eine Rolle spielt, ist das Wegfallen einer durch die Funktion definierten oberen Grenze. Um numerischen Problemen vorzubeugen, empfiehlt es sich daher wie in Abschnitt 7.3 beschrieben, eine Regularisierung der Netzwerkgewichte vorzunehmen.
Weitere Aktivierungsfunktionen Aufgrund des dargestellten Einflusses auf das Netzwerktrainings, sowie den jüngsten Erfolgen beim Training tiefer neuronaler Netzwerke, wurden in den vergangenen Jahren zahlreiche weitere Aktivierungsfunktionen präsentiert. In Tabelle 3.1 ist eine Übersicht relevanter Aktivierungsfunktionen dargestellt, die im Rahmen dieser Arbeit für Untersuchungen bezüglich der Fahrdynamikregelung implementiert, getestet und gegenübergestellt wurden.
Weitere Aktivierungsfunktionen, die in den vergangenen Jahren zum Training künstlicher neuronaler Netzwerke präsentiert wurden, in dieser Arbeit jedoch nicht weiter betrachtet werden, sind beispielsweise Exponential Linear Units (ELU) [27], Parametric Rectified linear Units (PReLU) [69] und Scaled Exponential Linear Units (SELU) [88].
3.3 Mehrschichtige Netzwerke
61
Tabelle 3.1 In der Literatur präsentierte Variationen von Aktivierungsfunktionen künstlicher neuronaler Netzwerke
62 Tabelle 3.1 (Fortsetzung)
3 Theorie künstlicher neuronaler Netzwerke
3.4 Lernen in künstlichen neuronalen Netzwerken
Lernalgorithmen für neuronale Netzwerke verfolgen das Ziel, aus einer zur Verfügung stehenden Datenmenge ein Modell anhand einer gewünschten Zielvorgabe zu generieren. Dabei dient ein ausgewählter Lernalgorithmus dazu, die variablen Parameter im Netzwerk anzupassen. Diese können in Form der Gewichte, aber auch als Schwellenwerte einzelner Neuronen im Netz integriert sein. Grundsätzlich ist für die Modellbildung kein a priori Wissen über die physikalischen Gesetzmäßigkeiten, die dem Lernprozess zu Grunde liegen, notwendig. Diese müssen ausschließlich in hinreichender Form durch die zur Verfügung stehenden Trainingsdaten repräsentiert werden. Um die vorgegebenen Ziele erreichen zu können, ist ein Trainingsprozess notwendig. Durch asymptotische Anpassung der Netzwerkausgabe an eine Zielvorgabe wird während des Trainingsprozesses versucht, eine optimale Annäherung der internen Parameter an ein Minimum im Fehlerraum zu finden. Dieser Vorgang ist in Abbildung 3.12 dargestellt.
Dem neuronalen Netzwerk werden Zustandsgrößen, die in funktionalem Zusammenhang mit den vorgegebenen Lernzielen stehen, für den Trainingsprozess bereitgestellt. Für jede Kombination von Eingabegrößen wird eine Netzwerkausgabe berechnet, die anschließend mit der bereitgestellten Zielstellung verglichen wird und aus deren Differenz der Netzwerkfehler berechnet werden kann. Anschließend wird der kalkulierte Netzwerkfehler mit einem zuvor definierten Gütemaß verglichen. Sind alle Anforderungen erfüllt, wird das Netzwerktraining beendet und die
3.4 Lernen in künstlichen neuronalen Netzwerken
63
Zustandsgrößen Zielfunktion
Netzfehler berechnen
Abgleich mit Gütemaß
Netzparameter anpassen
Netzwerktraining beenden
Abbildung 3.12 Exemplarische Darstellung der notwendigen Schritte beim Training neuronaler Netzwerke
im Netzwerk vorhandenen Parameter bleiben konstant. Erfüllt die Netzwerkausgabe nicht die gewünschten Anforderungen, so wird das Netzwerk entsprechend des berechneten Fehlers angepasst und der beschriebene Prozess wird weiter durchlaufen, bis das vom neuronalen Netzwerk bereitgestellte Modell den Anforderungen genügt.
3.4.1 Klassifizierung von Lernalgorithmen
Die Art und Weise wie innerhalb von neuronalen Netzwerken gelernt wird, kann stark variieren und wird einerseits durch die gewünschte Zielstellung, andererseits durch die zur Verfügung stehenden Daten und das vorhandene Wissen über den Zusammenhang zwischen Eingabe und Ausgabe maßgeblich bestimmt [147]. In Abbildung 3.13 sind die wesentlichen Formen unterschiedlicher Lernmethoden zum Training neuronaler Netzwerke, analog zu [153] aufgeführt. Es wird zwischen supervised, unsupervised, semi-supervised und Reinforcement Learning unterschieden.
Supervised Learning Sind gewünschte Ausgaben zu einer vorgegebenen Kombination von Eingaben bekannt, d.h. es existiert ein Trainingsdatensatz mit bekannten EingabeAusgabekombination (gelabelt), so kann in jedem Trainingsschritt die Güte der Netzausgabe mit dem definierten Zielwert verglichen und der resultierende Fehler zur Anpassung der Netzwerkgewichte genutzt werden. Man spricht von
64
3 Theorie künstlicher neuronaler Netzwerke
Machine Learning
Supervised Learning
Unsupervised Learning
Reinforcement Learning
Semi-supervised Learning
Abbildung 3.13 Die wesentlichen Lernparadigmen künstlicher neuronaler Netzwerke
überwachtem Lernen (supervised Learning) bei dem Zielfunktion und Netzwerk in einer Lehrer-Schüler-Beziehung stehen [147]. Durch die direkte Vorgabe von Eingabe-Ausgabe-Paarungen soll der in den Trainingsdaten repräsentierte funktionale Zusammenhang durch eine vom Netzwerk bereitgestellte Funktionsabbildung möglichst genau approximiert werden. Dies ist sinnvoll, wenn komplexe physikalische Zusammenhänge eines realen, nichtlinearen Prozesses über ein Modell abgebildet werden sollen. Können relevante Zustände sowie das gewünschte Ergebnis beobachtet werden, so kann ein aus hinreichend aufgezeichneten Daten trainiertes Modell eine günstige Alternative zur zeitintensiven, komplexen Modellierung darstellen. Dabei ist ein Kompromiss aus genauer Abbildung der Trainingsdaten und robuster Generalisierung unbekannter Muster notwendig. Werden von einem neuronalen Netzwerk die im Trainingsdatensatz bereitgestellten Muster ausschließlich auswendig gelernt, nicht aber der funktionale Zusammenhang erfasst, so wird von Overfitting gesprochen [181]. Dies kann anhand einer einfachen Klassifizierungsaufgabe deutlich gemacht werden, die in Abbildung 3.14 dargestellt ist.
In (a) und (b) ist jeweils der identische Datensatz dargestellt. In der ersten Abbildung ist mit der grauen Linie eine Trennung der Datensätze eingezeichnet, die zwar einen Restfehler bezüglich der klassifizierten Trainingsdaten aufweist, jedoch auch eine allgemeinere Lösung darzustellen scheint, die weniger genau von den Trainingsdaten abhängig ist als die in (b) dargestellte Trennlinie. Diese trennt den Trainingsdatensatz perfekt. Es ist jedoch relativ deutlich, dass die Trennung sehr genau an einzelne Punkte im Datensatz angepasst wird. In diesem Fall liegt Overfitting vor, wodurch das Risiko steigt, bei der Verarbeitung unbekannter Daten höhere Approximationsfehler zu generieren.
3.4 Lernen in künstlichen neuronalen Netzwerken
65
Abbildung 3.14 Klassifikation durch Supervised Learning: (a) Gute Approximation, (b) Overfitting
Unsupervised Learning Beim unsupervised Learning wird dem Netzwerk kein explizites Feedback zur Bewertung der Ausgabe bereitgestellt. Das bedeutet, dass die Korrelation zwischen Eingabe und Ausgabe erlernt werden muss, ohne eine explizite Vorgabe zu kennen. Die bekannteste Form des unsupervised Learning ist das Clustering [153]. Dabei muss der Algorithmus die Eigenschaften von Eingabemustern bewerten und in Cluster unterteilen. Als Zielvorgabe wird beispielsweise die Anzahl der Cluster vorgegeben.
Abbildung 3.15 Unsupervised Learning: (a) Geclusterter Datensatz, (b) Umsetzung des Clustering Problems mittels KNN
In Abbildung 3.15 ist das Ergebnis der erfolgreichen Einteilung eines Datensatzes in vier Cluster dargestellt (a) sowie eine exemplarische Umsetzung mit Hilfe