1663 lines
244 KiB
Plaintext
1663 lines
244 KiB
Plaintext
Christina Klüver Jürgen Klüver Jörn Schmidt
|
||
Modellierung komplexer Prozesse durch naturanaloge Verfahren
|
||
Künstliche Intelligenz und Künstliches Leben
|
||
4. Auflage
|
||
|
||
Modellierung komplexer Prozesse durch naturanaloge Verfahren
|
||
|
||
Christina Klüver · Jürgen Klüver · Jörn Schmidt
|
||
Modellierung komplexer Prozesse durch naturanaloge Verfahren
|
||
Künstliche Intelligenz und Künstliches Leben
|
||
4. Auflage
|
||
|
||
Christina Klüver Forschungsgruppe CoBASC Essen, Deutschland
|
||
Jörn Schmidt Forschungsgruppe CoBASC Essen, Deutschland
|
||
|
||
Jürgen Klüver Forschungsgruppe CoBASC Essen, Deutschland
|
||
|
||
ISBN 978-3-658-43407-6
|
||
|
||
ISBN 978-3-658-43408-3 (eBook)
|
||
|
||
https://doi.org/10.1007/978-3-658-43408-3
|
||
|
||
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
|
||
|
||
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2009, 2012, 2021, 2024
|
||
|
||
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
|
||
|
||
Planung/Lektorat: Reinhard Dapper Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
|
||
|
||
Das Papier dieses Produkts ist recyclebar.
|
||
|
||
Vorwort zur vierten Auflage
|
||
|
||
Die aktuellen Entwicklungen unter dem Oberbegriff „Künstliche Intelligenz“ sind rasant und kaum noch überschaubar. Waren die von uns beschriebenen (hybriden) Modelle vor einigen Jahren noch eine Seltenheit, so sind sie heute eine Selbstverständlichkeit. Die Kopplung von Methoden der Künstlichen Intelligenz (KI), des Künstlichen Lebens (KL) und des Maschinellen Lernens (ML) sowie des Deep Learning (DL) ist derzeit zu vielfältig, um die steigende Komplexität zu erfassen oder die großen Datenmengen verarbeiten zu können.
|
||
Bei näherer Betrachtung der Entwicklungen fällt auf, dass diese nicht wirklich „neu“ sind; für alle hier beschriebenen Methoden wurden die Grundlagen bereits im letzten Jahrhundert gelegt. Selbst die Interaktion mit ChatGPT erinnert sehr an Eliza, mit dem Unterschied, dass ChatGPT auf völlig andere technische und inhaltliche Ressourcen zugreifen kann.
|
||
In dieser Auflage stehen daher weiterhin die Grundlagen im Vordergrund, die wir an vergleichsweise „einfachen“ Beispielen konkretisieren. Wir verweisen jeweils auf aktuelle Trends, die keinen Anspruch auf Vollständigkeit erheben können, aber in gewisser Weise die Konzeption des Buches seit der ersten Auflage fortführen: Die Methoden der KI und der KL können in einem expliziten Gesamtzusammenhang betrachtet werden und sowohl einzeln eingesetzt als auch fruchtbar miteinander kombiniert werden, um Probleme auf verschiedenen Ebenen zu lösen. Dies gilt auch für die von uns entwickelten Algorithmen, deren praktische Anwendung wir auch in der zweiten Auflage des Sammelbandes „Neue Algorithmen für praktische Probleme. Variationen zu Künstlicher Intelligenz und Künstlichem Leben“ zeigen.
|
||
Auch dies Buch ist nur durch das Engagement und die Inspiration von Studierenden und Kooperationspartnern möglich geworden, denen wir an dieser Stelle danken möchten. Unser besonderer Dank gilt unserem langjährigen Betreuer bei Springer Vieweg, Herrn Reinhard Dapper, dem wir für die Zukunft alles Gute wünschen.
|
||
|
||
Essen im September 2023
|
||
|
||
Christina Klüver Jürgen Klüver Jörn Schmidt
|
||
|
||
V
|
||
|
||
Vorwort zur dritten Auflage
|
||
Bei der Erstellung dieser dritten Auflage wurden wir an den dreibändigen Klassiker „Die drei Musketiere“ von Alexandre Dumas erinnert: Der dritte Band heißt „Zehn Jahre später“ und unsere dritte Auflage erscheint nun ebenfalls etwa 10 Jahre nach der zweiten. In der Zwischenzeit hat sich in der einschlägigen Wissenschaft wie bei den Musketieren viel ereignet und das war denn auch der Grund für Springer Vieweg, uns um eine Neuauflage zu bitten. Wir sind dieser Bitte natürlich gerne nachgekommen, vor allem da wir selbst auf den Gebieten dieses Buchs wie d’Artagnan aktiv waren.
|
||
Die wesentlichen Neuerungen der dritten Auflage betreffen insbesondere einmal neue Anwendungsbeispiele für die verschiedenen Algorithmen und zum anderen Einführungen in Forschungs- und Entwicklungsbereiche, die es so beim Erscheinen der 2. Auflage noch nicht oder nicht in diesem Umfang gab, wie vor allem in den Bereichen der Neuronalen Netze (Kap. 5) und der hybriden Systeme (Kap. 7). Drittens schließlich sind die von uns selbst entwickelten Algorithmen, soweit sie in diesem Buch thematisiert werden, überarbeitet und erweitert worden; zusätzliche Beispiele für Anwendungen dieser neuen Algorithmen finden sich in Klüver und Klüver 2021. Insofern kann diese Neuauflage in Teilen auch als neue Publikation verstanden werden. Die Veränderung des Untertitels drückt dies teilweise aus.
|
||
Auf dem CoBASC Research Group Kanal auf YouTube sind übrigens einige Videos zu den vorgestellten Modellen zu sehen.
|
||
Zu danken haben wir insbesondere Reinhard Dapper, der uns den Anstoß für diese Neuauflage gegeben hat, und Andrea Broßler für die hervorragende Betreuung. Dank geht auch an die Studierenden, die mit ihren Programmierarbeiten wesentlich zur Fertigstellung dieses Buchs beigetragen haben. Sie sind bei den entsprechenden Passagen genannt. Wir danken auch den zahlreichen Studierenden, die hier zwar nicht namentlich erwähnt werden, die uns jedoch mit ihren Programmen, Modellen und Anregungen inspiriert haben.
|
||
VII
|
||
|
||
VIII
|
||
|
||
Vorwort zur dritten Auflage
|
||
|
||
Für die ersten Auflagen haben wir durchaus erfreuliche Rückmeldungen interessierter Leserinnen und Leser erhalten. Hoffen wir, dass dies ein gutes Vorzeichen für dies Buch, also die dritte Auflage ist und dass möglichst viele Leser/innen an diesen Themen auch etwas Vergnügen haben, wie wir es beim Schreiben durchaus hatten.
|
||
|
||
Essen im Juni 2021
|
||
|
||
Christina Klüver Jürgen Klüver Jörn Schmidt
|
||
|
||
Inhaltsverzeichnis
|
||
1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 Bottom-up Modelle, komplexe Systeme und naturanaloge
|
||
Verfahren der KI und KL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.1 Bottom-up, Top-down und KI/KL. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2 Dynamiken komplexer Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.3 Erweiterungen und Anwendungsmöglichkeiten eines
|
||
universalen Modellschemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.4 Methodologische Schlussbemerkungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche Netze und Algorithm for Neighborhood Generating. . . . . . . . . . . . . . . . . . . . . . . . . 43 3.1 Zellularautomaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
|
||
3.1.1 Allgemeine Darstellung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.1.2 Stochastische Zellularautomaten. . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3.1.3 Aktuelle Trends in ZA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.2 Boolesche Netze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.2.1 Aktuelle Trends in BN. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter. . . . . . . . . . . . 65 3.4 Die Generierung topologischer Strukturen durch den Algorithm for Neighborhood Generating (ANG). . . . . . . . . . . . . . . . . 81 3.4.1 Aktuelle Trends in ANG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 3.5 Analyse konkreter Modelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 3.5.1 Modellierung mit ZA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
|
||
3.5.1.1 Stochastische ZA zur Analyse der Auswirkung unterschiedlicher Impfquoten auf die Influenza-Ausbreitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
|
||
3.5.1.2 Lösung von Sudoku Rätseln auf der Basis eines ZA. . . . . 95
|
||
IX
|
||
|
||
X
|
||
|
||
Inhaltsverzeichnis
|
||
|
||
3.5.2 Modellierung mit Booleschen Netzen. . . . . . . . . . . . . . . . . . . . . . . . 99 3.5.2.1 Die Konstruktion von Schaltdiagrammen durch Boolesche Netze . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.5.2.2 Modellierung der Formularauswahl für die Körperschaftsteuer mit BN . . . . . . . . . . . . . . . . . . . . . . . . 106
|
||
3.5.3 Datenstrukturierung durch den Algorithm for Neighborhood Generating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 3.5.3.1 Vorselektion möglicher Standorte für Windkraftanlagen durch einen ANG. . . . . . . . . . . . . . . . . 109 3.5.3.2 ANG für die Analyse der Influenza-Erkrankungen in den USA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
|
||
4 Die Modellierung adaptiver Prozesse durch Evolutionäre Algorithmen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 4.1 Allgemeine Charakterisierungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 4.2 Genetische Algorithmen (GA). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 4.3 Evolutionsstrategien (ES) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 4.4 Der Regulator Algorithmus (RGA). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 4.4.1 Aktuelle Trends in GA, ES und RGA . . . . . . . . . . . . . . . . . . . . . . . . 144 4.5 Simulated Annealing (SA). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 4.6 Analyse konkreter Modelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 4.6.1 Entwicklung eines Mehrkomponentenklebers durch eine ES. . . . . . 153 4.6.2 Minimierung der Länge von Kabelnetzen durch einen Genetischen Algorithmus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 4.6.3 Steuerung einer sozialen Gruppe durch einen GA, eine ES und ein SA im Vergleich. . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 4.6.4 Ein Vergleich zwischen ES, GA und RGA. . . . . . . . . . . . . . . . . . . . . 173 4.6.5 Optimierung eines Spiel-Astronauten mit einem RGA und einer RES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 4.6.6 Optimierung der Planungen an der Universität Duisburg-Essen durch einen RGA. . . . . . . . . . . . . . . . . . . . . . . . . . . 178
|
||
5 Modellierung lernender Systeme durch Neuronale Netze (NN). . . . . . . . . . . 189 5.1 Biologische Vorbilder. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 5.2 Grundbegriffe und Grundlogik überwacht lernender Netzwerke . . . . . . . . 191 5.2.1 Interne Topologie, Funktionen und Schwellenwerte von NN . . . . . . 192 5.2.2 Erweiterungen: Einschichtige und mehrschichtige Modelle. . . . . . . 198 5.2.3 Informationsfluss: Feed forward, feed back und rekurrente Netzwerke. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 5.2.4 Lernregeln für überwacht-lernende Netzwerke. . . . . . . . . . . . . . . . . 203 5.2.5 Ein allgemeines Lernparadigma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 5.2.6 Exkurs: Graphentheoretische Darstellung neuronaler Netze. . . . . . . 210 5.2.7 Informationsverarbeitung in neuronalen Netzen. . . . . . . . . . . . . . . . 214
|
||
|
||
Inhaltsverzeichnis
|
||
|
||
XI
|
||
|
||
5.3 Modelle des selbstorganisierten Lernens. . . . . . . . . . . . . . . . . . . . . . . . . . . 217 5.3.1 Selbstorganisierende Karte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 5.3.2 Das Self-Enforcing Network (SEN). . . . . . . . . . . . . . . . . . . . . . . . . . 221
|
||
5.4 Zusammenfassung: (Klassische) NN-Typen im Vergleich . . . . . . . . . . . . . 227 5.4.1 Aktuelle Trends . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
|
||
5.5 Maschinelles Lernen: Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 5.5.1 Tiefe Netze (Deep Learning). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 5.5.2 Convolutional Neural Networks (CNN). . . . . . . . . . . . . . . . . . . . . . . 233 5.5.3 Long-Short-Term-Memory (LSTM) . . . . . . . . . . . . . . . . . . . . . . . . . 237 5.5.4 Unüberwachtes, semi-überwachtes, selbst-überwachtes und verstärkendes Lernen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 5.5.4.1 Unüberwachtes Lernen . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 5.5.4.2 Semi-überwachtes und selbst-überwachtes Lernen. . . . . . 241 5.5.4.3 Verstärkendes Lernen (reinforcement learning) . . . . . . . . 244 5.5.5 Aktuelle Trends: Transformer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
|
||
5.6 Analyse konkreter Modelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 5.6.1 Optische Erkennung handgeschriebener Zahlen . . . . . . . . . . . . . . . . 251 5.6.2 Transfer-Learning: Bildgebende Diagnostik mit einem Residual Network (ResNet). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 5.6.3 ChatGPT für die Bestimmung einer Fitnessfunktion, zur Optimierung von LSTM und CNN . . . . . . . . . . . . . . . . . . . . . . . 262 5.6.4 Auswahl von Standorten für Offshore-Windkraftanlagen durch ein SEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 5.6.5 Auswirkungen des cue validity factors auf die Analyse der Influenzaausbreitung durch SEN. . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
|
||
6 Modellierung des Ungenauen: Fuzzy-Mengenlehre und Fuzzy-Logik . . . . . 285 6.1 Einführung in die Grundbegriffe: Von der Unschärfe der Realität . . . . . . . 287 6.2 Ein Begriffsexkurs: Wahrscheinlichkeit und Unschärfe . . . . . . . . . . . . . . . 297 6.3 Variationen der Operatoren und unscharfe Logik. . . . . . . . . . . . . . . . . . . . 301 6.4 Unscharfe Relationen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 6.5 Experten- und Produktionssysteme sowie Defuzzyfizierungen. . . . . . . . . . 306 6.6 Aktuelle Trends. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 6.7 Darstellung und Analyse konkreter Modelle. . . . . . . . . . . . . . . . . . . . . . . . 317 6.7.1 Die Modellierung von Wahlverhalten mit einem Fuzzy-ZA. . . . . . . 317 6.7.2 Ampelsteuerungen durch ein Fuzzy-System. . . . . . . . . . . . . . . . . . . 322 6.7.3 Aufwandschätzung in einer Poker Party mit Fuzzy-Logik . . . . . . . . 327
|
||
7 Hybridisierungen der Basismodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 7.1 Hybride Systeme und Metaparameter. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 7.2 Darstellung von Beispielen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 7.2.1 Referenztypenbildung durch SEN zur Reduktion der Trainingsdatenmenge in überwacht-lernenden Netzwerken . . . . . . . 340
|
||
|
||
XII
|
||
|
||
Inhaltsverzeichnis
|
||
|
||
7.2.2 SEN trifft R: shinySENalytics. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 7.2.3 ZA trifft ANG: COVID-19-Pandemie in Deutschland. . . . . . . . . . . . 350 7.2.4 Modellierung und Steuerung von Verkehrsaufkommen auf
|
||
Autobahnen durch die horizontale Koppelung eines ZA mit einer SOM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 7.2.5 Die Modellierung kognitiver Ontogenese: Ein horizontal gekoppeltes hybrides System. . . . . . . . . . . . . . . . . . . 366
|
||
8 Resümee und Perspektiven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
|
||
Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
|
||
Stichwortverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
|
||
|
||
Einleitung
|
||
|
||
1
|
||
|
||
Zusammenfassung
|
||
Das Thema dieses Buches ist ein Bereich von verschiedenen und auf einen ersten Blick recht heterogenen Techniken der Modellierung komplexer Probleme – der Bereich der sogenannten naturanalogen Verfahren, die wir hier etwas genauer als Verfahren der Künstlichen Intelligenz (KI) und des Künstlichen Lebens (KL) benennen. Die einzelnen Techniken, die in den verschiedenen Kapiteln dargestellt und an Anwendungsbeispielen verdeutlicht werden, sind prinzipiell durchaus bekannt und für jede einzelne Technik gibt es natürlich auch spezielle Lehrbücher. Zellularautomaten z. B. wurden bereits in den fünfziger Jahren von John von Neumann und Stanislaw Ulam entwickelt; evolutionäre Algorithmen, um ein anderes Beispiel zu nennen, sind seit Beginn der siebziger Jahre bekannt und haben ihre vielfältige Verwendbarkeit in sehr unterschiedlichen wissenschaftlichen und praktischen Gebieten immer wieder demonstriert. Erst in neuerer Zeit allerdings begann man, die verschiedenen Einzeltechniken als ein zusammenhängendes Gebiet zu begreifen, dessen Anwendungsmöglichkeiten in Wissenschaft und Praxis noch längst nicht ausgeschöpft sind und z. T. immer noch am Anfang stehen. Dies war dann auch der Grund für uns, dieses Lehrbuch zu schreiben.
|
||
|
||
Die neuen von uns selbst entwickelten Algorithmen sind natürlich ein zusätzliches Motiv, da diese neuen Techniken selbstverständlich in Lehrbüchern anderer Autoren (noch) nicht zu finden sind. Es ist im Rahmen einer Einführung sicher etwas ungewöhnlich, wenn hier neuartige Techniken vorgestellt werden, die z. T. immer noch der gründlicheren Erforschung bedürfen, jedoch bereits praktisch angewendet werden, wie in Klüver & Klüver 2021 und 2024 gezeigt wird. Von Einführungen wird eigentlich „nur“ erwartet, dass etablierte Verfahren und Resultate didaktisch so gut aufbereitet werden, dass interessierte Leser diese auch rezipieren und verstehen können. Wir haben dennoch be-
|
||
|
||
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2024
|
||
|
||
1
|
||
|
||
C. Klüver et al., Modellierung komplexer Prozesse durch naturanaloge Verfahren,
|
||
|
||
https://doi.org/10.1007/978-3-658-43408-3_1
|
||
|
||
2
|
||
|
||
1 Einleitung
|
||
|
||
wusst einige unserer neueren Forschungs- und Entwicklungsergebnisse hier vorgestellt, um zu demonstrieren, dass der Gesamtbereich der sog. naturanalogen Verfahren ein ungemein lebendiges Gebiet ist, von dem man immer noch auch grundsätzlichere Innovationen erwarten kann.
|
||
Das letztere gilt vor allem für den Bereich der KI, der sich in den letzten Jahren einer ungemeinen Popularität erfreut, nachdem er Jahrzehnte lang als eher esoterischer Randbereich der Informatik angesehen wurde. So unterschiedlich die verschiedenen Anwendungsbereiche auch gegenwärtig sind und so vielfältig die damit verbundenen Techniken, so kann man auch sagen, dass hier ein ungemein dynamischer Forschungs- und Anwendungsbereich vorhanden ist, dessen grundsätzliche Möglichkeiten noch lange nicht erforscht worden sind. Ähnliches gilt für den Bereich des Künstlichen Lebens, auch wenn er nicht so öffentlich wirksam thematisiert wird. Die zusammenfassende Bezeichnung der entsprechenden Methoden – der einschlägigen Algorithmen – als naturanaloge Verfahren hat ihre Berechtigung eben darin, dass es hier um heuristische Orientierungen an (natürlichen) menschlichen Denkprozessen und biologischen Prozessen geht.
|
||
Allerdings muss hier angemerkt werden, dass es sich besonders bei dem schon zuweilen als Modebegriff verwendeten Konzept der KI um einen sowohl vielfältigen als auch unscharfen Begriff handelt. Das ist den KI-Forschern nur bedingt anzulasten, da der Begriff der Intelligenz selbst diese Charakteristiken aufweist. Wir werden hier auch gar nicht die praktisch nicht sehr sinnvolle Aufgabe versuchen, KI präzise zu definieren, was für die Zwecke dieses Buchs überflüssig ist. Stattdessen sprechen wir von KI-Methoden, wenn wir wie z. B. bei neuronalen Netzen Algorithmen darstellen, die sich, wie bemerkt, heuristisch an bestimmten Formen des Denkens orientieren. Heuristisch heißt dabei, dass es um die jeweilige Grundlogik geht und dass nicht beansprucht wird, die Komplexität des menschlichen Denkens möglichst vollständig zu erfassen. Entsprechendes gilt für den Bereich des KL. Freilich ist es immer hilfreich, sich an die natürlichen Vorbilder zu erinnern, wenn es um die Möglichkeiten einer Erweiterung der einzelnen Algorithmen geht, um deren Effizienz möglichst zu steigern. Das haben wir auch schon selbst unternommen.1
|
||
Der begrifflichen Vollständigkeit halber muss hier auch erwähnt werden, dass neben der schon fast populär gewordenen Verwendung des Begriffs der KI zusätzlich der verwandte Begriff des Machine Learning (maschinelles Lernen, ML) wissenschaftliche und außerwissenschaftliche Relevanz erlangt hat. Es ist dabei nicht immer recht klar, inwiefern ML und KI sowohl zusammengehören als auch voneinander getrennt werden
|
||
|
||
1 Der Genauigkeit halber muss allerdings darauf verwiesen werden, dass neuronale Netze streng genommen in beide Bereiche, die der KI und des KL, gehören: Bei NN geht es sowohl um die Orientierung an menschlichen Denkprozessen als auch um eine Orientierung am Gehirn, also einem biologischen Organ. Für ein Verständnis der NN Logik und deren Anwendung spielt diese Dualität freilich keine wesentliche Rolle.
|
||
|
||
1 Einleitung
|
||
|
||
3
|
||
|
||
(vgl. VDI, 2019; Klüver & Klüver, 2022). Auch in dieser Hinsicht wollen wir hier gar nicht erst versuchen, endgültige Klarheit zu schaffen, sondern wir betrachten dies Problem wieder pragmatisch:
|
||
Wenn bei der Verwendung entsprechender Algorithmen von dem Einsatz von KI gesprochen wird, dann wird (zumindest) unterstellt, dass hier ein Modell zugrunde liegt, das (intelligentes) Denken darstellt. Die Lösung von Problemen durch KI-Verfahren beansprucht also eine Orientierung an der Modellierung menschlicher Denkprozesse; die Ergebnisse werden dann auch häufig mit denen entsprechender menschlicher Problemlösungsverfahren verglichen.
|
||
Beim Einsatz von Machine Learning Verfahren wird ein derartiges Modell von „Intelligenz“ nicht vorausgesetzt, sondern es geht „nur“ um die Performanz der entsprechenden Programme, also um deren Leistungsfähigkeit. Dabei werden in den beiden Bereichen auch häufig die gleichen Techniken verwendet wie insbesondere neuronale Netze aber auch evolutionäre Algorithmen. Von daher ist es ebenso häufig schwierig zu entscheiden, ob es sich bei der Bearbeitung spezieller Probleme nun um KI-Verfahren oder solche des ML handelt. Gar nicht selten verwenden die damit beschäftigten Wissenschaftler diese beiden Begriffe schlicht ohne weitere Begründung, falls es sich nicht um Methoden handelt, die eindeutig nur dem einen oder anderen Bereich zu zuordnen sind. Sog. lernende Support Vector Machines beispielsweise, die in diesem Buch nicht thematisiert werden, gehören ausschließlich zum Bereich des ML.
|
||
Eine Übersicht und eine Verdeutlichung der verschiedenen Bereiche und ihre Zusammenhänge gibt die Abb. 1.1.
|
||
|
||
Abb. 1.1 Zusammenhang zwischen verschiedenen Methoden (die hervorgehobenen Begriffe werden in diesem Buch näher behandelt)
|
||
|
||
4
|
||
|
||
1 Einleitung
|
||
|
||
Da es sich in beiden Bereichen darum handelt, dass die verwendeten Algorithmen in bestimmten Hinsichten lernfähig sind, lässt sich hier eine interessante Parallele zu den klassischen Lerntheorien aus der Psychologie erkennen:
|
||
ML-Verfahren folgen dem Grundprinzip des Behaviorismus. Diese Lerntheorie postuliert, dass man die internen Prozesse im menschlichen Gehirn oder Geist nicht empirisch erkennen kann und dass deshalb Lernen nur verstanden werden kann als eine spezifische Form des menschlichen Verhaltens (daher der Name), das nur äußerlich erkennbar ist. Es geht also nur um die Performanz, was die Nähe zum ML Ansatz sofort ersichtlich macht. Bei kognitivistischen Lerntheorien dagegen, deren berühmteste Vertreterin wohl immer noch die Theorie von Jean Piaget ist, wird Lernen stets auf der Grundlage eines bestimmten Modells dessen untersucht, was als Intelligenz verstanden wird und was dem Lernen dann eine erklärbare Logik gibt. Offenbar folgen KI-Ansätze prinzipiell dieser Denkweise.2 Wir werden im Folgenden der Einfachheit halber allerdings nur von KIVerfahren (und KL) sprechen.
|
||
Neben der gemeinsamen heuristischen Orientierung an natürlichen Prozessen lässt sich für die hier dargestellten KI- und KL-Verfahren zusätzlich eine gemeinsame theoretische Grundlage erkennen, nämlich die der Theorie komplexer dynamischer Systeme. Deswegen ist es sicher nicht zufällig, dass die hier dargestellten mathematischen – naturanalogen – Verfahren historisch vor allem im Rahmen der sogenannten Komplexitätsforschung analysiert worden sind (vgl. z. B. Waldrup, 1992; Lewin, 1992; Levy, 1992; Mainzer, 1997). In diesen zwar naturwissenschaftlich orientierten aber explizit interdisziplinär ausgerichteten Forschungsansätzen wurde relativ früh erkannt, dass für Probleme hoher Komplexität neuartige Verfahren zu verwenden bzw. zu entwickeln waren. Gleichzeitig zeigte sich auch, dass es erforderlich ist, neue Methoden nicht nur anzuwenden, sondern diese auch in einem theoretischen Zusammenhang zu verstehen. Da es bei der Modellierung und Bearbeitung komplexer Probleme gewöhnlich darum geht, Systeme und ihre Dynamik zu analysieren, wird in diesem Buch auch ein Zusammenhang zwischen der Theorie komplexer dynamischer Systeme und den hier dargestellten naturanalogen Methoden hergestellt, der bisher so nicht explizit erfolgt ist. Dies ist vor allem Gegenstand des Kap. 2.
|
||
Dieser Zusammenhang ergibt sich nicht zuletzt auch aus der Tatsache, dass im Gegensatz zu den meisten herkömmlichen Techniken naturanaloge Verfahren selbst als dynamische komplexe Systeme zu verstehen und zu untersuchen sind. Sie sind sozusagen ein Forschungsbereich sui generis, also auch unabhängig von praktischen und empirischen Anwendungen von Interesse. Diese Tatsache wird insbesondere bei der Analyse der sog. Ordnungsparameter von Booleschen Netzen in Kap. 3 sehr deutlich. Damit lassen sich aus der Analyse dieser formalen Systeme allgemeine Erkenntnisse über komplexe dynamische Systeme insgesamt ableiten.
|
||
|
||
2 Dies Thema, nämlich verschiedene Lerntheorien und Computerprogramme, haben zwei von uns in Klüver & Klüver (2012) detailliert abgehandelt.
|
||
|
||
1 Einleitung
|
||
|
||
5
|
||
|
||
Ein zusätzliches Motiv, dies Buch zu schreiben, war für uns dann schließlich die Tatsache, dass die noch relativ wenigen Gesamtübersichten und zusammenfassenden Darstellungen, die in dieses Gebiet einführen (vgl. z. B. Niskanen, 2003; Paetz, 2006), die grundlegenden Gemeinsamkeiten der auf den ersten Blick äußerst heterogenen verschiedenen formalen Modelle nicht oder nur partiell darstellen. Häufig bleibt offen, warum der Bereich der naturanalogen Verfahren als ein Gesamtbereich zu verstehen ist. Entsprechend wird auch dem Problem der theoretischen Grundlagen dieser formalen Modelle kaum näher nachgegangen. Außerdem wird nur selten der Frage Aufmerksamkeit gewidmet, inwiefern sich für bestimmte Probleme ganz bestimmte Techniken anbieten und wann es vielleicht gleichgültig bzw. nur eine Frage der Programmierpraxis ist, ob man der einen oder der anderen Technik den Vorzug gibt.
|
||
Die vorliegende Einführung soll diese Lücke schließen, indem die verschiedenen Techniken in einem expliziten Gesamtzusammenhang dargestellt werden. Dabei werden zum einen unterschiedliche Verwendungsmöglichkeiten aufgezeigt, was immer wieder an Beispielen illustriert wird, zum anderen wird auf die Möglichkeiten verwiesen, die jeweiligen Basismodelle zu variieren und zum dritten wird ein zusätzlicher Schwerpunkt auf die Möglichkeiten gelegt, die verschiedenen Basismodelle wie z. B. Zellularautomaten und genetische Algorithmen miteinander zu kombinieren. Die daraus entstehenden sogenannten hybriden Modelle erlauben es dann, regelrecht jede Form realer Komplexität – natürlich, technisch, ökonomisch, sozial oder kognitiv – adäquat, d. h. ohne Verlust an wesentlichen Aspekten, formal zu modellieren und in Computerexperimenten zu untersuchen. Anscheinend eignen sich diese Techniken und die entsprechenden Modellierungsmöglichkeiten besonders gut dafür, einen klassischen methodischen Grundsatz zu realisieren: Es darf nicht darum gehen, die Probleme den Methoden anzupassen, sondern es müssen problemadäquate Methoden verwendet und ggf. entwickelt werden. Wir werden sehen, wie dies Prinzip im Einzelfall verwirklicht werden kann.
|
||
Computerbasierte Modellierung komplexer Prozesse auf der Basis dieser Modelle gewinnen gegenwärtig immer größere Bedeutung. Offenbar sind diese Techniken in besonderer Weise geeignet, so verschiedene Probleme in Computermodellen zu analysieren wie z. B. die Wechselwirkungen von Molekülen in der Chemie, die Modellierung und Optimierung von automatischen Produktionsanlagen, die Interdependenzen zwischen Räuber- und Beutegattungen in der Ökologie, das Verhalten von Verkehrsteilnehmern und die daraus resultierenden Stauprobleme, die Optimierung von Lagerbeständen sowie des Einsatzes unterschiedlich qualifizierter Mitarbeiter in Unternehmen, die Entstehung von Meinungen und Kaufverhalten in der empirischen Sozialforschung, die Dynamik von sozialen Gruppen in der Sozialpsychologie und das kognitive Lernverhalten von Kindern beim Spracherwerb. Damit sind noch längst nicht alle Anwendungsgebiete genannt, in denen die Verwendung dieser Modellierungstechniken sich mittlerweile etabliert hat.
|
||
Die hier dargestellten Verfahren erweisen sich, wie im Laufe dieses Buchs gezeigt wird, nicht nur in den Bereichen als äußerst fruchtbar, die auch durch andere mathema-
|
||
|
||
6
|
||
|
||
1 Einleitung
|
||
|
||
tische Methoden analysiert werden können, sondern vor allem dort, wo die Probleme den in den Naturwissenschaften üblichen Methoden nicht zugänglich sind. Dies gilt insbesondere für die äußerst komplexen Probleme der Sozial-, Kommunikations- und Kognitionswissenschaften, die durch traditionelle mathematische Verfahren nicht oder nur in sehr einfachen Fällen bearbeitbar sind. Das gleiche gilt immer mehr für ökonomische Probleme: Gerade in diesen Bereichen ist der Einsatz der hier behandelten Methoden immer häufiger anzutreffen und wird zuweilen schon als absolutes „Muss“ im industriellen und wirtschaftlichen Fortschritt gefordert (Klüver & Klüver, 2021).3
|
||
Dieses Buch basiert insbesondere auf Forschungen und Entwicklungen, die im Zusammenhang unserer Forschungsgruppe CoBASC – Computer Based Analysis of Social Complexity – entstanden sind und überwiegend in verschiedenen Publikationen dokumentiert wurden. Damit sollen natürlich nicht die wichtigen Arbeiten anderer Forscher unterschlagen werden, auf die in dieser Einführung auch regelmäßig verwiesen wird. Dennoch ist es allerdings immer so, dass die eigenen Arbeiten nun einmal die vertrautesten sind und dass man als Autoren diese auch bevorzugt. Wir hoffen, dass diese zuweilen Betonung unserer eigenen Arbeiten bei der Verdeutlichung der vielfältigen Verwendungsmöglichkeiten von naturanalogen Techniken den Reiz der Lektüre nicht schmälert.
|
||
Dazu kommt freilich noch ein genuin didaktischer Aspekt: Nicht wenige der hier dargestellten einzelnen Programme und Modelle sind von (ehemaligen) Studierenden in den Studiengängen Angewandte Informatik – Systems Engineering, Wirtschaftsinformatik (inklusive des Fernstudiengangs VAWi sowie Digital Business – Innovation and Transformation), Betriebswirtschaftslehre, Volkswirtschaftslehre, Kommunikations- und Erziehungswissenschaft unter unserer Betreuung realisiert worden. Damit wollen wir auch demonstrieren, inwiefern die Entwicklung von Programmen, die auf diesen Techniken basieren, als Bestandteil der akademischen Lehre realisiert werden kann. Gerade diese Techniken ermöglichen es, mit einschlägig engagierten Studierenden das immer wieder angestrebte Prinzip des „Forschenden Lernens“ zu verwirklichen. An entsprechend motivierten und qualifizierten Studierenden hatten und haben wir bei den jeweiligen Entwicklungsprojekten nie einen Mangel.
|
||
Gegliedert ist das Buch wie folgt: In Kap. 2 wird auf die grundlegenden Charakteristika und die besonderen Vorzüge der Modellierung durch naturanaloge Verfahren eingegangen, wobei vor allem das methodische Vorgehen der sogenannten bottom-up Modellierung eine wesentliche Rolle spielt. In diesem Kontext werden aus den erwähnten Gründen die wichtigsten Begriffe komplexer dynamischer Systeme erläutert und in einen systematischen Zusammenhang zu den verschiedenen Techniken und Anwendungsbeispielen gestellt. Da unter naturanalogen Ver-
|
||
|
||
3 Einschränkend ist hier freilich auch zu konstatieren, dass zuweilen derartige Postulate als Modeerscheinungen betrachtet werden müssen, die von der Sache her nicht immer begründbar sind (s. den auch schon fast zum Modebegriff gewordenen Begriff der Industrie 4.0 bzw. der Industrie 5.0).
|
||
|
||
1 Einleitung
|
||
|
||
7
|
||
|
||
fahren, wie bemerkt, seit einiger Zeit vor allem Methoden der KI und des KL verstanden werden, wird zu Beginn dieses Kapitels der Entstehung dieser Richtungen ein kurzer historischer und begrifflicher Abschnitt gewidmet.
|
||
Das Kap. 3 enthält eine Darstellung der Zellularautomaten (ZA) und Booleschen Netze (BN). Zellularautomaten und Boolesche Netze werden in den Bereich des KL eingeordnet. Bei der allgemeinen Definition des Gebietes „komplexe dynamische Systeme und naturanaloge Verfahren“ im zweiten Kapitel lässt sich zeigen, dass es gerade durch diese Modelle möglich ist, generelle Zusammenhänge zwischen den verschiedenen Gebieten darzustellen. An verschiedenen Beispielen wird demonstriert, wie vielfältig diese formalen Modelle einsetzbar sind; insbesondere wird dies deutlich anhand einer Variation der Zellularautomatenlogik durch einen Topologie generierenden Algorithmus, von uns kurz als ANG („Algorithm for Neighborhood Generating“) bezeichnet.
|
||
Das Kap. 4 gibt eine Übersicht zum Gebiet der sogenannten Evolutionären Algorithmen, von denen hier die beiden wichtigsten Typen behandelt werden, nämlich die Genetischen Algorithmen (GA) und die Evolutionären Strategien (ES); zusätzlich stellen wir einen von uns entwickelten Algorithmus vor, nämlich den „Regulator Algorithmus“ (RGA). Die entsprechenden Anwendungsmöglichkeiten von evolutionären Algorithmen werden an verschiedenen Beispielen demonstriert. Außerdem erfolgt hier noch eine Einführung in die Technik des Simulated Annealing (SA), das zwar nicht im eigentlichen Sinne zu den evolutionären Algorithmen zählt, aber auch als „naturanaloges“ Optimierungsverfahren gelten kann.
|
||
Neuronale Netze (NN) sind der Gegenstand des Kap. 5, wobei insbesondere eine allgemeine Systematik dieser Modelle dargestellt wird. Dabei wird auf die in Kap. 3 dargestellten Booleschen Netze rekurriert. Hier geht es vor allem darum, neue Möglichkeiten der Vermittlung sowie der Konstruktion neuronaler Netze zu testen. Auch in diesem Kapitel werden wir eine von uns entwickelte Lernregel für überwacht-lernende Netze, sowie das selbst-organisiert lernende „Self-Enforcing Network“ (SEN) vorstellen. Zusätzlich wird auf die neueren Entwicklungen in diesem Bereich eingegangen (Deep Learning), der als ein besonders wichtiger Kern der ML-Forschung bezeichnet werden kann. Da sich gerade bei dem Gesamtfeld der neuronalen Netze eine ungemein dynamische Entwicklung feststellen lässt, haben wir uns natürlich auf die wichtigsten Neuerungen beschränken müssen. ChatGPT konnten wir uns aus verschiedenen Gründen nicht verschließen, daher zeigen wir, wie Studierende ChatGPT zur Programmierung neuronaler Netze eingesetzt haben.
|
||
Da üblicherweise die Verwendung von Fuzzy-Methoden ebenfalls zum Bereich der KI gezählt wird, ist das Kap. 6 dieser Technik gewidmet. In diesem Zusammenhang werden wir u. A. versuchen, die Unterschiede und Gemeinsamkeiten der beiden fundamentalen Begriffe der Unschärfe und der Wahrscheinlichkeit etwas genauer zu bestimmen. Diesem Problem, das für die Entwicklung entsprechender Modelle äußerst wichtig ist, wird vor allem in der einführenden Literatur zu Fuzzy-Methoden nicht immer die erforderliche Beachtung geschenkt.
|
||
|
||
8
|
||
|
||
1 Einleitung
|
||
|
||
Das letzte Kap. 7 schließlich beschäftigt sich mit sogenannten Hybriden Systemen, d. h. mit der Kombination verschiedener Modellierungstechniken wie z. B. die Kombination von Zellularautomaten mit neuronalen Netzen. Speziell mit der Hybridisierung von Modellen basierend auf naturanalogen Verfahren lässt sich erreichen, dass damit Probleme beliebig hoher Komplexität bearbeitet werden können. Auch dies wird an verschiedenen Beispielen konkretisiert.
|
||
Es sei noch auf einen weiteren Vorzug dieser Modellierungstechniken verwiesen: Deren grundlegende Logik ist in eigentlich allen Fällen verhältnismäßig einfach zu verstehen, sodass es relativ nahe liegt, eigene Modelle zu bekannten Problemen zu erstellen. Dies haben wir immer wieder in Lehrveranstaltungen in dem Sinne erfahren, dass die Studierenden häufig sehr motiviert waren, selbst Programme zu von ihnen oder von uns ausgewählten Problemen zu realisieren. Diese Modellierungstechniken, so unsere Erfahrungen, sind nicht nur für die verschiedensten Forschungs- und Anwendungsprobleme hervorragend geeignet, sondern können auch sehr motivationsfördernd didaktisch eingesetzt werden (siehe oben). Damit können auch die Fähigkeiten von Studierenden gefördert werden, in relativ hohem Maße eigenständig zu arbeiten.
|
||
In jedem Kapitel wird auf einige aktuelle Trends verwiesen, die anhand der angegebenen Literatur vertieft werden können. Es wird überdeutlich, dass alle hier behandelten Methoden in vielfältiger Weise, und gewiss nicht zufällig, mit Methoden des Deep Learning kombiniert werden.
|
||
Abschließend sei noch angemerkt, dass die zur Verdeutlichung dargestellten exemplarischen Programme sich zum Teil auf sozialwissenschaftliche Fragestellungen beziehen; diese gewinnen freilich, insbesondere im Bereich der Agentenmodellierung und Robotik (z. B. Muhle, 2023; Schaffrath, 2023) immer mehr an Bedeutung. Beispielsweise basiert die Kooperation oder die Kommunikation zwischen Agenten oder Robotern u. a. auf „sozialen“ Regeln, die bislang nicht im erforderlichen Maße formal dargestellt werden konnten (Klüver et al., 2004). Somit können die in der Arbeit gezeigten Modelle als Anregung für die Lösung solcher Probleme dienen. Ein wesentlicher Grund dafür, dass wir auch sozial- und kognitionswissenschaftliche Fragestellungen als Beispiele wählten, liegt natürlich darin, dass wir selbst in diesen Gebieten in Forschung und Entwicklung arbeiten bzw. gearbeitet haben. Die hier behandelten Probleme sind Beispiele für Bereiche, in denen herkömmliche formale Methoden gewöhnlich nicht befriedigend anwendbar sind.
|
||
Dennoch haben wir uns selbstverständlich nicht nur auf sozial- und kognitionswissenschaftliche Beispiele beschränkt, sondern auch Anwendungen aus technischen und wirtschaftlichen sowie medizinischen Bereichen vorgestellt. Die damit verbundenen praktischen Probleme vor allem aus dem wirtschaftswissenschaftlichen Bereich haben für uns insbesondere in den letzten Jahren immer mehr an Bedeutung gewonnen (Klüver & Klüver, 2021, 2024). Dies Buch wendet sich an Interessierte aus verschiedenen Bereichen und die Relevanz dieser Methoden erkennt man natürlich am besten durch Beispiele aus der eigenen Praxis.
|
||
|
||
1 Einleitung
|
||
|
||
9
|
||
|
||
Von daher hoffen wir, dass unsere Beispiele nicht nur lehrreich sind, sondern auch etwas Vergnügen an den hier dargestellten Themen wecken können. Da wir außerdem feststellten, dass verschiedene in diesem Buch gezeigte Screenshots in Schwarz-Weiß doch etwas an Aussagekraft verlieren, verweisen wir auf die zusätzliche Möglichkeit, sich die Originale auf YouTube anzusehen.
|
||
Auf jeden Fall hoffen wir, dass Sie auch bei der Lektüre dieser Einführung in das spannende Gebiet naturanaloger Verfahren nicht nur Nutzen, sondern auch etwas Spaß haben. Fangen wir also an.
|
||
|
||
Bottom-up Modelle, komplexe Systeme und naturanaloge Verfahren
|
||
|
||
2
|
||
|
||
der KI und KL
|
||
|
||
Zusammenfassung
|
||
Wir haben bereits im Vorwort darauf hingewiesen, dass und warum wir den Begriff des „Soft Computing“ nicht mehr als allgemeinen Oberbegriff für die in diesem Buch dargestellten Techniken verwenden. Stattdessen bezeichnen wir die hier demonstrierten methodischen Verfahren mit den Begriffen der „Künstlichen Intelligenz“ (KI) und des „Künstlichen Lebens“ (KL). Gemeint sind damit, wie bemerkt, Methoden, die sich heuristisch an menschlichen Denkprozessen und biologischen Phänomenen orientieren und damit der zusammenfassenden Bezeichnung „naturanaloge Verfahren“ inhaltlich wesentlich näher kommen als es mit dem in mehrfacher Hinsicht missdeutbaren Begriff des Soft Computing möglich ist. Außerdem sind mit den Konzepten – und Träumen – der Realisierung künstlicher Lebewesen und insbesondere künstlicher Intelligenz traditionsreiche Vorstellungen verbunden, die viel älter sind als Computermodellierungen.
|
||
2.1 Bottom-up, Top-down und KI/KL
|
||
Die älteste uns bekannte Darstellung einer künstlichen Intelligenz und damit eines künstlichen menschlichen Lebewesens ist die aus der griechischen Antike überlieferte Geschichte von Pygmalion: Dieser war ein Bildhauer, der die Statue einer schönen menschlichen Frau schuf und sich in diese verliebte. Die Göttin der Liebe Aphrodite bzw. Venus in der lateinischen Überlieferung von Ovid erweckte die Statue zum Leben; Pygmalion und sein Geschöpf konnten dadurch glücklich zusammenleben und bekamen auch einen gemeinsamen Sohn. Die Geschichte hatte also ein Happy End, was in den zahlreichen
|
||
|
||
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2024
|
||
|
||
11
|
||
|
||
C. Klüver et al., Modellierung komplexer Prozesse durch naturanaloge Verfahren,
|
||
|
||
https://doi.org/10.1007/978-3-658-43408-3_2
|
||
|
||
12
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
literarischen Darstellungen der Erschaffung künstlicher Lebewesen – s. z. B. Frankensteins Monster – durchaus nicht selbstverständlich war.1
|
||
Sowohl in der Geschichte von Pygmalion als auch in den kaum noch zu übersehenden späteren literarischen Darstellungen von KI und KL geht es gewöhnlich um eine Einheit von künstlicher Intelligenz und künstlichem Leben – z. B. die Figur des Homunculus (kleiner Mensch) bei Goethe (Faust II) oder die intelligenten Roboter bei Isaac Asimov, um nur zwei der berühmtesten Beispiele zu nennen. Letztlich wurde also meistens die literarische Vorstellung künstlicher Menschen dargestellt und nur darin schienen die Konzeptionen von KI und KL einen Reiz zu machen. Dies änderte sich allerdings zu dem Zeitpunkt, als es durch die Entstehung der Computertechnik möglich erschien, insbesondere den Traum von künstlichen intelligenten Systemen tatsächlich zu realisieren. Bezeichnenderweise, nämlich charakteristisch für wissenschaftliches Vorgehen, geschah die entsprechende Entwicklung durch „Reduktion von Komplexität“, um dies mit dem theoretischen Soziologen Niklas Luhmann zu formulieren: Gesucht wurde vorerst nicht die vollständige Realisierung künstlicher intelligenter Lebewesen, also künstlicher Menschen, sondern auf der einen Seite ging es um die Konstruktion intelligenter Systeme ohne Bezug zu Lebewesen und auf der anderen Seite um die Entwicklung von Computerprogrammen, die Lebensprozesse simulieren. Dadurch entstanden die weitgehend voneinander unabhängigen Forschungsprogramme der KI und des KL.
|
||
Für die Entwicklung der KI als eigenständiger Forschungsrichtung wesentlich war insbesondere die Dartmouth Konferenz 1956 (vgl. dazu Gardner, 1989). Bei dieser Konferenz entstand vermutlich auch der Begriff der KI bzw. Artificial Intelligence, formuliert von dem Initiator der Tagung McCarthy. Dieser neue Begriff symbolisierte das Ziel, um das es seit den Anfängen der KI-Forschung geht, nämlich die vollständige mathematischtechnische Realisierung der Prozesse, die bei Menschen dessen Intelligenz ausmachen – unbeschadet der bereits erwähnten Tatsache, dass menschliche Intelligenz ein bei weitem nicht präzise definierter und umfassender Begriff ist. Entsprechend diesem Ziel wurden auch in dieser Zeit die ersten Algorithmen entwickelt wie z. B. neuronale Netze und Expertensysteme, die dies Ziel erreichen sollten. Dies freilich erwies sich, wie häufig in der Wissenschaftsgeschichte, als wesentlich schwieriger als in der Anfangseuphorie gehofft.
|
||
Der Begriff des Künstlichen Lebens (Artificial Life) entstand, soweit wir wissen, im Kontext des Santa Fé Institutes of Studies in the Sciences of Complexity (vgl. Langton, 1988; Langton et al., 1992). Ziel dieser Forschungsrichtung war (und ist) die Konstruktion von Computerprogrammen, die sich an den wesentlichen Prozessen der biologisch bekannten Lebensprozesse orientieren. Ähnlich wie es in den frühen Phasen der KI-Forschungen nicht nur um eine heuristische Orientierung an menschlichen Denkprozessen,
|
||
|
||
1 Berühmt geworden im 20. Jahrhundert sind die modernen Versionen von Pygmalion, insbesondere die gleichnamige Komödie von G.B.Shaw und deren Musicalversion „My fair lady“, verfilmt mit Audrey Hepburn und Rex Harrison.
|
||
|
||
2.1 Bottom-up, Top-down und KI/KL
|
||
|
||
13
|
||
|
||
sondern um deren vollständige Erfassung ging, sollten auch die Forschungen der KL Richtungen eine möglichst vollständige Simulation von Leben im Computer erreichen. Auch das war natürlich ein zumindest kurzfristig zu hoch gestecktes Ziel. Jedenfalls wurden hier die wesentlich früher entwickelten ersten KL-Algorithmen wie insbesondere Zellularautomaten und Genetische Algorithmen unter einem gemeinsamen Dach zusammengefasst.
|
||
Der Name des Santa Fé Instituts war und ist wesentlich für die gemeinsame theoretische Grundlage der in diesem Buch dargestellten Techniken, nämlich der Begriff der Komplexität bzw. der komplexen dynamischen Systeme. Es geht letztlich bei der Anwendung der Methoden der KI und des KL stets darum, dass der entsprechende Anwendungsbereich als komplexes System dargestellt werden muss, um dessen formale Modellierung es jeweils geht. Deswegen werden wir hier auch eine Einführung in den Bereich der komplexen dynamischen Systeme geben, durch die gezeigt werden soll, inwiefern die auf einen ersten Blick äußerst verschiedenen Methoden eine gemeinsame Grundlage haben und sozusagen als Variationen eines gleichen Themas verstanden werden können.
|
||
Die ungemeine Popularität, der sich insbesondere der Begriff der KI gegenwärtig erfreut, hat ihren Hauptgrund natürlich darin, dass KI und KL heute vor allem in Bezug auf praktische Anwendungen wichtig geworden sind. In der Robotik beispielsweise werden gegenwärtig sowohl die technische Praxis, nämlich das Ziel „autonomer“ und „intelligenter“ Roboter sehr ernsthaft verfolgt als auch der alte Traum von künstlichen Menschen. Auch wenn sich häufig entsprechende Verlautbarungen eher wie Science Fiction anhören, üben die tatsächlichen heute erkennbaren Anwendungsmöglichkeiten fraglos eine hohe nicht nur wissenschaftliche Faszination aus.
|
||
Der Begriff des Soft Computing ist gegenüber den Charakterisierungen der hier dargestellten Methoden als Techniken von KI und KL eher ein ziemlich unglücklicher Begriff, der sich auch nicht überall durchsetzen konnte. Verwendet wurde der Begriff des Soft Computing zuerst von dem Mathematiker Zadeh (1994), dem Begründer der Theorie „unscharfer Mengen“ (fuzzy set theory) (siehe unten Kap. 6)2. Zadeh verstand unter Soft Computing primär die Kombination von Fuzzy-Logik, einer auf der Fuzzy-Mengenlehre basierenden unscharfen Logik, mit neuronalen Netzen, die als wichtigste Repräsentanten der sogenannten subsymbolischen oder auch konnektionistischen Ansätze zur Erforschung von Künstlicher Intelligenz gelten. Die Kombinationen beider formalen Techniken zusammen bilden die sogenannten Neuro-Fuzzy-Methoden (u. a. Bothe, 1998; Talpur et al., 2023 für Deep Neuro-Fuzzy Systems). Das sei jedoch hier nur der wissenschaftshistorischen Vollständigkeit halber erwähnt.
|
||
Zusätzlich ist wegen einer begrifflichen Vollständigkeit darauf hinzuweisen, dass die in diesem Buch vorgestellten Techniken auch (immer noch) unter Begriffen wie Com-
|
||
|
||
2 Zadeh hat bereits vor mehr als 55 Jahren Fuzzy-Algorithmen entwickelt, deren Einsatz zunächst für Expertensysteme vorgesehen war (u. a. Zadeh, 1968).
|
||
|
||
14
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
putational Intelligence oder auch Organic Computing abgehandelt werden. In diesen Bereichen geht es ebenfalls darum, mathematische Modelle, die sich an natürlichen Prozessen orientieren, für die Informatik fruchtbar zu machen. Unter Computational Intelligence werden primär Techniken verstanden wie Neuronale Netze, Genetisches Programmieren, Swarm Intelligence und Fuzzy-Systeme (u. a. Engelbrecht, 2002; Bhateja et al., 2023). Im Zusammenhang mit Organic Computing werden selbstorganisierende Systeme untersucht, daher werden primär Neuronale Netze, Evolutionäre Algorithmen sowie Zellularautomaten behandelt (Müller-Schloer et al., 2004)3. Darüber hinaus werden unter dem Begriff Neuromorphic Computing (Mehonic & Eshraghian, 2023) insbesondere spezielle neuronale Netze (sog. Spiking Neural Networks) eingesetzt (Schuman et al., 2022; Rathi et al., 2023), um auf der Hardwareebene eine Alternative zu den von Neumann Computern zu konstruieren, die sich am (menschlichen) Gehirn orientiert, und um diese zu trainieren.
|
||
Von allen diesen z. T. relativ randständigen Begriffen sind jedoch die Bezeichnungen der KI und des KL fraglos sowohl die mittlerweile traditionsreichsten als auch die am weitesten verbreiteten. Wir werden deshalb nur noch diese Begriffe verwenden, um die hier thematisierten Techniken zusammenfassend zu charakterisieren. Es ist nebenbei bemerkt auch nicht so recht zu verstehen, was die Einführung immer neuer Begriffe für Forschung und Anwendung eigentlich bringen soll und kann, von dem Problem einer zuweilen schon babylonischen Begriffsverwirrung gar nicht zu reden.
|
||
Freilich darf hier kein Missverständnis in Bezug auf die kaum präzise zu definierenden Begriffe „Intelligenz“ und „Leben“ entstehen. Bei den formalen Methoden, die Gegenstand dieses Buches sind, handelt es sich um Erweiterungen klassischer Verfahren der Mathematik und Informatik, nicht etwa um etwas gänzlich anderes. Eine „unscharfe“ Mengenlehre ist mathematisch genauso exakt, wie die klassische „scharfe“ Mengenlehre und lernende bzw. adaptive Systeme wie neuronale Netze und genetische Algorithmen operieren mit ebenso eindeutigen (häufig sogar deterministischen) Algorithmen wie es z. B. bei Suchalgorithmen für Datenbanken der Fall ist. Von daher muss immer wieder betont werden, dass es sich hier um einen Wissenschaftsbereich handelt, der eindeutig zu den Wissenschaften gehört, die vor allem mit mathematischen Methoden arbeiten.4 Nebenbei bemerkt, die Tatsache, dass es mit diesen Techniken möglich ist, mathematisch Probleme aus den Sozial- und Kognitionswissenschaften zu behandeln, also Bereiche, die häufig als „weiche“ Wissenschaften bezeichnet werden, gab der Bezeichnung „Soft Computing“ einen gewissen inhaltlichen Sinn.
|
||
|
||
3 Aktuelle Entwicklungen finden sich z. B. in Raj (2019), Bhatti et al. (2023), Kisselbach et al. (2022) und Qosja et al. (2023). 4 Aufgrund unserer Lehrerfahrungen ist uns bewusst, dass diese neuen Möglichkeiten häufig bei Studierenden ein gewisses Umdenken verlangen, da die Logik dieser „soft“ Algorithmen nicht unbedingt dem entspricht, was man normalerweise von Computerprogrammen erwartet. Ihr Kern ist jedoch letztlich Mathematik und nichts sonst.
|
||
|
||
2.1 Bottom-up, Top-down und KI/KL
|
||
|
||
15
|
||
|
||
Der Grund dafür, dass der Bereich der KI- und KL-Methoden für ganz unterschiedliche Wissenschaften und Anwendungsbereiche immer wichtiger wird, liegt u. E. genau in der Tatsache, dass man damit erfolgreich versucht, reale Prozesse, d. h. komplexe Systeme mit ihren jeweiligen intuitiv kaum nachvollziehbaren Problemen, möglichst exakt abzubilden (San Miguel, 2023). Die kognitiven Fähigkeiten von Menschen z. B., in ganzheitlichen Mustern und assoziativ zu denken, unvollständige Informationen zu vervollständigen und Gemeinsamkeiten verschiedener Situationen zu erfassen, können zumindest prinzipiell durch neuronale Netze sehr gut modelliert und praktisch verwendet werden; traditionelle Verfahren sind demgegenüber weit weniger effektiv.
|
||
Die adaptiven Fähigkeiten biologischer und sozialer Systeme, die sowohl biologischen Gattungen als auch ganzen Gesellschaften es immer wieder ermöglicht haben, unvorhergesehene Umweltanforderungen zu bewältigen, sind mathematisch hervorragend durch genetische Algorithmen und andere evolutionäre Algorithmen darzustellen, experimentell zu untersuchen und praktisch anzuwenden. Entsprechend bilden zelluläre Automaten eine sehr anschauliche Möglichkeit, die Nichtlinearität selbstorganisierender Prozesse bei lebenden Systemen und in der sozialen Realität zu studieren. Unter anderem sind etwa soziale Organisationen sowohl in ihrer Logik der Selbstorganisation als auch in ihren adaptiven Verhaltensweisen weitere Beispiele dafür, dass man diese formalen Techniken praktisch unbegrenzt einsetzen kann.
|
||
Die für alle der hier dargestellten Methoden gemeinsame Modellierungstechnik ist, wie bereits bemerkt, die Darstellung des jeweiligen Problembereichs als komplexes dynamisches System; charakteristisch für den entsprechenden Einsatz von KI und Kl basierten Modellen ist dabei ihre Verwendung als sogenannte bottom-up Modelle. Natürlich ist es auch möglich, diese Techniken als sogenannte top-down Modelle zu verwenden, was in unseren Arbeiten mehrfach geschehen ist (Stoica, 2000; Klüver, 2000). Die eigentliche Stärke dieser formalen Modelle jedoch liegt – neben ihrer prinzipiellen Einfachheit und Kombinierbarkeit mit verschiedenen Techniken – in den Möglichkeiten, bottom-up Modelle durch sie verhältnismäßig einfach und realitätsadäquat zu konstruieren. Die prinzipiellen Differenzen zwischen bottom-up und top-down Ansätzen lassen sich besonders illustrativ an einem bekannten Beispiel verdeutlichen, nämlich der mathematischen Analyse von Räuber-Beute-Systemen.
|
||
Eine längst klassische top-down Modellierung beruht auf den berühmten Differentialgleichungen von Lotka und Volterra
|
||
|
||
∂x = ax − bx2 − cxy ∂t
|
||
|
||
(2.1)
|
||
|
||
∂y = −ey + cxy,
|
||
∂t
|
||
wenn x und y jeweils die „Dichte“ der Beute- und Räuberpopulation ausdrücken. Die diesen Gleichungen zugrunde liegenden Annahmen sind dabei, dass ohne Räuber das Wachstum der Beute der bekannten logistischen Wachstumsgleichung folgt
|
||
|
||
16
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
∂x = ax − bx2
|
||
|
||
(2.2)
|
||
|
||
∂t
|
||
|
||
und dass die Rate, mit der die Beute gefressen wird, proportional dem Produkt der Dichte von jeweils Räuber und Beute ist (vgl. Maynard Smith, 1974). Modelliert wird mit diesen Gleichungen, die auch die mathematische Grundlage für zahlreiche einschlägige Simulationsprogramme sind, offenbar das „globale“ Verhalten des RäuberBeute-Systems, also die Gesamtentwicklung der beiden Populationen, ohne Berücksichtigung des Verhaltens einzelner Tiere – sei es Räuber oder Beute. Dies wird sozusagen aggregiert, indem es als statistisch erfassbares Durchschnittsverhalten in die jeweilige Dichte der Populationen eingeht und so „top down“ das Gesamtverhalten des Systems generiert.
|
||
Ganz anders sieht ein bottom-up Modell des gleichen Ökosystems aus, das auf der Basis eines KL-Modells, in diesem Fall eines Zellularautomaten, konstruiert wird und das für didaktische Zwecke von uns entwickelt worden ist. Man geht hier, wie bei allen Zellularautomaten (siehe Kap. 3), von einzelnen Zellen aus, die in verschiedenen Zuständen sein können und deren Zustände darstellen, ob es sich um Räuber oder Beute handelt. Zusätzlich symbolisieren die Zustände das biologische Alter sowie Geschlecht und das Maß des individuellen Hungers. Wesentlich sind hier auch räumliche Aspekte: Die Zellen haben nur eine gewisse „Einsicht“ in ihre Umgebung. So könnte ein Räuber z. B. durchaus überleben, wenn er „sehen“ könnte, dass sich eine Beute in einer bestimmten Entfernung befindet. Die Regeln dieses Zellularautomaten lauten u. a. folgendermaßen:
|
||
IF ein Räuber ist hungrig und IF eine Beute ist in der lokalen Umgebung, THEN der Räuber frisst die Beute. Oder: IF ein Räuber ist im maximalen Hungerzustand und IF keine Beute ist in der lokalen Umgebung, THEN der Räuber stirbt. Und schließlich, als letztes Beispiel: IF ein Räuber ist männlich und IF ein weiblicher Räuber ist in der lokalen Umgebung und IF eine „leere“ Zelle ist in der lokalen Umgebung, THEN ein neuer Räuber wird generiert mit biologischem Mindestalter.5
|
||
Das auf den ersten Blick Erstaunliche ist, dass mit diesem bottom-up Modell ein globales Gesamtverhalten des Systems erzeugt wird, das dem Verhalten äußerst ähnlich ist, das in Simulationen mit den Lotka-Volterra Gleichungen generiert werden kann. Zur Illustration werden zwei Zustände sowie eine typische Verlaufskurve des Räuber-BeuteSystems dargestellt (Abb. 2.1, 2.2, 2.3 und 2.4):
|
||
|
||
5 Nach den bekannten Kinderliedern über Füchse, die Gänse fressen, haben wir dies Programm FUXGANS genannt.
|
||
|
||
2.1 Bottom-up, Top-down und KI/KL
|
||
|
||
17
|
||
|
||
Abb. 2.1 Zustände nach 100 Schritten; rote Zellen sind Räuber („Füchse“), schwarze Zellen sind Beute („Gänse“); Anfangszustand: 100 Füchse, 300 Gänse
|
||
|
||
Abb. 2.2 Zustände nach 500 Schritten; rote Zellen sind Räuber („Füchse“), schwarze Zellen sind Beute („Gänse“)
|
||
|
||
18
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
Abb. 2.3 Verlaufskurve des Systems nach 100 Schritten mit gleichen Anfangszuständen wie in Abb. 2.1. Es sei darauf hingewiesen, dass Räuber und Beute nicht in gleichen Größenmaßen abgebildet werden. Räuber und Beute werden im Verhältnis ≈1:4 dargestellt
|
||
|
||
Abb. 2.4 Verlaufskurve des Systems nach 500 Schritten mit gleichen Anfangszuständen
|
||
|
||
2.1 Bottom-up, Top-down und KI/KL
|
||
|
||
19
|
||
|
||
Man kann sehr gut erkennen, wie sich hier die aus der Literatur bekannten annähernd sinusförmigen „Schwingungen“ als Verlaufskurven ergeben. Allerdings handelt es sich dabei ausschließlich um „emergente“ Systemeffekte, die sich aus den lokalen Regeln der obigen Art ergeben. Modelliert wird bei diesem bottom up Modell also damit, wie und inwiefern die aus der top down Analyse bekannten Systemeffekte überhaupt entstehen.
|
||
Verallgemeinert kann man Systeme, die durch bottom-up Modelle dargestellt werden können – und z. T. auch müssen – folgendermaßen charakterisieren:
|
||
„Such systems contain no rules for the behavior of the population at the global level, and the often complex, high-level dynamics and structures observed are emergent properties which develop over time from out of all the local interactions among low-level primitives. ... These emergent structures play a vital role in organizing the behavior of the lowest-level entities by establishing the context which those entities invoke by their local rules and, as consequence, these structures may evolve in time.“ (Langton, 1988, XXVII)
|
||
Bottom-up Modelle bieten sich demnach insbesondere für die Bearbeitung von Problemen an, in denen es um konkrete Interaktionen zwischen Elementen geht, die durch lokale Regeln determiniert werden (u. a. Müller-Schloer et al., 2004; Klüver, 2000; Landes & Steiner, 2023; González, 2023). Die Elemente können unterschiedlich definiert werden, z. B. als ökonomische oder soziale Akteure, wenn es um soziale oder wirtschaftswissenschaftliche Fragestellungen geht; ebenso kann diese Modellierungstechnik auf Systeme lernender oder mobiler Agenten angewandt werden, oder auch generell für Analysen naturwissenschaftlicher Phänomene, die sich auf lokale Wechselwirkungen beziehen sowie auf die formale Darstellung technischer Systeme.
|
||
Insbesondere in den Sozial- und Kognitionswissenschaften ist es häufig gar nicht anders möglich als soziale und kognitive Prozesse in bottom-up Modellen darzustellen, falls man die Komplexität dieser Prozesse angemessen und präzise analysieren will (z. B. Kampakis, 2023; Elman, 2001; Klüver, 1995). Soziales Verhalten lässt sich nur in sehr einfachen Fällen in Form statistischer Aggregierungen darstellen, wie es vor allem in der empirischen Umfrageforschung geschieht. Komplexere soziale Prozesse wie Gruppenbildungen oder das Entstehen von Institutionen folgen generell keiner einfachen allgemeinen Logik, sondern orientieren sich an spezifischen Regeln, die gewöhnlich nur lokal zu analysieren sind und die auch meistens nur lokal wirken. Dies gilt streng genommen auch für die Bereiche ökonomischen Handelns, etwa das Handeln in und für einzelne Betriebe.
|
||
Entsprechend sind kognitive Prozesse letztlich nur dadurch präzise zu verstehen, dass sie als lokale Wechselwirkungen zwischen „kognitiven Einheiten“ aufzufassen sind – seien dies biologische Neuronen oder Begriffe in der Struktur semantischer Netze. Der in der Informatik in der letzten Zeit sehr prominent gewordene Begriff der Agentensysteme bzw. Multiagentensysteme (MAS) zeigt, dass auch hier die Vorteile von bottom-up Modellierungen erkannt worden sind, die sich auf unterschiedliche Probleme anwenden lassen und häufig Orientierungen aus sozialen Kontexten folgen.
|
||
|
||
20
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
In einem theoretischen Sinne bilden die bottom-up Modellierungen durch KI- und KL-Techniken also bestimmte Realitätsbereiche ab, die formal als „komplexe dynamische Systeme“ mit lokalen Wechselwirkungen definiert werden. Da dies eine fundamental gemeinsame Ebene dieser Modellierungen ist, sollen als theoretische Grundlage einige wichtige Begriffe der Theorie komplexer Systeme erläutert werden.
|
||
|
||
2.2 Dynamiken komplexer Systeme
|
||
Aus dem obigen Zitat von Langton geht bereits hervor, dass bei Systemen, deren Dynamik aus den lokalen Wechselwirkungen zwischen den Elementen generiert wird, nicht das Gesamtverhalten des Systems zum Ausgangspunkt genommen wird – wie bei dem klassischen top-down Ansatz –, sondern die Ebene der einzelnen Elemente und ihre Wechselwirkungen bzw. Interaktionen mit jeweils anderen Elementen; das Verhalten des Gesamtsystems, d. h., seine Dynamik, ergibt sich bei diesem Ansatz als „emergentes“ Resultat aus den streng lokal definierten Wechselwirkungen zwischen den einzelnen Elementen.6
|
||
Da der Begriff „System“ nicht immer einheitlich definiert wird, greifen wir hier auf die klassische Systemdefinition von v. Bertalanffy (1951), dem Begründer der modernen Systemtheorie, zurück:
|
||
„Wir definieren ein ‚System‘ als eine Anzahl von in Wechselwirkungen stehenden Elementen p1, p2 ... pn charakterisiert durch quantitative Maße Q1, Q2 ... Qn. Ein solches kann durch ein beliebiges System von Gleichungen bestimmt sein.“ (v. Bertalanffy, 1951, S. 115)
|
||
Diese Definition kann entsprechend erweitert werden, sodass unterschiedliche Gegenstandsbereiche methodisch als Systeme definiert werden können, die aus Elementen und Wechselwirkungen zwischen diesen bestehen. Analog können auch die „Elemente“ verschiedenartig bestimmt werden, wie in den Modellen und Beispielen in den folgenden Kapiteln dargestellt wird.
|
||
Die Dynamik eines derartigen Systems ergibt sich wie folgt: Die Elemente befinden sich zum Zeitpunkt t in bestimmten Zuständen. Die Wechselwirkungen bedeuten in diesem Fall, dass gemäß bestimmten lokalen Regeln die Zustände der Elemente, in denen sie sich zum Zeitpunkt t befinden, geändert werden (oder konstant bleiben). Die Gesamtheit der Zustände, in denen sich die Elemente zum Zeitpunkt t befinden, kann als der
|
||
|
||
6 „Emergent“ heißt wörtlich „auftauchend“. Gemeint ist also ein Ergebnis, das sich aus den lokalen Wechselwirkungen so ergibt, wie ein Taucher unvermutet aus der Tiefe an der Oberfläche des Wassers erscheint.
|
||
|
||
2.2 Dynamiken komplexer Systeme
|
||
|
||
21
|
||
|
||
(Gesamt)Zustand Zt des Systems definiert werden; es ist dabei natürlich eine Frage des Forschungsinteresses, wie dieser Gesamtzustand jeweils berechnet wird. Die Regeln der
|
||
Wechselwirkung generieren die Trajektorie des Systems im Zustandsraum, d. h. eine Ab-
|
||
bildung des Zustands Zt auf den Zustand Zt+1 und durch rekursive Iterationen der Abbildungen alle weiteren Zustände. Nennen wir die Gesamtheit aller Regeln der lokalen Wechselwirkung f und die n-fache Iteration f n, dann gilt
|
||
|
||
f n(Z1) = Zn+1
|
||
|
||
(2.3)
|
||
|
||
Ein Punktattraktor Za der Trajektorie lässt sich jetzt definieren als
|
||
|
||
f n(Za) = Za
|
||
|
||
(2.4)
|
||
|
||
für beliebige n; Punktattraktoren werden auch als Attraktoren mit der Periode k = 1 bezeichnet. Anschaulich gesprochen sind Punktattraktoren also Zustände, die sich nicht mehr ändern, obwohl die Regeln der Wechselwirkungen weiter in Kraft sind.
|
||
Entsprechend lassen sich Attraktoren mit Perioden k > 1 definieren: Sei K eine Menge der Mächtigkeit k, d. h., K = {1, 2, …, k} und i ∈ K. Dann gilt für jedes i
|
||
|
||
f k(Zi) = Zi.
|
||
|
||
(2.5)
|
||
|
||
Durch die Periode der Länge k wird demnach ein Segment im Zustandsraum bestimmt, d. h. ein zyklischer Teil der Gesamttrajektorie; Periode k bedeutet also einfach, dass ein Zustand Zi im Attraktor nach k Schritten wieder erreicht wird. Der Teil der Trajektorie vor Erreichen eines Attraktors ist die Vorperiode (des Attraktors).
|
||
Zur Illustration folgt eine Trajektorie des obigen Räuber-Beute Systems; die x-Achse repräsentiert die Anzahl der Füchse, die y-Achse die Anzahl der Gänse (Abb. 2.5 und 2.6):
|
||
Punktattraktoren und Attraktoren mit endlichen Perioden werden auch als einfache Attraktoren bezeichnet. In der Chaosforschung und allgemein der Theorie komplexer Systeme spielen auch noch so genannte seltsame Attraktoren (strange attractors) eine wichtige Rolle. Seltsame Attraktoren sind Segmente im Zustandsraum, die nach Erreichen vom System nicht mehr verlassen werden. Innerhalb eines seltsamen Attraktors jedoch verläuft die Trajektorie z. T. scheinbar sprunghaft und gewöhnlich nur sehr schwer zu prognostizieren. Systeme, die entweder gar keinen Attraktor erreichen oder nur seltsame Attraktoren, nennt man chaotische Systeme. Insbesondere sind chaotische Systeme sehr sensitiv gegenüber unterschiedlichen Anfangszuständen: Verschiedene Anfangszustände generieren immer unterschiedliche Trajektorien, was bei nicht chaotischen Systemen häufig nicht der Fall ist (Bar-Yam, 1997). Hier muss allerdings darauf verwiesen werden, dass endliche deterministische Systeme immer periodisch sind – das sogenannte Theorem der ewigen Wiederkehr, das zu Beginn des letzten Jahrhunderts von dem Mathematiker und Physiker Poincaré entdeckt wurde. Deswegen können endliche deterministische (siehe unten) Systeme streng genommen nur als „quasi chaotisch“ bezeichnet werden.
|
||
|
||
22
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
Abb. 2.5 Die Trajektorie des Räuber-Beute-Modells
|
||
Abb. 2.6 Die Trajektorie des gleichen Räuber-Beute-Modells: Hier wird die diskrete Zustandsfolge dargestellt, wobei jeder Punkt auf der Kurve einen Zustand repräsentiert. Man sieht, wie sich die Trajektorie in einem Attraktorsegment des Zustandsraums regelrecht zusammenzieht. Natürlich ist dies nur ein zweidimensionaler Ausschnitt aus dem gesamten Zustandsraum. Dessen Dimensionszahl ist wesentlich größer und kann deswegen nicht visualisiert werden
|
||
|
||
2.2 Dynamiken komplexer Systeme
|
||
|
||
23
|
||
|
||
Häufig führen bei derartigen Systemen nun unterschiedliche Anfangszustände auf den gleichen Attraktor, was man mit verschiedenen Bergquellen vergleichen kann, die in den gleichen See münden.
|
||
Alle Anfangszustände, die entweder direkt oder über eine weitere Folge von Zuständen (als Transienten bezeichnet) in einen Punktattraktor oder einen zyklischen Attraktor führen, bilden zusammen mit den Transienten und dem Attraktor das Attraktionsbecken (basin of attraction, Wuensche, 1997, S. 13); in diesen Fällen gibt es mindestens einen Anfangszustand, der von keinem anderen Zustand aus erreicht werden kann (sog. Garden of Eden state), also nur von außen eingegeben werden kann. Das Attraktionsbecken kann aber auch nur aus einem zyklischen Attraktor bestehen (der Punktattraktor gilt auch als zyklischer Attraktor mit der Periode 1).
|
||
Die folgende Zeichnung, die von Kauffman (1995) inspiriert wurde, illustriert diesen Gedanken (Abb. 2.7):
|
||
Die Menge aller Attraktionsbecken eines Systems ist das Feld der Attraktionsbecken (basins of attraction field) (Kauffman, 1995; Wuensche & Lesser, 1992). In einem Extremfall kann das Feld der Attraktionsbecken aus einem einzigen Attraktionsbecken bestehen, d. h., alle Anfangszustände erreichen den gleichen Attraktor; der extreme Fall unter diesen wäre ein Attraktionsbecken, das nur besteht aus einen Garden Eden Zustand
|
||
|
||
Abb. 2.7 Drei Bäche münden in den gleichen See. Bildliche Veranschaulichung eines Attraktorbeckens: die Quellen symbolisieren Anfangszustände, die Bäche Transienten und der See den Attraktor7
|
||
7 Die Zeichnung verdanken wir Magdalena Stoica.
|
||
|
||
24
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
mit einer Transienten, die in einem Punktattraktor endet; das Attraktionsbecken umfasst dann alle möglichen 2N Zustände des Systems.
|
||
In einem anderen Extremfall besteht das Feld der Attraktionsbecken aus allen möglichen Anfangszuständen (Garden Eden Zuständen), wobei jeder unterschiedliche Anfangszustand in einen speziellen Attraktor mündet, der von keinem anderen Anfangszustand erreicht wird. Ein dritter Extremfall wäre ein Feld der Attraktionsbecken, das nur aus N gleichen oder verschiedenen N ∈ 1, 2, . . . , 2N zyklischen Attraktoren, ohne Transienten oder Garden Eden Zuständen besteht.
|
||
Auf der Basis dieser Definitionen ist es nun auch möglich, pragmatisch brauchbare Definitionen der Komplexität eines dynamischen Systems zu gewinnen. Es gibt vermutlich kaum einen Begriff, der so unterschiedlich und z. T. äußerst vage definiert wird wie der der Komplexität; der amerikanische Physiker Lloyd hat bereits Mitte der neunziger Jahre 31 verschiedene Definitionen ermittelt (vgl. Horgan, 1995) In der Informatik wichtig ist neben den hier behandelten Begriffen insbesondere der der algorithmischen Komplexität, die jedoch nicht weiter betrachtet werden muss (vgl. z. B. Gell-Mann, 1994). Für die hier interessierenden Forschungs- und Anwendungszwecke jedoch genügt es häufig, Komplexität zum einen über die Menge der möglichen Zustände zu definieren, die ein System prinzipiell, d. h. bei unterschiedlichen Anfangszuständen, erreichen kann, und zum anderen über die Informationskapazität, die ein System verarbeiten kann. Man kann zeigen, dass diese beiden Definitionen trotz ihrer Unterschiedlichkeit sehr eng zusammengehören (vgl. Klüver, 2000):
|
||
Wolfram (2002) hat den Begriff der Komplexitätsklassen8 speziell für Zellularautomaten (ZA) eingeführt, der grob Folgendes besagt: Dynamische Systeme können in vier Grundklassen eingeteilt werden, die sogenannten Komplexitäts- oder auch Wolframklassen. Bekannt sind diverse Regeln, mit denen eindimensionale binäre ZA die beschriebenen Klassen generieren, die hier nicht näher behandelt werden.
|
||
Klasse 1 enthält Systeme, deren Trajektorien sehr einfach sind, d. h., die relativ schnell Punktattraktoren erreichen. Ihre Attraktionsbecken sind sehr groß, d. h., viele unterschiedliche Anfangszustände generieren den gleichen Attraktor (Abb. 2.8; vgl. Schmidt, 2015; Argun et al., 2021; Vispoel et al., 2022; Terry-Jack & O’Keefe, 2023).
|
||
Klasse 2 hat immer noch relativ große Attraktionsbecken, ist jedoch bereits sensitiver gegenüber Anfangszuständen. Es werden sowohl Punktattraktoren als auch Attraktoren mit Periodenlänge k > 1 erreicht (Abb. 2.9).
|
||
Klasse 3 ist die Klasse der quasi-chaotischen Systeme mit extrem hoher Sensitivität gegenüber Anfangszuständen und der Generierung von seltsamen Attraktoren (Abb. 2.10).
|
||
Klasse 4 schließlich ist die eigentlich wichtige Komplexitätsklasse, da hier sowohl einfache Attraktoren erzeugt werden, die z. T. nur lokal, d. h. nicht im ganzen System, erreicht werden, als auch eine hohe Sensitivität gegenüber Anfangszuständen zu ver-
|
||
|
||
8 Variationen zu den Komplexitätsklassen nach Wolfram finden sich in Vispoel et al. (2022).
|
||
|
||
2.2 Dynamiken komplexer Systeme
|
||
|
||
25
|
||
|
||
Abb. 2.8 Komplexitätsklasse 1 (Terry-Jack & O’Keefe, 2023, 8)
|
||
|
||
Abb. 2.9 Klasse 2 (Terry-Jack & O’Keefe, 2023, 8)
|
||
Abb. 2.10 Beispiele für Klasse 3 (Terry-Jack & O’Keefe, 2023, 8) zeichnen ist: Die Attraktionsbecken sind häufig ziemlich klein und bestehen zuweilen aus nur einem Anfangszustand (Abb. 2.11).
|
||
Man kann verhältnismäßig einfach zeigen, dass die Wolframklassen komplexe Systeme sowohl nach der einen Definition (Menge der möglichen Zustände) als auch nach der anderen (Kapazität der Informationsverarbeitung) gleichartig einteilen: Klasse 1 ist
|
||
|
||
26
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
Abb. 2.11 Beispiele für Klasse 4 (Terry-Jack & O’Keefe, 2023, 8)
|
||
die am wenigsten komplexe, dann folgen Klasse 2 und 3 und schließlich enthält Klasse 4 die „eigentlich“ komplexen Systeme. Es ist einsichtig, dass z. B. Systeme der Klassen 1 und 2 aufgrund der relativ großen Attraktionsbecken oftmals nur relativ wenig verschiedene Attraktorzustände generieren, da die Unterschiedlichkeit der Anfangszustände sozusagen durch die gleichen Attraktoren wieder verschwindet.
|
||
Entsprechend gering ist die Kapazität der Informationsverarbeitung: Wenn man die Information, die ein System erhält, als einen spezifischen Anfangszustand definiert – oder als Kombination von Anfangszuständen und zusätzlichen Eingaben in das System –, dann geht ein Teil dieser Information wieder durch große Attraktionsbecken verloren; das System verarbeitet unterschiedliche Informationen so, dass es stets gleiche Ergebnisse erhält (bei gemeinsamen Attraktionsbecken für unterschiedliche Informationen). In Kap. 5 wird gezeigt, dass damit auch die Fähigkeit neuronaler Netze erklärt werden kann, einmal gelernte Muster auch dann wieder zu erkennen, wenn sie „gestört“ eingegeben werden, also unvollständig oder fehlerhaft. Entsprechend höher ist die Komplexität von Systemen der Klasse 4 aus entsprechenden Gründen, nämlich ihren häufig nur kleinen Attraktionsbecken und z. T. nur lokal wirksamen Attraktoren.
|
||
Dass die quasi-chaotischen Systeme der Klasse 3 nicht zu den „wirklich“ komplexen Systemen gerechnet werden, hat seinen Grund darin, dass ihre Trajektorien in einem seltsamen Attraktor Zustandsfolgen bilden, die von Zufallsfolgen häufig kaum zu unterscheiden sind. Dies bedeutet, dass man hier nicht mehr von Ordnung sprechen kann und dass eingegebene Informationen praktisch verloren gehen: Die Systeme stabilisieren sich nicht und jede neue Information stört das System, führt aber zu keinem erkennbaren Ergebnis. Nur die Systeme der Klasse 4, die einem schönen Bild folgend „am Rande des Chaos“ ihre Dynamik entfalten, bilden lokale Ordnungsstrukturen – Attraktoren – und realisieren sehr viele verschiedene Zustände (Kauffmann, 1995; Langton, 1992).
|
||
Bei der Definition von Regeln lokaler Wechselwirkung muss man grundsätzlich zwischen zwei verschiedene Regeltypen unterscheiden. Zum einen gibt es Regeln, die generell gelten, d. h., sie treten jedes Mal in Kraft, wenn die Bedingungen dafür gegeben sind. Damit ist jedoch noch nichts darüber gesagt, ob und wie häufig sie wirksam wer-
|
||
|
||
2.2 Dynamiken komplexer Systeme
|
||
|
||
27
|
||
|
||
den, da dies vor allem davon abhängt, ob bestimmte Elemente des Systems überhaupt miteinander in Wechselwirkung treten können. Ob dies geschieht, ist eine Frage der Topologie bzw. der Geometrie des Systems, die darüber entscheidet, wer mit wem interagiert (Klüver & Schmidt, 1999; Cohen et al., 2000; Klüver et al., 2003; Klüver, 2004). Im Fall physikalischer oder biologischer Systeme ist dies häufig eine Frage des physikalischen Raumes wie z. B. bei Räubern und Beutetieren; ob ein Räuber eine Beute fängt, hängt maßgeblich davon ab, in welcher Entfernung sich Räuber und Beute befinden.
|
||
Im Falle sozialer und kognitiver Systeme muss dies durch „topologische“ Regeln festgelegt werden, die damit eine spezielle – soziale oder kognitive – Geometrie charakterisieren (Klüver, 2000). Ein Arbeiter z. B. in einem globalen Konzern kann gewöhnlich nicht mit dem Vorstandsvorsitzenden direkt interagieren, sondern nur indirekt, d. h. durch eine Kette von Verbindungspersonen. Es sei nur angemerkt, dass diese Definition der Geometrie eines Systems weitgehend dem entspricht, was in der sogenannten allgemeinen Systemtheorie als „Struktur“ in einem gewöhnlich statischen Sinne bezeichnet wird (vgl. z. B. für die Analyse sozialer Netzwerke, Freeman, 1989); erst in neueren Arbeiten wird berücksichtigt, dass diese auch Einflüsse auf die Dynamik von Netzwerken hat (San Miguel, 2023; vgl. z. B. für soziale Netzwerke Bonneuil, 2000; Klüver & Schmidt, 1999; für „social media“ z. B. Alvarez-Rodriguez et al., 2021; Li et al., 2021).9
|
||
Als ergänzender Hinweis muss noch erwähnt werden, dass große Systeme, d. h. Systeme mit sehr vielen Elementen, auch „lokale“ Attraktoren bilden können. Damit ist gemeint, dass ein derartiges System, das durch eine hohe Komplexitätsklasse charakterisiert wird, mehrere Attraktoren gewissermaßen parallel erreichen kann. Insbesondere ist es möglich, dass das System insgesamt keinen globalen Attraktor ausbildet, also sich nicht stabilisiert, sondern lokal Punktattraktoren erreicht, während sozusagen um die lokalen Attraktoren ständige Veränderungen in Form von Attraktoren mit langen Perioden oder sogar seltsamen Attraktoren geschehen. Kauffman (1995), der u. a. derartige Systeme in Form von Booleschen Netzen (siehe unten) untersucht hat, bezeichnet diese lokalen Attraktoren als „Inseln im Chaos“.
|
||
Formal kann ein lokaler Attraktor folgendermaßen definiert werden: Gegeben sei ein System S. Sei nun f die Gesamtheit der Regeln lokaler Wechselwirkungen, Z(S) ein Zustand von S und A der Zustand einer echten Teilmenge S′ von S zum gleichen Zeitpunkt.
|
||
Dann ist A ein lokaler Punktattraktor, wenn für eine gewisse Zahl von Schritten10 gilt:
|
||
f (A) = A und
|
||
|
||
9 Generelle und topologische Regeln müssen nicht eindeutig sein, d. h., sie können den Elementen „individuelle“ Freiheitsräume lassen. Dies wird in den Beispielen der folgenden Kapitel häufig eine Rolle spielen. 10 Lokale Attraktoren existieren in den genannten Systemklassen meist nur eine begrenzte Zahl von Schritten.
|
||
|
||
28
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
S′ ⊂ S sowie
|
||
|
||
f (Z(S)) = Z(S).
|
||
|
||
(2.6)
|
||
|
||
Entsprechend wird ein lokaler Attraktor der Periode k > 1 definiert. Ein derart komplexes Verhalten ist allerdings nur bei Systemen in der 3. bzw. 4.
|
||
Komplexitätsklasse möglich. Es sei hier nur darauf hingewiesen, dass im Falle sozialer oder kognitiver Systeme solche Differenzen zwischen lokalem und globalem Verhalten alles andere als selten sind. Eine Gesellschaft kann sich insgesamt in einem extrem unruhigen Zustand befinden (lange Perioden der globalen Attraktoren oder gar keine erkennbaren Attraktoren), während gleichzeitig in Subbereichen soziale Stabilität herrscht. Eine Kirche (als Institution) etwa kann sich sehr stabil verhalten, während gleichzeitig die gesamte Gesellschaft in einer revolutionären Phase ist.
|
||
Entsprechendes gilt z. B. für das Gehirn, dessen parallele Informationsverarbeitung (siehe unten) es ermöglicht, sowohl lokale kognitive Punktattraktoren zu bilden, die als feste Bedeutungserkennung interpretiert werden können, als auch in anderen Bereichen durch kognitive Unsicherheit bestenfalls nur Attraktoren ausbildet, die Perioden der Länge k > 1 haben. In dem Fall „oszilliert“ das Gehirn sozusagen um mehrere Möglichkeiten und kann sich nicht festlegen. Dies ist aus dem sozialen Alltag durchaus bekannt, wenn man einen bestimmten Menschen in einer Gruppe sofort und eindeutig als eine bekannte Person identifiziert – „mein alter Freund Fritz“ – und gleichzeitig bei einer attraktiven Frau unsicher ist, ob dies nun Claudia (Schiffer) oder Heidi (Klum) ist.
|
||
Die bisherige Charakterisierung des Verhaltens bzw. der Dynamik eines Systems setzt voraus, dass im Beobachtungszeitraum die Regeln – generell oder topologisch – der lokalen Wechselwirkungen konstant bleiben. Dies gilt für viele Systeme, insbesondere in kurzen Beobachtungszeiten; häufig gilt jedoch, dass sich Systeme auch adaptiv verhalten können, d. h., sie können nicht nur ihre Zustände verändern wie eben skizziert, sondern auch ihre „Struktur“, d. h. die Regeln der Wechselwirkung, um bestimmten Umweltanforderungen gerecht zu werden (Holland, 1975, 1998; Stoica, 2000; Klüver, 2002). Die bekanntesten Beispiele für adaptive Systeme sind natürlich biologische Gattungen, die sich in der biologischen Evolution durch Variation und Selektion verändern; auch soziale Systeme, die ihre Regeln durch politische Veränderungen (Reformen, Revolutionen) variieren, und kognitive Systeme, die dies durch individuelle Lernprozesse erreichen, sind hier zu nennen.
|
||
Die Adaptivität eines Systems lässt sich formal wie folgt definieren: Gegeben sei ein System S in einer bestimmten Umwelt U, sowie eine Gesamtheit von Regeln lokaler Wechselwirkungen f. Eine Bewertungsfunktion (Fitnessfunktion)
|
||
|
||
b(Zi) = W („Fitnessfunktion“)
|
||
|
||
(2.7)
|
||
|
||
bestimmt, wie gut das System mit den gegebenen Umweltanforderungen zurechtkommt, indem ein „Systemwert“ W der Zustände Zi berechnet wird; im Allgemeinen ist W ∈ R+,
|
||
|
||
2.2 Dynamiken komplexer Systeme
|
||
|
||
29
|
||
|
||
also eine reelle positive Zahl. Die Eignung des Systems in Bezug auf U, genauer bezüglich der entsprechenden Umweltanforderungen, wird definiert durch eine Differenz
|
||
|
||
U − W,
|
||
|
||
(2.8)
|
||
|
||
die natürlich je nach System und Umweltanforderungen unterschiedlich berechnet wird. Ist diese Differenz sehr groß, d. h., ist das System nicht in der Lage, die Umweltanforderungen adäquat zu erfüllen, variiert S seine Regeln aufgrund spezieller Metaregeln m, die auf den Regeln von f operieren. Metaregeln sind also spezielle Regeln, die nicht als Regeln der Wechselwirkung bestimmte Zustände generieren, sondern eine Variation der lokalen Wechselwirkungsregeln erzeugen. So wie die Wechselwirkungsregeln f eine Trajektorie des Systems im Zustandsraum generieren, so generieren die Metaregeln m gewissermaßen „Regeltrajektorien“ im Raum der möglichen lokalen Regeln. S operiert mit den veränderten neuen Regeln
|
||
|
||
m(f ) = f ′,
|
||
|
||
(2.9)
|
||
|
||
die jetzt neue Zustände generieren, d. h. Zustände Z′, die mit den bisherigen Regeln nicht realisierbar waren. Die Zustände werden erneut durch b evaluiert
|
||
|
||
b Z′ = W′,
|
||
|
||
(2.10)
|
||
|
||
was entweder dazu führt, dass f´ beibehalten wird oder erneut eine Variation der lokalen Regeln erfolgt etc. (Klüver et al., 2003). Dies geschieht entweder so lange, bis die Differenz
|
||
|
||
U − W′
|
||
|
||
(2.11)
|
||
|
||
hinreichend klein ist, sodass sich das System aufgrund seiner Adaption in der Umwelt bewahren kann, oder bis die Regelveränderung selbst zu einem Attraktor führt, einem sogenannten Metaattraktor: So wie die Einwirkung von Regeln auf ein System dieses in einen Attraktor bringen kann, so kann entsprechend die Variation von Regeln durch Metaregeln in einen „Regelzustand“ führen, der sich trotz der ständigen Operation der Metaregeln nicht mehr verändert, also praktisch einen Punktattraktor im Regelraum darstellt (Klüver, 2000):
|
||
|
||
mn(f ) = f ,
|
||
|
||
(2.12)
|
||
|
||
für alle n. Vergleichbar können Metaattraktoren der Periode k > 1 definiert werden; eine ana-
|
||
loge Definition von seltsamen Metaattraktoren ist mathematisch unmittelbar möglich, macht jedoch praktisch kaum Sinn.
|
||
Am Beispiel des genetischen Algorithmus kann man sehr gut zeigen (siehe Abschn. 4.2), dass der Begriff des Metaattraktors durchaus sinnvoll ist, nämlich eine gar nicht so seltene Eigenschaft spezifischer Metaregeln darstellt. Ähnlich müsste man streng genommen das Konvergenzverhalten neuronaler Netze, das häufig mit dem hier missdeutbaren Begriff des Attraktors charakterisiert wird (z. B. McLeod et al., 1998) als
|
||
|
||
30
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
Realisierung eines Attraktors und eines Metaattraktors bezeichnen, da hier Konvergenz, nämlich die Stabilisierung von Systemzuständen, durch Variation und Stabilisierung einer bestimmten Topologie erreicht wird (siehe Kap. 5).
|
||
Der Begriff der Metaregeln mag auf einen ersten Blick etwas abstrakt, um nicht zu sagen esoterisch klingen. Das Phänomen selbst ist jedoch auch im Alltag bekannt, wenn auch nicht unter dieser systematisierenden Begrifflichkeit. Ein Gesetz z. B. zur Regelung von Vertragsabschlüssen ist logisch gesehen eine Regel zur Steuerung lokaler sozialer Interaktionen. Eine Veränderung dieses Gesetzes erfolgt wieder auf der Basis bestimmter Regeln, nämlich den Verfahrensregeln – „Geschäftsordnungen“ – der zuständigen Parlamente. Diese Verfahrensregeln sind logisch gesehen nichts anderes als Metaregeln, da sie „auf“ der Interaktionsregel des Vertragsgesetzes operieren und dieses verändern. Ein anderes Beispiel sind bestimmte „Lernstrategien“, mit denen man z. B. lernt, wie man sich erfolgreich auf eine Prüfung vorbereitet. „Lernen“ besteht darin, dass bestimmte kognitive Strukturen variiert werden, die selbst verstanden werden können als bestimmte Regeln der Informations- und Bedeutungsverarbeitung. Wenn man die Aufgabe „2 + 4 = x“ erfolgreich bearbeiten kann, dann besteht eine Lernstrategie darin, die arithmetischen Symbole so neu zu kombinieren, dass auch „554 − 743 = x“ erfolgreich gelöst wird; eine Lernstrategie variiert also in diesem Fall die arithmetische Regel der Addition. Lernstrategien sind in dieser Hinsicht ebenfalls Metaregeln.
|
||
Wenn wir uns an unser einfaches Räuber-Beute-System erinnern, das nur Interaktionsregeln und keine Metaregeln enthält, dann könnte man sich z. B. als Metaregeln vorstellen, dass eine Füchsin nicht automatisch einen kleinen Fuchs wirft, wenn sie begattet worden ist, sondern ihre eigene Fruchtbarkeitsrate der Anzahl der verfügbaren Gänse anpasst: Je mehr Gänse, desto mehr kleine Füchse und umgekehrt. Die „Reproduktionsregel“ wäre also in diesem Fall durch eine Metaregel determiniert, die die Wirksamkeit der Reproduktionsregel anhand bestimmter Umweltkriterien steuert. Derartige adaptive Leistungen von biologischen Gattungen sind auch durchaus bekannt.
|
||
Die Modellierung adaptiver Systeme kann auf sehr unterschiedliche Weise erfolgen, was in den Beispielen in den nächsten Kapiteln verdeutlicht wird. Generell kann man Modelle adaptiver Systeme dadurch konstruieren, dass auf die oben definierte Weise ein formales System als Modell des Realen genommen wird, d. h., es werden Elemente und Regeln der lokalen Wechselwirkung als formale Repräsentanten des Systems bestimmt; zusätzlich werden dann Metaregeln und Bewertungsfunktionen eingeführt. Es sei hier vorgreifend angemerkt, dass insbesondere die Bewertungsfunktionen häufig der eigentlich schwierige Modellierungsteil sind. Orientierungen an biologischen Vorbildern – survival of the fittest – helfen gewöhnlich nicht sehr viel, wenn man nicht gerade biologische Probleme lösen will. Ein weiterer schwieriger Aspekt ist natürlich, festzulegen, wie im Detail die Metaregeln auf den eigentlichen Regeln operieren sollen. Bei einer derartigen Modellierung hat man faktisch eine bestimmte Form hybrider Systeme, nämlich die Koppelung zweier Regelsysteme.
|
||
Die erste Form der hier betrachteten Dynamiken, in der es „nur“ um die Generierung von Zustandsfolgen ohne Veränderung der jeweiligen Regeln geht, lässt sich der syste-
|
||
|
||
2.2 Dynamiken komplexer Systeme
|
||
|
||
31
|
||
|
||
matischen Übersichtlichkeit halber als Dynamik 1. Stufe bezeichnen. In diesem Buch wird diese Stufe vor allem durch Zellularautomaten und Boolesche Netze methodisch dargestellt und untersucht (Kap. 3). Entsprechend kann man die adaptiven Dynamiken mit Variation der jeweiligen Regeln als Dynamiken 2. Stufe charakterisieren. Diese Stufe wird hier insbesondere durch die Methoden der evolutionären Algorithmen erläutert (Kap. 4) sowie die z. T. adaptiven Lernverfahren bei neuronalen Netzen (Kap. 5). Diese einfache Systematik reicht freilich noch nicht aus, da es zusätzlich dynamische Systeme gibt, die wie die Systeme der 2. Stufe ihre Regeln verändern (können), wie die Systeme der 1. Stufe jedoch prinzipiell ohne externe Zielvorgaben operieren, also nur einer sozusagen „inneren“ Logik folgen. Diese Systeme lassen sich dann als Dynamiken 3. Stufe bezeichnen. In diesem Buch wird diese Dynamik insbesondere durch selbstorganisiert lernende neuronale Netze exemplarisch vorgeführt (Abschn. 5.3).
|
||
Die dynamischen Prozesse eines Systems 3. Stufe lassen sich informell folgendermaßen verstehen: Das System operiert analog wie die Systeme 2. Stufe in einer bestimmten Umwelt U, die dem System eine entsprechende Menge von Informationen in Form von Daten übermittelt. Die primäre Aufgabe des Systems ist es nun, diese Datenmenge zu ordnen, wobei dies natürlich nach sehr unterschiedlichen Kriterien, abhängig von der Datenverarbeitung, erfolgen kann. Wesentlich ist, dass im Gegensatz zur Dynamik 2. Stufe, also den adaptiven Dynamiken, keine expliziten externen Zielvorgaben existieren – ebenso wie bei den Systemen der 1. Stufe. Metaphorisch gesprochen entscheidet das System „selbst“, wann diese Ordnungsprozesse beendet werden können. Etwas weniger metaphorisch: Das System variiert nach bestimmten Metaregeln seine eigene Struktur, also die Regeln der Wechselwirkung. Im Fall der erwähnten neuronalen Netze sind dies beispielsweise die Werte in der sog. Gewichtsmatrix, also die Topologie (s. Kap. 5).
|
||
Diese Variationen erfolgen prinzipiell so lange, bis ein Attraktor erreicht worden ist – genauer ein Metaattraktor. Natürlich kann man z. B. bei neuronalen Netzen auch manuell einstellen, wie lange der Variationsprozess dauern soll. Als Ergebnis dieser Variationsprozesse ist dann eine Ordnung der Datenmenge entstanden, also gewissermaßen eine Interpretation der Umwelt.
|
||
Klassische und bekannte Beispiele für Systeme, die gemäß einer Dynamik 3. Stufe operieren, sind vor allem die kognitiven Entwicklungsprozesse von lernenden Menschen; auch die evolutionäre Entwicklung von ganzen Gesellschaften gemäß einer inneren Logik, also nicht nur orientiert an adaptiven Prozessen, wäre hier zu nennen.
|
||
Wir haben hier von einer Klassifizierung bestimmter Formen von Systemdynamik gesprochen. Diese einfache Systematik lässt sich freilich auch verstehen als eine Klassifizierung von verschiedenen Formen des Lernens; Lernprozesse sind schließlich auch wichtige Formen dynamischer Prozesse und sie können sowohl auf ontogenetischer Ebene – Lernen von Individuen – als auch auf einer systemischen Ebene – Lernen ganzer Systeme wie z. B. soziale Gruppen – stattfinden: Die Dynamik 1. Stufe entspricht dann Lernprozessen, bei denen sich die Struktur des lernenden Systems nicht ändert sondern „nur“ die Aufnahme neuer Inhalte durch die Veränderung der Zustände erfolgt.
|
||
|
||
32
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
Das wäre dann Lernen als reine Informationsaufnahme auf der Basis bereits erworbener Strukturen.
|
||
Dynamiken 2. Stufe lassen sich verstehen als Lernprozesse, bei denen die Struktur des lernenden Systems geändert wird aufgrund externer Zielvorgaben. Dabei ist zu unterscheiden zwischen einer externen Zielvorgabe, bei der die Differenz zwischen Systemergebnis und der Zielvorgabe genau gemessen wird – überwachtes Lernen – und einer Zielvorgabe, bei der lediglich festgestellt wird, ob die Operationen des lernenden Systems besser oder schlechter geworden sind – verstärkendes Lernen.
|
||
Während Lernprozesse, die Dynamiken 1. Stufe entsprechen, in diesem Buch vor allem durch Zellularautomaten und Boolesche Netze (Kap. 3) behandelt werden, sind evolutionäre Algorithmen (Kap. 4) vor allem als Modelle des verstärkenden Lernens thematisiert. Es ist freilich auch sehr gut möglich, evolutionäre Algorithmen im Kontext von überwachtem Lernen einzusetzen. Dynamiken 3. Stufe schließlich, wie bereits bemerkt, entsprechen dem Prinzip des selbstorganisierten Lernens, das in diesem Buch an dem Modell entsprechender neuronaler Netze dargestellt und praktisch erprobt wird (Abschn. 5.4).
|
||
Insgesamt ergibt die Möglichkeit, die unterschiedlichsten Realitätsbereiche in der dargestellten Form als komplexe dynamische Systeme darzustellen, ein praktisch universal einsetzbares Modellierungsschema. Warum dieses Schema, das im Folgenden skizziert wird, universal ist, wird in Abschn. 2.4 genauer gezeigt.
|
||
|
||
2.3 Erweiterungen und Anwendungsmöglichkeiten eines universalen Modellschemas
|
||
Bei den bisherigen Hinweisen zur Modellierung und theoretischen Analyse komplexer Systeme wurden die jeweiligen Elemente praktisch als finite state automata betrachtet, die aufgrund der lokalen Wechselwirkungsregeln von bestimmten Zuständen in andere Zustände übergehen. Diese einschränkende Festlegung ist freilich nicht zwingend und häufig – wie z. B. bei der Modellierung menschlichen sozialen Verhaltens – auch nicht angemessen. Man kann vielmehr das bisherige Modellierungsschema gewissermaßen nach unten erweitern, indem die Systemelemente selbst als komplexe dynamische Systeme charakterisiert werden. Ein entsprechendes Gesamtmodell würde demnach folgendermaßen aussehen:
|
||
Zum einen wird, wie bisher, die erste Systemebene festgelegt mit der Angabe bestimmter Elemente, lokaler Regeln der Wechselwirkungen, der Berechnung der Systemzustände aus den Zuständen der Elemente sowie ggf. Metaregeln und Bewertungsfunktionen; außerdem sind die entsprechenden Regeln für eine Dynamik 3. Stufe zu berücksichtigen. Zum anderen werden jetzt die Elemente der zweiten Systemebene bestimmt, aus denen die Elemente der ersten Ebene bestehen. Wenn man z. B. als die erste Ebene einen speziellen sozialen Bereich festlegt, dann wären die Elemente auf dieser Ebene die formalen Repräsentationen sozialer Akteure. Als Elemente der zweiten Ebene
|
||
|
||
2.3 Erweiterungen und Anwendungsmöglichkeiten …
|
||
|
||
33
|
||
|
||
kann man dann kognitive Elemente annehmen, also z. B. biologische Neuronen oder auch Begriffe, die durch bestimmte kognitive Operationen verknüpft werden. Die Regeln derartiger kognitiver Operationen, um in diesem Beispiel zu bleiben, wären dann die Regeln der lokalen Wechselwirkungen auf der zweiten Ebene. Entsprechend wären dann spezielle Lernregeln als Metaregeln der zweiten Ebene einzuführen sowie dazugehörige Bewertungsfunktionen, die über den Lernerfolg bestimmen. Die folgende Graphik soll diese Gedanken verdeutlichen (Abb. 2.12):
|
||
Etwas kompliziert wird ein derartiges Modell notwendigerweise dadurch, dass die Metaregeln der zweiten Ebene selbstverständlich berücksichtigen müssen, dass auf der ersten Ebene ständig Wechselwirkungen stattfinden, die Einfluss auf die Wechselwirkungen der zweiten Ebene haben – zuweilen sind diese Wechselwirkungen der ersten Ebene Teil der Metaregeln auf der zweiten. An zwei Beispielen in den nächsten Kapiteln werden diese Überlegungen verdeutlicht, aus denen hervorgeht, dass die Modellierung von wirklich komplexen Systemen, wie insbesondere sozialen, häufig leider nicht einfacher zu haben ist.
|
||
Dies kann man sich an einem einfachen und bekannten Beispiel aus dem sozialen Alltag verdeutlichen. Ein Schüler in einer Schulklasse, der die Position eines sozialen Außenseiters hat, wird durch die entsprechenden Interaktionen – Missachtung, Hänseln etc. – wesentlich beim Lernen gehindert. Die sozialen Interaktionsprozesse auf der Ebene 1 beeinflussen bzw. determinieren die kognitiven Prozesse des Schülers auf der Ebene 2. Nehmen wir nun an, dass dieser Schüler beschließt, seine Lernprozesse zu verbessern – z. B. durch den Einfluss von Lehrern. Er wendet also auf der 2. Ebene Metaregeln an, d. h. Lernstrategien, und verbessert damit seine kognitiven Leistungen vor allem in schwierigen Fächern. Dies ermöglicht ihm, anderen Schülern Hilfestellungen vor Klassenarbeiten zu geben, was sein soziales Ansehen steigert und die sozialen Interaktionen auf der 1. Ebene zu seinen Gunsten verändert. Wir haben damit eine klassische Rückkoppelung zwischen zwei Ebenen, die in unserem Beispiel eine Variation der Interaktionsregeln bewirkt, einschließlich der Anwendung von Metaregeln auf der einen Ebene. Entsprechende Beispiele kann man sich etwa in Firmen vorstellen, wenn einzelne Mitarbeiter durch selbst organisierte Weiterbildungsprozesse ihre Qualifikationen steigern, dadurch zusätzliche berufliche Anerkennungen erhalten – etwa durch Be-
|
||
|
||
Abb. 2.12 Darstellung der ersten und zweiten Systemebene. Die Kanten symbolisieren die Wechselwirkungen zwischen den Einheiten; die Linien zeigen auf die jeweiligen zugehörigen Komponenten (Ebene 2) der jeweiligen Einheit in der Ebene 1
|
||
|
||
34
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
förderungen – und dadurch wiederum die sozialen Interaktionen in der Firma zu ihren Gunsten verändern. Derartige Fälle sind nahezu beliebig vermehrbar.
|
||
Jedoch auch die Modellierung technischer Systeme kann derartige Erweiterungen des Modellschemas verlangen. Wenn z. B. bestimmte „Produktionsanlagen“, „Rechner“ oder „Verteilte Systeme“ aus Einheiten bestehen, die ihrerseits als technisch komplexe Systeme aufgefasst werden müssen, führt an Modellen der eben geschilderten Art häufig kein Weg vorbei. Die modelltheoretische Beschäftigung mit Modellen dieses Typs ist von daher nicht nur für Sozial- und Kognitionswissenschaftler hilfreich. Die Gesamtanlage eines Rechnerverbundes, d. h. die Verbindungen zwischen den Rechnern, ist evidentermaßen davon abhängig, welche Prozesse in den Rechnern ablaufen; entsprechend jedoch sind auch die Rechnerprozesse davon abhängig, wie die Rechner miteinander verbunden sind.
|
||
So wie das Modellschema „nach unten“ erweitert werden kann, so kann man es auch „nach oben“ fortführen. Gemeint ist damit, dass die Elemente einer ersten Ebene nach bestimmten Gesichtspunkten aggregiert werden und diese Aggregationen sozusagen als Superelemente einer zweiten Ebene definiert werden. Dies kann beispielsweise erforderlich werden, wenn man die Entstehung sozialer Einheiten wie z. B. Firmen oder andere Institutionen durch die Interaktionen sozialer Akteure (erste Ebene) modelliert und dann die Interaktionen zwischen derartigen Einheiten als „kollektiven Akteuren“, wie dies in der Soziologie genannt wird, selbst zum Gegenstand der simulativen Analyse macht. Die Modellkonstruktion geschieht in einem solchen Fall natürlich entsprechend wie die im dargestellten Fall; wir werden auch dafür ein Beispiel in einem späteren Kapitel geben.
|
||
Formal ist es auch möglich, beide Vorgehensweisen der Erweiterung zu kombinieren und dadurch zu Drei-Ebenen-Modellen zu gelangen (Abb. 2.13):
|
||
Dies führt dann allerdings zu Modellen, die selbst so komplex sind, dass ihr Verhalten nur schwer zu analysieren ist. Dies gilt beispielhaft in der Quantentheorie komplexer Netzwerke, wenn versucht wird, die Quanteneffekte bei einer Vielzahl von Netzwerken zu verstehen, die ein unerwartetes Verhalten produzieren, wie z. B. Subgraphen von Ver-
|
||
|
||
Abb. 2.13 Darstellung der drei Systemebenen
|
||
|
||
2.3 Erweiterungen und Anwendungsmöglichkeiten …
|
||
|
||
35
|
||
|
||
bindungen (Bianconi et al., 2023); ebenso gilt es für die Dynamik und das emergente Verhalten, die sich in den sog. „higher-order networks“ ergeben (Majhi et al., 2022; Gao et al., 2023), wenn Elemente gleichzeitig auf verschiedenen Ebenen interagieren (higher order interactions) und deren Wechselwirkungen nur schwer zu reproduzieren sind (Boccaletti et al., 2023; Zhang et al., 2023).
|
||
Es ist eine Frage des Forschungsinteresses, ob man derartige Modelle noch für sinnvoll und notwendig hält. Nach unseren eigenen Erfahrungen reicht es in den meisten Fällen aus, sich auf eine oder zwei verschiedene Ebenen zu konzentrieren.
|
||
Zusammengefasst lässt sich demnach Folgendes festhalten:
|
||
• Methodisch bietet dieser Modellierungsansatz für Forschungen unterschiedlicher disziplinärer Fragestellungen den Vorteil, dass man sozusagen unmittelbar an der Ebene des empirisch Beobachtbaren ansetzen kann, was gewöhnlich die lokalen Interaktionen einzelner Elemente sind;
|
||
• theoretisch wird es dadurch möglich, das Verhalten komplexer Systeme mit den dargestellten Kategorien komplexer Systemdynamiken zu erklären;
|
||
• mathematisch gewinnt man hierdurch die Möglichkeit, die häufig nichtlineare Dynamik komplexer Systeme in einer sozusagen „reinen“ Form darstellen zu können, was beim traditionellen top-down Ansatz nicht selten nur approximativ möglich ist (Holland, 1998). Dies wird vor allem bei der Darstellung der Zellularautomaten und Booleschen Netze deutlich.
|
||
Ein theoretisches Verständnis bestimmter Dynamiken gewinnt man dadurch, dass die Regeln, die das Verhalten der einzelnen Elemente bestimmen, selbst konstitutiv in die formale Analyse einbezogen werden. M.a.W.: Ein reines top-down Modell kann zweifellos allgemeine Regularitäten beschreiben; ein theoretisches Verständnis bestimmter Dynamiken lässt sich nur dadurch gewinnen, dass man auf die Regeln der Interaktionen rekurriert und diese zu den logischen Grundlagen der einschlägigen Modelle macht; dies erfordert gewöhnlich ein bottom-up Modell (Klüver et al., 2003; Stoica, 2004).
|
||
Systematisch lassen sich nun die prinzipiellen Möglichkeiten, mit Modellen dieser Art zu arbeiten, auf folgende Weise charakterisieren:
|
||
Zum einen lassen sich Simulationen des Verhaltens komplexer Systeme durchführen, die entweder dem Ziel der Prognose oder auch der Erklärung des Systemverhaltens dienen. Bei einer Erklärung des Systemverhaltens gibt es etwas vereinfacht gesagt mehrere Möglichkeiten:
|
||
Erklärung Bekannt sind Anfangs- und Endzustände sowie ggf. bestimmte Zwischenzustände eines Systems, gefragt ist nach den Regeln bzw. Gesetzmäßigkeiten, die das Verhalten des Systems determiniert haben. Eine Modellierung hätte zuerst mögliche Regeln zu formulieren; in der Simulation wird dann natürlich überprüft, ob das Modellverhalten dem empirisch bekannten Verhalten entspricht, ob also die empirisch bekannten Zustände vom
|
||
|
||
36
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
Modell realisiert werden. Eine Simulation leistet dann im Prinzip das Gleiche wie die üblichen Überprüfungen theoretischer Modelle.
|
||
Bekannt sind die Regeln und Endzustände, gefragt ist nach möglichen Anfangszuständen. Dies ist das Grundproblem aller evolutionären Theorien, in denen nach einem möglichen Anfang wie z. B. der Entstehung des Lebens gefragt wird; entsprechende Probleme können sich bei historischen Prozessen ergeben (Klüver, 2002). Eine Simulation bedeutet dann, dass mögliche Anfangszustände gesetzt werden und jeweils überprüft wird, bei welchem oder welchen Anfangszuständen das Modell die empirisch bekannten Endzustände erreicht. Aus den obigen Darstellungen der Attraktionsbecken wird allerdings einsichtig, dass auch erfolgreiche Simulationen immer nur mögliche Lösungen liefern, da bestimmte Endzustände aus durchaus unterschiedlichen Anfangszuständen generiert werden könnten; auch dies Problem ist freilich nicht gänzlich neu.
|
||
Bekannt sind schließlich bestimmte Anfangszustände und Regeln, gesucht werden zukünftige Zustände. Damit ist das Gebiet der Prognose erreicht, das bekanntermaßen besondere Schwierigkeiten aufweist. Dies gilt vor allem dann, wenn man das System als adaptives System oder ein System 3. Stufe modellieren muss; wie oben dargestellt, ergibt sich die mögliche Zukunft des Systems eben nicht mehr einfach aus einer Variation der Zustände, sondern auch (mindestens) einer der Regeln. Prognosen sind in diesem Fall nur noch dann möglich, wenn man gute Gründe hat anzunehmen, dass Regelvariationen nur im bestimmten und nicht sehr umfangreichen Maße auftreten. Auch dafür werden wir unten bei der Analyse stochastischer hybrider Zellularautomaten ein Beispiel geben.
|
||
Steuerung Zum anderen gibt es die Möglichkeit der Steuerung bestimmter Systeme durch Simulationen. Gefragt wird jetzt nicht mehr nach dem zukünftigen Systemverhalten im Sinne einer Prognose, sondern nach den Möglichkeiten, das Systemverhalten zu optimieren – nach welchen Kriterien auch immer. Gegeben sind hier bestimmte Anfangszustände sowie Regeln einschließlich bestimmter Steuerungsparameter. Gesucht werden jetzt die Regeln bzw. Parameterwerte, die das System auf einen möglichst günstigen Endzustand bringen. Da dies von der Struktur her ein klassisches Optimierungsproblem ist, bietet sich dabei gewöhnlich für den hier behandelten Bereich die Verwendung evolutionärer Algorithmen an (siehe unten); auch bestimmte neuronale Netze können hier wirksam eingesetzt werden. Die Modellkonstruktion folgt dabei der Modellierungslogik für adaptive Systeme, wie sie oben dargestellt wurde; in einfachen Fällen, wenn keine explizite Regelvariation erforderlich ist, reicht es aus, verschiedene Systemparameter zu variieren wie z. B. bei Verwendung von Zellularautomaten (Klüver & Klüver, 2018).
|
||
Diagnose Bottom-up Modelle dieser Art lassen sich auch für Zwecke der Diagnose einsetzen. Bekannt sind Diagnosesysteme in Form von Expertensystemen und auch neuronalen Netzen in Bereichen der Medizin, Technik, Spracherkennung, Auswertung von Satellitenfotos und Vieles mehr. Allgemein gesprochen bestehen diagnostische Aufgaben gewöhn-
|
||
|
||
2.3 Erweiterungen und Anwendungsmöglichkeiten …
|
||
|
||
37
|
||
|
||
lich darin, Zuordnungen spezifischer Art durchzuführen. Dies können die Zuordnungen von Symptomen zu Krankheiten und Therapien sein, die Zuordnungen von technischen Störungen zu möglichen Fehlerquellen und Reparaturanweisungen oder auch die Zuordnungen gesprochener Spracheinheiten zu schriftlichen Formulierungen bzw. zur Identifizierung einzelner Sprecher.
|
||
Bottom-up Modelle der hier dargestellten Art leisten dies dadurch, dass bestimmte Systemelemente durch Wechselwirkungsregeln miteinander verknüpft werden, wobei die eine Kategorie von Elementen die jeweiligen Eingaben repräsentieren – z. B. Symptome – und die anderen Kategorien die „Antworten“, also z. B. mögliche Krankheiten und ggf. Therapien. Die Eingaben fungieren dann als Anfangszustände. Die Validität solcher diagnostischen Modelle ist dann gegeben, wenn die durch die Eingaben induzierten Wechselwirkungen zu Endzuständen in Form von möglichst Punktattraktoren führen, die von den Benutzern als „richtige“ Antworten bewertet und akzeptiert werden können. Beispiele für derartige Diagnosesysteme, die von uns zur medizinischen Diagnose und auch zur Lösung literarischer Kriminalfälle entwickelt wurden, finden sich u. a. in Klüver et al. (2006) und Klüver und Dahlmann (2017).
|
||
Man kann den Verwendungsbereich der Diagnose auch dadurch charakterisieren, dass es sich dabei um die Aufgabe einer Klassifikation im Sinne einer Ordnung von Daten handelt, was gegenwärtig vor allem unter dem Begriff der „Big Data“ ein sehr wesentliches Gebiet für insbesondere auf KI-Methoden basierenden Techniken geworden ist.
|
||
Ordnung Eine weitere Anwendung ist schließlich die der Ordnung bzw. Klassifikation von Objekten, häufig in Form von Daten, die in der Zeit von „Big Data“ immer wichtiger geworden ist. In der englischen Wissenschaftssprache werden Ordnung und Klassifikation – ordering and classification – häufig synonym verwendet. Im Deutschen wird gewöhnlich dadurch unterschieden, dass Ordnung der allgemeinere Begriff ist: Klassifikation ist die Bildung fester begrifflicher Schemata, unter die die fraglichen Daten subsumiert werden; Ordnung ist allgemeiner die Strukturierung einer Menge von Daten nach bestimmten Kriterien. Das können sehr unterschiedliche Kriterien sein. Von daher muss die Ordnung einer Menge von Daten immer die Information enthalten, in Bezug auf welches Ordnungskriterium die Menge als geordnet bezeichnet werden soll.
|
||
Man kann sich die Ordnung einer Menge als einen geometrischen Raum vorstellen, in dem die Ordnungsstruktur so etwas wie Nähe oder Distanz zwischen verschiedenen Objekten in Form von Daten herstellt. In der Mathematik unterscheidet man hier, ob eine Menge vollständig so geordnet ist, dass zwischen allen Elementen der Menge eine Definition von Nähe möglich ist. Dann spricht man von einer Totalordnung. Ist das nicht der Fall, dann ist unterliegt die Menge einer Teilordnung. Es hängt hier wieder von dem jeweiligen Ordnungskriterium ab, ob eine Total- oder Teilordnung vorliegt.
|
||
Der zentrale Begriff bei der Ordnung von Mengen ist offenbar der des Ordnungskriteriums. Das bedeutet gewöhnlich das theoretische oder praktische Interesse, das einer Ordnung von Mengen zugrunde liegt. Da, wie bemerkt, dies sehr unterschiedliche Inte-
|
||
|
||
38
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
ressen sein können und deswegen eine bestimmte Menge nach unterschiedlichen Interessen geordnet werden kann, sollen diese exemplarisch dargestellt werden. Die folgende natürlich nur sehr unvollständige Aufzählung ist selbst schon eine sehr einfache Ordnung gemäß dem Kriterium der didaktischen Sinnhaftigkeit.
|
||
a) Ordnung nach geometrischer Nähe bzw. Distanz, z. B. nach geographischen Maßstäben.
|
||
b) Ordnung nach zeitlichen Folgen, also „vorher – nachher – gleichzeitig“. Dies kann beispielsweise in der Medizin wichtig sein, wenn es um die Bestimmung von verschiedenen Symptomen geht, die regelmäßig gemeinsam oder nacheinander auftreten. Dann liegt die Vermutung nahe, dass es sich hier möglicherweise um kausale Zusammenhänge handelt. Hier muss allerdings darauf verwiesen werden, dass die Entdeckung zeitlicher Ordnungszusammenhänge nicht unbedingt einen kausalen Zusammenhang bedeutet, sondern „nur“ dessen Möglichkeit.
|
||
c) Ordnung nach physikalischen Eigenschaften wie z. B. Größe oder technische Attribute. Am Beispiel der Menge aller in Deutschland produzierten Autos lässt sich gut erkennen, wie unterschiedlich Ordnungsstrukturen bei einer einzigen Menge sein können: Die Ordnung dieser Autos nach Größe ist eine andere als die nach Geschwindigkeit.
|
||
d) Ordnung nach ökonomischen Aspekten wie Preis oder Langlebigkeit von Produkten. Hier kann man auch erkennen, dass es häufig sinnvoll ist, verschiedene Kriterien miteinander zu kombinieren, wenn es etwa um Kaufentscheidungen geht. Die Entscheidung für ein preiswertes Auto etwa macht streng genommen nur Sinn, wenn dessen Haltbarkeit bekannt ist.
|
||
e) Ordnung nach ästhetischen Aspekten. Dabei spielen natürlich höchst subjektive Kriterien die wesentliche Rolle, die aber – wie bei den sog. „Misswahlen“ bekannt – eine wichtige soziale Rolle spielen können.
|
||
f) Eine sehr rigide Form der Ordnung sind „Taxonomien“, die z. B. aus der Biologie bekannt sind. Dabei handelt es sich um Ordnungsschemata, die generell gelten und hierarchisch gestuft sein können wie z. B.: Hunde sind Säugetiere, Säugetiere sind Wirbeltiere, Wirbeltiere sind Tiere etc.
|
||
Diese kleine Aufzählung, die nur exemplarische Funktion hat, macht deutlich, dass es „die“ Ordnung in Bezug auf eine Menge gewöhnlich nicht gibt, sondern dass es meistens, wie bemerkt, bestimmte theoretisch oder praktisch orientierte Perspektiven sind, aufgrund derer eine bestimmte Ordnung realisiert wird.
|
||
Abschließend muss betont werden, dass es sich häufig als sinnvoll erweist, unterschiedliche Ordnungsstrukturierungen gewissermaßen „geschichtet“ einzuführen. Eine derartige Schichtung kann nacheinander erfolgen, wenn z. B. zuerst eine relative grobe Ordnung eingeführt wird und anschließend eine feinere Ordnung, durch die einzelne Teile erfasst werden. Eine analoge Schichtung kann man sich „vertikal“ vorstellen wie bei den biologischen Taxonomien: Zuerst wird eine Ordnung nach Schichten der All-
|
||
|
||
2.4 Methodologische Schlussbemerkungen
|
||
|
||
39
|
||
|
||
gemeinheit generiert und daraus wird abgeleitet, welche „Subschichten“ zusätzlich geordnet werden sollen.
|
||
|
||
2.4 Methodologische Schlussbemerkungen
|
||
Am Ende dieser allgemeinen Ausführungen zur Methodik und Anwendung von SoftComputing bzw. KI-/KL-Modellen, die nach dem Prinzip des Bottom-up konzipiert sind, sollen einige Hinweise erfolgen, die mehr an der wissenschaftstheoretischen Dimension von Computermodellierungen auf dieser Basis orientiert sind. Der genaue Standort von Computermodellierungen im Kontext theoretischer Forschungen ist nach wie vor klärungsbedürftig und nicht selten werden in etablierten Wissenschaftsdisziplinen Computermodelle als theoretisch und methodisch eher zweitrangig angesehen – zweitrangig im Vergleich zu den traditionellen mathematischen Verfahren. Hier können natürlich nicht die gesamten Fragen behandelt werden, die mit diesem Grundsatzproblem verbunden sind; aus der Sicht unserer eigenen forschungspraktischen Erfahrungen lässt sich jedoch gegenwärtig zumindest dieses sagen (vgl. zum Folgenden Klüver et al., 2003):11
|
||
In den Wissenschaften, die sich insbesondere mit den Problemen sozialer und kognitiver Komplexität befassen, sind einerseits die etablierten mathematischen Methoden der Modellierung durch Differential- bzw. Differenzengleichungen häufig gar nicht oder nur in einfachen und relativ uninteressanten Fällen anwendbar. Darauf haben wir oben bereits hingewiesen. So wertvoll andererseits z. B. statistische Verfahren in der empirischen Forschung sind, so wenig sind sie bekanntlich dazu geeignet, theoretisch fundierte Erklärungen zu liefern. M.a.W.: Für die empirische Überprüfung theoretischer Modelle sind statistische Methoden generell unverzichtbar, aber die Modelle selbst, insofern sie theoretisch anspruchsvoll sind, bedürfen anderer Formalisierungsmethoden, um brauchbare Erklärungen zu liefern. Aus den erwähnten Gründen sind dafür bottom-up Modellierungen im Allgemeinen und KI-/KL-Modelle im Besonderen für Aufgaben dieser Art hervorragend geeignet. Insbesondere können sie die theoretische Forschung in folgenden Aspekten unterstützen:
|
||
Überprüfung von Theorien a) Die Modellierung erzwingt eine genaue Auseinandersetzung mit den Theorien und
|
||
deren Überprüfung; dies ist vor allem in den Wissenschaften von hoher Relevanz, deren Theorien gewöhnlich nur in informeller Weise oder sogar nur in metaphorischen Bildern formuliert werden. In weiten Bereichen der Sozial- und Kognitionswissenschaften ist dies nach wie vor der Fall. Die formale Operationalisierung durch
|
||
|
||
11 Leserinnen und Leser, die primär an praktischen Verwendungen interessiert sind, können dies Subkapitel auch überspringen.
|
||
|
||
40
|
||
|
||
2 Bottom-up Modelle, komplexe Systeme und naturanaloge …
|
||
|
||
computerbasierte Modelle deckt häufig auf, dass die Gegenstandsbereiche nicht präzise genug beschrieben wurden. b) Transformationen der Theorien in Computermodelle können zeigen, dass die Theorie korrektur- bzw. erweiterungsbedürftig ist. Bei rein verbalen Darstellungen entgeht nämlich häufig der Umstand, dass bestimmte Annahmen nicht vollständig sind, dass auf wesentliche Faktoren nicht geachtet wurde und/oder dass Begriffe verwendet wurden, die nicht präzisierbar sind. c) Die Konsequenzen von Theorien können häufig nur dadurch exakt überprüft werden, dass die Theorien in Simulationen auf ihre eigenen Voraussagen hin getestet werden (siehe oben zum Thema Erklärung und Simulation). Da Experimente im naturwissenschaftlichen und technischen Sinne in den Sozial- und Kognitionswissenschaften häufig gar nicht möglich und auf jeden Fall nur sehr schwer zu reproduzieren sind, ist die Simulation der theoretisch fundierten Modelle nicht selten der einzige Weg, Theorien einigermaßen sorgfältig zu testen.
|
||
Entwicklung von Theorien auf der Basis von Computermodellen Damit ist gemeint, dass ein „dialektischer“ Zusammenhang von theoretischen Vorannahmen, Modellentwicklung, experimenteller Modellüberprüfung, Revision und Erweiterungen der theoretischen Annahmen sowie des Modells etc., besteht. Diese Vorgehensweise ist bekannt aus den Naturwissenschaften, in denen ein ständiges Wechselspiel zwischen experimentellen Überprüfungen und theoretischen Konstruktionen besteht, aus denen die endgültig formulierten Theorien schließlich hervorgehen. Die Sozial- und Kognitionswissenschaften erhalten jetzt zum ersten Mal in ihrer Geschichte die Möglichkeit, ihre eigenen Probleme auf eine Art zu behandeln, die denen der Natur- und Technikwissenschaften formal entspricht.
|
||
Daraus ergeben sich methodische Konsequenzen für die Konstruktion von Computermodellen: Zu Beginn einer Modellierungsarbeit sollten nur einfache, im Sinne von überschaubaren, Modelle entwickelt werden, die in ihrem Verhalten genau analysierbar sind. Ist die Wechselwirkung zwischen den Elementen sowie die Auswirkung von einzelnen Parametern hinreichend nachvollziehbar, dann kann das Modell um weitere Elemente bzw. Parameter erweitert werden. Damit entsteht eine permanente Wechselwirkung zwischen Theoriebildung und Überprüfung der Annahmen durch Computerprogramme. M.a.W.: Es wird dafür plädiert, Modellkonstruktionen so durchzuführen, dass zuerst nur relativ einfache Modelle konstruiert und analysiert werden. Dabei ist programmiertechnisch darauf zu achten, dass die Modelle leicht erweiterungsfähig sind. Anschließend kann durch entsprechende Erweiterungen die Komplexität der Modelle sukzessive gesteigert werden, bis die Komplexität des zu modellierenden Bereichs im Modell adäquat wiedergegeben wird.
|
||
Untersuchung allgemeiner Eigenschaften beliebiger Systeme Auf der Basis „reiner“ formaler Systeme sollen generelle Aussagen gemacht werden über die Gesetzmäßigkeit des Verhaltens beliebiger Systeme. Damit ist Folgendes ge-
|
||
|
||
2.4 Methodologische Schlussbemerkungen
|
||
|
||
41
|
||
|
||
meint: Wenn man formale Systeme wie z. B. Zellularautomaten als Untersuchungsobjekte sui generis versteht, dann ist vor allem wesentlich, dass es sich bei diesen formalen Systemen um solche handelt, die äquivalent zu Universalen Turing Maschinen sind. Deren Universalität erlaubt es, vereinfacht gesprochen, jedes beliebig komplexe System mit einem formalen System zu modellieren, das einer universalen Turing Maschine logisch äquivalent ist (Church-Turing-Hypothese). Die Eigenschaften derartiger formaler Systeme müssen dann zwangsläufig für jedes reale System gelten, da dieses durch ein entsprechendes formales System grundsätzlich beliebig detailliert modellierbar ist. Von daher lassen sich bereits aus der Analyse formaler Systeme wie Zellularautomaten oder Boolescher Netze wesentliche Erkenntnisse für das Verhalten z. B. sozialer, kognitiver oder auch natürlicher, d. h. physiko-chemischer und biologischer, Systeme gewinnen. Im Subkapitel über Zellularautomaten und Boolesche Netze werden wir dieses Vorgehen am Beispiel der sogenannten Ordnungsparameter näher erläutern.
|
||
Dieses methodische Vorgehen wird im weiteren Verlauf dieser Einführung exemplarisch vorgestellt, um zu zeigen, wie äußerst unterschiedliche Problemstellungen mit diesem Modellierungsschema bearbeitet werden können. Insbesondere wird es nach diesen sehr allgemeinen und etwas abstrakten, wenn auch methodisch notwendigen Vorbemerkungen Zeit, sich den verschiedenen Bereichen der naturanalogen Verfahren näher und damit konkreter zuzuwenden.
|
||
In einer Zeit der Digitalisierung, Big Data, Industrie 5.0 (!) und ChatGPT (Wang et al., 2023; Crokidakis et al., 2023), in der alle Methoden immer komplizierter und unüberschaubarer werden, belassen wir es bei den Grundlagen und der Darstellung recht einfacher Modelle. Diese beinhalten wichtige Eigenschaften komplexer Systeme und derer Dynamik, die sich noch interpretieren lassen (vgl. Biaconi et al., 2023). Wenn diese Eigenschaften beherrscht werden, können die (Computer-) Modelle angereichert werden, um komplexe Systeme noch besser zu verstehen. Ob ChatGPT Ihnen dabei hilft, überlassen wir Ihnen.
|
||
|
||
Selbstorganisierende Systeme: Zellularautomaten, Boolesche Netze und
|
||
|
||
3
|
||
|
||
Algorithm for Neighborhood Generating
|
||
|
||
Zusammenfassung
|
||
Zellularautomaten und Boolesche Netze sind ein mittlerweile schon fast klassisches Musterbeispiel von bottom-up Modellen, da diese formalen Systeme ausschließlich auf der Basis von lokalen Wechselwirkungen konstruiert werden können. Die einfache Grundlogik dieser Algorithmen lässt sich prinzipiell als eine kombinatorische Erweiterung der binären Aussagenlogik verstehen und somit als ein Modell der einfachsten Grundformen menschlichen Denkens. Trotz dieser prinzipiellen Einfachheit ist es möglich, Prozesse nahezu unbegrenzter Komplexität mit diesen Modellen zu erfassen. Mit ihnen kann insbesondere die einfache Selbstorganisation von Systemen analysiert werden, d. h. die Entstehung bzw. Emergenz globaler Ordnungsstrukturen aus rein lokalen Interaktionen der Systemelemente. Darüber hinaus kann auch adaptives Verhalten mit Zellularautomaten bzw. Booleschen Netzen modelliert werden, wenn zu den Interaktionsregeln spezielle Metaregeln eingefügt werden.
|
||
|
||
Zusätzlich zu den „klassischen“ Modellierungen durch Zellularautomaten und Boolesche Netze stellen wir einen zusätzlichen, von uns entwickelten Algorithmus, dar, den Algorithm of Neighborhood Generating (ANG). Diese lässt sich als komplementäre Variante zu Zellularautomaten verstehen.
|
||
Bei der Modellierung natürlicher Prozesse zeigt sich häufig, dass ein deterministisches System nur partiell das tatsächliche Vorgehen simuliert, z. B. wenn es um Entscheidungsfindungen oder bestimmte Verhaltensweisen in konkreten Situationen geht. Menschen haben z. B. mehrere Optionen bzw. Verhaltensstrategien, nach denen sie entscheiden, wie sie sich in einer Situation tatsächlich verhalten. Um derartige Phänomene modellieren zu können, ist eine zusätzliche Unterscheidung erforderlich:
|
||
Wir nennen eine Regel deterministisch, wenn diese Regel immer in Kraft tritt, falls die entsprechenden Bedingungen vorliegen. Wir nennen dagegen eine Regel stochas-
|
||
|
||
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2024
|
||
|
||
43
|
||
|
||
C. Klüver et al., Modellierung komplexer Prozesse durch naturanaloge Verfahren,
|
||
|
||
https://doi.org/10.1007/978-3-658-43408-3_3
|
||
|
||
44
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
tisch, wenn sie nur mit einer bestimmten Wahrscheinlichkeit in Kraft tritt, auch wenn die entsprechenden Bedingungen gegeben sind. Der Kürze halber nennen wir dann ein System mit rein deterministischen Regeln ein deterministisches System; analog sprechen wir von einem stochastischen System, wenn dies von stochastischen Regeln gesteuert wird. Dabei kann der Fall auftreten, dass ein stochastisches System neben stochastischen Regeln auch über deterministische Regeln verfügt. Maschinen etwa sind gewöhnlich deterministische Systeme, da ihre Teile immer auf die gleiche Weise miteinander wechselwirken. Menschen dagegen, wie bemerkt, verhalten sich häufig, wenn natürlich auch nicht immer, nach stochastischen Regeln: Ob ein Abiturient mit Leistungskurs Mathematik ein mathematisch-naturwissenschaftliches Studienfach wählt, lässt sich immer nur mit einer bestimmten Wahrscheinlichkeit p prognostizieren (p von englisch probability bzw. lateinisch probabilitas = Wahrscheinlichkeit).
|
||
Prozesse, die nur mit einer bestimmten Wahrscheinlichkeit ablaufen, können mit stochastischen Zellularautomaten besonders gut modelliert werden. Wir werden deswegen neben deterministischen Zellularautomaten auch stochastische Zellularautomaten vorführen und im letzten Teil dieses Kapitels anhand eines Modells konkretisieren.
|
||
Zusätzlich ist es oftmals nicht ausreichend, mit einer binären Logik zu operieren. Durch die Verwendung von Fuzzy-Methoden kann dieses Problem gelöst werden. Das gilt vor allem für die Konstruktion von Modellen, bei denen sich die Regeln nicht eindeutig bestimmen lassen, sondern nur mit einer gewissen Unschärfe. Fuzzy-Methoden, die in dem entsprechenden Kapitel ebenfalls dargestellt werden, sind von daher als eine Erweiterung von Basismodellen zu verstehen. Diese Erweiterung lässt sich auch mit Zellularautomaten realisieren; deswegen werden wir in dem Kapitel über Fuzzy-Methoden (Kap. 6) auch einen Fuzzy-Zellularautomaten vorstellen.
|
||
|
||
3.1 Zellularautomaten
|
||
Zellularautomaten, im Folgenden als ZA abgekürzt, sind Ende der fünfziger Jahre von John von Neumann entwickelt worden, einem mathematischen Universalgenie, der als einer der Begründer der gesamten Informatik gelten kann. Von Neumann beschäftigte sich gegen Ende seines Lebens mit dem Problem, eine mathematische Darstellung lebender Systeme zu entwickeln; seine erfolgreiche Lösung dieses Problems sind die ZA, die in den letzten Jahrzehnten vor allem im Zusammenhang mit der Forschungsrichtung des sog. „Künstlichen Lebens“ (Artificial Life) bekannt wurden (Langton, 1988, 1994; Langton et al., 1992). ZA wurden allerdings bereits in den Sechzigern und Siebzigern des letzten Jahrhunderts u. a. für die Analyse sozialwissenschaftlicher und physikalischer Probleme verwendet (vgl. für eine etwas ältere Darstellung Gerhard & Schuster, 1995); gegenwärtig finden sie in praktisch allen Wissenschafts- sowie zahlreichen Technikbereichen Anwendung (s. Abschn. 3.1.3).
|
||
|
||
3.1 Zellularautomaten
|
||
|
||
45
|
||
|
||
3.1.1 Allgemeine Darstellung
|
||
Die Grundidee der ZA ist die folgende: Gegeben ist ein Gitter von Zellen, die gewöhnlich als Quadrate konzipiert und visualisiert sind. Die Entwicklung findet in Raum und Zeit statt und die einzelnen ZA unterscheiden sich in den Dimensionen (es gibt ein-, zwei- sowie drei-dimensionale ZA) und in der Gittergeometrie des zugrunde liegenden Raums. Eine Zelle hat z. B. – in einem zweidimensionalen Zellraum mit einer quadratischen Gittergeometrie – acht „Nachbarn“, d. h., es gibt zu jeder Zelle genau 8 weitere Zellen, die an die erste Zelle anschließen – rechts, links, oben, unten und an den vier Eckpunkten. Die benachbarten Zellen bilden die Umgebung der ersten Zelle (neighbourhood). Wenn man nur die vier Zellen berücksichtigt, die an den Seiten der quadratischen Zelle anliegen, spricht man von einer von Neumann-Umgebung; nimmt man auch die vier Zellen an den Eckpunkten dazu, hat man eine sog. Moore-Umgebung. Natürlich sind auch andere Umgebungskonstellationen möglich, aber diese beiden sind gewissermaßen die Standardtypen. Zur Illustration werden drei unterschiedliche Gittergeometrien in einem zweidimensionalen Raum gezeigt (Abb. 3.1).
|
||
Wenn man ZA generell analysieren will, ohne damit ein spezielles reales System modellieren zu wollen, ist es häufig einfacher, dazu eindimensionale ZA zu verwenden. Die Umgebungszellen, die natürlich auch hier unterschiedlich viele sein können, sind dann die Zellen, die rechts und links von der Zentrumszelle platziert sind; will man größere Umgebungen zur Verfügung haben, nimmt man die jeweils übernächsten Zellen usf. Auch das kann an einem einfachen Neumann Umgebung Beispiel verdeutlicht werden (Abb. 3.2).
|
||
Der abgebildete eindimensionale ZA ist als Ring konzipiert, d. h., jede Zelle hat genau zwei räumliche Nachbarn. Man kann sich dies als ein Modell für eine soziale Beziehung in einer Gruppe verdeutlichen: Die schwarzen Zellen sind „Verkäufer“, die weißen entsprechend „Käufer“. Ein Verkäufer verkauft nur an Käufer und gewinnt dabei Kapital; ein Käufer kauft und verliert dabei Kapital. Jede Zelle kann in diesem Modell nur mit ihren beiden räumlichen Nachbarn interagieren, aber nur dann, wenn ein Verkäufer neben einem Käufer ist und umgekehrt. Gleiche Zellen interagieren nicht miteinander.
|
||
|
||
Abb. 3.1 Zweidimensionale Zellräume mit unterschiedlichen Gittergeometrien: a Rechteckiges Gitter mit einer zentralen Zelle (schwarz) und ihre Nachbarn (dunkelgrau: von Neumann-Umgebung; hellgrau + dunkelgrau: Moore-Umgebung); b Die Zentralzelle hat in diesem Fall 6 Nachbarn c Dreieckiges Gitter mit einer möglichen Nachbarschaftskonstellation
|
||
|
||
46
|
||
Abb. 3.2 Ein eindimensionaler ZA
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
ZA stellen eine besonders wichtige Klasse diskreter Systeme dar. Die Zellen befinden sich in bestimmten Zuständen, d. h., jeder Zelle wird ein bestimmter Wert zugeordnet, der üblicherweise als natürliche Zahl dargestellt wird.
|
||
Die Dynamik dieser Systeme ergibt sich wie bei bottom-up Modellen stets durch Übergangsregeln (rules of transition), die die lokal bedingte Zustandsveränderung der einzelnen Zellen steuern. Dabei hängt die Zustandsveränderung einer Zelle ausschließlich von den Zuständen ab, die ihre Umgebungszellen und sie selbst zu einem bestimmten Zeitpunkt t einnehmen. Im Falle der Moore-Umgebung wirken acht Zellen auf die Zustandsveränderung einer Zelle ein, in Abhängigkeit von dem Zustand der Zelle selbst; im Falle der von Neumann-Umgebung sind es vier Umgebungszellen. Eine Regel kann z. B. die Form haben: Wenn die Zellen nur die Zustände 1 und 0 einnehmen können und wenn (im Falle der von Neumann-Umgebung) zum Zeitpunkt t die linke Umgebungszelle 1 ist, die rechte ebenfalls 1, die obere 0, die untere 1 und die Zelle selbst 0, dann geht die Zelle im nächsten Zeitschritt t + 1 in den Zustand 1 über.
|
||
Die Umgebung stellt eine symmetrische Relation für die jeweiligen Zellen dar, da alle Wechselwirkungen symmetrisch sind: Die Umgebung einer Zelle wirkt auf die Zentralzelle ein, diese wiederum fungiert ebenfalls als (Teil)Umgebung für ihre Umgebungszellen. Etwas formaler heißt dies, dass wenn eine Relation U (= Umgebung) existiert für zwei Zellen Z1 und Z2, also U(Z1, Z2), dann gilt auch U(Z2, Z1). Generell gilt außerdem für die Geometrie eines ZA, dass sie als homogen charakterisiert werden kann: Die Topologie ist bei gängigen ZA stets global gleich, d. h., der Umgebungstypus (z. B. von Neumann oder Moore) charakterisiert den ZA topologisch vollständig.
|
||
Wenn man nun ohne Beschränkung der Allgemeinheit als einfachstes Beispiel binäre ZA nimmt, deren Zellenzustände durch 0 und 1 repräsentiert sind, dann haben wir im Falle der Moore-Umgebung 28 = 256 verschiedene Zustände für die Umgebung.1
|
||
1 Die Behauptung „ohne Beschränkung der Allgemeinheit“ ist deswegen korrekt, weil sich bekanntlich jede natürliche Zahl durch eine binäre Zahl darstellen lässt.
|
||
|
||
3.1 Zellularautomaten
|
||
|
||
47
|
||
|
||
Die Umgebungszustände werden hier als geordnete Teilmengen dargestellt, also als Acht-Tupel von z. B. der Form (1,0,0,0,1,1,0,1). Da jede Zelle in der Umgebung zwei mögliche Zustände einnehmen kann, erhalten wir insgesamt 228 = 2256 mögliche Regeln für die Übergänge, was etwa 1085 entspricht. Man kann daraus die kombinatorische Vielfalt erkennen, die sich mit dem einfachen Grundschema von ZA erzeugen lässt; tatsächlich ist es möglich, praktisch jede gewünschte Systemmodellierung hiermit durchzuführen.
|
||
Bei praktischen Anwendungen ist es allerdings meistens gar nicht erforderlich, die gesamten kombinatorischen Möglichkeiten auszunutzen. Häufig reicht es, nur allgemeinere Umgebungsbedingungen festzusetzen, die von mehreren der kombinatorisch möglichen Umgebungszustände erfüllt werden. Man spricht in diesem Fall von totalistischen Regeln, also Regeln, die die Umgebung einer Zelle gewissermaßen als Ganzheit charakterisieren.
|
||
Am Beispiel eines der berühmtesten ZA, dem Game of Life des britischen Mathematikers Conway, kann dieses Prinzip gut illustriert werden; Conway wollte damit in einem mathematisch möglichst einfachen Modell das (umgebungsbedingte) Leben, Sterben und die Reproduktion biologischer Organismen darstellen (Berlekamp et al., 1982). Das Game of Life ist ein binärer ZA mit einer Moore-Umgebung, der auf einer zweidimensionalen Fläche visualisiert werden kann. Die Übergangsregeln des Game of Life lauten folgendermaßen:
|
||
IF n ist die Anzahl der Umgebungszellen im Zustand 1 und IF n < 3 oder IF n > 4, THEN geht die zentrale Zelle im nächsten Zeitschritt in den Zustand 0 über, unabhängig von ihrem bisherigen Zustand. IF n = 3, THEN geht die zentrale Zelle in den Zustand 1 über, unabhängig vom vorherigen Zustand. IF n = 4, dann bleibt die zentrale Zelle in ihrem bisherigen Zustand.
|
||
Einfacher ausgedrückt: Wenn zu wenige oder zu viele Organismen in der Umgebung eines Organismus existieren, dann stirbt dieser; existiert genau die richtige Anzahl, dann entsteht neues Leben oder die Verhältnisse bleiben konstant. Nebenbei bemerkt, die 2. Regel ist natürlich zumindest auf der Erde nicht biologisch realistisch, da zur Reproduktion von Organismen entweder ein Organismus ausreicht – monosexuelle Reproduktion – oder in dem insbesondere für Menschen interessanten Fall genau zwei Organismen erforderlich sind (heterosexuelle Reproduktion). Vor allem den letzteren Fall, der in der sozialen Realität häufig zu juristischen Komplikationen führt, werden wir in dem Kapitel über evolutionäre Algorithmen näher behandeln.
|
||
Totalistisch sind diese Regeln insofern, als die geometrische Lage der einzelnen Umgebungszellen offensichtlich keine Rolle spielt; es geht nur um die absolute Anzahl der Umgebungszellen, die in bestimmten Zuständen sein müssen. Wenn man nun die Konvention einführt, dass die Umgebungszustände als Acht-Tupel geschrieben werden, indem man mit der Umgebungszelle anfängt, die am linken unteren Eckpunkt der
|
||
|
||
48
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Zentralzelle platziert ist und anschließend im Uhrzeigersinn fortfährt, dann lässt sich die Regel 2. offenbar u. a. durch folgende Umgebungsgleichungen darstellen:
|
||
((1, 1, 1, 0, 0, 0, 0, 0) → 1) = ((1, 1, 0, 1, 0, 0, 0, 0) → 1) = ((0, 0, 0, 0, 0, 1, 1, 1) → 1) etc.
|
||
Man kann also die kombinatorische Vielfalt sehr rigide reduzieren. Ungeachtet der Einfachheit der Regeln des Game of Life ist es möglich, mit ihm sehr
|
||
komplexe Dynamiken zu erzeugen. Tatsächlich handelt es sich beim Game of Life um eine sog. Universale Turing-Maschine, mit der man prinzipiell jedes beliebige System modellieren und untersuchen kann, nämlich um ein System der Wolfram-Klasse 4. Nur in dieser Klasse treten Systeme auf, die Universalen Turing Maschinen äquivalent sind. Von daher muss die Aussage, dass Zellularautomaten Universalen Turing Maschinen logisch äquivalent sind, etwas präzisiert werden, da nur ZA der Wolfram-Klasse 4 – und auch hier nicht unbedingt alle – diese Äquivalenz aufweisen (Rasmussen et al., 1992).
|
||
Totalistische ZA-Regeln nützen also die Möglichkeiten aus, die sich durch kombinatorische Zusammenfassungen der Zustände der Umgebungszellen und der Zentralzelle ergeben. Es sei noch einmal betont, dass Moore- und von Neumann-Umgebungen zwar die Standardformen von Umgebungen sind, dass jedoch nichts dagegen spricht, auch andere Umgebungsgrößen einzuführen. Bei der ZA-Modellierung des Räuber-Beute Systems, das oben skizziert wurde, arbeiteten wir z. T. mit erweiterten Moore-Umgebungen, d. h., wir berücksichtigten auch die Zustände der Zellen, die sich unmittelbar an die Umgebungszellen der Zentralzelle anschlossen. Dies war erforderlich, um den „Füchsen“ die Möglichkeit zu geben, über ihre Moore-Umgebung hinaus zu prüfen, ob es in größerer Entfernung eventuell eine „Gans“ gibt. Die entsprechende Regel lautet dann:
|
||
IF in der Moore-Umgebung eines Fuchses keine Gans ist und IF in der erweiterten MooreUmgebung eine Gans ist, THEN der Fuchs „bewegt“ sich um eine Zelle in Richtung der Gans, falls eine entsprechende leere Zelle vorhanden ist.
|
||
Wie müsste man die „Bewegung“ einer Zelle korrekt in der ZA-Terminologie ausdrücken, in der es nur Zustandsveränderungen von einzelnen Zellen gibt?
|
||
Wie man sich rasch überlegt, hat eine erweiterte Moore-Umgebung 8 + 12 + 4 = 24 Zellen; eine n-fache Erweiterung von Moore-Umgebungen ergibt, was sich leicht durch vollständige Induktion zeigen lässt, offenbar2
|
||
|
||
2 Eine mathematische Erinnerung: Beim Beweisverfahren der vollständigen Induktion beginnt man damit, dass man die entsprechende Behauptung für den Fall n = 1 beweist. (der sog. Induktionsanfang). Anschließend folgt der sog. Induktionsschritt, indem man von der Annahme, dass man die Behauptung für ein beliebiges n bewiesen hat, zeigt, dass dann die Behauptung auch für n + 1 gilt. In der obigen Formel ist die Variable n übrigens so zu verstehen, dass für die übliche Moore-Umgebung gilt, dass n = 1; die Erweiterung ergibt dann n = 2 usf.
|
||
|
||
3.1 Zellularautomaten
|
||
|
||
49
|
||
|
||
(2n + 1)2 − 1 Zellen
|
||
|
||
(3.1)
|
||
|
||
Diese Überlegungen gelten allerdings nur für zweidimensionale ZA. Wenn man aus z. B. Visualisierungsgründen dreidimensionale ZA entwickeln will, was wir für ein „FalkenTauben-System“ gemacht haben, also ein Räuber-Beute-System, das gewissermaßen in der Luft realisiert wird, dann hat eine einfache Moore-Umgebung im dreidimensionalen Raum bereits 26 Zellen und generell gilt für einfache Moore-Umgebungen in n-dimensionalen Räumen, dass die Zahl ihrer Zellen
|
||
|
||
k = 3n − 1
|
||
|
||
(3.2)
|
||
|
||
beträgt. Die Abb. 3.3 und 3.4 dienen zur Illustration eines dreidimensionalen ZA. Man kann jetzt auch die Anzahl der möglichen Regeln für den Fall angeben, dass die
|
||
Anzahl der möglichen Zellenzustände n > 2 ist bei k Umgebungszellen. Bei binären ZA mit Moore-Umgebungen hatten wir 228 Regeln bei 28 = 223 Umgebungskonfigurationen. Entsprechend erhalten wir allgemein nk mögliche Regeln und nnk verschiedene Möglichkeiten, Regelsets für verschiedene ZA zu konstruieren. Bei mehr als zwei Zellenzuständen also wächst die Anzahl der Möglichkeiten, unterschiedliche ZA zu konstruieren, rasch ins Astronomische; alleine aus diesem Grund bereits werden ZA, die reale
|
||
|
||
Abb. 3.3 Ein dreidimensionaler ZA nach 1 Schritt; „Falken“ sind blau, „Tauben“ rot
|
||
|
||
50
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Abb. 3.4 Ein dreidimensionaler ZA nach 10 Schritten
|
||
|
||
Systeme modellieren sollen, praktisch immer mit totalistischen Regeln konstruiert. Formal kann man ZA-Regeln einerseits, wie in vielen Programmiersprachen üblich, als IF– THEN Regeln darstellen; mengentheoretisch ist es andererseits auch möglich, Regeln als geordnete Mengen – n-Tupel – darzustellen, wie dies bereits ansatzweise geschehen ist. Dies soll jetzt etwas genauer erfolgen.
|
||
Sei wieder n die Anzahl der möglichen Zellenzustände und k die Größe der Umgebung. Eine Regel lässt sich dann darstellen als ein k + 2-Tupel der Form
|
||
|
||
(i1, i2, . . . ik, jt, jt+1),
|
||
|
||
(3.3)
|
||
|
||
wenn i1, i2, … ik die Zustände der Umgebungszellen, jt der Zustand der Zentralzelle zum Zeitpunkt t und jt+1 der Zustand der Zentralzelle zum Zeitpunkt t + 1 sind. Kommt es auf den Zustand der Zentralzelle bei der Regel nicht an, lässt man jt weg.
|
||
Totalistische Regeln lassen sich z. B. schreiben als
|
||
|
||
= k, jt, jt+1 ,
|
||
i
|
||
|
||
(3.4)
|
||
|
||
3.1 Zellularautomaten
|
||
|
||
51
|
||
|
||
wenn es wie beim Game of Life um einfache Aufsummierung der Umgebungszellen geht; wenn die totalistischen Regeln anders definiert werden sollen, z. B. mit Durchschnittsbildung der Zustandswerte der Umgebungszellen, wird dies entsprechend dargestellt. Die Regeln des Game of Life z. B. lauten dann:
|
||
|
||
(1) < 3,0 , > 4,0 ,
|
||
|
||
i
|
||
|
||
i
|
||
|
||
(2) = 3,1 ,
|
||
i
|
||
|
||
(3) = 4, jt, jt
|
||
i
|
||
|
||
(3.5)
|
||
|
||
Die totalistischen Regeln eines ZA, die mit der Bildung von Durchschnittswerten arbeiten, lassen sich u. a. in dieser Schreibweise wie folgt darstellen; k ist die Anzahl der Umgebungszellen3:
|
||
|
||
i k
|
||
|
||
=
|
||
|
||
n, jt, jt+1
|
||
|
||
=
|
||
|
||
n − jt
|
||
|
||
+ 0,1
|
||
|
||
fu¨ r
|
||
|
||
n
|
||
|
||
>
|
||
|
||
jt
|
||
|
||
und
|
||
|
||
i k
|
||
|
||
=
|
||
|
||
n, jt, jt+1
|
||
|
||
=
|
||
|
||
jt
|
||
|
||
− n − 0,1
|
||
|
||
fu¨ r
|
||
|
||
jt
|
||
|
||
>
|
||
|
||
n.
|
||
|
||
(3.6)
|
||
|
||
Anders ausgedrückt: Der Zustand der Zentralzelle nähert sich sukzessive dem Durchschnittszustand der Umgebungszellen an.
|
||
Aus derartigen Darstellungen lässt sich eine Charakterisierung der Regeln eines spezifischen ZA ableiten, nämlich die sog. Häufigkeitsmatrix. Diese gibt an, wie häufig die verschiedenen Zellenzustände durch die gesamten Regeln prinzipiell realisiert werden können (welche bei einem speziellen Durchlauf tatsächlich erreicht werden, hängt dann vom Anfangszustand ab). Das kann man sich an einem einfachen Beispiel rasch klar machen, nämlich einem binären ZA mit einer von Neumann-Umgebung. Die Regeln seien
|
||
|
||
(1) = 4,1 und
|
||
|
||
i
|
||
|
||
(3.7)
|
||
|
||
(2) <20>= 4,0 .
|
||
|
||
i
|
||
|
||
M.a.W.: Die Zentralzelle geht genau dann in den Zustand 1 über, gleichgültig in welchem Zustand sie vorher war, wenn alle Umgebungszellen im Zustand 1 sind; sonst geht die Zentralzelle in den Zustand 0 über (oder bleibt in ihm).
|
||
Da es insgesamt 16 verschiedene Umgebungskonfigurationen gibt, von denen jedoch nur eine den Zustand 1 der Zentralzelle generiert, haben wir eine Häufigkeitsverteilung von 1 und 15 bezüglich der Zustände 1 und 0, d. h. eine extreme Ungleichverteilung der möglichen Häufigkeiten. Dies wird für die sog. Ordnungsparameter (siehe Abschn. 3.3)
|
||
|
||
3 In der zweiten Auflage des Buches haben wir das Beispiel eines entsprechenden stochastischen ZA gezeigt (Klüver et al., 2012).
|
||
|
||
52
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
noch eine wichtige Rolle spielen. In diesem einfachen Fall braucht man keine spezielle Häufigkeitsmatrix, da die Verteilung der Häufigkeiten unmittelbar aus den Regeln ersichtlich ist. Bei mehr Zellenzuständen und vor allem bei komplexeren Regeln ist es jedoch häufig sinnvoll, sich eine Matrix berechnen zu lassen, da man damit recht gut die möglichen Entwicklungen des jeweiligen ZA abschätzen kann. An einem weiteren einfachen Beispiel sei dies erläutert:
|
||
Gegeben sei ein binärer ZA mit einer von Neumann-Umgebung. Seine Regeln seien folgendermaßen:
|
||
|
||
R1 : = 4,1 ,
|
||
i
|
||
|
||
R2 : = 3,0 ,
|
||
i
|
||
|
||
R3 : = 2,0 ,
|
||
|
||
(3.8)
|
||
|
||
i
|
||
|
||
R4 : = 1,0 ,
|
||
i
|
||
|
||
R5 : = 0,1 ,
|
||
i
|
||
|
||
wobei i die 4 Umgebungszellen repräsentieren. Offenbar spielt bei diesen Regeln, die totalistisch sind, der Zustand der Zentrumszelle
|
||
keine Rolle. Die entsprechende Häufigkeitsmatrix sieht folgendermaßen aus:
|
||
|
||
10
|
||
|
||
1 2 14
|
||
|
||
(3.9)
|
||
|
||
0 2 14
|
||
|
||
Diese Matrix ist folgendermaßen zu verstehen: Es gibt 2 Übergänge (der Zentrumszelle) von 1 zu 1 und 14 Übergänge von 1 zu 0; entsprechend gibt es 2 Übergänge von 0 zu 1 und 14 Übergänge von 0 zu 0. Diese Zahlen ergeben sich aus den verschiedenen Kombinationen der Zustände der 4 Umgebungszellen; z. B. ergibt sich die Anzahl 2 des Übergangs 1 → 1 daraus, dass nur gemäß den Regeln R1 und R5 die Zentrumszelle vom Zustand 1 in den gleichen Zustand übergeht.
|
||
Häufigkeitsmatrizen sind allerdings keine eindeutige Darstellung eines Regelsystems, da verschiedene Regelsysteme auf die gleiche Häufigkeitsmatrix führen können – die Abbildung Regelsystem und Häufigkeitsmatrix ist nicht eineindeutig bzw. bijektiv, wie man in der Mathematik sagt.
|
||
Zusammengefasst lässt sich sagen, dass die Vorzüge von ZA-Modellierungen vor allem darin bestehen, dass man die empirisch bekannten Wechselwirkungen und Interaktionen zwischen den zu modellierenden Elementen eines Systems unmittelbar darstellen kann. Dies ist vor allem dann wesentlich, wenn sowohl die Elemente als auch deren Wechselwirkungen selbst erst genau analysiert werden müssen. Prinzipiell kann
|
||
|
||
3.1 Zellularautomaten
|
||
|
||
53
|
||
|
||
man jedes Problem in ZA-Modellierungen darstellen, das sich dafür eignet, unter Aspekten der Dynamik formaler Systeme betrachtet zu werden. Die ZA-Regeln und deren Auswirkungen auf die Systemdynamik repräsentieren dann die verschiedenen realen systemischen Wechselwirkungen; aus den Regeln ergeben sich dann einige der Systemparameter, die für die faktische Trajektorie – mit dem Anfangszustand – verantwortlich sind. Experimente mit ZA bedeuten also bei konstanten Regeln einerseits die Wahl unterschiedlicher Anfangszustände, um deren Wirksamkeit einschätzen zu können, und andererseits die Variation der in den Regeln enthaltenen Parameter.
|
||
Zwei programmiertechnische Hinweise seien hier noch kurz erwähnt: Visuelle Darstellungen von zweidimensionalen ZA auf einem Monitor haben Ränder, d. h., die Zellen an den linken und rechten sowie oberen und unteren Rändern des Monitors haben keine vollständigen Umgebungen. Technisch gesehen bietet es sich deswegen an, den ZA als Torus zu konstruieren, um nicht zusätzliche Regeln für die Randzellen hinzufügen zu müssen. Die Konstruktion als Torus besagt, dass die Zellen am rechten Rand als Umgebungszellen für diejenigen am linken Rand fungieren und umgekehrt; entsprechend fungieren die Zellen am oberen Rand als Umgebungszellen für diejenigen am unteren Rand und umgekehrt. Das obige Beispiel eines eindimensionalen ZA lässt sich als eine eindimensionale Variante dieses Prinzips verstehen, da die Zellen in einer geschlossenen Kurve angeordnet sind. Will man aus bestimmten Gründen diese Lösung nicht wählen, was natürlich von dem jeweiligen Modellierungsproblem abhängig ist, müssen entsprechende Zusatzregeln für die Berechnung der Zustandswerte bei den Randzellen eingefügt werden.
|
||
Die Berechnung der Zustandsänderungen der Zellen erfolgt gewöhnlich zeilenweise, d. h., das Programm beginnt links oben in der ersten Zeile des Zellengitters, durchläuft diese und geht dann zu den vertikal folgenden Zeilen. Diese sog. synchrone Berechnung wird in den meisten Fällen angewandt: Bei ihr werden zuerst sämtliche Zellenzustände in Abhängigkeit vom gesamten Gitter berechnet – natürlich nur in Bezug auf die jeweiligen Umgebungen – und dann neu eingesetzt. Für spezielle Fragestellungen, insbesondere wenn es um die Modellierung mancher natürlicher Prozesse geht, ist es zuweilen sinnvoll, die Zellen asynchron oder sequentiell zu aktualisieren (Gerhardt & Schuster, 1995; Schmidt et al., 2010; Schmidt, 2015).
|
||
So einfach die Grundlogik von ZA ist, so bedeutsam sind zahlreiche Ergebnisse, die durch ZA-Modellierungen erzielt werden konnten. So konnten u. a. Epstein und Axtell (1996) durch die Konstruktion des ZA „Sugarscape“ zeigen, dass einige traditionelle Annahmen der Ökonomie hinsichtlich kapitalistischer Märkte revidiert werden müssen, wenn diese von der Ebene der individuellen Akteure aus modelliert werden. Ein anderes berühmtes Beispiel ist die Modifizierung des Eigenschen Hyperzyklus (ein mathematisch-biochemisches Modell der Entstehung des Lebens), von dem Maynard Smith zeigte, dass dieser instabil ist, d. h. äußerst anfällig, gegenüber Parasiten. Boerlijst und Hogeweg (1992) konstruierten einen ZA, der die ursprünglichen Schwächen des Hyperzyklus nicht mehr aufweist und außerdem wesentlich einfacher ist als das Modell
|
||
|
||
54
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
von Eigen. Die vielfältigen Anwendungsmöglichkeiten von ZA sind noch längst nicht vollständig erkannt. Ebenfalls klassisch geworden ist ein ZA des Soziologen und Ökonomen Schelling (1971), der mit diesem Modell die Entstehung von ethnischen Segregationen untersuchte, um die Entwicklung von Ghettos in amerikanischen Großstädten zu studieren.4 Man sieht, vielfältiger geht es nimmer.
|
||
|
||
3.1.2 Stochastische Zellularautomaten
|
||
Abschließend soll noch kurz auf eine wichtige Erweiterungsmöglichkeit für ZA-Modellierungen eingegangen werden. Die bisherigen Betrachtungen und Beispiele bezogen sich auf deterministische ZA, d. h. Systeme, deren Regeln immer und eindeutig angewandt werden, falls die entsprechenden Bedingungen, in diesem Fall Umgebungsbedingungen, vorliegen. Stochastische Systeme unterscheiden sich von deterministischen dadurch, wie oben bereits angemerkt, dass bei Eintreten der entsprechenden Bedingungen die Regeln nur mit einer gewissen Wahrscheinlichkeit p in Kraft treten. Deswegen müssen Informationen über stochastische Systeme neben den üblichen Regelangaben auch noch die Wahrscheinlichkeitswerte enthalten, die für die jeweiligen Regeln gelten. Falls alle Wahrscheinlichkeitswerte p = 1 sind, geht das System wieder in den deterministischen Fall über; p = 0 bedeutet, dass die Regeln „gesperrt“ sind, d. h. auch bei Vorliegen der entsprechenden Bedingungen wird die Regel nicht angewandt.
|
||
In der Literatur zu ZA wurden fast nur deterministische ZA behandelt (Ausnahmen fanden sich z. B. bei Gutowitz, 1990 sowie Bar-Yam, 1997). Für die Modellierungen realer Systeme erweist es sich wie bereits erwähnt häufig als sinnvoll, mit stochastischen bzw. probabilistischen Regeln zu arbeiten. Dies ist insbesondere bei sozial- und wirtschaftswissenschaftlichen Problemen nicht selten der Fall, wenn es um die Verhaltensweise sozialer bzw. ökonomischer Akteure geht: Man kann fast nie mit Sicherheit sagen, wie sich Menschen in bestimmten Situationen verhalten, sondern im Allgemeinen nur mit gewissen Wahrscheinlichkeiten – ein wesentlicher Aspekt der „Weichheit“ sozialund wirtschaftswissenschaftlicher Probleme. Da der große Vorzug von ZA-Modellierungen, wie bereits hervorgehoben, darin besteht, direkt auf der Ebene individueller Elemente, im sozialwissenschaftlichen Fall z. B. der von individuellen Akteuren, anzusetzen, müssen einigermaßen realitätsadäquate ZA-Modelle häufig stochastisch konzipiert werden, wie sich zwischenzeitlich gezeigt hat (z. B. Louis & Nardi, 2018; Hawkins, 2021; Shu et al., 2021; Dhar, 2023; Grieshop & Wikle, 2023).
|
||
Die Grundlogik stochastischer ZA ist im Wesentlichen die gleiche wie bei deterministischen; Regeln werden als Umgebungsregeln formuliert, die die Zustandsübergänge der jeweiligen Zellen steuern. Die zusätzliche Einführung probabilistischer Kom-
|
||
|
||
4 Nicht nur aber auch für seine ZA-Modellierungen hat Schelling übrigens 2005 die Hälfte des Nobelpreises in Ökonomie erhalten.
|
||
|
||
3.1 Zellularautomaten
|
||
|
||
55
|
||
|
||
ponenten kann grundsätzlich auf durchaus unterschiedliche Weise erfolgen; wir haben eine technisch relativ einfache Verfahrensweise entwickelt, die in der Konstruktion einer sog. Wahrscheinlichkeitsmatrix (bzw. stochastische Matrix), kurz W-Matrix, besteht.
|
||
Eine W-Matrix enthält als Dimensionen einfach die verschiedenen möglichen Zellenzustände, sagen wir wieder n. Die W-Matrix ist dann eine n*n-Matrix, die als Matrixelemente an den Positionen (ij) die Wahrscheinlichkeiten pij enthält, die die Übergänge zwischen den Zuständen i und j steuern. An einem binären Fall sei dies kurz illustriert:
|
||
|
||
10 1 0.4 0.6 0 0.3 0.7
|
||
|
||
(3.10)
|
||
|
||
Der Übergang vom Zustand 1 einer Zelle in den gleichen Zustand hat also eine Wahrscheinlichkeit von p = 0,4, der Übergang in den Zustand 0 die Wahrscheinlichkeit p = 0,6; entsprechend ist die untere Zeile zu lesen.
|
||
Bei der Konstruktion oder Zufallsgenerierung einer W-Matrix muss darauf geachtet werden, dass die Zeilen in der Gesamtsumme immer 1 ergeben, da irgendein Übergang, und sei es auch der identische, immer stattfinden muss. M.a.W.: Die Summe der Übergangswahrscheinlichkeiten ergibt eine deterministische Gesamtsituation.
|
||
Die Konstruktion einer W-Matrix ergibt sich aus dem grundlegenden Prinzip der ZA, dass die lokalen Umgebungsregeln ja stets Übergangsregeln in Bezug auf die jeweiligen Zellenzustände sind. Falls die Werte der W-Matrix für alle Regeln und jede Umgebungsbedingung gelten, kann man diese Werte auch als globale Systemparameter verstehen, mit denen man die Dynamik des jeweiligen ZA weitgehend steuern kann. Insbesondere führt die Einführung von Werten p = 0 in die W-Matrix dazu, dass die entsprechenden Übergangsregeln außer Kraft gesetzt werden.
|
||
Man kann natürlich die Einführung probabilistischer Komponenten in ZA-Regeln noch dadurch verfeinern, dass nicht globale p-Werte durch eine W-Matrix zu allen Regeln, d. h. zu allen Übergängen eines bestimmten Zustandes in einen bestimmten anderen Zustand, hinzugefügt werden, sondern dass bestimmte einzelne Regeln mit spezifischen Wahrscheinlichkeitswerten besetzt werden. Beispielsweise könnte man im Game of Life festsetzen, dass die Subregel von Regel (1), dass bei weniger als drei Zellen im Zustand 1 die Zentralzelle in den Zustand 0 – vom Zustand 1 oder 0 – übergeht, mit der Wahrscheinlichkeit von p = 0,4 besetzt wird und die andere Subregel (mehr als 3 Zellen im Zustand 1 für die gleichen Übergänge) mit der Wahrscheinlichkeit von p = 0,6. Dann muss auch die Regel (2) mit einem Wahrscheinlichkeitswert ergänzt werden, um eine entsprechende erweiterte W-Matrix wieder zu normieren, d. h., um zu garantieren, dass irgendein Übergang auf jeden Fall stattfindet. Derartige zusätzliche Feinheiten jedoch sind normalerweise nicht erforderlich und das Gesamtverhalten des jeweiligen ZA verändert sich dadurch nicht wesentlich.
|
||
Die grundsätzliche Dynamik stochastischer ZA ist von der deterministischer ZA nicht wesentlich verschieden, bis auf eine wichtige Ausnahme: Trajektorien stochastischer ZA
|
||
|
||
56
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Abb. 3.5 Schuppenmuster einer erwachsenen Perleidechse5 (Manukyan et al., 2017, S. 174)
|
||
weisen gewöhnlich lokale Schwankungen auf, d. h., sie fluktuieren ständig. Das liegt daran, dass die W-Matrix häufig die Bahnen im Zustandsraum verändern kann, auch wenn die Regeln „eigentlich“ die Trajektorie in eine wohl definierte Richtung steuern. Stochastische ZA können beispielsweise im Gegensatz zu deterministischen ZA einen Attraktor – auch einen Punktattraktor – kurzfristig wieder verlassen; allerdings „zwingen“ die Regeln das System sehr rasch wieder in den Attraktor zurück. In gewisser Hinsicht kann man dies dadurch charakterisieren, dass die Regeln die Gesamtdynamik in bestimmte Richtungen steuern, während die zusätzlichen probabilistischen p-Werte lokale Veränderungen und Störungen bewirken können.
|
||
Unter dem Stichwort der Ordnungsparameter werden wir im übernächsten Teilkapitel noch einige formalere Hinweise zum Verhältnis von Regeln und W-Matrizen geben; außerdem werden wir das Prinzip stochastischer ZA-Regeln an einem Beispiel erläutern.
|
||
Abschließend soll noch kurz auf ein nicht nur für Biologen interessantes Beispiel eines Modells mit stochastischen Zellularautomaten verwiesen werden. Es handelt sich um die Bildung von Schuppen bei der insbesondere in Spanien heimatlichen Perleidechse (Pöppe, 2017). Die erwachsenen Eidechsen weisen ein auffälliges schwarzgrünes Schuppenmuster auf, das nicht nur auf einen ersten Blick an die Zellen eines Zellularautomaten erinnert (Abb. 3.5):
|
||
Biologen der Universität Genf fanden nun heraus, dass sich die Entwicklung dieser Schuppen in der Tat durch einen stochastischen Zellularautomaten rekonstruieren lässt, und zwar so, dass im Endzustand, also bei den erwachsenen Echsen, grüne Schuppen „vorzugsweise“ von vier schwarzen und zwei grünen Schuppen umgeben sind, schwarze Schuppen dagegen von drei schwarzen und drei grünen Schuppen. Es handelt sich hier also um eine Sechser-Umgebung. Das entsprechende Zellularautomatenmodell der Genfer Biologen ist stochastisch, da die Bildung der entsprechenden Zellen nicht gleichmäßig und nur mit einer gewissen, allerdings signifikanten Wahrscheinlichkeit zu beobachten ist (für Details dieses Beispiels vgl. Manukyan et al., 2017).
|
||
5 Mit freundlicher Genehmigung von Michel Milinkovitch „Laboratory of Michel Milinkovitch at the University of Geneva, Switzerland“.
|
||
|
||
3.1 Zellularautomaten
|
||
|
||
57
|
||
|
||
Der Begriff „naturanalog“ im Titel dieses Buchs gewinnt bei derartigen Beispielen eine wörtliche Bedeutung.
|
||
|
||
3.1.3 Aktuelle Trends in ZA
|
||
Die Weiterentwicklung und Einsatzgebiete der Zellularautomaten in den letzten Jahren sind sehr vielfältig und kann hier nur exemplarisch aufgeführt werden (für eine Übersicht s. Bhattacharjee et al., 2020; Vispoel et al., 2022). Durch die Fortschritte in der Hardware und in Deep Learning (s. Kap. 5), steigt die Tendenz zur Entwicklung hybrider Systeme (s. Kap. 7).
|
||
Reversible ZA Reversible, bzw. inverse ZA ( Abschn. 3.3), bei denen der Vorgänger bei jeder Konfiguration eindeutig ist, werden z. B. zur Bestimmung von Clustern eigesetzt, wenn die Anzahl der Cluster unbekannt ist (z. B. Mukherjee et al., 2020; Abhishek, 2023), oder zur Klassifikation von Daten (Whitelam & Tamblyn, 2023; Bindhu & Pramod, 2023).
|
||
In der (Bild-) Kryptographie (Kumari & Mukherjee, 2022; Li & Wang, 2023; Stănică & Anghelescu, 2023) und in im Bereich der Datensicherheit (Sannigrahi, 2022; Degala et al., 2023) spielen reversible ZA eine immer größere Rolle, da diese sichere Schlüssel produzieren können.
|
||
Bedeutend sind die Entwicklungen der sog. Quantenpunkt-ZA (Quantum Dot Cellular Automata – QCA), die nach Prinzipien der ZA und Quantenmechanik operieren. Die Materialien der Quantenpunkte können sehr unterschiedlich sein; handelt es sich um Halbleiter, verbrauchen diese aufgrund ihrer nanoskopischen Materialstruktur sehr wenig Energie und werden zum Beispiel für digitale Schaltungen verwendet. (Smoliner, 2021; Alharbi et al., 2023).
|
||
Adaptive und lernende ZA Im Falle adaptiver ZA werden die Regeln sowohl räumlich auch als zeitlich verändert, wobei die Aktualisierungsregel selbst auf das Verhalten der Nachbarn reagieren kann (Khajehabdollahi et al., 2023).
|
||
Lernende ZA werden z. B. mit Methoden des Reinforcement Learning (s. Kap. 5) gekoppelt, wodurch die Zellen die Strategien anhand einer Rückmeldung anpassen (z. B. Khanjary, 2022; Fathinavid, 2022).
|
||
(Hierarchische oder dynamische) Neuronale ZA werden eingesetzt, um die lokalen Übergangsregeln des ZA durch verschiedene neuronale Netze lernen zu lassen (Stovold, 2023; Aillet & Sondén, 2023; Pande & Grattarola, 2023; Pajouheshgar et al., 2023). Darüber hinaus wird durch sog. Graph Neural Cellular Automata (Dwyer & Omwenga, 2023; Bhatti et al., 2023) die topologische Struktur der Systeme optimiert.
|
||
|
||
58
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Abb. 3.6 Mehrschichtiger eindimensionaler ZA (Lee, 2021, 319)
|
||
|
||
Zwei- und mehrschichtige ZA Die Idee bei zweischichtigen ZA besteht darin, dass z. B. ein eindimensionaler ZA als Basisschicht eingesetzt wird (Schicht 0) und eine zweite Schicht aus der Basisschicht generiert wird (Schicht 1), deren Zellen das Zellverhalten der Basisschicht beeinflussen (Dalai & Paul, 2023).
|
||
Abb. 3.6 zeigt einen mehrschichtigen ZA zur Modellierung von Konsum- und Investitionsaktivitäten auf der Mikroebene (Lee, 2021).
|
||
Mehrschichtige ZA werden z. B. auch als Alternative zur Extraktion der Merkmale in Convolutional Neural Networks (CNN Kap. 5) eingesetzt (Tansakul & Wongthanavasu, 2023), oder zur Erstellung der Faltungsfilter (convolutional filter), um die Performanz der CNN zu erhöhen (Yeşil & Korkmaz, 2023).
|
||
Zusammengefasst lässt sich festhalten, dass die Analyse komplexer Systeme vermehrt nach einem „Baukastenprinzip“ erfolgt, indem verschiedene Methoden kombiniert werden, um die jeweiligen Nachteile zu beheben. Durch die Kombination besteht die Hoffnung, komplexe dynamische Systeme jeglicher Art besser verstehen zu können.
|
||
3.2 Boolesche Netze
|
||
Boolesche Netze (BN) können ohne Beschränkung der Allgemeinheit als die elementare Grundform jeder Netzwerkmodellierung bezeichnet werden; streng genommen sind sie nichts anderes als ZA mit einer heterogenen und asymmetrischen Topologie. Damit ist Folgendes gemeint:
|
||
|
||
3.2 Boolesche Netze
|
||
|
||
59
|
||
|
||
Die Geometrie eines ZA ist üblicherweise dadurch bestimmt, dass es einen speziellen Umgebungstypus gibt wie meistens Moore- und von Neumann-Umgebungen; dieser Typus charakterisiert den ZA in dieser Hinsicht vollständig. In diesem Sinne haben wir im vorigen Subkapitel von einer homogenen Geometrie gesprochen. Außerdem sind die Wechselwirkungen symmetrisch, d. h., die Umgebung einer Zelle wirkt auf die Zelle ein, aber die Zentralzelle ist selbst Umgebungszelle für die Zellen ihrer eigenen Umgebung. Deswegen ist oben die Umgebung als eine „symmetrische Relation“ für die jeweiligen Zellen bezeichnet worden.
|
||
Die Einführung von BN ermöglicht es, diese Einschränkungen aufzuheben und die Geometrie, d. h. die topologischen Relationen, des formalen Systems sowohl heterogen als auch asymmetrisch zu konstruieren. Aufgrund dieser erweiterten Topologie sind BN in der praktischen Anwendung reichhaltiger als ZA (wenn auch nicht grundsätzlich). Kauffman (1993), der die Booleschen Netze unter der Bezeichnung NK-Systeme bekannt gemacht hat (N ist die Anzahl der Einheiten und K die Anzahl der Verbindungen, also die Umgebungsgröße), bezeichnet deswegen ZA als eine sehr spezielle Klasse von BN. Man kann also die Umgebungsgrößen mischen, d. h. Umgebungen der Größe K = 0, 1, 2, 3 oder noch andere einführen. Außerdem kann die Symmetriebedingung außer Kraft gesetzt werden, sodass Umgebungszellen auf eine Zentralzelle einwirken, diese jedoch nicht ihre Umgebungszellen beeinflussen kann oder nur einen Teil davon.
|
||
Ein BN wird demnach definiert durch:
|
||
|
||
1. die Struktur oder Topologie, bestehend aus einem Set von N definierten Elementen ni (Knoten) mit einem Set von geordneten Paaren (Verbindungen) eij = ni, nj , typischerweise repräsentiert in einem zusammenhängenden Digraph oder in einer Adjazenzmatrix (siehe weiter unten),
|
||
2. die Transformationsfunktionen, ein Set M von sog. Booleschen Funktionen fi, die für jedes Element ni bestimmt werden und
|
||
3. den Zustand S: ein Set an L Zuständen si, die mit natürlichen bzw. binären Zahlen für jedes Element ni festgelegt werden.
|
||
|
||
Ein einfaches Beispiel soll dies illustrieren: Gegeben sei ein binäres BN mit drei Einheiten a, b und c. Als Regeln sollen gelten
|
||
|
||
f (a, b) = c, und g(b, c) = a.
|
||
|
||
(3.11)
|
||
|
||
f und g sind definiert durch
|
||
|
||
f (1, 1) = 1; f (1, 0) = 0; f (0, 1) = 0; f (0, 0) = 0 g(1, 1) = 1; g(1, 0) = 1; g(0, 1) = 1; g(0, 0) = 0
|
||
|
||
(3.12)
|
||
|
||
60
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Umgangssprachlich bedeuten diese Regeln, dass z. B. bei a = 1 und b = 1 auch (der Zustand von) c = 1 wird; entsprechend wird bei a = 1 und b = 0 der Zustand von c = 0. In der von uns eingeführten ZA-Schreibweise der Regeln als n-Tupel wäre dann z. B. f zu charakterisieren als: (1, 1, 1); (1, 0, 0); (0, 1, 0); (0, 0, 0), da es auf den jeweils vorherigen Zustand von c nicht ankommt.
|
||
Wenn man sich nun die beiden Funktionen f und g etwas genauer anschaut, dann sieht man, sofern man sich etwas mit mathematischer Logik beschäftigt hat, dass f offensichtlich die sog. logische Konjunktion ist und g die logische Disjunktion – umgangssprachlich bedeutet „Konjunktion“ die Verknüpfung zweier Aussagen durch „und“, Disjunktion ist die Verknüpfung durch „oder“. Da diese logischen Verknüpfungen im 19. Jahrhundert durch den englischen Mathematiker George Boole zuerst in Form einer „logischen Algebra“ dargestellt wurden, nennt man diese Verknüpfungen mittlerweile auch „Boolesche Funktionen“, und Netze, deren Einheiten durch Boolesche Funktionen verknüpft sind, heißen deswegen eben „Boolesche Netze“.6
|
||
Graphisch illustriert sieht ein solches Netz beispielsweise folgendermaßen aus (Abb. 3.7):
|
||
„ODER“ ist die Disjunktion und „UND“ die Konjunktion. Die dritte Funktion ergibt sich daraus, dass auf die Einheit b nur diese Einheit selbst einwirkt, allerdings lediglich mit der „Identitätsfunktion“, die den Zustand konstant lässt.
|
||
Die Dynamik dieses kleinen Netzes ergibt sich folgendermaßen, in Abhängigkeit von den jeweiligen Anfangszuständen zum Zeitpunkt t0 (Tab. 3.1).
|
||
Zu lesen ist diese Graphik folgendermaßen: Sind z. B. alle drei Einheiten im Zustand 1, dann wirken die Booleschen Funktionen f und g derart, dass alle Zustände konstant bleiben; sind a und b im Zustand 1 und c = 0, dann werden im nächsten Zeitschritt alle drei Zustände = 1 etc.
|
||
Man kann sofort erkennen, dass die Zustände (1,1,1) und (0,0,0) Punktattraktoren sind, die von den jeweiligen Anfangszuständen aus in maximal zwei Schritten erreicht werden (vgl. Abb. 3.7). Die Topologie ist offenbar asymmetrisch, da b zwar sowohl a als
|
||
|
||
Abb. 3.7 Ein BN mit 3 Einheiten und 3 Funktionen
|
||
|
||
6 Dies können Sie genauer nachlesen in unserer in der Einleitung erwähnten Einführung in „Mathematisch-logische Grundlagen der Informatik“.
|
||
|
||
3.2 Boolesche Netze
|
||
|
||
Tab. 3.1 Dynamik eines Booleschen Netzes
|
||
|
||
a b c
|
||
|
||
a b c
|
||
|
||
a b c
|
||
|
||
a b c
|
||
|
||
t0
|
||
|
||
1 1 1
|
||
|
||
1 1 0
|
||
|
||
1 0 1
|
||
|
||
1 0 0
|
||
|
||
t1
|
||
|
||
1 1 1
|
||
|
||
1 1 1
|
||
|
||
1 0 0
|
||
|
||
0 0 0
|
||
|
||
t2
|
||
|
||
1 1 1
|
||
|
||
1 1 1
|
||
|
||
0 0 0
|
||
|
||
0 0 0
|
||
|
||
a b c 0 1 1 1 1 0 1 1 1
|
||
|
||
a b c 0 1 0 1 1 0 1 1 1
|
||
|
||
a b c 0 0 1 1 0 0 0 0 0
|
||
|
||
61
|
||
a b c 0 0 0 0 0 0 0 0 0
|
||
|
||
auch c beeinflusst, selbst aber durch die anderen Einheiten nicht verändert werden kann. In diesem Fall haben wir auch eine inhomogene Topologie, da die Umgebungsgröße K für a und c gleich 2 ist, für b jedoch K = 0. Die Dynamik, die sich mit den jeweiligen Funktionen und den Anfangszuständen ergibt, wird beispielhaft in Abb. 3.8 und 3.9 gezeigt.
|
||
f und g sind auch noch unter allgemeineren Aspekten interessant. Wenn man die Werte 0 und 1 als sog. „Wahrheitswerte“ der Aussagenlogik interpretiert mit 0 als „falsch“ und 1 als „wahr“, dann zeigt sich, wie bereits bemerkt, dass f die logische Konjunktion ist und g die logische Disjunktion. f und g sind also aussagenlogisch betrachtet zwei der bekannten zweistelligen Junktoren, von denen es – wie in den Umgebungsberechnungen für binäre ZA durchgeführt – genau 24 = 16 gibt. Wesentlich in diesem Zusammenhang sind neben der Konjunktion und Disjunktion noch die Implikation, die Äquivalenz und das ausschließende Oder (XOR). Alle drei seien kurz als Wahrheitsmatrizen dargestellt:
|
||
(3.13)
|
||
Zu lesen sind diese Wahrheitsmatrizen z. B. für die Implikation → folgendermaßen: Wenn beide Teilaussagen – z. B. „wenn es regnet, wird die Straße nass“ – wahr sind, dann ist die gesamte Aussage wahr; ist die erste Teilaussage wahr, die zweite jedoch nicht, dann ist die Gesamtaussage falsch; in den beiden restlichen Fällen ist die Gesamtaussage jeweils wahr. Entsprechend gilt für die Äquivalenz, dass die Gesamtaussage wahr ist, wenn beide Teilaussagen entweder wahr oder falsch sind ((1,1 = 1), (0,0 = 1)), sonst ist die Gesamtaussage falsch. Betrachtet man diese logischen Verknüpfungen
|
||
Abb. 3.8 Dynamik eines BN mit den Funktionen Disjunktion, Identität und Konjunktion, mit dem Anfangszustand (1,1,1)
|
||
|
||
62
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Abb. 3.9 Dynamik eines BN mit den Funktionen Disjunktion, Identität und Konjunktion, mit dem Anfangszustand (1,0,1)
|
||
jedoch nicht als logische Partikel der Sprache, sondern als Wirkungszusammenhänge in einem Netz, dann haben wir die Booleschen Funktionen als Übergangsregeln für die Einheiten des Netzes.
|
||
Da wir bei BN für die Fälle K = 1 und K = 2 die klassischen 1- und 2-stelligen Junktoren erhalten, nennt man die BN auch logische Netze.
|
||
Aufgrund der kombinatorischen Überlegungen im vorigen Teilkapitel ergibt sich unmittelbar, dass es 28 = 256 3-stellige Junktoren gibt und 216 = ca. 64.000 4-stellige. Ebenso gibt es 22 einstellige Junktoren, von denen der bekannteste die Negation NOT ist mit NOT (1) = 0 und NOT (0) = 1.
|
||
Aufgrund dieser Zusammenhänge kann man BN auch als „Dynamisierungen“ der Aussagenlogik betrachten, d. h. als eine Möglichkeit, mit den klassischen Mitteln der Aussagenlogik dynamische Systeme beliebiger Komplexität zu konstruieren. Entsprechend sind auch BN potentielle universale Turing-Maschinen, da sie eine Erweiterung der ZA repräsentieren.
|
||
BN eignen sich vor allem dazu, netzwerkartige Strukturen und deren Einfluss auf die Dynamik der entsprechenden Systeme zu untersuchen. Vor allem in sozialen und wirtschaftlichen Zusammenhängen kann man gewöhnlich nicht davon ausgehen, dass die dort vorfindlichen topologischen Zusammenhänge den Homogenitätsprinzipien und Symmetriebedingungen der üblichen ZA unterliegen. Im Gegenteil, soziale Organisationen z. B., ob in staatlichen oder privatwirtschaftlichen Bereichen, zeichnen sich durch ein hohes Maß an Asymmetrie in Form sozialer Hierarchien sowie durch sehr unterschiedliche Grade an „Vernetzungen“ aus: Inhaber bestimmter Berufsrollen in größeren Organisationen stehen mit durchaus unterschiedlich vielen anderen Rolleninhabern in Verbindungen – K ist nicht gleich für alle Rollen; diese Verbindungen weisen dazu noch unterschiedliche Symmetriegrade auf.
|
||
In einer von uns betreuten Magisterarbeit hat Udo Butschinek (2003) die Möglichkeiten von BN ausgenutzt, um die Effektivität von Kommunikationsflüssen in betrieblichen Organisationen zu untersuchen. Er modellierte unterschiedlich hierarchisch strukturierte Organisationen mit verschiedenen Entscheidungsebenen durch entsprechend konstruierte BN und konnte zeigen, inwiefern bei der plausiblen Annahme,
|
||
|
||
3.2 Boolesche Netze
|
||
|
||
63
|
||
|
||
dass Menschen Informationen z. T. nur fehlerhaft weitergeben, bestimmte redundante Informationswege eingebaut werden müssen und auf welchen Ebenen dies zu geschehen hat. Das Problem selbst ist aus der Nachrichtentechnik als „Rauschen“ seit langem bekannt und untersucht; neu ist die Zugangsweise über BN-Modellierungen, die dem Problem nicht nur für soziale Organisationen, sondern auch für asymmetrische Netze insgesamt sehr gut gerecht werden können. Damit eröffnen sich für Probleme der Unternehmensberatung neue Möglichkeiten der Unternehmensanalyse, da selbstverständlich nicht nur Kommunikations- und Informationsflüsse in Abhängigkeit von der jeweiligen topologischen Netzwerkstruktur untersucht werden können, sondern auch Probleme des Warentransports u. Ä. Dies ist vor allem dann interessant, wenn man BN hybridisiert, d. h. ihnen durch z. B. Koppelungen mit evolutionären Algorithmen die Möglichkeit gibt, sich selbst zu optimieren.
|
||
Die nach wie vor wichtigste Verwendungsmöglichkeit Boolescher Netze ist freilich die Tatsache, dass die Hardware eines Computers im Prinzip nichts anderes ist als ein – sehr großes – Boolesches Netz. Die sich daraus ergebenden Modellierungen und deren praktischer Nutzen werden wir in einem der folgenden Subkapitel zu einzelnen Beispielen näher darstellen.
|
||
Die formale Darstellung der Regeln eines BN ist im Prinzip genauso möglich wie die von Standard-ZA mit einer wichtigen Ergänzung: Da die topologische Struktur von BN in Abweichung von den üblichen ZA im Allgemeinen weder homogen noch symmetrisch ist und da die Regeln – als mengentheoretische Tupel geschrieben – darüber direkt7 nichts aussagen, wird die spezielle Topologie eines BN zusätzlich durch eine Adjazenzmatrix angegeben, die aus der Graphentheorie bekannt ist. Eine Adjazenzmatrix für das einfache Beispiel oben sieht so aus:
|
||
|
||
0 0 1 1 0 1
|
||
001
|
||
|
||
(3.14)
|
||
|
||
M.a.W.: Ist ein Matrixelement aij = 1, dann wirkt das Netzwerkelement i auf das Element j ein; ist aij = 0, dann gibt es zwischen i und j keine wirkende Verbindung (wenn auch vielleicht zwischen j und i). Etwas kompliziertere Adjazenzmatrizen spielen auch bei neuronalen Netzen eine wesentliche Rolle (s. Kap. 5).
|
||
Die Dynamik eines BN wird nicht nur durch die Regeln gesteuert, sondern die Topologie, also die in der Adjazenzmatrix enthaltene Struktur, hat ebenso Einfluss auf das dynamische Verhalten. Hierarchisch strukturierte Gruppen und Organisationen verhalten sich im dynamischen Sinne anders als egalitär strukturierte. Dies lässt sich auch mathematisch zeigen. Natürlich lassen sich, wie mehrfach erwähnt, auch BN mit einer sehr hohen Komplexität generieren. Die genaue Analyse der Dynamik Boolescher Netze
|
||
|
||
7 Mit etwas Mühe lässt sich die Topologie eines BN allerdings aus dem geordneten Satz der Funktionen ableiten.
|
||
|
||
64
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
(wie auch der Zellularautomaten) ist nicht immer einfach, denn es stellt sich anhand der aufgeführten Beispiele die Frage, welchen Einfluss bestimmte Eigenschaften der jeweiligen Funktionen und der Topologie auf die Dynamik haben. Diesem Problem wird Abschn. 3.3 gewidmet.
|
||
|
||
3.2.1 Aktuelle Trends in BN
|
||
BN werden verstärkt in verschiedenen Disziplinen eingesetzt, insbesondere, um das dynamische Verhalten komplexer Systeme zu untersuchen. Einige ausgewählte Ansätze werden kurz vorgestellt.
|
||
Probabilistische BN (PBN) Durch probabilistische BN werden Unsicherheiten in einem System modelliert. Für jeden Knoten werden unterschiedliche Funktionen angegeben, die mit einer gewissen Wahrscheinlichkeit auftreten und ausgewählt werden können (Chen, 2023).
|
||
PBN spielen z. B. in intelligenten Stromnetzen (Smart Grids) eine Rolle (De La Cruz et al., 2023) und werden mit Reinforcement Learning (RL) ( Kap. 5) angereichert. Durch die Interaktion mit der Umgebung und anhand von Rückmeldungen, sollen (logische) Fehler und Ausfälle vermieden werden (Torres et al., 2023).
|
||
Modelle, die auf Reinforcement Learning basieren, werden z. B. auch entwickelt, um genregulatorische Netzwerke zu steuern, die auf probabilistischen BN basieren (Yerudkar et al., 2023).
|
||
BN und Genregulationsnetzwerke (GRN) BN werden in sog. Genregulationsnetzwerken (Gene Regulatory Networks – GRN) eingesetzt (vgl. Kap. 4), in denen jeder Knoten des Netzwerks benachbarte Knoten durch vordefinierte deterministische Regeln reguliert. Die Suche und Analyse der Attraktoren (vgl. Kap. 2) sind von entscheidender Bedeutung, da diese Merkmale bzw. Phänotypen in biologischen Systemen repräsentieren (Khaled et al., 2023; Zhao et al., 2023). Auf diese Weise können Auswirkungen von Mutationen (Liu et al., 2023) oder die Wirkung von Medikamenten für bestimmte Krankheiten (Lahiri et al., 2023) untersucht werden.
|
||
Generalisiert werden gemeinsame oder ähnliche Attraktoren in mehreren Netzwerken untersucht, um verborgene Ähnlichkeiten und Unterschiede zwischen Netzwerken zu finden (Cao et al., 2023). Zusätzlich werden lokale Perturbationen eingeführt, die ein Wechsel in den Attraktionsbecken (s. Kap. 2) hervorrufen, um die Trajektorien zu analysieren (Schwab et al., 2020; Abb. 3.10).
|
||
BN und Neuronale Graphen-Netzwerke (Graph Neural Networks – GNG) Es sei noch angemerkt, dass BN im Allgemeinen eine große Rolle im Zusammenhang mit der Entwicklung von „Graph (Neural) Cellular Automata“ (Bertacchini et al., 2022;
|
||
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
|
||
65
|
||
|
||
Abb. 3.10 Ein Genregulationsnetzwerk. a stellt einen Teil der FOXO-Wirkungskette (eine bestimmte Proteinform) und ihre biologische Interaktion dar, b ist das Boolesche Netzwerkmodell von A, c zeigt die Dynamik von drei disjunkten Unterabschnitten des Graphen, die drei verschiedenen phänotypischen Mustern entsprechen. (Schwab et al., 2020, 572)
|
||
Waldegrave et al., 2023) oder „Neuronale Graphen-Netzwerke“ (Grohe, 2023) spielen (Abschn. 3.1.3; Kap. 5).
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
Sowohl ZA als auch BN sind von ihren logischen Prinzipien her äußerst einfache Systeme, die sich deswegen auch relativ unkompliziert programmieren lassen. Umso verwirrender wirkt es häufig, dass ihre Dynamik alles andere als einfach zu durchschauen ist. Der Grund dafür liegt darin, dass die lokal gesteuerten Wechselwirkungen permanente Rückkoppelungen in den Systemen bewirken, die diese zu besonders eindrucksvollen Modellen „reiner“ Nichtlinearität machen können (vgl. Holland, 1998). Die Möglichkeit, mit ZA- und BN-Modellierungen beliebig komplexe Dynamiken zu erzeugen, wirft die Frage auf, ob es bestimmte Gesetzmäßigkeiten gibt, denen die verschiedenen Formen der Systemdynamiken unterliegen. Da sowohl BN und ZA potentielle universale Turing Maschinen sind, würden derartige Gesetzmäßigkeiten grundsätzlich auch für alle realen Systeme gelten.
|
||
Man findet in der Literatur eine ganze Reihe von Ansätzen, solche Gesetzmäßigkeiten zu entdecken, und zwar in Form von sog. Ordnungsparametern, zuweilen auch als Kontrollparameter bezeichnet (z. B. Vispoel et al., 2022; Glover et al., 2023). Ordnungsparameter sind numerische Werte, mit denen man die Regeln/Funktionen oder die topologischen Strukturen von BN und ZA charakterisieren kann; BN und ZA, für die bestimmte Werte der einzelnen Ordnungsparameter gelten, das ist die Hoffnung, generieren dann bestimmte Formen der Systemdynamik. Dabei ist zu unterscheiden, ob die Ordnungsparameter notwendige oder hinreichende Bedingungen für bestimmte Systemdynamiken darstellen oder nur im statistischen Sinne eine erhöhte Wahrscheinlichkeit für
|
||
|
||
66
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
deren Generierung darstellen. Bevor jedoch einige dieser Ansätze hier beschrieben werden, muss auf einige grundlegende Probleme hingewiesen werden.8
|
||
Zum einen gibt es keine einheitliche Definition oder Klassifizierung von Systemdynamik. Vielfach wird von höherer oder geringerer Komplexität der Dynamik gesprochen, wobei je nach Ansatz z. B. die Anzahl der prinzipiell aus allen möglichen Anfangszuständen erreichbaren Zustände (vgl. Abschn. 2.2), Länge der größten Perioden zyklischer Attraktoren, die Länge der Folge von Transienten bis zum Erreichen eines Attraktors (beliebiger Periode) oder die Anzahl der einzelnen Attraktorenbecken in der Menge der Attraktorbecken eines BN oder ZA gemeint ist. Die in Kap. 2 gegebene pragmatische Definition reicht allerdings für praktische Zwecke gewöhnlich aus.
|
||
Hinzu kommt, dass i.A. bei Zellularautomaten und größeren Booleschen Netzen, obschon diese streng deterministisch und endlich sind, wegen der großen Zahl möglicher Zustände die vollständige Menge z. B. der Attraktorbecken praktisch nicht beobachtet werden kann. Wenn es um Attraktoren mit langer Periode geht, kann oft nicht einmal ein Attraktor vollständig dargestellt werden; man kann lediglich Trajektorien registrieren, die in der Beobachtungszeit keinen Zustand zweimal erreichen. Auf die Komplexität wird dann z. B. aus dem visuellen Bild der ZA-Simulation, aus dem Auftreten von „lokalen Attraktoren“ (vgl. Abschn. 2.2) und mit Hilfe von statistischen Analysen geschlossen.
|
||
Zum anderen ist zu klären, in welcher Weise überhaupt topologische Struktur, Sets von Regeln/Funktionen oder einzelne Funktionen mit der Dynamik, wie immer man sie definiert, zusammenhängen.
|
||
Diese schwierigen Verhältnisse lassen sich am einfachsten anhand von Beispielen kleiner BN veranschaulichen. Dabei kommt uns zugute, dass die „klassischen“ Booleschen Netze nur binäre Werte der Einheiten, oft auch als Knoten bezeichnet, zulassen und überdies streng deterministisch sind; damit ist die Zahl aller möglichen Zustände9 wie auch die Menge aller Attraktorbecken prinzipiell festgelegt und endlich, bei kleinen BN auch überschaubar. Seltsame Attraktoren u. ä. kann es nicht geben.
|
||
Betrachten wir zuerst die kombinatorische Situation: In einem BN mit N Knoten kann prinzipiell jedem Knoten eine N-stellige Boolesche Funktion (BF) zugeordnet werden10. Es gibt 22N N-stellige BF11. Es zeigt sich, dass es damit 2N·2N mögliche BN der Größe N gibt (s. u.). Jedes dieser BN liefert genau eine Menge von Attraktorbecken (basin of attraction field, BAF); jedes BAF kann durch eine 2N × N-Adjazenzmatrix (s. Beispiele
|
||
|
||
8 Leser/innen, die an diesen theoretisch-mathematischen Überlegungen nicht interessiert sind, können dies Subkapitel auch überspringen; für das Verständnis der in den folgenden Passagen gebrachten Anwendungsbeispiele sind diese Überlegungen im Allgemeinen nicht erforderlich. 9 Bei N Knoten sind das bekanntlich 2N mögliche Zustände. 10 Die 2- und 1-stelligen Junktoren sind in der Menge der 3-stelligen immer schon als sog. reduzible enthalten. 11 Das sind 16, 256, 216, … Funktionen für N = 2, 3, 4, …
|
||
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
|
||
67
|
||
|
||
unten) bzw. einen zugehörigen (signierten) Digraphen repräsentiert werden, dessen Ecken die jeweils erreichten Zustände des BN darstellen.
|
||
Da das BN deterministisch ist, zeichnen sich die Adjazenzmatrizen dadurch aus, dass jede ihrer 2N Zeilen nur eine Eins, sonst Nullen enthält; es gibt daher nur 2N verschiedene Zeilen. Mit diesen können genau 2N 2N = 2N·2N verschiedene Matrizen, d. h. verschiedene BAF gebildet werden. Es existiert also eine Bijektion – eine umkehrbar eindeutige Abbildung – zwischen der Menge aller möglichen BN und der Menge aller BAF.
|
||
Betrachten wir nun die möglichen topologischen Strukturen eines BN mit N Knoten: Diese werden durch eine N × N-Adjazenzmatrix eines Digraphen mit N Ecken repräsentiert, die, wenn Schleifen berücksichtigt werden, je Zeile 0 bis N Einsen (neben Nullen) besitzen kann. Es existieren dann 2N verschiedene Zeilen, von denen jeweils N zur Matrix kombiniert werden. Von diesen Matrizen, d. h. Strukturen des BN, kann es damit nur 2N N = 2N2 geben, also ganz wesentlich weniger als BAF; mathematisch ausgedrückt, die Abbildung der BN-Strukturen auf die Menge der BAF ist zwar surjektiv, aber nicht eindeutig; gleiche BN-Strukturen können zu verschiedenen BAF führen.
|
||
Wir stehen damit vor einer betrüblichen Tatsache, die die Ableitung allgemein gültiger Beziehungen zwischen BN-Struktur und BAF, d. h. auch zwischen BN-Struktur und Komplexität der Dynamik sehr schwierig macht.
|
||
Wenn also derartige Beziehungen, wie sie die verschiedenen Ordnungsparameter darstellen, abgeleitet werden sollen, wird dies nur in begrenzten Geltungsbereichen zu erwarten sein. Wenn es um den Einfluss von topologischer Struktur auf die Dynamik geht, dann wird man sich auf sehr geringe Variation oder konstant gehaltene Auswahl der Funktionen beschränken müssen12; geht es um den Einfluss der Funktionen auf die Dynamik, dann wird es ratsam sein, sich nur auf eine Struktur zu beziehen.
|
||
Die im Folgenden präsentierten Beispiele von BN mit N = 3 sollen demonstrieren, wie kompliziert sich die Beziehungen zwischen Funktionen, Struktur und Komplexität im Einzelfall erweisen.
|
||
Die topologische Struktur der drei Beispiele ist in Abb. 3.11 dargestellt. Die Sets der den Elementen a,b,c zugeordneten Booleschen Funktionen für die drei Beispiele sind:
|
||
|
||
BN1 : {fa = a ⊻ c, fb = a, fc = b} BN2 :{fa = a ∧ c, fb = a, fc = b} und BN3 : {fa = c → a, fb = a, fc = b}.
|
||
|
||
(3.15)
|
||
|
||
Die Dynamik des BN soll hier in einer alternativen Form13 dargestellt werden, die die erwähnten Probleme deutlicher macht. Dazu wird der 2N × N-Matrix der 8 möglichen
|
||
|
||
12 Viele Untersuchungen beschränken sich z. B. schon von vornherein auf bestimmte zweistellige Funktionen. 13 Die Tabelle gilt nur für das übliche synchrone Update. In diesem Falle genügt die Berechnung des ersten Zeitschritts für die Bestimmung der Menge aller Attraktorbecken für den jeweiligen Satz von Funktionen.
|
||
|
||
68
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Abb. 3.11 Topologische Struktur
|
||
|
||
binären Anfangszustände (also eine 8 × 3 Matrix, hier der Einfachheit halber in Tabellenform) die Matrix den jeweils durch den Funktionsset transformierten Zuständen in analoger Matrixform gegenübergestellt (Tab. 3.2).
|
||
Wenn man die binäre Darstellung der Zustände durch die entsprechende Dezimaldarstellung ergänzt, kann man sofort die Adjazenzmatrix A und die gesamten Graphen der Menge der Attraktorbecken angeben. Wenn i die Zeile der obigen Darstellung der 2N × N-Abbildungsmatrix ist, dann ist Aij = 1, sonst A = 0, wobei j die in eine Dezimalzahl umgewandelte Binärzahl des jeweiligen Zustandes des BN ist. Beispielsweise ergibt sich für den Anfangszustand (011), dezimal 3, bei BN1 der Zustand für t = 1 als (101), dezimal 5; also hat in der 3. Zeile der Adjazenzmatrix14 das Element A35 den Wert 1, alle anderen Elemente der 3. Zeile sind 0. Entsprechend werden alle anderen Zeilen berechnet.
|
||
Den Graphen, der durch die Adjazenzmatrix A repräsentiert wird, kann man sich entweder durch eine geeignete Software visualisieren lassen, oder man führt selbst eine Tiefensuche durch. Im Beispiel kommt man vom Anfangszustand 1 (2. Spalte der Tab. 3.2) zum Zustand 4 (4. Spalte der Tab. 3.2), vom Zustand 4 (dieser wird als neuer Anfangszustand betrachtet; zurückspringen in die 2. Spalte) kommt man zum Zustand 6 und so fort. Der Zustand 0 geht in sich selbst über, ist also ein Punktattraktor.
|
||
Man erhält nach diesem Verfahren15 die obigen BAFs (Abb. 3.12). Es zeigt sich, dass der Austausch nur einer Funktion (z. B. a ⊻ c gegen a ∧ c) bei gleicher topologischer Struktur das BAF massiv verändern kann; aus 7-Zyklus und 1-Zyklus (= Punktattraktor) werden 2 Punktattraktoren und 2 sog. Garden-Eden-Zustände. Eine solche Situation tritt häufig auf.16
|
||
14 Die Adjazenzmatrix wird hier mit i.j = 0,1, …,N-1 indiziert. Es sei noch darauf hingewiesen, dass die (gerichteten) Graphen signiert sind, d. h. ihre Elemente tragen eine Zahl, die den SystemZustand angibt. Vertauschung der Signatur-Zahlen liefert eine andere BAF, die aber isomorph, also strukturell gleich ist. 15 Das beschriebene Verfahren ist umkehrbar: aus einem vorgegebenen BAF kann damit eindeutig der Funktionssatz bestimmt werden. Jede der Spalten der binären 8 × 3 Matrix, als Binärzahl interpretiert und in eine Dezimalzahl umgewandelt, gibt genau eine der Booleschen Funktionen in Form des sog. Wolfram-Codes an. 16 Als Garden Eden Zustände werden solche bezeichnet, die selbst nicht aus Übergängen hervorgehen, also keine „Vorgänger“ haben.
|
||
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
|
||
69
|
||
|
||
Tab. 3.2 Beispiele von Abbildungen/Transformationen der Anfangszustände eines BN mit N = 3
|
||
|
||
Anfangszustand S(t = 0) BN1 S(t = 1)
|
||
|
||
bin
|
||
|
||
dec j
|
||
|
||
bin
|
||
|
||
dec j
|
||
|
||
BN2 S(t = 1)
|
||
|
||
bin
|
||
|
||
dec j
|
||
|
||
BN3 S(t = 1)
|
||
|
||
bin
|
||
|
||
dec j
|
||
|
||
000
|
||
|
||
0
|
||
|
||
000
|
||
|
||
0
|
||
|
||
000
|
||
|
||
0
|
||
|
||
100
|
||
|
||
4
|
||
|
||
001
|
||
|
||
1
|
||
|
||
100
|
||
|
||
4
|
||
|
||
000
|
||
|
||
0
|
||
|
||
000
|
||
|
||
0
|
||
|
||
010
|
||
|
||
2
|
||
|
||
001
|
||
|
||
1
|
||
|
||
001
|
||
|
||
1
|
||
|
||
101
|
||
|
||
5
|
||
|
||
011
|
||
|
||
3
|
||
|
||
101
|
||
|
||
5
|
||
|
||
001
|
||
|
||
1
|
||
|
||
001
|
||
|
||
1
|
||
|
||
100
|
||
|
||
4
|
||
|
||
110
|
||
|
||
6
|
||
|
||
010
|
||
|
||
2
|
||
|
||
110
|
||
|
||
6
|
||
|
||
101
|
||
|
||
5
|
||
|
||
010
|
||
|
||
2
|
||
|
||
110
|
||
|
||
6
|
||
|
||
110
|
||
|
||
6
|
||
|
||
110
|
||
|
||
6
|
||
|
||
111
|
||
|
||
7
|
||
|
||
011
|
||
|
||
3
|
||
|
||
111
|
||
|
||
7
|
||
|
||
111
|
||
|
||
7
|
||
|
||
011
|
||
|
||
3
|
||
|
||
111
|
||
|
||
7
|
||
|
||
111
|
||
|
||
7
|
||
|
||
Abb. 3.12 Basin of attraction fields (BAFs)
|
||
An dieser Stelle sollen nicht weiter die Eigenschaften der Abbildungsmatrix im Detail analysiert werden. Hier ist nur auf folgende Punkte hinzuweisen:
|
||
• Die Abbildung der Anfangszustände eines BN auf die Folgezustände, aus der sich das BAF ergibt, ist von den zugeordneten Funktionen determiniert; die Zuordnung der N Funktionen zu den jeweiligen Knoten der BN-Struktur ist die Variable der Dynamik. Man könnte sagen, dass die geordnete Menge von N Funktionen ein BN vollständig beschreibt.
|
||
• Das Beispiel BN1 zeigt, wie einfach ein BN mit einem Zyklus einer fast maximalen Periode generiert werden kann, und zwar mit überwiegend einstelligen Funktionen, obwohl diese, wie weiter unten noch erläutert wird, „kanalisierend“ sind; häufig wird in der Literatur angegeben, dass diese zu einer einfachen Dynamik führen sollten.
|
||
• Betrachtet man nur bestimmte Anfangszustände, dann können die jeweiligen Dynamiken/Trajektorien erheblich voneinander abweichen, je nachdem, mit welchem Zustand man in das Attraktorbecken bzw. seinen „Zufluss“ eintritt; an den Beispielen ist das gut zu erkennen.
|
||
Betrachten wir nun im Lichte der Erkenntnisse aus diesen kleinen Beispielen, die in der Literatur diskutierten Ordnungsparameter. Dabei ist zu unterscheiden zwischen Ordnungsparametern, die sich auf Eigenschaften des Funktionssets beziehen, und solchen, die auf der topologischen Struktur des BN basieren.
|
||
|
||
70
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
P-Parameter Die Physiker Weissbuch und Derrida (vgl. Kauffman, 1993) haben den sog. P-Parameter definiert, der auf der Verteilung der Zustandswerte 0 und 1 bei den Funktionen beruht. Die Verteilung der Zustandswerte bei den Funktionen f des Beispiels in Abb. 3.8 (s. auch 3.13) – die Konjunktion bei c und die Disjunktion bei a – weist folgende Eigentümlichkeit auf: Bei der Konjunktion wirken zwei Variablen – a und b – auf eine dritte c ein. Der Zustandswert von c ist in drei von vier möglichen Fällen 0 und nur in einem Fall 1 (die Konjunktion ist offensichtlich ein spezieller Fall einer totalistischen Regel). Komplementär dazu ist bei einer Disjunktion der Zustandswert der beeinflussten Variablen in drei Fällen 1 und nur in einem Fall 0. Entsprechendes gilt für die Implikation. Diese Verteilung der Zustandswerte ist der sog. P-Wert der drei Funktionen, d. h., in allen drei Fällen ist P = 0,75, da das Verhältnis von 1 und 0 immer 1:3 bzw. von 0 zu 1 ebenfalls 1:3 ist; also beträgt die Verteilungsproportion immer 3/4. Anders ist dies bei der Äquivalenz und dem XOR: Hier liegt eine Gleichverteilung der realisierbaren Zustandswerte vor und wir haben für beide Funktionen P = 0,5. Falls eine dieser Booleschen Funktionen nur einen bestimmten Zustand generiert, dann ist deren Wert P = 1. Der P-Parameter misst also die Proportionen, mit denen die verschiedenen Zustandswerte durch eine Boolesche Funktion – eine lokale Regel – erreicht werden, sodass 0,5 ≤ P ≤ 1 ist.
|
||
Die P-Werte ergeben sich leicht durch Abzählen der 0 bzw. 1 in den Spalten der Abbildungsmatrizen der obigen Tabelle (vgl. 3.13).17 An den Beispielen kann man auch ersehen, dass P = 0,5 eine besondere Bedeutung für die Dynamik zukommt:
|
||
Da die maximale Periode eines BN nur dann generiert wird, wenn die Abbildung der Anfangszustände eine Permutation derselben liefert, müssen offensichtlich sämtliche Funktionen des BN (einzeln!) den P-Wert 0,5 besitzen. Das ist jedoch nur eine notwendige Bedingung, denn auch eine Permutation aller Zustände ist nicht fixpunktfrei bzw. frei von kürzeren Zyklen. Allerdings ergibt eine solche Permutation ausschließlich Zyklen (incl. Fixpunkte), niemals Garden-Eden-Zustände.
|
||
Vielfach wird versucht, P-Parameter als Mittelwert der P-Werte aller Funktionen eines BN zu verwenden, um Beziehungen zwischen Funktionen und Komplexität aufzudecken. Der Gesamtwert P eines Funktionssets ergibt sich dadurch, dass man von den verschiedenen Werteverteilungen der einzelnen Funktionen, also deren P-Wert, das arithmetische Mittel bildet. Haben wir z. B. in einem BN mit N = 3 im Funktionsset eine Konjunktion (P = 0,75), eine Disjunktion (P = 0,75) und eine Äquivalenz (P = 0,5), dann ist der Mittelwert P = 2/3. (Eine kleine Denksportaufgabe: Bestimmen Sie den P-Wert für das Game of Life.) Die Tatsache jedoch, dass ein Funktionsset, der ausschließlich Funktionen mit P = 0,5 enthält, eine notwendige Bedingung für rein zyklische BAF ist, zeigt bereits, wie problematisch ein solcher Ansatz ist. Es zeigt sich sogar, dass in der Regel die Komplexität schon von der Zuordnung von Funktionen zu einzelnen Knoten
|
||
|
||
17 Interessant ist, wie obige Beispiele zeigen, dass auch die einstelligen Funktionen, wenn sie als zweistellige, reduzible geschrieben werden, den Wert P = 0,5 besitzen.
|
||
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
|
||
71
|
||
|
||
des BN, also von der Anordnung der Funktionen im Funktionsset {f1, f2, f3, . . . fN } selbst dann abhängen kann, wenn die Positionen in der BN-Struktur topologisch äquivalent sind.
|
||
Die Aussagen bzw. Prognosen auf der Basis von Mittelwerten, das gilt auch für viele andere Ordnungsparameter, sind daher nur als Wahrscheinlichkeiten zu betrachten; die Dynamik kann im Einzelfall erheblich von den Prognosen abweichen. Wenden wir uns also unter dieser Perspektive den Ordnungsparametern und ihren Aussagen über die Dynamik zu.
|
||
Der P-Parameter wirkt sich folgendermaßen aus: 0,5 ≤ P ≤ 0,63 erzeugt häufig relativ komplexe Dynamiken, d. h. Attraktoren mit langen Perioden und häufig ebenfalls langen Vorperioden. Größere P-Werte generieren einfache Dynamiken mit meistens Punktattraktoren. Die Wahrscheinlichkeit komplexer Dynamiken ist demnach bei 0,64 ≤ P ≤ 1 wesentlich geringer als die einfacher Dynamiken. Zu beachten ist freilich, dass komplexe Dynamiken nur bei bestimmten Anfangszuständen erreicht werden können. Wenn man einmal mit dem Game of Life experimentiert, wird man rasch feststellen, dass bei den meisten Anfangszuständen nur einfache Attraktoren (Periode 1 oder 2) mit geringen Vorperioden realisierbar sind. Der Wert des P-Parameters gibt also nur die prinzipiellen Möglichkeiten an, die ein System dynamisch realisieren kann.
|
||
λ-Parameter Langton (1992) hat einen zu P äquivalenten Parameter für Zellularautomaten untersucht, nämlich den sog. -Parameter. Dieser ist folgendermaßen definiert:
|
||
|
||
(kn − r) =
|
||
kn
|
||
|
||
(3.16)
|
||
|
||
mit 0 ≤ ≤ 1, wobei k die Anzahl der möglichen Zellenzustände ist, n die Größe der Umgebung und r die Anzahl der Regeln für den jeweiligen ZA. Als wichtigstes Ergebnis kann festgehalten werden, dass niedrige Werte dieses Parameters einfache Dynamiken generieren – einfach im oben beschriebenen Sinne – und dass bei ständiger Erhöhung der -Werte der ZA sich von der Wolframklasse 1 (Werte zwischen 0 und 0,20) sukzessive in die Klassen 2 (0,20–0,55), 4 (ca. 0,75) und 3 (0,55 und 1 – k−n) transformiert (Vispoel et al., 2022). Die letzten beiden Klassen werden jedoch nur in sehr geringen Wertebereichen von erreicht.
|
||
Man kann erkennen, dass die beiden Parameter in dem Sinne äquivalent sind, dass sie beide die proportionalen Verteilungen der Zustandswerte messen, die durch die jeweiligen lokalen Regeln bzw. Booleschen Funktionen im Falle binärer BN realisiert werden.
|
||
In Abb. 3.13 werden die Analogien zwischen den Wolfram-Klassen und -Parameter veranschaulicht (Vispoel et al., 2022).
|
||
|
||
72
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Abb. 3.13 Wolfram-Klassen und -Parameter (Vispoel et al., 2022, 6)
|
||
|
||
C-Parameter Ein anderer Ordnungsparameter ist der von Kauffman (1993) definierte C-Parameter, der die Anzahl der sog. kanalisierenden Booleschen Funktionen in einem BN misst (vgl. Kadelka et al., 2023 für kollektiv kanalisierende Funktionen). Eine kanalisierende Funktion ist eine Boolesche Funktion, bei der ein bestimmter – nicht jeder! – Wert einer einzigen Variablen ausreicht, um das Gesamtergebnis festzulegen. Diese Variable lenkt die Funktionsdynamik sozusagen in einen festen Kanal – daher der Name.
|
||
Eine kanalisierende Funktion ist z. B. die Konjunktion: Wenn nur eine Variable den Wert 0 hat, dann ist das Ergebnis immer 0 (vgl. 3.13); entsprechend kanalisierend wirkt die Disjunktion, da hier nur eine – beliebige – Variable 1 sein muss, um das Ergebnis immer auf 1 zu bringen. XOR ist nicht kanalisierend, wie man sich anhand der obigen Wahrheitsmatrix sofort überzeugen kann. Die Implikation dagegen ist kanalisierend, jedoch nur in Bezug auf eine Variable. (Frage: Welche ist das?).
|
||
Der C-Parameter misst das Verhältnis von kanalisierenden Funktionen in einem BN zu allen Funktionen. Generell soll gelten, dass proportional viele kanalisierende Funktionen einfache Dynamiken erzeugen und umgekehrt. Die beiden Funktionen f und g im obigen Beispiel (Abb. 3.6, 3.7 und 3.8) sind jeweils kanalisierend. Damit ergibt sich eine theoretische Erklärung für das sehr einfache Verhalten des obigen Netzes: Beide wirksamen Ordnungsparameter erzeugen eine einfache Dynamik wegen des relativ hohen
|
||
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
|
||
73
|
||
|
||
P-Wertes einerseits und der Tatsache andererseits, dass es nur kanalisierende Funktionen gibt.
|
||
Dass die Gültigkeit derartiger Aussagen sehr begrenzt ist, zeigt allerdings schon das Beispiel der BN1 bis BN3 in Tab. 3.2. In allen Fällen ist die Mehrheit der Funktionen kanalisierend, gleichwohl ist die Komplexität hoch.18
|
||
Kauffman (1993) hat die Behauptung aufgestellt, dass K, also die ggf. durchschnittliche Größe der Umgebung in einem BN, ebenfalls ein Ordnungsparameter ist in dem Sinne, dass bei K > 2 komplexe Dynamiken erzeugt werden und dass bei K = 2 oder K = 1 bei zufallsgenerierten BN praktisch nie komplexe Dynamiken auftreten. Diese Annahme, die mehrfach in der Sekundärliteratur wiederholt wurde, konnte von uns so nicht bestätigt werden aufgrund eigener Untersuchungen in unserer Arbeitsgruppe (vgl. Klüver & Schmidt, 1999): Bei K = 2 oder K = 1 treten bei zufallsgenerierten BN praktisch immer sehr viele kanalisierende Boolesche Funktionen auf, da es für K = 1 nur kanalisierende Funktionen gibt – per definitionem – und bei K = 2 von den 16 möglichen nur die XOR-Funktion und die Äquivalenz nicht kanalisierend sind. Daraus erklären sich die einfachen Dynamiken für die Fälle K = 1 und K = 2. Bei größeren K-Werten nimmt dann die Anzahl der kanalisierenden Funktionen sehr stark ab, sodass hier der C-Parameter nicht mehr stabilisierend wirkt. Damit kann K nicht als unabhängiger Ordnungsparameter angesehen werden. Darüber hinaus zeigt bereits ein Blick auf Zellularautomaten, dass K nicht in dem von Kauffman behaupteten Sinne wirksam sein kann: Es ist sehr leicht möglich, Zellularautomaten mit einer Moore-Umgebung zu konstruieren bzw. zufällig generieren zu lassen, also K = 8, die prinzipiell nur sehr einfache Dynamiken erzeugen.19
|
||
Waren die bisher erwähnten Parameter allein aus dem Funktionsset der BN und ZA abgeleitet, wird versucht, eine zweite Gruppe von Ordnungsparametern aus Eigenschaften der topologischen Struktur abzuleiten. Dieser Ansatz betrifft die Struktur von BN und ZA in unterschiedlicher Weise, da die Struktur eines ZA durch die Wiederholung der im Prinzip immer gleichen Nachbarschaftsstruktur einer Zelle gekennzeichnet ist.
|
||
Der Grundgedanke hinter der Definition von Ordnungsparametern, die auf der topologischen Struktur – repräsentiert durch einen Digraphen bzw. dessen asymmetrischer Adjazenzmatrix – beruhen, ist folgender:
|
||
Jede Einheit eines BN kann durch die Anzahl der Wirkungen charakterisiert werden, die von dieser Einheit auf andere Einheiten ausgeübt werden. Bei N Einheiten eines BN
|
||
|
||
18 Die Beispiele zeigen jedoch auch ein Problem auf, nämlich wie eine höhere Komplexität genau definiert ist. Welche der drei BN im Beispiel führt zur höchsten Komplexität? 19 Im Übrigen sei darauf hingewiesen, dass jede 3- oder mehrstellige Boolesche Funktion als Kombination von zweistelligen Funktionen dargestellt werden kann, für die dann wieder das Kauffmansche Kriterium gelten müsste. In einem logischen Sinne „gibt“ es danach eigentlich gar keine Booleschen Funktionen mit K > 2.
|
||
|
||
74
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Abb. 3.14 Drei Beispiele von BN mit verschiedener Verteilung der Wirkungen auf die Elemente
|
||
|
||
ergibt sich daraus eine Menge von N natürlichen Zahlen (einschließlich der Null); jede dieser Zahlen repräsentiert die Anzahl der Wirkungen einer Einheit auf andere Einheiten. Dies ist die „Wirkungsmenge“ des entsprechenden BN. Eine Wirkung der Einheit a auf die Einheit b kann aus der Perspektive von a als „Auswirkung“ oder aus der Perspektive von b als „Einwirkung“ interpretiert werden; die auf eine Einheit bezogene Summe der Wirkungen wird im Strukturdigraphen entsprechend als Außengrad (outdegree od) von a repräsentiert oder als Innengrad (indegree id)20.
|
||
|
||
v-Parameter Ein Ordnungsparameter, der die mehr oder minder ungleiche Verteilung der Wirkungen abbildet, ist insbesondere von unserer Arbeitsgruppe untersucht worden. Es ist der sog. v-Parameter (Klüver & Schmidt, 1999, 2007), der für ein BN folgendermaßen berechnet wird:
|
||
|
||
v = |(OD − ODmin)| |(ODmax − ODmin)|
|
||
|
||
(3.17)
|
||
|
||
mit 0 ≤ ∨ ≤ 1, wobei OD der sog. faktische Außengradvektor des Graphen des BN ist und ODmin sowie ODmax der minimal mögliche bzw. der maximal mögliche Außengrad (engl. outdegree) sind.
|
||
Die Beispiele sollen verdeutlichen, was damit gemeint ist (Abb. 3.14). Die zugehörigen Adjazenzmatrizen (Def. i → j) sowie deren Außengrad- und Innengrad-Sequenzvektoren OD und ID sind in Abb. 3.15 dargestellt.21 Der v-Parameter kann nun so berechnet werden, dass v = 0 für den Fall größtmöglicher Gleichverteilung der Außengrade (Struktur 1) gilt und v = 1 für den Fall größt-
|
||
|
||
20 Wir bitten um Entschuldigung dafür, dass wir diese graphentheoretischen Ausdrücke hier nicht näher erläutern, sondern auf unsere erwähnte Einführung in die mathematisch-logischen Grundlagen der Informatik verweisen. 21 Die Elemente des OD-Vektors sind die Zeilensummen der Adjazenzmatrix, die des ID-Vektors die Spaltensummen.
|
||
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
|
||
75
|
||
|
||
Abb. 3.15 Adjazenzmatrizen der BN-Strukturen und deren Innen- und Außengraden
|
||
|
||
möglicher Ungleichverteilung (Struktur 3). Die Berechnung der v-Parameter ist nur dann für einen Vergleich verschiedener BN-Strukturen sinnvoll, wenn die den Einheiten zugeordneten Funktionen nicht variiert werden; dazu müssen die ID-Vektoren, durch die die Stelligkeit der Funktionen bestimmt sind, konstant bleiben. Zur Berechnung von v wird folgendes Verfahren angewendet:
|
||
|
||
1. man ordnet die Elemente der OD-Vektoren absteigend (bei Struktur 2: [3 2 2 1]); 2. mit ODmin und ODmax sind die Vektoren mit der minimalen bzw. maximalen Länge,
|
||
also [2 2 2 2] und [3 3 2 0]; diese Vektoren charakterisieren den Fall maximaler Gleichverteilung bzw. Ungleichverteilung; 3. man berechnet nun
|
||
|
||
v = |(OD − ODmin)| , |(ODmax − ODmin)|
|
||
Damit ergeben sich für die obigen Fälle folgende v-Werte:
|
||
|
||
(3.18)
|
||
|
||
v = 0, v = 1/3 und v = 2/3
|
||
|
||
(3.19)
|
||
|
||
Vereinfacht ausgedrückt misst dieser Parameter das proportionale Maß der Wirkungsmöglichkeiten der einzelnen Einheiten auf andere.
|
||
Es hat sich herausgestellt, dass v sich als Ordnungsparameter tendenziell derart auswirkt, dass eine ungefähre Gleichverteilung der Anzahl der Wirkungen, die eine Einheit jeweils auf andere ausübt, komplexe Dynamiken erzeugt;22 sind diese Wirkungen ungleich verteilt, ergibt dies einfache Dynamiken. Etwas präziser ausgedrückt: 0 < v < 0,2 erzeugt komplexe Dynamiken, v > 0,2 generiert nur noch einfache Dynamiken. Dies gilt mit umso höherer Wahrscheinlichkeit, wenn man recht ähnliche BN-Strukturen mit möglichst gleichen Funktionen miteinander vergleicht. Das ist offensichtlich nur bei Variation der Außengrade von Strukturen möglich, die dieselben Innengrade besitzen, da bei Veränderung der Innengrade die Stelligkeit der Funktionen verändert werden muss und
|
||
|
||
22 Eine Ausnahme sind häufig BN, deren v-Parameter genau 0 beträgt. Das hat offensichtlich mit der meist hohen Symmetrie der Struktur in diesen Fällen zu tun.
|
||
|
||
76
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
damit die Funktionen. Veränderung der Funktionen führt aber per se zu Veränderungen der Dynamik, die nicht primär von der BN-Struktur abhängen.
|
||
Es zeigt sich, dass die Abbildung der Strukturen auf v nicht injektiv ist: Verschiedene Strukturen können gleiches v liefern. v charakterisiert nicht die Struktur an sich, sondern nur das Ausmaß der Verteilung der Inzidenzen.23 Streng genommen dürfen v-Werte nur für Digraphen mit gleicher Anzahl von Knoten und Kanten verglichen werden; die Werte sind aber mit einiger Vorsicht auch für unterschiedlich große und dichte Digraphen anwendbar.
|
||
Der v-Parameter hängt offensichtlich mit der Varianz der oben erwähnten Wirkungsmenge bzw. der Anzahl der Wirkungen der einzelnen Einheiten auf andere Einheiten zusammen, die im OD-Vektor zusammengefasst sind. Man kann deshalb einen praktisch äquivalenten v-Parameter über die Varianz definieren, der – wie der v-Parameter auf das Intervall [0,1] normiert – wie folgt zu berechnen ist:
|
||
|
||
vnew
|
||
|
||
=
|
||
|
||
(VAR(OD) − VAR(ODmin)) (VAR(ODmax) − VAR(ODmin))
|
||
|
||
(3.20)
|
||
|
||
Mathematisch ist die neue Version offenbar nicht wesentlich einfacher als die oben dargestellte; inhaltlich jedoch können vermutlich mehr Leser eher mit dem Begriff der Varianz etwas anfangen als mit den graphentheoretischen Definitionen. Die neue Version ist, da inhaltlich beide Definitionen die gleiche Charakteristik von BN messen, der alten äquivalent: Kleine, mittlere und hohe Werte sind für beide Versionen bei entsprechenden BN jeweils gleichermaßen festzustellen, d. h. kleine Werte der einen Version entsprechen kleinen Werten der anderen etc.
|
||
Die Definition des v-Parameters legt es nahe, eine gewissermaßen komplementäre Version einzuführen. Gemeint ist damit, dass eine zweite, komplementäre „Wirkungsmenge“ definiert wird, bei der für jede Einheit eines BN die Anzahl der Elemente angegeben wird, die auf das Element einwirken. Eine Menge dieser Art W* = (1,2,2) für ein BN mit drei Elementen würde also bedeuten, dass das erste Element von einem anderen Element beeinflusst wird und die beiden anderen Elemente von jeweils den beiden anderen. Diese Menge ist genau die Innengrad-Sequenz ID. Wenn man jetzt wieder die Varianz dieser zweiten Menge W* – oder den ersten v-Parameter jetzt mit ID statt OD – berechnet, dann könnte man versuchen, einen ähnlichen Zusammenhang zwischen der Varianz und der Dynamik des BN zu finden.
|
||
Dieser „komplementäre“ v-Parameter entspräche offenbar dem Gedanken, den Kauffman mit seiner Definition von K realisieren wollte, nämlich die Anzahl der Variablen der Booleschen Funktionen als Ordnungsparameter zu fassen. Die Anzahl n der Einheiten,
|
||
|
||
23 Für andere Arten des Strukturvergleichs können ähnliche Parameter, z. B. auch mit Berücksichtigung der ausgehenden Kanten oder der Anzahl der Zyklen oder Hamiltonzyklen im Digraphen, definiert werden – dies nur als Hinweis für graphentheoretisch etwas beschlagene Leser/ innen.
|
||
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
|
||
77
|
||
|
||
die auf eine bestimmte Einheit wirken, sagt ja nichts anderes aus als dass der Zustand dieser Einheit durch eine n-stellige Boolesche Funktion bestimmt wird. Allerdings ist im Gegensatz zu K der zweite v-Parameter als Proportionalmaß definiert und nicht als absolute Größe; Kauffman hat unseres Wissens auch nie mit BN experimentiert, bei denen unterschiedliche Größen von K in einem BN eingeführt waren.
|
||
Eine experimentelle Überprüfung der Beziehungen zwischen der komplementären „Wirkungsmenge“ und der Dynamik eines BN erweist sich leider als überaus schwierig. Der Grund dafür liegt, wie bereits bemerkt, darin, dass die BN-Struktur keine von der Funktionswahl unabhängige Variable ist: Die Stelligkeit der Funktionen determiniert die Innengrade und umgekehrt; jede Variation eines Innengrades, also einer Anzahl von Einwirkungen auf eine Einheit des BN zwingt zur Auswahl einer anderen Funktion. Die Veränderung einer Funktion jedoch, bewirkt bereits per se eine, oftmals gravierende, Veränderung der Dynamik und dieser Einfluss ist nicht vom Einfluss der ID-Struktur zu trennen. Allerdings ist die Stelligkeit einer Funktion streng genommen selbst schon eine topologische Eigenschaft.
|
||
|
||
Ordnungsparameter für stochastische ZA
|
||
|
||
λ-FP-Parameter Man kann übrigens zeigen, dass entsprechende Ordnungsparameter auch für stochastische ZA und BN definiert werden können; diese werden aus Kombinationen der Regeln und der Wahrscheinlichkeits-Matrix bestimmt (Klüver, 2000). Die Definition eines stochastischen Ordnungsparameters, der sich am λ-Parameter von Langton orientiert, ergibt sich folgendermaßen:
|
||
Sei P = pij die Wahrscheinlichkeitsmatrix für die Übergänge von Zustand i nach Zustand j und sei F = fij die Häufigkeitsmatrix für die Übergangsregeln (siehe oben 3.9 und 3.10).
|
||
Dann ist
|
||
|
||
FP = fpij = fij ∗ pij
|
||
|
||
(3.21)
|
||
|
||
eine „Häufigkeits-Wahrscheinlichkeitsmatrix“ für den jeweiligen ZA. Der stochastische Ordnungsparameter − FP ist nun
|
||
|
||
− FP =
|
||
|
||
i kfpik − jfpij (n − 1)
|
||
|
||
(3.22)
|
||
|
||
wenn k die Häufigkeit der Übergänge in den Zustand mit dem größten Wert in der FPMatrix ist und n die Anzahl der Elemente in der Matrix. Auch dieser Parameter misst offenbar die Abweichung von Gleichverteilungswerten, hier in der Kombination von Häufigkeits- und Wahrscheinlichkeitswerten. Wir (Klüver, 2000) konnten zeigen, dass der − FP-Parameter zwar ein relativ grobes Maß ist, sich jedoch grundsätzlich ähnlich auf die Dynamik auswirkt wie der -Parameter. Analog lassen sich stochastische Varianten zu anderen Ordnungsparametern konstruieren.
|
||
|
||
78
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Z-Parameter Der Vollständigkeit halber sei noch darauf hingewiesen, dass ein etwas anderer zusätzlicher Ordnungsparameter für ZA von Wuensche und Lesser (1992) eingeführt wurde, nämlich der sog. Z-Parameter. Dieser beruht auf einer „inversen“ Sicht auf die Dynamik, er misst die Wahrscheinlichkeit.
|
||
|
||
p f −1(St) = St−1
|
||
|
||
(3.23)
|
||
|
||
dass ein Zustand St aus einem bestimmten „Vorgänger-Zustand (pre-image) St–1 entstanden ist, wobei f −1 eine „inverse“ Übergangsfunktion des ZA ist; die Werte für Z werden aus den Wahrscheinlichkeiten für alle möglichen Übergänge (die sog. rule table) des ZA berechnet. ZA wie BN sind im Allgemeinen nicht t-invariant, d. h., die inverse Übergangsfunktion ist im Allgemeinen nicht eindeutig. Mehrere Vorgänger-Zustände können – mit je eigener Wahrscheinlichkeit – in denselben Zustand übergehen (Verzweigung des Graphen des Attraktorbeckens); Zustände können auch keine Vorgänger haben (Garden-Eden-Zustände).
|
||
Etwas technischer formuliert: Der Z-Parameter ist in „Vorwärts-Richtung“ gesehen ein Maß für die Konvergenz eines Attraktorbeckens, in „Rückwärts-Richtung“ ein Maß für die Verzweigung (bushiness) der Transienten, die in den Attraktor führen. Z ist als Wahrscheinlichkeit auf das Intervall [0,1] normiert.
|
||
Die Zusammenhänge von Z und der Dynamik lassen sich beim ZA grob so charakterisieren, dass 0 ≤ Z ≤ 0,6 Dynamiken der Wolfram-Klassen 1 und 2 beschreiben, also nur einfache Dynamiken; komplexe Dynamiken der Wolfram-Klassen 3 und 4 weisen vorzugsweise Werte über 0,6 auf.
|
||
Der Z-Parameters wird zwar aus den Übergangsregeln berechnet, er bildet allerdings eigentlich nur eine Eigenschaft des Digraphen der Attraktorbecken ab; man könnte auch sagen, der Z-Parameter ist letztlich eine Beschreibung verschiedener Kompexitätsklassen. 2N − 1 Garden-Eden-Zustände, die alle in einen einzigen Punktattraktor führen, sind ja nichts anderes als die Darstellung des Attraktorbeckens, wobei die Frage offen bleibt, warum die entsprechende Kombination von Funktionen in ihrer BN-Struktur gerade diesen Attraktor generiert. Darüber hinaus lassen gleiche Werte des Z-Parameters durchaus verschiedene Mengen von Attraktorbecken (BAF) bzw. Dynamiken zu.
|
||
Im Zusammenhang mit diesen Überlegungen und Ergebnissen soll vorgreifend erwähnt werden, dass wir bei einigen BN bestimmte Zusammenhänge zwischen der Adjazenzmatrix eines BN und der Größe der zugehörigen Attraktionsbecken gefunden haben: Je gleichmäßiger die Werte in der Matrix verteilt sind, desto größer sind tendenziell die Attraktionsbecken und umgekehrt. Da dies besonders für reellwertige Matrizen relevant ist, werden derartige Zusammenhänge im 5. Kapitel über neuronale Netze noch detaillierter dargestellt, sodass hier darauf verwiesen werden kann.
|
||
Generell kann man sagen, dass die einzelnen Ordnungsparameter jeweils Maße für Gleichheit bzw. Ungleichheit in verschiedenen Dimensionen in einem System sind. So misst etwa der P-Parameter das Maß an Ungleichheit, mit dem die verschiedenen Zustandswerte erzeugt werden; entsprechend lässt sich v als ein Maß für die Ungleichheit
|
||
|
||
3.3 Regeln, Topologie und Dynamik – die Ordnungsparameter
|
||
|
||
79
|
||
|
||
der Wirkungen einzelner Einheiten auf andere interpretieren. Ebenso können kanalisierende Funktionen als Maße für Ungleichheit verstanden werden, da hier eine Variable die andere(n) praktisch wirkungslos werden lässt.
|
||
Man kann sich leicht überlegen, dass auch der auf einen ersten Blick von den anderen Parametern völlig verschiedene Z-Parameter dem Prinzip der Ungleichheit folgt. Im Fall von Z = 1 ist die Wahrscheinlichkeit, den tatsächlichen Vorgänger des gegenwärtigen Zustandes zu berechnen, offensichtlich p = 1, d. h., es gibt nur einen möglichen Vorgänger. Je kleiner Z wird, desto mehr mögliche Vorgänger gibt es und desto einfacher wird die resultierende Dynamik. Nimmt man als Maß für Ungleichheit die Proportion (gegenwärtige Zustände: Anzahl der möglichen Vorgänger), dann sieht man unmittelbar, dass auch hier ein hohes Maß an Ungleichheit zu einfachen Dynamiken gehört – und umgekehrt, je gleicher die beiden Werte sind, desto komplexer die Dynamik.
|
||
Daraus lässt sich mit aller gebotenen Vorsicht ein generelles Prinzip der Ungleichheit ableiten24:
|
||
Je ungleicher ein komplexes System in den Dimensionen ist, die durch die verschiedenen Ordnungsparameter erfasst werden, desto einfacher ist seine Dynamik und umgekehrt. Da die Wertebereiche bei den einzelnen Parametern für einfache Dynamiken stets deutlich größer sind als die für komplexe Dynamiken kann man ebenfalls ableiten, dass die Wahrscheinlichkeit für einfache Dynamiken und damit für dynamische Stabilisierungen komplexer Systeme wesentlich höher ist als die für komplexe Dynamiken, die die Systeme sozusagen nie zur Ruhe kommen lassen. Um einfache Dynamiken zu generieren, reicht es in der Regel aus, wenn nur ein Parameter entsprechende Werte aufweist (Klüver, 2000; Klüver & Schmidt, 2007).
|
||
Da die Auswirkungen der einzelnen Ordnungsparameter in der Literatur nicht immer genau dargestellt werden (z. B. Langton, 1992; Kauffman, 1993, 1995, 2000), muss hier auf folgendes hingewiesen werden:25 Man könnte sagen, die Auswirkungen der einzelnen Ordnungsparameter gelten immer nur „im Prinzip“, d. h., sie gelten für viele, aber nicht alle entsprechenden Fälle, es finden sich immer Ausnahmen. Noch wesentlicher jedoch ist der Umstand, dass es verschiedene strukturelle Eigenschaften (und entsprechend verschiedene Ordnungsparameter) gibt, die sich anscheinend zuweilen in ihrer Wirkung
|
||
|
||
24 Dieses Prinzip lässt sich möglicherweise auch auf Funktionen übertragen: Zu untersuchen wäre, ob Funktionssets mit vielen verschiedenen Funktionen tendenziell einfachere Dynamiken ergeben als überwiegend gleiche Funktionen. Schließlich könnte auch noch eine Rolle spielen, in welcher räumlichen Weise (z. B. symmetrisch oder asymmetrisch) die Funktionen den Einheiten des BN zugeordnet sind.
|
||
25 Gerhard und Schuster (1995) erklären sogar, dass niemand den λ-Parameter, d. h. dessen Auswirkungen, richtig verstanden hätte. Das obige Prinzip der Ungleichheit zeigt, dass die Ordnungsparameter so undurchschaubar nicht sind; insbesondere erlauben sie ein allgemeines Verständnis der Dynamik dieser Systeme.
|
||
|
||
80
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
gegenseitig aufheben – z. B. niedriger P-Wert versus hoher v-Wert bei BN. Die prinzipiellen Dynamiken, zu denen ein ZA oder ein BN in der Lage sind, ergeben sich immer nur unter Berücksichtigung mehrerer Parameter.
|
||
Noch genauer gesagt: Die bisherige Diskussion über Ordnungsparameter müsste präziser unterscheiden zwischen Parametern, die eine notwendige, aber nicht hinreichende Bedingung für das Auftreten bestimmter Dynamiken darstellen, und solchen, die eine hinreichende Bedingung konstituieren. Es scheint so, als ob einige Parameter hinreichende Bedingungen für das Auftreten einfacher Dynamiken definieren. Für komplexe Dynamiken existieren eher einige notwendige, aber keine hinreichenden Bedingungen. Gerade solchen Bedingungen entsprechende Wertebereiche von Parametern wären von Interesse. Sie ergeben sich wahrscheinlich nur aus der Kombination mehrerer Parameter.26 Wenn man die Abbildungsmatrizen in Tab. 3.2 mit ihrer Kombination von N verschiedenen Spalten, die mit 2N binären Werten die Funktionen darstellen, betrachtet, bekommt man einen kleinen Eindruck davon, wie komplex sich die Symmetrien der einzelnen Spalten auf die Zeilen der transformierten Zustände auswirken, also auf die Menge der zu erwartenden Attraktorbecken. Hier gibt es noch viel aufzuklären.
|
||
In Abschn. 2.2 haben wir auf das methodische Verfahren hingewiesen, durch die Analysen „reiner“, d. h. formaler, dynamischer Systeme Erkenntnisse über reale Systeme zu gewinnen. Die dargestellten Ergebnisse in Bezug auf die Ordnungsparameter und die daraus abgeleiteten Prinzipien der Ungleichheit sowie der Wahrscheinlichkeit von stabiler Ordnung sind zwei besonders markante Beispiele für diese Möglichkeiten. Die Übertragbarkeit dieser Ergebnisse auf reale Systeme folgt aus der mehrfach angesprochenen logischen Universalität dieser formalen Systeme: Wenn die genannten Ergebnisse grundsätzlich für alle BN bzw. ZA gelten, dann gelten sie auch für jedes reale System, da sich immer ein geeigneter ZA oder ein geeignetes BN prinzipiell finden lässt, mit denen das reale System adäquat modelliert werden kann. Vorausgesetzt, die Modellierung bildet tatsächlich die für die Dynamik des realen Systems relevanten Regeln im BN oder ZA valide ab, dann hat das reale System auch die Dynamik, die das entsprechende formale Modell aufgrund der einschlägigen Parameterwerte aufweist. Es ist natürlich immer noch eine methodisch häufig sehr schwierige Frage, wie die Parameterwerte für die Regeln des realen Systems genau bestimmt werden können, wie also die Validität des formalen Modells gesichert und überprüft werden kann. Am Beispiel der sog. Metaparameter wird dies methodische Vorgehen zusätzlich verdeutlicht werden (s. u. Abschn. 7.1).
|
||
|
||
26 Wir haben in zahlreichen Computerexperimenten die wechselseitigen Beeinflussungen der verschiedenen Ordnungsparameter, nämlich für P, C und v untersucht und dabei die jeweiligen Wertebereiche angegeben, in denen komplexe Dynamiken entstehen können. Da dies den Rahmen dieser Einführung sprengen würde, haben wir die entsprechenden Ergebnisse in einer gesonderten Publikation dargestellt, auf die hier nur verwiesen werden kann (Klüver & Schmidt, 2007). Es spricht einiges dafür, dass in vielen Beispielen der v-Parameter einen entscheidenden Einfluss auf die jeweiligen Dynamiken hat.
|
||
|
||
3.4 Die Generierung topologischer Strukturen durch …
|
||
|
||
81
|
||
|
||
3.4 Die Generierung topologischer Strukturen durch den Algorithm for Neighborhood Generating (ANG)
|
||
Das methodische Vorgehen bei dem Einsatz von Zellularautomaten und/oder Booleschen Netzen lässt sich allgemein folgendermaßen beschreiben: Man definiert eine bestimmte Topologie bzw. Geometrie. Dies sind bei Zellularautomaten meistens von Neumann bzw. Moore-Umgebungen; bei Booleschen Netzen wird die Topologie durch die Angabe definiert, welche Elemente des Netzes durch Boolesche Funktionen miteinander verknüpft werden sollen. Anschließend werden bestimmte Übergangsregeln festgelegt – im Fall der Booleschen Netze sind das dann natürlich die Booleschen Funktionen -, aus denen sich auf der Basis der jeweiligen Topologie eine bestimmte Dynamik aus ebenfalls festgelegten Anfangszuständen ergibt. Die Anwendungsbeispiele in Abschn. 3.5 geben einen ersten Eindruck davon, welch unterschiedliche Fragestellungen mit diesem Vorgehen bearbeitet werden können.
|
||
Bei manchen Problemen erweist es sich als sinnvoll, dies methodische Vorgehen zu variieren: Man bestimmt nicht zu Beginn die Topologie des Systems, sondern lässt diese vom System selbst generieren. Die bei einem derartigen Vorgehen interessierende Frage ist dann nicht die spezifische Dynamik eines entsprechenden Systems und deren Ergebnisse, sondern welche topologische Ordnungsstruktur eine Menge von Objekten bzw. Elementen erhalten kann. Da der topologische Grundbegriff der einer Umgebung ist, kann man diese Frage auch so formulieren, welche Umgebungsstruktur einer Menge von Objekten aufgeprägt werden kann. Zur Bearbeitung dieser Frage haben wir den sog. Algorithm for Neighborhood Generating (ANG) entwickelt; ins Deutsche übersetzt kann man diesen Algorithmus auch als Umgebungen generierender Algorithmus (UGA) bezeichnen. In einer Zeit, in der die Probleme der sog. Big Data immer wichtiger geworden sind, nämlich die Ordnung sehr großer Datenmengen, ist ANG häufig eine geeignete Lösung. Wir stellen ANG deswegen hier in diesem Buch dar, weil er von uns aus der allgemeinen Logik von Zellularautomaten heraus entwickelt wurde.
|
||
Allgemein lässt sich das Prinzip von ANG folgendermaßen darstellen: Gegeben sei eine Menge von Objekten, die man wie in der Informatik üblich auch als Daten bezeichnen kann. Diese Objekte lassen sich durch bestimmte Eigenschaften bzw. Attribute charakterisieren, wodurch sich Ähnlichkeitsbeziehungen zwischen jeweils zwei Objekten definieren lassen. Es hängt natürlich von den Objekten ab, wie man die jeweilige Ähnlichkeitsbeziehung festlegt. Wenn man von einem bestimmten Objekt A ausgeht, dann sind die Objekte B1, B2 usw. Elemente der Umgebung von A, wenn sie gemäß der jeweiligen Definition von Ähnlichkeit A hinreichend ähnlich sind. Im Fall sog. metrischer Räume wird der Begriff der Ähnlichkeit präzise formuliert durch Angabe einer Distanz bzw. Entfernung zwischen zwei Objekten. Dann sind B1, B2 usf. Elemente der Umgebung von A, wenn die Distanz zwischen A und den Bi kleiner als ein definierter Grenzwert ist. Entsprechend definiert man die Umgebung(en) von B1, B2 usf. Der
|
||
|
||
82
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Algorithmus ordnet dann, ausgehend von A, die gesamte Menge je nachdem, in welchen Umgebungen die verschiedenen Elemente sind.27
|
||
Diese allgemeinen Hinweise lassen sich am besten durch das Problem verdeutlichen, für dessen Lösung ANG ursprünglich entwickelt wurde, nämlich das sog. Word Morph Spiel. Word Morph ist ein international und insbesondere im Internet sehr populäres Sprachspiel, an dessen Lösung sich zahlreiche Interessenten versucht haben. Wir sind durch Sprachtherapeuten darauf gebracht worden, uns mit Word Morph zu beschäftigen. Die Therapeuten setzen Word Morph dazu ein, die Wortfindungsprobleme von Patienten mit entsprechenden Störungen zu therapieren. Der Grund, sich an uns zu wenden, war die Hoffnung der Therapeuten, dass die Patienten durch die Unterstützung eines entsprechenden Programms ihre Wortfindungsschwierigkeiten selbstständig, d. h. ohne ständige Betreuung durch einen Therapeuten, bearbeiten und ggf. verbessern können.28
|
||
Die Regeln von Word Morph sind denkbar einfach: Gegeben ist ein „Startwort“ mit einer bestimmten Menge von Buchstaben, z. B. vier, und ein „Endwort“ mit der gleichen Anzahl von Buchstaben. Die Aufgabe besteht nun darin, eine „Wortkette“ zu bilden, die vom Startwort zum Endwort durch die Ersetzung genau eines Buchstabens durch einen anderen führt. Eine einfache Kette ist z. B. „Baum – Saum – Salm“ mit „Baum“ als Startwort und „Salm“ als Endwort. Man kann diese Aufgabe dann formal folgendermaßen darstellen:
|
||
Es wird eine metrische Relation d zwischen zwei gleich langen Worten A und B definiert mit der Eigenschaft d(A,B) = n, wenn A und B sich durch genau n Buchstaben unterscheiden. Eine „Word Morph Kette“ A – B – C – D ist dann charakterisiert durch d(A,B) = d(B,C) = d(C,D) = 1, wobei die Relation d symmetrisch ist, also d(A,B) = d(B,A). Wenn man festlegt, dass d(A,A) = 0, dann lässt sich zeigen, dass d im mathematisch strengen Sinne eine Metrik auf dem Raum aller Wörter mit der gleichen Anzahl von Buchstaben bildet (Klüver et al., 2016). Unter einer Metrik versteht man eine zweistellige Abbildung d einer Menge von Daten – eines „Raumes“ – auf die positiven reellen Zahlen mit der Eigenschaft
|
||
|
||
d(A, A) = 0, d(A, B) = d(B, A)(Symmetriebedingung) und d(A, C) ≤ d(A, B) + d(B, C)(Dreiecksungleichung).
|
||
|
||
(3.24)
|
||
|
||
Im Fall von Word Morph handelt es sich um eine sog. diskrete Metrik, weil d immer nur ganze positive Zahlen annehmen kann.
|
||
|
||
27 Mathematisch interessierte Leser seien hier darauf hingewiesen, dass in der allgemeinen Topologie der Begriff der Umgebung ohne Verwendung der metrischen Definition einer Distanz definiert wird. Wir verwenden für die Operationen von ANG „nur“ die metrische Umgebungsdefinition. 28 Wir wissen leider nicht, mit welchem therapeutischen Erfolg unser Programm von den Therapeuten eingesetzt worden ist.
|
||
|
||
3.4 Die Generierung topologischer Strukturen durch …
|
||
|
||
83
|
||
|
||
Es handelt sich hier übrigens um einen Spezialfall der sog. Levenshtein Distanz, die allgemein eine Entfernung zwischen zwei Objekten definiert durch die Anzahl der Transformationen, die ein Objekt in ein anderes überführen. Zusätzlich zu der Regel von Word Morph sind da auch Transformationen zugelassen, die durch Vertauschung von z. B. Buchstaben entstehen wie etwa „Lied – Leid“.
|
||
Für zwei Wörter A und B wird nun festgelegt, dass d(A,B) = 1 bedeutet, dass B in der Umgebung U(A) von A liegt und umgekehrt. Ein Algorithmus für die Lösung von Word Morph Problemen hat nun die Aufgabe, von einem gegebenen Startwort A aus die Umgebung U1(A) aus einer Menge vorgegebener Worte zu suchen. Diese Umgebung bildet eine Wortmenge B1, B2, …. Der Algorithmus prüft, ob das Endwort X in dieser Menge enthalten ist. Ist das der Fall, stoppt der Algorithmus und gibt das Endwort mit der Lösung A – X aus. Ist X nicht in der Umgebungsmenge von A enthalten, besteht der nächste Schritt des Algorithmus darin, die Umgebungen U2(Bi) aller Wörter zu generieren, die die Umgebungen der Bi, also der Umgebungsworte von A, bilden. Diese lassen sich als Umgebungen zweiter Stufe (nämlich in Bezug auf A) bezeichnen. Es wird wieder überprüft, ob X in einer der Umgebungen U2(Bi) enthalten ist. Ist X ∈ U2(BK ), stoppt der Algorithmus wieder und gibt die Lösung A − Bk − X aus.
|
||
Wenn X noch nicht gefunden wird, generiert der Algorithmus Umgebungen dritter Stufe, also die Umgebungen der Worte, die die Umgebungen zweiter Stufe bilden. Diese werden wieder daraufhin überprüft, ob eine Umgebung – ggf. sogar mehrere – X enthält. Im positiven Fall stoppt der Algorithmus; im negativen Fall werden entsprechend die Umgebungen 4. Stufe generiert usf., bis entweder in einer Umgebung Un X gefunden wird, sodass die entsprechende Lösungskette ausgegeben wird, oder bis der Algorithmus keine neuen Umgebungen mehr generieren kann.
|
||
Dieser zweite Fall kann zweierlei bedeuten: a) Die vorgegebene Wortmenge W ist ausgeschöpft, sodass zwar alle Worte bezüglich der Umgebungsstruktur geordnet wurden, aber X nicht in dieser Wortmenge enthalten ist. Dann könnte man X nachträglich hinzufügen und den Algorithmus erneut Umgebungen generieren lassen.
|
||
b) Der interessantere Fall, der bei hinreichend großen vorgegebenen Wortmengen nicht selten auftritt, ist natürlich der, dass X zwar in der Wortdatei enthalten ist, aber dass es keine Kette von A nach X gibt. Dies bedeutet, dass die Wortmenge W bezüglich der Relation d nicht topologisch zusammenhängend ist. Etwas anders formuliert: Der Algorithmus generiert eine „Partition“ von W derart, dass jedes Wort in genau einer Untermenge von W enthalten ist. Diese Untermengen sind „disjunkt“, d. h. sie haben keine gemeinsamen Elemente; die mengentheoretische Vereinigung der Untermengen ergibt dann wieder W. Es sei hier nur erwähnt, dass diese generierte Partition eine Äquivalenzrelation auf W definiert (für Details dazu sei z. B. verwiesen auf Klüver et al., 2012). Die Aufgabe, eine Kette von A nach X zu generieren, ist also in Bezug auf die Wortdatei nicht lösbar.
|
||
Sei nun die W1 die bisher untersuchte Teilmenge von W. In diesem Fall wählt der Algorithmus aus der „Restmenge“ W2 = |W − W1| = {X|X ∈ W ∧ X ∈/ W1} per Zufall ein neues Startwort S mit S ∈ W2 aus und generiert dessen Umgebungen, bis entweder X
|
||
|
||
84
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Abb. 3.16 Folge der
|
||
Partitionen P(Wi) von W gemäß dem Prinzip Wi wird partitioniert in Wi+1 und Wi+2
|
||
|
||
gefunden ist oder es sich wieder keine Lösung findet. Dann wird nach dem gleichen Verfahren die zweite Restmenge W2 partitioniert, woraus sich zwei Restmengen W3, die bereits strukturiert ist, und W4 ergeben. Falls sich auch in W4 keine Lösung ergibt, werden die Restmengen W5 und W6 konstruiert usf., bis sich eine Restmenge Wn ergibt, in der X enthalten ist. Das lässt sich graphisch wie in Abb. 3.16 darstellen.
|
||
Der Algorithmus, den wir aus mittlerweile nachvollziehbaren Gründen als ANG bezeichnen wegen seiner Logik, topologische Umgebungen und eine Folge von Partitionen zu generieren, leistet demnach mehrere Aufgaben:
|
||
1. In Bezug auf die – z. B. bei Word Morph – Standardaufgabe, eine Kette zwischen zwei vorgegebenen Objekten zu bilden, liefert ANG entweder eine Lösung oder beweist konstruktiv, dass es bei der vorgegebenen Objektdatei keine Lösung gibt. Konstruktiv ist der Beweis insofern, dass die iterative Generierung der Umgebungen jedes Objekt erfasst, das sich überhaupt auf diese Weise erfassen lässt.
|
||
2. Wird im zweiten Fall die Umgebungsgenerierung fortgesetzt, dann liefert ANG eine topologische Strukturierung der Gesamtmenge, die aus mehreren disjunkten Untermengen besteht. Wenn man primär daran interessiert ist, ob eine vorgegebene Menge von Objekten eine zusammenhängende topologische Struktur hat, ob also von jedem beliebigen Objekt eine Kette zu jedem anderen Objekt existiert, dann braucht kein Endobjekt vorgegeben zu werden, sondern lediglich ein beliebiges Startobjekt. ANG strukturiert dann die vorgegebene Gesamtmenge, sodass für jedes Objektpaar entweder eine Kette angegeben wird oder gezeigt wird, in welchen verschiedenen und disjunkten (!) Teilmengen die beiden Objekte jeweils enthalten sind.
|
||
|
||
3.4 Die Generierung topologischer Strukturen durch …
|
||
|
||
85
|
||
|
||
Abb. 3.17 Ein Graph generiert von Umgebungsstufe 1–9; Startwort ist „amber“, Endwort ist „urges“
|
||
Die topologische Strukturierung einer zusammenhängenden Menge bildet als Ergebnis einen sog. Graphen, d. h. eine bestimmte Menge von Objekten, die direkt oder indirekt miteinander verbunden sind. Graphen sind ein wichtiges mathematisches Werkzeug für Strukturanalysen von Datenmengen (vgl. z. B. Klüver et al., 2012). Man kann ANG demnach auch charakterisieren als einen Algorithmus, der aus einer vorgegebenen Datenmenge Graphen generiert. Die Abb. 3.17 zeigt aus einer englischsprachigen Version von ANG für Wordmorph (genauer einer Version, die eine englische Wortdatei benutzt) einen generierten Graphen, der aus Umgebungen bis zur 9. Stufe konstruiert worden ist.29, 30
|
||
29 Die Web-basierte Implementierung des ANG erfolgte durch Jozsef Sütö (für mehr Details Sütö & Klüver, 2021). 30 Für die ursprünglich deutschsprachige und die englischsprachige Version der Lösung von Word Morph durch ANG benutzten wir jeweils einen Wortthesaurus aus dem Internet für das verwandte Wortspiel „Scrabble“ mit Dateien bis zu 18.000 Wörtern.
|
||
|
||
86
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Es sei nur nebenbei erwähnt, dass bei unseren Experimenten mit Wörtern verschiedener Länge es sich zeigte, dass die Wortlänge einen deutlichen Einfluss auf die Strukturierung der jeweiligen Wortmenge hat: Je länger die Wörter sind, desto weniger zusammenhängend sind die gesamten Mengen und umgekehrt (Klüver et al., 2016). Doch das ist ein Problem für Linguisten.
|
||
Die Operationen von ANG auf einer Menge von Objekten wie hier im Beispiel von Word Morph lassen sich auch interpretieren als die Entfaltung einer spezifischen Dynamik durch die iterative Generierung der Umgebungen verschiedener Stufen. Es sei noch einmal betont, dass hier nicht eine Topologie vorgegeben wird, sondern dass umgekehrt diese durch die Dynamik von ANG erst erzeugt wird. Auch hier gilt allerdings, dass die Dynamik je nach Datenmenge Attraktoren erzeugt, nämlich dadurch, dass der Algorithmus durch Ausschöpfen der Datenmenge angehalten wird. Im einfachsten Fall, wenn der Algorithmus einfach stoppt, liegt offenbar ein Punktattraktor vor; es können jedoch auch Attraktoren größerer Periode auftreten, die den Algorithmus in Schleifen bringen.
|
||
Wenn ANG eine Teilmenge strukturiert hat, diese ausgeschöpft hat und die übrigen (disjunkten) Teilmengen ebenfalls strukturieren soll, dann muss eine oben beschriebene Metaregel eingesetzt werden, die die Strukturierung der übrigen Teilmengen realisiert. ANG lässt sich demnach als ein Spezialfall komplexer dynamischer Systeme auffassen, wie sie im ersten Kapitel generell dargestellt wurden.
|
||
Eine topologische Umgebung wird üblicherweise (insbesondere im Fall sog. metrischer Räume) durch einen Radius r definiert: Eine Umgebung U eines Elements X besteht aus allen Elementen Y, für die gilt dass d(X, Y) ≤ r. Im Fall einer diskreten Metrik wie bei Word Morph ist d(X, Y) = r. Man kann nun r selbst als Parameter auffassen, von dessen Größe die generierende Dynamik und die resultierende Topologie abhängt. Entsprechend kann man zeigen, dass im Fall von Wort Morph die Vergrößerung von r, also der Austausch von zwei oder noch mehr Buchstaben, dazu führt, dass die entsprechenden Wortmengen wesentlich zusammenhängender sind – ein Ergebnis, das sich durch die größere Anzahl von Kombinationsmöglichkeiten als durchaus plausibel erweist.
|
||
Interessanter ist eine Erweiterung der Regel von Word Morph, dass nämlich nicht nur der Austausch eines oder mehrerer Buchstaben bei der Generierung der Umgebungen durchgeführt wird, sondern auch die Hinzufügung bzw. Weglassung von Buchstaben. Dadurch entsteht ein zweiter Typus von Umgebungen. Um diese beiden Umgebungstypen voneinander zu unterscheiden, haben wir als horizontale Umgebungen diejenigen bezeichnet, die durch Austausch von Buchstaben entstehen; als vertikale Umgebungen werden dann diejenigen Umgebungen bezeichnet, die durch Hinzufügen oder Weglassen von Buchstaben aus den ersten Umgebungen generiert werden (Abb. 3.18). In Klüver et al. (2016) wird das näher beschrieben (vgl. auch Klüver & Klüver, 2021).
|
||
Etwas formaler: Sei A = (a1,a2 …an). Dann ist d(A, B) = 1 dann und nur dann wenn entweder gilt dass B = (a1 a2 … an an+1) oder B = (a1 a2 … an-1). Dadurch ist offenbar die Symmetriebedingung d(A, B) = d(B, A) erfüllt; es lässt sich auch einfach zeigen, dass die Dreiecksungleichung ebenfalls Gültigkeit hat.
|
||
|
||
3.4 Die Generierung topologischer Strukturen durch …
|
||
|
||
87
|
||
|
||
Abb. 3.18 Horizontale und Vertikale Umgebungen (Klüver & Klüver, 2021, S. 438. Zeichnung von Jozsef Sütö)
|
||
Eine englische Wortkette, die aus Wortdateien mit Wörtern von jeweils 3, 4, 5, 6, 7 und 8 Buchstaben konstruiert wurde, ist beispielsweise.
|
||
„wig – wing – owing – bowing – bowsing – browsing“. Man kann dadurch Versionen von Word Morph – und ebenso anderen Problemen – analysieren, bei denen a) nur horizontale Umgebungen generiert werden, b) nur vertikale und c) sowohl horizontale als auch vertikale Umgebungen konstruiert werden sollen. Es ist natürlich eine Frage des praktischen Anwendungsinteresses, welche Möglichkeit verwendet werden soll. Zusammenfassend sei noch einmal betont, dass es sich bei ANG um eine Variante der Logik von Zellularautomaten handelt; deswegen stellen wir ANG in diesem Kapitel dar. In beiden Fällen ist der entscheidende topologische Grundbegriff der der Umgebung. Bei Zellularautomaten werden die entsprechenden Umgebungen vorgegeben, bei ANG werden diese aufgrund einer Definition der Distanzrelation von einem Startobjekt aus generiert. Dies kann ebenfalls vorgegeben oder per Zufall generiert werden. Insofern handelt es sich bei ANG um eine Erweiterung der Fragestellungen, die mit entsprechenden formalen Systemen bearbeitet werden können. In Abschn. 3.5 werden wir die Verwendungsmöglichkeiten von ANG an einem weiteren Beispiel illustrieren.
|
||
|
||
88
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
3.4.1 Aktuelle Trends in ANG
|
||
Aktuell wird ANG zur Analyse und Ordnung von Datenmengen im medizinischen Kontext eingesetzt (Sütö & Klüver, 2021; Faßbender, 2024) und im Projektmanagement, um z. B. Workflows zu generieren (Klüver et al., 2024b).
|
||
ANG und ZA Der Trend zur Hybridisierung gilt auch für ANG. In einem ZA wird z. B. die Ausbreitung von COVID19 unter Berücksichtigung geimpfter und nicht geimpfter Personen modelliert. Die mit dem ZA erzeugte Dynamik (Ausbreitung der Krankheit) wird anschließend mit ANG analysiert. Mit ANG werden durch die generierten topologischen Strukturen beispielsweise die Zusammenhänge zwischen einzelnen Tagen und Anzahl der Sterbefälle aufgedeckt und visualisiert (Faßbender, 2024; s. auch Kap. 7).
|
||
ANG, Neo4J Datenbank und Self-Enforcing Networks (SEN) ANG wird verwendet, um z. B. Daten zu ordnen, die verschiedene kompatible technische Komponenten für einen PC enthalten, wie Prozessoren, Graphikkarten, oder Arbeitsspeicher. ANG strukturiert die Datenmenge und trifft eine Vorauswahl. Die Ergebnisse werden als Graphen in einer Neo4J-Datenbank dauerhaft gespeichert, um eine gezielte Abfrage zu ermöglichen (Höpken, 2021).
|
||
Ein Benutzer kann seine individuellen Konfigurationswünsche im Self-Enforcing Network (SEN) angeben, wie Preis, Größe des Arbeitsspeichers, Anzahl der Prozessoren, etc., die an ANG übergeben werden. Das SEN, ein selbstorganisiert lernendes Netzwerk (s. Kap. 5), dient als Entscheidungsunterstützungssystem, indem die von ANG getroffene Vorauswahl (Eigenschaften der einzelnen Komponenten und deren Zuordnung zu bestimmten PC-Systemen) gelernt wird. Der Benutzer erhält als Ausgabe, die beste Konfiguration gemäß den angegebenen Wünschen (Höpken, 2021).
|
||
Durch die Vorstrukturierung durch ANG wird somit die zu lernende Datenmenge im SEN reduziert, um aktuelle Anfragen bearbeiten zu können.
|
||
Im Folgenden zeigen wir zunächst Modelle für die einzelnen hier vorgestellten Methoden; hybride Systeme werden in Kap. 7 thematisiert.
|
||
|
||
3.5 Analyse konkreter Modelle
|
||
Wie eingangs bemerkt, dienen die folgenden Beispiele sowie auch die der anschließenden Kapitel vor allem dazu, konkrete Vorstellungen hinsichtlich der vielfältigen Einsatzmöglichkeiten der einzelnen KI- und KL-Modelle zu vermitteln. Vielleicht inspirieren die hier dargestellten Programme auch den einen oder anderen Leser, es selbst einmal mit entsprechenden Modellierungen zu versuchen.
|
||
|
||
3.5 Analyse konkreter Modelle
|
||
|
||
89
|
||
|
||
3.5.1 Modellierung mit ZA
|
||
Die Modellierung und Simulationen mit Zellularautomaten (ZA) bieten sich für sehr vielfältige Probleme an, zum Beispiel für die Optimierung von Arbeitsabläufen der Mitarbeiter (Klüver & Klüver, 2014), die Analyse spezieller Probleme in der Werkstoffkunde und Metallurgie (Łach, 2021), sowie für epidemiologische Verläufe wie zum Beispiel die Ausbreitung von COVID-19 (Schimit, 2021), um nur sehr wenige aktuelle Beispiele zu nennen. Da die Ausbreitung von Epidemien sehr gut mit ZA modelliert werden kann, zeigen wir im Folgenden wie ein solches Modell konstruiert werden kann.
|
||
3.5.1.1 Stochastische ZA zur Analyse der Auswirkung unterschiedlicher Impfquoten auf die Influenza-Ausbreitung
|
||
Wenn man soziale Prozesse durch ZA-Modelle simulieren will, wozu die Ausbreitung von Infektionskrankheiten zweifellos zählt, dann liegt es nahe, die entsprechenden sozialen Akteure durch die Zellen des ZA repräsentieren zu lassen. Das hat beispielsweise Schelling in seinen erwähnten Segregationsstudien so gemacht; wir selbst haben u. a. das Verhalten von Schülern in ihren Klassen dadurch simuliert, dass in einem ZA jeder Schüler durch eine entsprechende Zelle repräsentiert wurde (Klüver et al., 2006). Diesen Ansatz haben wir auch bei dem Beispiel des Räuber-Beute Systems demonstriert und bei dem nächsten Beispiel.
|
||
Die Ausbreitung der Corona-Infektion (Kap. 7) beschäftigt seit April 2020 auch viele Studierende von uns mit den Entwicklungen einschlägiger Modelle, wodurch wir gerade zu diesem Thema ein ganzes Buch mit sehr vielfältigen und interessanten Modellen füllen könnten. Wir widmen uns jedoch einem anderen Problem, das im „Normalfall“ in jedem Winter ein Problem darstellt: Die Erkrankung an Influenza (Grippe). Da die Krankheitsverläufe sehr schwerwiegend sein können und zusätzlich der wirtschaftliche Schaden in jedem Winter weltweit hoch ist (Tapia-Conyer et al., 2021), wird eine Impfung, insbesondere für Personen über 60 Jahre, in jedem Jahr empfohlen; die Impfbereitschaft ist in Deutschland jedoch nach wie vor nicht ausreichend.
|
||
Seit 2020 erleben die meisten von uns erstmalig eine Pandemie. Durch die harten Corona bedingten Lockdown-Maßnahmen ist zumindest ein Erfolg zu verzeichnen, nämlich dass die Infektionsraten der an Influenza erkrankten im Winter 2020/2021 laut dem Robert Koch Institut so niedrig war wie kaum zuvor (Buda et al., 2021).31 Dies zeigt, dass allein die Schutzmaßnahmen bereits sehr erfolgreich eine grippale Infektion verhindern können.
|
||
Im Kontext der COVID-19 Pandemie und deren gesellschaftlichen Auswirkungen ist die Bereitschaft zu einer Impfung, neben der Vermeidung von schwerwiegenden Krankheitsverläufen, durch den Wunsch nach mehr Freiheiten und Nutzen kultureller Angebote
|
||
|
||
31 https://influenza.rki.de/Wochenberichte/2020_2021/2021-05.pdf
|
||
|
||
90
|
||
|
||
3 Selbstorganisierende Systeme: Zellularautomaten, Boolesche …
|
||
|
||
Tab. 3.3 Impfstatus der deutschen Bevölkerung
|
||
|
||
Altersgruppe: < 18-Jährige („Kinder“) 18–59-Jährige („Er-
|
||
|
||
Impfstatus
|
||
|
||
wachsene“)
|
||
|
||
Geimpft
|
||
|
||
11 %
|
||
|
||
21 %
|
||
|
||
Nicht geimpft 89 %
|
||
|
||
79 %
|
||
|
||
> 60-Jährige („Senioren“)
|
||
34 % 66 %
|
||
|
||
geprägt. Diese neue Impfbereitschaft kann als Chance betrachtet werden, zukünftig ebenso eine Impfung gegen Influenza in Betracht zu ziehen.
|
||
Die Empfehlungen, sich gegen Influenza impfen zu lassen, gelten wie für andere Infektionskrankheiten überwiegend für ältere Menschen, da diese durch Vorerkrankungen besonders gefährdet sind. Die Kinder gelten jedoch nach neuen Erkenntnissen als sog. „Super-Spreader“ bzw. „Turbo Spreader“32, da sie eine deutlich höhere Viruslast auf den Schleimhäuten als Erwachsene aufweisen. Dies wirft die Frage auf, für welche Gruppen eine Impfung tatsächlich empfehlenswert ist.
|
||
Die folgenden Modelle, die von Sandra Kaschuba und Guido Faßbender33 entwickelt und in unser ZA-Tool implementiert wurden, berücksichtigen verschiedene Aspekte der grippalen Infektionsausbreitung. Das Basismodell beruht zwar auf Impfquoten im Jahr 2013 (Tab. 3.3), aktuelle Recherchen zeigen jedoch, dass sich die Quoten kaum verändert haben (Brombacher et al., 2021).34
|
||
Nach wie vor sind demnach die meisten Menschen in Deutschland nicht gegen Influenzaviren geimpft. In verschiedenen Modellen und durch Simulationen kann aufgezeigt werden, wie sich die Grippeviren bei dieser Anfangskonfiguration ausbreiten und welche Auswirkungen verschiedene Impfquoten in den jeweiligen Altersgruppen haben.
|
||
Die ausgewählten und hier vorgestellten Modelle sind bewusst einfach gehalten, um die prinzipielle Vorgehensweise zu demonstrieren. So werden weder Vor- noch Folgeerkrankungen oder Sterberaten berücksichtigt.
|
||
Als Zelltypen werden Kinder, Erwachsene und Senioren definiert, die jeweils in gesund vs. krank und geimpft vs. nicht geimpft eingeteilt werden (Tab. 3.4). Für kranke Zellen wird zusätzlich noch ein Attribut „Tage krank“ eingefügt, das zu Beginn den Wert 0 hat.
|
||
Da es sich um eine mittelmäßig kontagiöse (ansteckende) Erkrankung handelt, im Gegensatz zum Beispiel zu COVID-19, wird eine von Neumann Umgebung gewählt. Für die Anfangsverteilung wurden Daten des statistischen Bundesamtes entnommen, wodurch 13,54 % <18 Jahre (ca. 2 % geimpft), 63,37 % zwischen 18–59 Jahre alt sind (ca. 13 %) und >60 Jahre 23,09 % (ca. 8 % geimpft) beträgt.
|
||
|
||
32 https://www.amboss.com/de/wissen/Influenza. Letzte Aktualisierung am 04.07.2023. 33 Es handelt sich um eine Absolventin im Studiengang Gesundheitsökonomik und einen promovierten Arzt sowie Absolvent im Studiengang Medizinmanagement für Mediziner. 34 https://data.oecd.org/healthcare/influenza-vaccination-rates.htm
|
||
|
||
3.5 Analyse konkreter Modelle
|
||
|
||
91
|
||
|
||
Tab. 3.4 Zelltypen und deren zugewiesene Impfrate
|
||
|
||
Impfrate Kinder Impfrate Erwachsene
|
||
|
||
Einstellungen
|
||
|
||
Geimpft: 2 % Nicht geimpft: 12 %
|
||
|
||
Geimpft: 13 % Nicht geimpft: 50 %
|
||
|
||
Impfrate Senioren Anmerkung
|
||
|
||
Geimpft: 8 % Nicht geimpft: 15 %
|
||
|
||
Entspricht realistischer Abbildung des Ist-Zustandes der deutschen Bevölkerung
|
||
|
||
Die Anfangsverteilung für Erkrankungen beträgt jeweils 4 Zellen für Kinder, Erwachsene und Senioren und wurde bewusst so niedrig angesetzt, um zu analysieren, wie schnell sich eine Influenza selbst bei einer (insgesamt betrachtet) niedrigen Fallzahl ausbreitet.
|
||
Die insgesamt 9 Regeln werden für jeden Zelltyp nach dem folgenden Beispiel definiert:
|
||
Wenn eine Zelle „geimpftes Kind“ ist und in der Umgebung mindestens 1 Zelle „krankes Kind“ ist, (oder mindestens 2 Zellen „kranke Erwachsene“ sind, oder mindestens 2 Zellen „kranke Senioren“ sind), dann wird die Zelle „krankes Kind“ mit einer Wahrscheinlichkeit von 20 % und ändert sich nicht mit einer Wahrscheinlichkeit von 80 %.
|
||
Damit wird der Einfluss der Kinder als „Turbo Spreader“ berücksichtigt, da nur ein krankes Kind in der Umgebung ausreicht, um trotz Impfung krank zu werden.
|
||
Die ersten 3 Regeln beziehen sich auf die Zellen, die geimpfte Menschen repräsentieren; die nächsten 3 bestimmen die Übergangswahrscheinlichkeiten, wenn die Personen nicht geimpft sind (zusammengefasst in Tab. 3.5).
|
||
Die Prozentzahlen entsprechen dem medizinischen Alltag, wonach ca. ein Drittel der nicht geimpften Personen (sowohl Kinder, Erwachsene als auch Senioren) nach einer Begegnung mit einem an Influenza erkrankten Menschen selbst krank werden.
|
||
Die letzten 3 Regeln beziehen sich jeweils auf die Übergänge der Zellen nach der Erkrankung. Ist eine Zelle erkrankt, so bleibt diese 9 Zyklen (durchschnittliche realistische Dauer einer Influenzaerkrankung) in diesem Zustand; anschließend werden Wahrscheinlichkeiten definiert, ob eine Zelle in den Zustand einer geimpften Zelle übergeht, wodurch die Immunisierung nach einer Erkrankung berücksichtigt wird, bzw. in den Zustand einer nicht geimpften Zelle. Um diesen Effekt zu erreichen, wird das Attribut „Tage krank“ bei jeder erkrankten Zelle nach einem Zyklus + 1 hochgezählt.
|
||
|
||
Tab. 3.5 Übergangswahrscheinlichkeiten im ZA
|
||
|
||
Alle Altersgruppen Geimpft Nicht geimpft
|
||
|
||
p = krank 20 % 33 %
|
||
|
||
p = „bleibt gesund“ 80 % 67 %
|
||
|