Eine neue Ära in der Verhaltensforschung
Wie viele Ameisen er akribisch beobachtet hatte, ehe ihm klar wurde, dass er die Hilfe einer Maschine benötigte, weiß Prof. Dr. Iain Couzin nicht so genau. Es war Mitte der 1990er Jahre, und Couzin wollte herausfinden, wie Ameisen sich selbst organisieren. Bei Koloniegrößen ab 300 bis 400 und mehr Tieren war es eine riesige Herausforderung für ihn. „Ich gab mein Bestes, indem ich die Ameisen filmte, das Video dann 400 Mal ansah und mich jedes Mal auf eine andere einzelne Ameise konzentrierte“, erinnert er sich.
Aber Couzins Interesse galt nicht dem einzelnen Tier. Er untersucht kollektives Verhalten: Das Phänomen der Schwarmbildung bei Vögeln, Fischen und Heuschrecken. Um die Mechanismen von Kollektiven wirklich zu verstehen, benötigte er ein weitaus besseres Sensorsystem, das anstelle von einzelnen Tieren den gesamten Schwarm erfassen konnte. Er hatte die Idee, seine Sinne mit künstlichen Sinnen zu verstärken.
Heute ist er Professor für Biodiversität und Kollektives Verhalten an der Universität Konstanz, Leiter des 50-köpfigen Department of Collective Behaviour am Max-Planck-Institut in Radolfzell, aus dem Anfang Mai 2019 das neue, eigenständige Max-Planck-Institut für Verhaltensbiologie in Konstanz hervorgegangen ist, und einer der Sprecher des Konstanzer Exzellenzclusters Centre for the Advanced Study of Collective Behaviour. Die Forschung seiner Arbeitsgruppe ist weltweit führend beim Einsatz des maschinellen Lernens in der Verhaltenswissenschaft. Durch die Nutzung der Fortschritte im Bereich der Künstlichen Intelligenz, insbesondere des Deep Learning, mit Hilfe von Künstlichen neuronalen Netzen, revolutioniert seine Arbeitsgruppe die Kollektivforschung: Die WissenschaftlerInnen lehren die Computer, das zu erkennen, was Menschen nicht können, Muster innerhalb der unglaublich großen Komplexität im Verhalten von Tierkollektiven wahrzunehmen.
Computerprogramm zur Beobachtung von Tieren im Labor
Aber erst noch einmal zurück in die 1990er Jahre und zu den Ameisen: Da es mit traditioneller Beobachtung unmöglich war, die Daten aller Ameisen gleichzeitig zu erfassen, wollte Couzin das Problem mit Computer Vision, mit maschinellem Sehen, lösen. Er hatte erkannt, dass ein Computer Individuen viel besser und schneller lokalisieren kann, als Menschen das können. Er schrieb ein Computerprogramm, das die Position und Ausrichtung aller Ameisen innerhalb einer Kolonie verfolgen konnte.
Das Programm funktionierte so gut, dass es in den nächsten zwei Jahrzehnten auch für die Beobachtung von anderen Tieren im Labor, wie Heuschrecken und Fischen, eingesetzt wurde. Allerdings hatte die Software ihre Grenzen. Das Programm funktionierte nur richtig in Situationen mit klar definierten Regeln (dunkle Pixel = Tier; helle Pixel = Hintergrund), also zum Beispiel im Labor. Für den natürlichen Lebensraum der Tiere trifft das nicht zu. Hintergründe sind niemals einheitlich weiß, sondern voller Vegetation; Individuen sind selten allein anzutreffen, sondern bewegen sich in einer Gruppe.
„Lange Zeit änderte sich nichts an den Daten, die wir aufzeichnen konnten“, sagt Couzin. Die Computer wurden schneller, die Kameraauflösung verbesserte sich, aber der nächste wirkliche Durchbruch gelang erst in jüngster Zeit mit dem Aufkommen von Deep Learning.
Deep Learning, ein Bereich der Künstlichen Intelligenz, ist eine Methode, mit der Computermodelle anhand von realen Daten lernen. Angelehnt an die Neuronen im Gehirn werden künstliche Neuronen benutzt, um grundlegende logische Funktionen auszuführen und wie Menschen zu lernen: Durch Erfahrung (das heißt, durch Daten) und nicht durch vorprogrammierte Regeln (das heißt, traditionelle Algorithmen). So wie die Neuronenverbindungen beim Kleinkind entsprechend der Nutzung stärker oder schwächer werden, kann auch ein künstliches neuronales Netz durch Ausprobieren die Neuronenverbindungen, die zu einem richtigen Ergebnis führen, stärken. Je mehr Neuronenschichten gebildet werden, desto besser kann die Maschine Muster in riesigen Datenmengen genau vorhersagen.
Couzin hatte zuvor Schwierigkeiten, Tiergruppen im Labor zu beobachten. Bei zwei Fischen beispielsweise, die sich teilweise verdeckten, kapitulierte das herkömmliche Trackingprogramm, und ein Mensch musste versuchen, die einzelnen Bewegungen zu rekonstruieren. Deep Learning hat diese Probleme gelöst. Doktorand Tristan Walter implementierte eine Software, die einzelne Fische aufgrund von minimalen, für Menschen unsichtbaren Unterschiede im Farbmuster identifizieren kann. „Die Technik kann für Menschen bislang unlösbare Probleme lösen, Phänomene wie etwa, dass sich einzelne Tiere für längere Zeit zusammen in einem Versteck befinden oder Individuen aus dem Blickfeld geraten oder sich teilweise verdecken“, erklärt Walter. „Wir können Fisch A einfach nicht von Fisch B unterscheiden, aber Computer können das.“
Daten von Wildtieren ohne Sensoren oder GPS-Halsbänder
Der Goldstandard in der Kollektivforschung war jedoch immer die Beobachtung von wildlebenden Tiergruppen. Durch die Fähigkeit künstlicher Netzwerke, sich auf Aufgaben zu spezialisieren, die weit über die Fähigkeiten des Menschen hinausgehen, können detaillierte Daten von Wildtieren gewonnen werden, ohne dass Sensoren oder GPS-Halsbänder angebracht werden müssen. Zum ersten Mal kann das Verhalten von wildlebenden Tieren in Echtzeit, objektiv und mit hoher zeitlicher Auflösung erfasst werden. Deep Learning vergrößert nicht nur die Datenmenge, sondern kann diese hochkomplexen Datenreihen auch analysieren. Eine neue Ära in der Verhaltensforschung beginnt – an der Universität Konstanz eingebettet in das Exzellenzcluster Centre for the Advanced Study of Collective Behaviour: Wenn Handlungen quantifiziert werden, werden subjektive Verzerrungen beseitigt und das Verborgene wird endlich sichtbar.
In Kenia setzt Konstanzer Postdoc Dr. Blair Costelloe verschiedene Deep Learning-Techniken ein, um die kollektiven Erkennungsprozesse und Informationstransfers bei wildlebenden Grevy-Zebras zu untersuchen. „Die Prozesse, die wir untersuchen, wurden schon vor Jahrzehnten beschrieben, aber es gibt nur sehr wenige Studien in wildlebenden Tiergruppen. Es war früher einfach nicht möglich, die nötigen Daten zu erfassen“, sagt Costelloe.
Programm kann Zebras nahezu überall erkennen
Der erste Schritt zur Datenerfassung ist, die Zebras aufzuspüren. Costelloe zeichnet mit einer Drohne, die 80 Meter über den Grasebenen der Mpala Conservancy fliegt, Videos von freilebenden Herden auf. Um die Tiere im Video dann zu identifizieren, verwendet Doktorand Ben Koger ein vortrainiertes „Convolutional Neural Network“, das ursprünglich von Microsoft-Programmierern entwickelt wurde und das er mit beschrifteten Bildern feinabstimmt. So lernt das Programm, die Zebras nahezu überall zu erkennen – sogar wenn sie sich halb verborgen unter Bäumen befinden. „Mit der herkömmlichen Trackingmethode, die auf vorprogrammierten Regeln basiert, könnte man niemals jede Regelkombination für alle denkbaren Situationen in der Natur programmieren“, sagt Koger. „Deep Learning bietet den Vorteil, dass die Modelle Millionen von Parametern haben und folglich ein Zebra in jeder Art von Szene erkennen können, vorausgesetzt, sie wurden mit genügend Trainingsbildern gefüttert.“
Sobald das Zebra lokalisiert ist, muss erfasst werden, was es gerade tut. Das heißt, gebraucht werden Informationen über seine Körperhaltung, denn nur so wissen wir, ob das Zebra aufschreckt, der Fisch gerade flüchtet oder der Vogel sich putzt. Um dies umzusetzen, arbeitet Costelloe mit Doktorand Jake Graving zusammen, der eine hochmoderne Lernmethode entwickelt hat, mit der man die Körperhaltung von Tieren im Labor oder in der Natur abschätzen kann. Graving setzt Deep Learning-Techniken ein, um zu verstehen, wie Verhalten durch verschiedene sensorische Reize übertragen wird und folglich koordinierte Wanderungen bei Wüstenheuschrecken ausgelöst werden.
Mit seiner Methode wird ein Netzwerk trainiert, das die Position von Teilen des Tierkörpers direkt von Bildern erkennen kann. Bei Zebras gibt es neun Hauptpunkte (oder „Dimensionen“), bei Wüstenheuschrecken sogar 35. Daraus ergeben sich natürlich äußerst komplexe Datensätze, die von Wissenschaftlern als „hochdimensionale Daten“ bezeichnet werden. Deshalb ist Gravings nächster Schritt die Anwendung weiterer Algorithmen des maschinellen Lernens, bekannt als Dimensionalitätsreduktion und Clustering, um diese Daten in kleinere Reihen zu komprimieren, die eine grundlegendere, interpretierbarere Beschreibung dessen enthalten, was das Tier im Laufe der Zeit tut.
Ziel sind noch leistungsfähigere Methoden zur Positionsabschätzung
Das klingt ziemlich kompliziert, ist aber erst der Anfang. Das Ziel des Doktoranden Hemal Naik ist, noch leistungsfähigere Methoden zur Positionsabschätzung zu entwickeln. Im „Imaging Barn” des heutigen Max-Planck-Instituts für Verhaltensbiologie nutzt Naik Deep Learning, um ein Netzwerk zu trainieren, 3D-Körperpositionen von Vögeln direkt aus 2D-Videoaufzeichnungen abzuleiten – das erste Werkzeug, das Informationen über die 3D-Körperposition von nichtmenschlichen Lebewesen bietet. Wenn dann die grundlegenden Verhaltensbeschreibungen vorliegen, können Fragen zum Tierverhalten beantwortet werden, die zuvor außerhalb des Erreichbaren lagen.
Dr. Alex Jordan¸ Principal Investigator in Department of Collective Behaviour am Max-Planck-Institut in Konstanz und Forschungsruppenleiter im Team von Iain Couzin, erschließt das Potenzial des maschinellen Lernens, um Aufschluss über die eigentlichen Ursachen des Verhaltens zu geben. „Natürliche Selektion, die große Tüftlerin, ist ein Vergleichsprozess, bei dem eine Variation endlos mit einer anderen verglichen wird“, sagt Jordan. „Für den Menschen ist es fast unmöglich, die kleinen Unterschiede im Verhalten zu erkennen, die den Rohstoff für Selektion enthalten.“ Aber Maschinen und neuronale Netzwerke können das sehen, was Wissenschaftlern verborgen bleibt. Jordans Team nutzt kontrolliertes und unkontrolliertes maschinelles Lernen, um enorme Vergleichsdatensätze für jegliches Verhalten der Fischarten in „Darwins Traumseen“ in Afrika zu generieren, wo es unzählige Körperformen, Farben und, am wichtigsten, Verhaltensweisen bei den Fischen gibt.
Mit dem maschinellen Lernen steht ein deutlich objektiveres und quantifizierbareres Werkzeug zur Verfügung, um Kollektivverhalten in der Natur zu verstehen – an einem chaotischen und unkontrollierbaren Ort, der so ganz anders ist als sterile Petrischalen. „Hier ist maschinelles Lernen jedem anderen Ansatz überlegen und bringt so das Verhalten in der Wildnis ins moderne Datenzeitalter“, sagt Jordan. „Früher war die große Aufgabe, passende Daten für die Verhaltensforschung zu sammeln, jetzt stehen wir vor einem ganz anderen, weitaus interessanteren Problem: Was bedeutet das alles?“