Alumni-Preis 2024
Zainab Chokr für ihre Masterarbeit: "Analysis of learning processes in brain networks using coarse graining of graphs and spectral graph theory"
Betreuer: Prof. Dr. Stefan Rotter
Kurzzusammenfassung der Arbeit (deutsch):
Das Ziel der Neurowissenschaften ist es, Eigenschaften und Wechselwirkungen von Neuronen zu beschreiben, um kognitive Fähigkeiten des Gehirns sowie Nervenkrankheiten und ihre Ursachen zu verstehen. Die Funktion des Gehirns beruht auf dem Zusammenspiel von Milliarden von Zellen mit unterschiedlichen Formen, Eigenschaften und Aufgaben. Die daraus resultierende Komplexität erschwert das Verständnis der zugrundeliegenden Mechanismen dramatisch. Es ergibt sich die Notwendigkeit, das charakteristische Verhalten der neuronalen Netzwerke des Gehirns im Rahmen mathematischer Modelle zu untersuchen und zu verstehen.
Meine Arbeit befasst sich hauptsächlich mit der Fähigkeit des Gehirns zu lernen. Wie werden Erinnerungen gespeichert und wie werden sie wieder vergessen? Eine transparente Beschreibung der Selbstorganisation des Gehirns, die nach allem was wir wissen dem Lernen zugrunde liegt, soll gefunden werden. Eine solche Beschreibung habe ich im Rahmen des "gerichteten Konfigurationsmodells" formuliert. Dieses Modell stammt aus der Graphen- und Netzwerktheorie und stellt eine anschauliche und angemessene Beschreibung der wichtigsten Bausteine des Gehirns, der Neuronen und Synapsen, dar. Diese werden als Knoten und Kanten, welche die begrenzten biologischen Ressourcen des Gehirn-Graphen darstellen, betrachtet. Nach einer strukturellen Störung durch Stimulation entstehen durch entropische Selbstorganisation der freigesetzten Ressourcen neue Konfigurationen des Graphen, diese stellen gelernte Engramme dar. In diesem Modell sind Engramme also nichts anderes als das strukturelle Gedächtnis des Gehirns.
Diese Selbstorganisation des Netzwerks „Gehirn“ wird mit Hilfe des Eigenwertspektrums seiner Adjazenzmatrix untersucht. Die wesentlichen Dynamiken und Informationen aus dem Netzwerk sollen herausgefiltert und die Dimension oder „Auflösung“ des Problems reduziert werden. Zu diesem Zweck wird eine Vergröberungsabbildung eingeführt und das Eigenwertspektrum der ursprünglichen Adjazenzmatrix wird mit dem der vergröberten Matrix verglichen. Es stellt sich heraus, dass die Anzahl und der Betrag essenzieller Eigenwerte mit der Anzahl und Intensität gelernter Engramme korreliert. Des Weiteren habe ich festgestellt, dass die Untersuchung der Dynamik eines sich selbstorganisierenden Netzwerks durch Betrachtung der zeitlichen Änderung der essenziellen Eigenwerte, welche mit Engrammen korrespondieren, möglich ist. Sowohl das Modell als auch die Methode der Untersuchung durch die Vergröberung und die Eigenwerte stellen somit vielversprechende Instrumente zu einem vertieften Verständnis des Lernprozesses dar.
Abstract of thesis (english):
The aim of neuroscience is to describe the properties and interactions of neurones in order to understand the cognitive abilities of the brain as well as neurological diseases and their causes. The function of the brain is based on the interaction of billions of cells with different shapes, properties and tasks. The resulting complexity makes it way more difficult to understand the underlying mechanisms. There is a need to investigate and understand the characteristic behaviour of the brain's neuronal networks within the framework of mathematical models.
My work is mainly concerned with the brain's ability to learn. How are memories stored and how are they forgotten? The aim is to find a transparent description of the self-organisation of the brain, which, as far as we know, underlies learning. I have formulated such a description within the framework of the ‘Directed Configuration Model’. This model originates from graph and network theory and represents a clear and appropriate description of the most important building blocks of the brain, the neurons and synapses. These are considered as nodes and edges, which represent the limited biological resources of the brain graph. After a structural disturbance caused by stimulation, new configurations of the graph are created through entropic self-organisation of the released resources; these represent learned engrams. In this model, engrams correspond to the structural memory of the brain.
This self-organisation of the ‘brain’ network is investigated with the help of the eigenvalue spectrum of its adjacency matrix. In order to filter out the essential dynamics and information from the network and to reduce the dimension or ‘resolution’ of the problem, a coarse-graining map is introduced, and the eigenvalue spectrum of the original adjacency matrix is compared with that of the coarsened matrix. It turns out that the number and magnitude of essential eigenvalues correlates with the number and intensity of learnt engrams. Furthermore, I found that it is possible to study the dynamics of a self-organising network by observing the temporal change of the essential eigenvalues which correspond to engrams. Both the model and the method of investigation by coarsening and the eigenvalues are thus promising tools for a deeper understanding of the learning process.