EEG als Fenster in die Zukunft: : Kann Maschinenlernen helfen, neurologische Probleme vorherzusagen?

Anfang 2019 startet das Forschungsprojekt TrueBrainConnect. Der Informatiker Stefan Haufe will EEG-Daten mit Maschinenlern-Algorithmen analysieren und so dazu beitragen, dass Ärzte Störungen des Gehirns wie Demenz früher erkennen können.

09.08.2018

Wissenschaftler wie Stefan Haufe analysieren Daten der Elektroenzephalografie (EEG), um Störungen des Gehirns wie Demenz früher erkennen zu können.

Wissenschaftler wie Stefan Haufe analysieren Daten der Elektroenzephalografie (EEG), um Störungen des Gehirns wie Demenz früher erkennen zu können.
Bildquelle: Bernd Wannenmacher

Chronische Erkrankungen kommen nicht aus heiterem Himmel. Herzinfarkte haben in der Regel viele Jahre Vorlauf. Auch Erkrankungen des Gehirns wie die Demenz oder die Parkinson-Erkrankung beginnen lange, bevor sie klinisch auffällig werden. Gerade bei einer Erkrankung wie der Demenz, die noch immer praktisch nicht behandelbar ist, könnte es helfen, Personen mit erhöhtem Risiko früh zu erkennen, um zum Beispiel Prävention betreiben oder das soziale Umfeld vorbereiten zu können.

Wirklich gute Methoden für eine solche Früherkennung gibt es bisher nicht. Zwar lassen sich Menschen mit erhöhtem Demenzrisiko mit funktionellen Kernspin-Untersuchungen erkennen. Das ist als Massenanwendung jedoch zu aufwendig und viel zu teuer. Eine Alternative wären Untersuchungen mit Elektroenzephalografie, kurz EEG, also elektrische Ableitungen mithilfe von Elektroden auf den Schädelknochen. Die sind aber längst nicht so einfach zu interpretieren wie Kernspin-Aufnahmen.

Erkrankungen des Gehirns beginnen lange, bevor sie klinisch auffällig werden.

Hier setzt Stefan Haufe an, der von Anfang 2019 an das auf fünf Jahre angelegte Forschungsprojekt TrueBrainConnect leitet, für das in der zweiten Jahreshälfte drei Doktorandinnen und Doktoranden sowie eine studentische Hilfskraft für die Mitarbeit gewonnen werden sollen. Das Projekt wird durch einen im Rahmen des europäischen Programms „Horizon 2020“ vergebenen, mit 1,5 Millionen Euro dotierten „Starting Grant“ des European Research Council (ERC) gefördert. Es ist am Berlin Center for Advanced Neuroimaging angesiedelt, einer gemeinsamen Einrichtung der Charité – Universitätsmedizin Berlin und der Humboldt-Universität zu Berlin.

Haufe ist promovierter Informatiker, der sich schon als Diplomand an der Universität Halle (Saale) mit Maschinenlernen beschäftigt hat. Es folgten eine Doktorandenstelle an der Gruppe Maschinelles Lernen der Technischen Universität Berlin sowie zwei Stellen als wissenschaftlicher Mitarbeiter am New York City College und an der Columbia-Universität in New York. „An der Technischen Universität war die EEG-Daten-Analyse ein großes Thema, dort wird unter anderem mit Brain-Computer-Interfaces geforscht“, berichtet der Wissenschaftler. Brain-Computer-Interfaces sind Computersysteme, die das Gehirn per Gedanken steuert; sie kommen zum Beispiel in der Rehabilitation nach Schlaganfall zum Einsatz. Die „Gedankensteuerung“ funktioniert bei vielen derartigen Systemen mit Hilfe von EEG-Messungen. Haufes Arbeiten an der Technischen Universität Berlin und an den Hochschulen in New York waren stark grundlagenorientiert: „Mich hat irgendwann die Frage gereizt, ob diese Methoden nicht auch für die klinische Medizin nutzbar gemacht werden können.“

Stefan Haufe leitet das auf fünf Jahre angelegte Forschungsprojekt „TrueBrainConnect“.

Stefan Haufe leitet das auf fünf Jahre angelegte Forschungsprojekt „TrueBrainConnect“.
Bildquelle: Wiebke Peitz/Charité

Im TrueBrainConnect-Projekt will er das jetzt versuchen. Zwar ist auch TrueBrainConnect zu zwei Dritteln ein methodisches Projekt, das heißt es werden Algorithmen und Analysemethoden entwickelt, aber die klinischen Aspekte unterscheiden es von anderen Forschungsprojekten zum Maschinenlernen. „Ein weiterer Unterschied ist, dass wir Probleme bei bestehenden Maschinenlern-Methoden beheben wollen, vor allem bei der Interpretation der Ergebnisse“, so Haufe. Was letztlich im Raum steht, ist die Frage, ob das EEG – das derzeit in der Neurologie in erster Linie zur Diagnose von Krampfleiden eingesetzt wird – mithilfe von Maschinenlern-Algorithmen zu einem einfachen, nichtinvasiven, kostengünstigen Screening-Werkzeug für unterschiedliche Hirnerkrankungen weiterentwickelt werden könnte.

Steht die Datenanalyse-Pipeline, können die Algorithmen auf klinische EEG-Datensätze „losgelassen“ werden.

Damit das klappt, müssen Haufe und seine Mitarbeiter als allererstes gute Werkzeuge für die EEG-Datenanalyse entwickeln, mit denen die Maschinenlern-Algorithmen arbeiten können. „Dafür haben wir mindestens die ersten beiden Projektjahre veranschlagt.“ Beim EEG werden elektrische Signale gemessen, die entstehen, wenn Nervenzellen Informationen weiterleiten. Die Analyse dieser elektrischen Signale ist sehr komplex, da das EEG als eine nicht-invasive Methode „von außen“ keine Informationen über einzelne Zellen oder Zellgruppen liefern kann, sondern nur Signale erzeugt, bei denen sich unterschiedliche Prozesse im Gehirn überlagern. Eines der Themen, die in den ersten Projektjahren angegangen werden sollen, ist dementsprechend die Frage, wie sich anhand auffälliger EEG-Signale am besten jene Region im Gehirn lokalisieren lässt, auf die die jeweils auffällige Aktivität zurückgeht.

Steht die Datenanalyse-Pipeline, können die Algorithmen auf klinische EEG-Datensätze „losgelassen“ werden. Haufe ist dazu mit mehreren Neurologen in Kontakt, die über entsprechende EEG-Datenbanken verfügen. So soll mit klinischen Partnern der Charité – Universitätsmedizin Berlin versucht werden, bei der Parkinson-Erkrankung besser zu verstehen, wie der Informationsfluss zwischen den tiefen Hirnstrukturen und der Hirnrinde abläuft, weil bekannt ist, dass es irgendwo an dieser Schnittstelle bei an Parkinson Erkrankten Probleme gibt. In fernerer Zukunft könnten mithilfe des EEGs und der Maschinenlern-Algorithmen bei Parkinson-Patienten vielleicht sogar Stürze vorhergesagt werden. Ein anderes klinisches Einsatzszenario sind Verlaufsprognosen bei Demenz-Patienten.

Die Entwicklung der Algorithmen steht und fällt mit den verfügbaren Daten, anhand derer die Algorithmen trainiert werden können.

Wie immer beim Maschinenlernen steht und fällt die Entwicklung der Algorithmen mit den verfügbaren Daten, anhand derer die Algorithmen trainiert werden können. „Richtig überzeugende Datensätze gibt es für das EEG derzeit leider noch nicht“, betont Haufe. Die Voraussetzungen bei der strukturellen und funktionellen Magnetresonanztomografie seien da wesentlich besser: „Wir setzen große Hoffnungen auf öffentliche Datenbanken, die sich derzeit im Aufbau befinden.“

Besonders wichtig wären longitudinale Datensätze, also Daten von Menschen, bei denen zu unterschiedlichen Zeitpunkten im Leben EEGs angefertigt wurden und von denen einige neurologische Erkrankungen entwickeln und andere nicht. Dann könnte mithilfe der Maschinenlern-Algorithmen versucht werden, die unterschiedlichen Verläufe vorherzusagen. Wie viele Patienten nötig sind, um die Algorithmen hinreichend zuverlässig zu trainieren, ist schwer abschätzbar: „Eine Stichprobengröße von 500 Personen würde ich für ideal halten“, sagt Haufe, aber in der Praxis könnten auch geringe Probandenzahlen bereits wertvolle Informationen liefern.

Schlagwörter