AI in der Lawinen-Risikobeurteilung
Vorhersage für Samstag, den 10. Februar 2024, für die Südschweiz, herausgegeben von einem Prognosemodel, das mit vielen Daten und der Methode des maschinellen Lernens (ML) entwickelt wurde:
„Lawinenwarnstufe 3 (erheblich) mit einer Tendenz zur 4 (gross).“
Avalanche Intelligence
Nach drei Jahren Testphase sitzt dieses Jahr im übertragenen Sinne erstmals ein Modell mit am Tisch, wenn die Mitarbeitenden des Lawinenwarndiensts beschließen, welcher Region sie welche Gefahrenstufe zuordnen. Schon die dreijährige Vorlaufzeit hat gezeigt: Die Vorhersagen des Modells sind gut – also meistens.
„Manchmal sind sie es ganz klar nicht, aber auch wir liegen mal falsch.“
Lawinenwarner Frank Techel
Am 10. Februar ist die Maschine ziemlich der gleichen Meinung wie ihre drei menschlichen Kollegen.
Der Computer hat gelernt, das hauseigene, physikalische Modell für die Simulation der Schneedecke SNOWPACK zu interpretieren, die der Lawinenwarndienst teilweise bereits seit Jahrzehnten verwendet.
Anders ausgedrückt: Neu ist nicht der Einsatz von Algorithmen an sich in der Lawinenwarnung, neu ist, dass Algorithmen die Ergebnisse von anderen Modellen wie der Simulation der Schneedecke analysieren und bewerten und eigenständig die Lage einschätzen.
Das Projekt startete 2019 und geht auf eine Initiative von SLF-Leiter Jürg Schweizer zurück. Ein Team aus SLF-Forscherinnen und -Forschern sowie Lawinenwarnern arbeitete daran, zusammen mit Kolleginnen und Kollegen vom Swiss Data Science Center.
Die AI ist nur so gut, wie sie gefüttert wird
Zwei Jahre lang hat die Physikerin Cristina Pérez Versuche mit unterschiedlichen Methoden und Datensätzen durchgeführt, Daten aufbereitet und letztendlich das Modell damit trainiert. Dabei griff sie auf Wetterdaten und Schneedeckensimulationen aus zwanzig Jahren zurück, die auf Messungen des Interkantonalen Mess- und Informationssystems IMIS basieren. Machine Learning heisst diese Vorgehensweise. Zu den Herausforderungen zählte einerseits, die Parameter so zu wählen, dass die Algorithmen immer genauer wurden. „Zum anderen war es schwierig, für Lawinenwarnstufe vier eine gute Genauigkeit zu erhalten, da diese hohe Warnstufe in den zwanzig Jahren nur selten vorkam, die Datenbasis also recht klein war“, sagt Pérez.
Palantir nennen die Mitarbeitenden des Lawinenwarndiensts die Plattform, auf welcher sie die verschiedenen ML-Modelle anschauen, nach den sieben Kristallkugeln aus J.R.R. Tolkiens Fantasy-Welt Arda mit dem bekanntesten Kontinent Mittelerde, die weit in Raum und Zeit entfernte Szenen zeigen.
Hand in Hand: Mensch und Maschine
Zwar verwenden die menschlichen Mitarbeitenden des Lawinenwarndiensts dieselben Daten und Modelle für ihre Arbeit wie der Computer. Aber sie nutzen darüber hinaus auch Informationen wie aktuelle Beobachtungen im und Rückmeldungen aus dem Gelände. Diese Daten stehen dem Computer nicht zur Verfügung. Der Algorithmus greift ausschließlich auf Simulationen der Schneedecke als Input zurück. Andererseits wählen Menschen schon aus Zeitgründen aus der Menge an Daten die für sie relevanten aus, die Maschine selektiert nicht.
„Modelle erlauben eine räumliche und zeitliche Auflösung, die wir Menschen nie erreichen werden.“
Frank Techel
Mensch und Maschine ergänzen sich. Die Algorithmen helfen, grundlegende Datensätze zu interpretieren. Beide Seiten machen dabei auch Fehler. „Das gute ist, die Modelle machen andere Fehler als wir“, sagt Techel. Der Lawinenwarndienst erhält so eine zweite, unabhängige Meinung und kann bei großen Diskrepanzen sein aktuelles Ergebnis für das Lawinenbulletin nochmal überdenken.
Das Team entwickelt das Projekt derzeit weiter und will künftig menschliche und maschinelle Vorhersagen besser kombinieren. „Dazu gehört auch eine für den Lawinenwarndienst intuitivere Darstellung der Ergebnisse“, sagt Techel.
Algorithmen bei Skitourenguru
Einen ähnlichen Ansatz verfolgt Günter Schmudlach, Gründer des bekannten Portals Skitourenguru, ebenso seit Jahren. Mit dem Portal hat der begeisterte Skitourengeher und Informatiker ein Online-Tool zur Einschätzung des Lawinenrisikos auf Skitouren entwickelt.
In einem ersten Schritt kombinierte der Informatiker die Informationen des Lawinenlageberichts auf der Website des SLF mit Hangneigungskarten. Nach drei Monaten ging die erste, vereinfachte Version von Skitourenguru online. In der zweiten Überarbeitung basierte Skitourenguru schliesslich auf der QRM – der Quantitativen Reduktionsmethode: Auch hier machte sich Schmudlach das maschinelle Lernen zunutze: Sein Programm erkannte Gesetzmässigkeiten in Daten aus der Vergangenheit. Dazu wurde der Algorithmus mit Unfalldaten und GPS-Tracks trainiert.
Bei der weiteren Überarbeitung setzte Schmudlach noch stärker auf die Erfahrung, die in den Daten steckt. Mittlerweile testet der Skitourenguru 40 Eigenschaften wie Hangneigung, Bewuchs, Gefahrenstufe und die Frage, ob der Punkt in der im Lawinenlagebericht genannten Kernzone liegt. „So lässt sich ein immer besseres Muster der spezifischen Eigenschaften von Unfallorten und Nicht-Unfallorten herausarbeiten“, sagt Schmudlach im bergundsteigen-Interview.
Das ganze Gespräch mit Günter Schmudlach über Digitalisierung und Lawinenprognose aus dem Heft #119 hier zum Nachlesen.
Heute wird Skitourenguru von vielen Skitourengeherinnen und -geher auch als Lawinenbulletin genutzt. So erhalten Wintersportler über die Website schnell und einfach eine Liste mit geeigneten Skitouren mit geringer Lawinengefahr. Seit diesem Winter ist es sogar möglich, eine selbst gezeichnete Route hinsichtlich der Lawinengefahr bewerten zu lassen.
Quelle: Pressemitteilung WSL & SLF, Redaktion bergundsteigen