Algorithmen in der Lawinen-Risikobeurteilung
Konsens in der Lawinenkunde: Die 3×3-Regel
Werner Munter hat eine Skitour in drei aufeinanderfolgende Phasen eingeteilt: Planung zu Hause, Evaluation vor Ort und Einzelhangbeurteilung während der Tour. In jeder Phase entscheidet der Wintersportler in Abhängigkeit von verfügbarer und aussagekräftiger Information. Während die Information in der Regel von Phase zu Phase umfassender, genauer und aussagekräftiger wird, nehmen die möglichen Handlungsoptionen ab (Abb. 1).
Möchten wir dieses Modell vereinfacht darstellen, können wir eine Skitour in eine Indoor-Phase (Planung) und in eine Outdoor-Phase (Durchführung) einteilen:
- Während der Indoor-Phase werden Entscheidungen bezüglich des Tourengebietes und der Routenwahl, getroffen. Diese Entscheidungen haben einen entscheidenden Einfluss auf das schlussendlich eingegangene Lawinenrisiko. Die Nutzung von der Information, die bereits in einem frühen Stadium zur Verfügung steht (z.B. Lawinenlagebericht und Geländecharakteristik), ist gerade wegen dem grossen Handlungsspielraum wichtig. Zur Aufbereitung der vorhandenen Information spielen sogenannte probabilistische Methoden (z.B. Grafische Reduktionsmethode1, SnowCard2, StopOrGo3 ) die entscheidende Rolle. Diese Methoden erlauben es, aus dem Gelände (z.B. Neigung) und dem Lawinenlagebericht (z.B. Gefahrenstufe) einen Go/NoGo-Entscheid abzuleiten. Probabilistische Methoden zeichnen sich durch ihre Objektivität, Einfachheit und Reproduzierbarkeit aus. Sie schränken zwar die Bewegungsfreiheit ein, Lawinenexperten sind sich aber einig, dass sie das Lawinenrisiko deutlich verringern können. Das grosse Problem der probabilistischen Methoden liegt andernorts: Sie werden nur selten angewandt (Landrø, 20204).
- Während der Outdoor-Phase spielen sogenannte analytische Methoden die entscheidende Rolle. Hier fliessen z.B. die folgenden Informationen ein: Überlegungen zum Lawinenproblem, beobachtete Alarmzeichen, menschliche Faktoren, Micro-Gelände, Schneeprofile, Stabilitätstests. Es mangelt nicht an Vorschlägen, wie diese Informationen zu einer Entscheidung führen können: Einzelhangtool, Musteranalyzer, Nivocheck, Nivotest, Systematische Schneedeckendiagnose (SSD) usw. (Landrø, 2020)5. Analytische Methoden lassen viele Freiheiten, haben aber ebenfalls ein grosses Problem: Es bleibt weitgehend unklar, welche Kriterien wie zu einem Go/NoGo-Entscheid umgemünzt werden sollen. Die Freiheit wird erkauft durch einen hohen Grad an Subjektivität, einen Mangel an Reproduzierbarkeit und fehlende wissenschaftliche Grundlagen.
Im Folgenden möchten wir die Frage aufwerfen, inwiefern „Algorithmen“ einen Beitrag zur Überwindung der geschilderten Probleme leisten können.
Skitourenguru heute
Skitourenguru ist eine Web-Seite, die täglich für tausende Skitouren des Alpenraumes eine Ampel auf grün (tiefes Risiko), orange (erhöhtes Risiko) oder rot (hohes Risiko) stellt. So gelangen Wintersportler schnell und unkompliziert zu einer Liste von geeigneten Skitouren mit tiefem Lawinenrisiko. Die Bewertung bezieht sich dabei auf im Planungsstadium verfügbaren und aussagekräftigen Informationen. Darunter fallen der Lawinenlagebericht und das Gelände.
Während sich klassische probabilistische Methoden auf die Hangneigung, die Gefahrenstufe und teils auch auf die Kernzone (kritische Höhenstufen und kritische Expositionen) stützen, geht Skitourenguru drei entscheidende Schritte weiter:
- Skitourenguru basiert auf einer umfassenden Analyse zum Lawinengelände. Dabei geht es um die Frage, wie „geeignet“ ein Punkt im Gelände für Lawinenauslösungen durch Skifahrer ist. Als Kriterien dienen nicht nur die Hangneigung, sondern auch die Hanggrösse, Hangform und Bodenbedeckung (Bewaldung).
- Quantitative Verarbeitung der Information aus der Kernzone (kritische Höhenstufen und kritische Expositionen).
- Um Sprünge zu vermeiden, interpoliert Skitourenguru die Daten in Grenzbereichen, bspw. an der Grenze zwischen Gefahrengebieten mit unterschiedlicher Gefahrenstufe.
Klassische probabilistische Methoden stützen sich teilweise auf Stabilitätstests, grösstenteils aber auf Unfallzahlen. Wintersportler suchen das Gelände jedoch sehr selektiv auf. Die Unfallhäufigkeit ist deshalb entscheidend durch die Begehungshäufigkeit der Wintersportler geprägt.
Ein Beispiel: Ab 38° nimmt die Unfallhäufigkeit ab. Aus diesem Sachverhalt wurde fälschlicherweise auch schon abgeleitet, dass Hänge über 40° weniger kritisch seien, als solche, die um 35° steil sind. Die Abnahme hängt jedoch in erster Linie damit zusammen, dass sehr steiles Gelände seltener befahren wird (Abb. 2). Die Unfallhäufigkeit muss deshalb zwingend in Relation zur Begehungshäufigkeit der Wintersportler gesetzt werden. Arbeiten, die nur Lawinenabgänge zählen, weisen immer einen systematischen Fehler auf. Skitourenguru hat deshalb mit Hilfe von modernen statistischen Methoden aus ca. 1600 Lawinenunfällen und 48‘000 km GPS-Tracks eine neue probabilistische Methode, die Quantitative Reduktionsmethode (QRM) abgeleitet (Schmudlach et al., 20186 und Schmudlach, 20197).
Skitourenguru unterstützt ein konservatives Verhalten das – bei einem geringen Preis in Form von gezieltem Verzicht – zu einer Vermeidung von bis zu 80 % der Lawinenunfälle führen kann. Es ist deshalb folgerichtig, wenn das Projekt durch die Schweizerische Beratungsstelle für Unfallverhütung (BFU) und die Petzl Foundation unterstützt, vom Schweizer Alpenclub (SAC) empfohlen sowie im Schweizer Faltblatt „Achtung Lawine“ erwähnt wird.
Zusätzlich erleichtern markierte Schlüsselstellen die Risikobeurteilung in der Outdoor-Phase. Skitourenguru ist jedoch nicht in der Lage jene Informationen zu verarbeiten, die typischerweise erst in der Outdoor-Phase anfallen (z.B. lokale Schnee- und Lawinenverhältnisse im Einzelhang). Skitourenguru sollte deshalb, wie jede andere „von Hand“ erfolgte Tourenplanung auch, nicht das einzige Kriterium zur Begehung eines Einzelhanges sein. Damit stellt sich ein Kommunikationsproblem: Dem hohen Nutzen in der Indoor-Phase stehen klare Grenzen in der Outdoor-Phase gegenüber. Diesen Sachverhalt dem Publikum verständlich zu machen, ist eine der grossen Herausforderungen in der Lawinenunfallprävention generell.
Skitourenguru morgen – ein neues Modell
Das Herzstück von Skitourenguru, die Quantitative Reduktionsmethode (QRM), basiert auf zwei Eigenschaften:
- Der Terrain-Indicator (TI) beschreibt wie „geeignet“ das Gelände an einem Ort für Lawinenauslösungen ist. TI wird aus einem Geländemodell abgeleitet.
- Der Danger-Indicator (DI) beschreibt, wie hoch derzeit die Lawinengefahr an einem bestimmten Punkt ist. DI wird aus den Angaben im Lawinenlagebericht abgeleitet.
Diese beiden Werte (TI und DI) wurden für jeden bekannten Lawinenunfall und für jeden einzelnen Punkt einer grossen Menge GPS-Tracks von Skitouren berechnet. Wenn man nun das Wissen über die Unfälle in Bezug setzt zum Wissen über die Begehungen, kann man daraus die QRM ableiten (Abb. 3). Die QRM zeigt bei gegebener Gefahrenstufe und gegebenem Gelände das relative Risiko, eine Lawine auszulösen.
Die Methode zur Berechnung der QRM kann in Zukunft noch erweitert werden. Zunächst definieren wir eine Reihe von Eigenschaften für jeden einzelnen Geländepunkt, bspw: Neigung, Höhe, Kammnähe, Geländekurvatur, Terrain-Indicator (TI), Walddichte, Distanz zur nächsten SAC-Route, Absturzgefährdung usw. Bei den Verhältnissen werden alle nur erdenklichen Daten aus dem aktuellen Lawinenlagebericht verwendet, bspw: Gefahrenstufe, Höhenunterschied zur kritischen Höhe, innerhalb/ausserhalb kritischer Expositionen, Lawinenproblem, Danger-Indicator (DI) usw. So experimentiert Skitourenguru mittlerweile mit über 40 Eigenschaften8.
Mit diesen Daten füllen wir eine riesige Tabelle. Jeder Geländepunkt erhält eine Zeile, auf der alle seine Eigenschaften stehen. In der letzten Kolonne tragen wir ein, ob es sich um einen Unfallpunkt oder einen Nicht-Unfallpunkt handelt. Dabei stammen die Unfallpunkte aus der Unfalldatenbank des SLF, die Nicht-Unfallpunkte stammen von den GPS-Tracks. Wir haben so einen sogenannten Trainingsdatensatz erzeugt (Abb. 4).
Mit Hilfe von modernen statistischen Methoden können wir im letzten Schritt aus dem Trainingsdatensatz ein Modell ableiten. Das Modell gibt an, welche Geländeeigenschaften und welche Faktoren aus dem Lawinenlagebericht das Lawinenrisiko wie stark beeinflussen. Neu ist dabei, dass wir nicht jede Einflussgrösse einzeln betrachten, sondern alle miteinander. Schlussendlich enthält das Modell in konzentrierter Form die Erfahrungen, die im Trainingsdatensatz enthalten sind und liefert uns die bestmögliche Berechnung des Risikos.
Ein Algorithmus kommt selten allein
Algorithmen können nicht nur Risiken berechnen, sondern Wintersportler in vielerlei Hinsicht unterstützen. Die folgenden Features sind in Entwicklung oder bereits online:
- Willst du das Risiko einer auf der Karte frei gelegten Skitour durchrechnen lassen? Willst du im Nachhinein den Algorithmus befragen, wie hoch das Risiko deiner heutigen Skitour war? Ersteres hilft bei der Planung, zweiteres gibt dir ein Feedback zum eigenen Verhalten. Egal ob geplante Skitour oder GPS-Track, beides benötigt eine Umgebung, bei der das Risiko von benutzergenerierten Routen berechnet wird. Der Algorithmus dahinter ist derselbe wie bei Skitourenguru.
- Heute müssen Skitourengänger bei der Planung Neigungskarten und Angaben des Lawinenlageberichts selber miteinander kombinieren. Einfacher geht das in Zukunft mit einer tagesaktuellen Risikokarte. Diese kombiniert die Topografie mit dem aktuellen Lawinenlagebericht und stellt als Resultat das aktuelle Lawinenrisiko auf einer Karte dar. Für die Schweiz gibt es bereits sechs Beispiele für solche Karten, berechnet mit der QRM9.
- Der Computer als Skitourenautor10: A. Eisenhut hat einen Algorithmus entwickelt, der in der Lage ist, vollautomatisch für einen ganzen Gebirgszug eine Skitourenkarte inklusive Korridoren zu erzeugen. Eine solche Karte für die ganze Schweiz11 wird auf Skitourenguru bereits heute zur Verfügung gestellt (Abb. 6).
Der grosse Traum
Lawinenvorhersage bedarf Informationen zur vergangenen, gegenwärtigen und zukünftigen Schneedecke. Die Lageberichte werden auch heute noch weitgehend manuell erstellt. D.h. Lawinenexperten sammeln, sichten und bewerten in Kopfarbeit eine Fülle von Informationen unterschiedlicher Provenienz. Dieses Vorgehen bringt es mit sich, dass derselbe Input nicht gezwungenermassen zu demselben Output führt (Lazar et al., 201612). Seit einer guten Dekade arbeitet die Lawinenforschung deshalb intensiv an der Vision einer vollautomatischen Modellkette. Am Eingang stehen Wetterdaten, am Ausgang steht eine hochaufgelöste, dynamische Schneedeckenstabilitätskarte. Konkret handelt es sich dabei um verschiedene sequenziell kombinierte Modelle (Abb. 7).
Abb. 6 Automatisch generierte Skitourenkarte von A. Eisenhut (Basiskarte: © Swisstopo).
- Das erste Modell berechnet aus den Vorhersagen der überregionalen und regionalen Wettersituation und Daten von Messstationen das lokale Wetter im Gebirge. Dabei werden hochaufgelöst (z.B. in einem Raster von 10 m) Werte wie Niederschlagsmenge, Windgeschwindigkeit, Temperatur, Strahlungsenergie usw. abgeschätzt. Naheliegenderweise ist diese Abschätzung mit Unsicherheiten verbunden.
- Das zweite Modell simuliert für alle Punkte im Raster den Schneedeckenaufbau. Im Computer wächst gewissermassen ein virtuelles Abbild der realen Schneedecke mit all ihren Schichten und deren physikalischen Eigenschaften. Zurzeit gibt es im Wesentlichen zwei Modelle, die physikalische Prozesse in der Schneedecke beschreiben können: SNOWPACK13 vom SLF und CROCUS14 von MeteoFrance. Es istanzumerken, dass dieses virtuelle Abbild selbst bei gegebener Wettersituation nur eine Näherung der Wirklichkeit darstellen kann. Solche Modelle reagieren potentiell sehr empfindlich auf kleine Unterschiede in den Eingangsdaten.
- Das dritte Modell enthält Kriterien für die Bestimmung möglicher Schwachschichten.
- Das vierte Modell schätzt für jede Schwachschicht deren Stabilität. Dabei wird bestimmt, ob bei Belastung durch einen Skifahrer ein Bruch überhaupt erst beginnen kann (Crack initiation) und sich dieser danach auch ausbreiten kann (Crack propagation).
Aus der Modellkette könnte eine Schneedeckenstabilitätskarte abgeleitet werden. Diese bezieht sich auf die Vergangenheit (nowcast) oder auf die Zukunft (forecast). Sie könnte entweder den Lawinenwarnern als Vorprodukt zum Lawinenlagebericht dienen oder direkt in einen Algorithmus wie Skitourenguru eingespeist werden.
Mit einer solchen Modellkette werden Informationen verarbeitet, die bis anhin erst in der Outdoor-Phase zur Verfügung stehen. Es stellen sich jedoch ein paar schwerwiegende Probleme:
- Alle bisher entwickelten Schneedeckenmodelle (SNOWPACK, CROCUS) beschreiben die Schneedecke in einer Dimension (vertikales Schneeprofil). Damit kann die räumliche Verteilung und Abhängigkeit nicht abgebildet werden.
- Das Schneedeckenmodell fokussiert auf das Altschneeproblem. Es gibt andere wichtige Lawinenprobleme: Triebschneeprobleme ergeben sich durch das Zusammenspiel sehr lokaler Bodenwinde mit dem Gelände und dem Schnee. Aktuelle Modelle sind meilenweit davon entfernt, den Effekt dieser Bodenwinde abbilden zu können. Das Nassschneeproblem ist eine weitere offene Baustelle.
- Das Schneedeckenmodell reagiert empfindlich auf die Niederschlagsmenge. D.h. wenn die angenommene Niederschlagsmenge leicht variiert, kann dies starke Auswirkungen auf das modellierte Schneeprofil zur Folge haben (Richter et al., 201815). Dies ist insbesondere deshalb schwerwiegend, da insbesondere die Niederschlagsmenge schwierig zu messen und vor allem vorherzusagen ist (Nitu et al., 201816).
- Es ist keine einfache Aufgabe, in einem Schneeprofil die relevante Schwachschicht zu bestimmen (Monti et al., 201417). Es gibt zwar etliche Vorschläge für mögliche Stabilitätsindikatoren, diese wurden bisher aber erst ansatzweise und mit durchmischtem Erfolg validiert (Morin et al., 2019)18.
- Von physikalischen Modellen erwarten wir, dass die Stabilität in Form einer absoluten Auslösewahrscheinlichkeit (bei Belastung durch einen oder mehrere Skifahrer) dargestellt wird. Die bisherigen Stabilitätsindikatoren sind weit von einer solchen Grösse entfernt.
Morin et al. (2019) gibt einen Überblick zum Stand der aktuellen Entwicklung. Zurzeit befinden sich die Modellketten immer noch in einem Experimentierstadium. Richter et al. (2019)19 fasst den Stand der Wissenschaft folgendermassen zusammen: „Offensichtlich ist das komplexe Problem der automatischen Identifizierung von Schwachschichten und der Bewertung der Schneestabilität in simulierten Schneeprofilen noch nicht gelöst.“ Morin et al. (2019) ist ebenfalls zurückhaltend: „Die Möglichkeit, automatisch Lawinenwarnhinweise zu erstellen, bleibt eine langfristige, möglicherweise schwer fassbare Herausforderung.“ Dem entsprechend spielen bis zum heutigen Tage die Modellketten in der täglichen Arbeit der Lawinenwarner keine oder eine marginale Rolle (Morin et al., 2019)20.
Neben den vielen Herausforderungen verbunden mit der Repräsentation der physikalischen Phänomene ist unserer Meinung nach die konsistente Berücksichtigung von Unsicherheiten hierbei von herausgehobener Wichtigkeit. Dies entspräche einem Brückenschlag zwischen physikalischen und empirisch-statistischen (probabilistischen) Methoden.
Die Zukunft liegt in jedem Fall in einer weiteren Standardisierung und Automatisierung des Prozesses zur Erzeugung des täglichen Lawinenlageberichtes. Deshalb ist es sinnvoll die Entwicklung der Modellkette mit Elan weiterzuverfolgen. Die Zukunft wird kommen, irgendwann.
Fazit
Algorithmen helfen, in der Lawinen-Risikobeurteilung komplexe und umfangreiche Daten-Zusammenhänge zu verarbeiten und für die Entscheidungshilfe zur Verfügung zu stellen.
Für die Indoor-Phase stehen bereits heute brauchbare Entscheidungsmodelle zur Verfügung, sie werden aber selten angewandt. Algorithmen sind in der Lage, diese Entscheidungsmodelle zu verfeinern und auf eine solide Grundlage zu stellen. Die automatische Bewertung von Skitouren macht sie aber vor allem einem grossen Publikum zugänglich. Daraus ergibt sich ein grosses Potential für die Lawinenunfallprävention. Herausforderungen stellen sich weniger in den Tools selbst, als hinsichtlich der Kommunizierbarkeit ihres Nutzens und ihrer Grenzen. Denn so gut die Tools auch sind, sie sind immer nur der erste Schritt des Risikomanagements und ersetzen nicht die Beurteilung vor Ort.
Eine Skitour erfordert eine Sequenz von Entscheidungen, die unter großen Unsicherheiten getroffen werden müssen. Informationen können die Unsicherheiten reduzieren. Hierzu müssen die Informationen nicht nur aussagekräftig, sondern auch verfügbar sein. Der Lawinenlagebericht enthält aussagekräftige Informationen zu den Schnee- und Lawinenverhältnissen und kann somit die Unsicherheiten in der Planungsphase reduzieren. Obwohl die Informationen aus dem Lawinenlagebericht generalisiert (grossflächig gemittelt) und zudem fehlerbehaftet sind, nutzen sie zur Reduktion der Unsicherheit im Einzelhang. Der gleiche Hang ist tendenziell gefährlicher mit steigender Gefahrenstufe. Dieser Zusammenhang wird unter Fachleuten oft kontrovers diskutiert. So lange aber nachgewiesen werden kann, dass die Gefahrenstufe und die Kernzone ein guter Einflussfaktor für das Lawinenrisiko darstellen, muss ein rationaler Wintersportler zwingend den Lagebericht (und insbesondere die Gefahrenstufe und die Kernzone) in seine Risikoabschätzung miteinbeziehen.
Dies gilt auch für den Einzelhang. Nicht ohne Grund sind die Gefahrenstufe und die Kernzone ganz oben in der Informationspyramide21 angesiedelt. Russel & Norvig (2016)22 schreiben in ihrem Standardwerk zur „Künstlichen Intelligenz“: „Bei der Entscheidungsfindung muss sich ein Agent auf alle Informationen stützen, die er beobachtet hat“. Sollte sich herausstellen, dass die Gefahrenstufe keinen guten Einflussfaktor für das Lawinenrisiko darstellt, dann gehört sie auf den Müllhaufen der Geschichte. Auf jeden Fall können wir Wintersportler eine Gefahrenstufe, die wir nicht auf den Einzelhang projizieren dürfen, nicht gebrauchen. Schliesslich finden unsere Skitouren im Einzelhang und nicht in einer abstrakten Warnregion statt.
In der Outdoor-Phase brauche es nach Lehrmeinung viel „Erfahrung und Intuition“. Das ist eine nette Beschreibung des herrschenden Wildwuchses. Die gelehrten Methoden zeichnen sich v.a. durch ihre Subjektivität, fehlende Reproduzierbarkeit und mangelhafte Grundlage aus. Die Lawinenkunde ist weit von einem gemeinsamen Verständnis entfernt, wie man im Gelände zu einem robusten Go/NoGo-Entscheid kommt. Es kommt hinzu, dass es eine grosse Diskrepanz gibt zwischen dem, was gelehrt, und dem, was in der Realität effektiv angewandt wird. Diese Distanz betrifft längst nicht nur Einsteiger und Fortgeschrittene, sondern ebenso Experten. Entsprechend beliebig fallen die Entscheide im Einzelhang aus. Dass das oft gut geht, hängt in erster Linie damit zusammen, dass Lawinenunfälle sehr seltene Ereignisse sind. Eine grundlegende Verbesserung der Situation ist derzeit leider nicht in Sicht.
Im Zusammenhang mit dem Entscheid im Einzelhang wird gerne auf das Potential der „erfahrungsbasierten Intuition“ verwiesen. Ohne eine kritische Auseinandersetzung mit diesem Begriff ist der Verweis wenig hilfreich. Daniel Kahneman23 (immerhin ein Nobelpreisträger) hat zwei Kriterien benannt, die gegeben sein müssen, damit der Homo-Sapiens „ erfahrungsbasierte Intuition“ aufbauen kann: Erstens eine Umgebung, die hinreichend regelmässig ist, um vorhersagbar zu sein. Zweitens eine Gelegenheit, diese Regelmässigkeit durch langjährige Übung zu erlernen. Beide Kriterien sind bei der Lawinen-Risikobeurteilung nur mangelhaft erfüllt.
Der Einsatz von Algorithmen bleibt damit vorderhand auf die Indoor-Phase beschränkt. Den einen mag dies betrüben, den anderen wird’s freuen. Die Chancen, dass die alpine Winterlandschaft ein Refugium bleibt, in dem eigenverantwortlichem Handeln ein hoher Stellenwert zukommt, stehen gut.
Quellen:
1 Harvey, S., Rhyner, H., Schweizer, J., 2012. Lawinenkunde. Praxiswissen für Einsteiger und Profis zu Gefahren, Risiken und Strategien.
2 Engler, M., 2001: Die weisse Gefahr: Schnee und Lawinen. Erfahrungen – Mechanismen – Risikomanagement, Sulzberg, Verlag Martin Engler.
3 Larcher, M., 1999: Stop or Go: Entscheidungsstrategie für Tourengeher. Berg&Steigen, pp. 18–23.
4 Landrø, M., Hetland, A., Verpe Engeset, R., Pfuhl, G, 2020: Avalanche decision-making frameworks: Factors and methods used by experts, Cold Regions Science and Technology.
5 Landrø, M., R., Pfuhl, Verpe Engeset, G, Jackson, M., Hetland, A., 2019: Avalanche decision-making frameworks: Classification and description of underlying factors, Cold Regions Science and Technology.
6 Schmudlach, G., Winkler, K., Köhler, J., 2018: Quantitative Risk Reduction Method (QRM), a data-driven avalanche risk estimator, ISSW, Innsbruck.
7 Schmudlach, G., 2019: Quantitative Reduktionsmethode (QRM) – Eine datenbasierte Methode zur Berechnung des Lawinenrisikos für Wintersportler, BergUndSteigen 1/2019 (Nr. 106)
8 Liste potentieller Prädiktoren für das Lawinenrisiko: https://www.skitourenguru.ch/download/data/ARPD.xls
9 Beispielhafte Risikokarten der Schweiz: https://www.skitourenguru.ch/index.php/services/172-riskmap
10 Bachmann, A., 2020: Der Computer als Skitourenautor – Automatisch generierte Skitourenkarte, Die Alpen 2/2020.
11 Link zur vollautomatisch generierten Skitour der Schweiz: https://www.skitourenguru.ch/index.php/services/208-services-corridors
12 Lazar, B., Trautman, S., Cooperstein, M., Greene, E., Birkeland, K., 2016: North American Avalanche Danger Scale: do backcountry forecasters apply it consistently? ISSW, Breckenridge.
13 https://www.slf.ch/de/services-und-produkte/snowpack.html
14 https://www.umr-cnrm.fr/spip.php?article555&lang=fr
15 Richter, Van Herwijnen, A., B., Rotach, M.W., Schweizer, J., 2020: Sensitivity of modeled snow stability data to meteorological input uncertainty, Natural Hazards and Earth System Sciences.
16 Nitu, R., und viele mehr, 2018: WMO Solid Precipitation Intercomparison Experiment (SPICE) (2012–2015), Instruments and Observing Methods Report No. 131. Tech. Rep., World Meteorological Organization, Geneva.
17 Monti, F., Schweizer, J., Fierz, C., 2014. Hardness estimation and weak layer detection in simulated snow stratigraphy. CRST.
18 Morin, S., …, 2019: Application of physical snowpack models in support of operational avalanche hazard forecasting: A status report on current implementationsand prospects for the future, CRST.
19 Richter, B., Schweizer, J., Rotach, M.W., Van Herwijnen, A., 2019: Validating modeled critical crack length for crack propagation in the snow cover model SNOWPACK, The cryrosphere.
20 Morin, S., und viele mehr, 2019: Application of physical snowpack models in support of operational avalanche hazard forecasting
21 https://www.avalanches.org/standards/information-pyramid/
22 Russel, S., Norvig, P., 2016: Artificial Intelligence. Pearson, Harlow, pp. 485.
23 Kahneman, D., 2012: Schnelles Denken, Langsames Denken.