Aussagekraft und Zukunftsvision
Um eine umfassende Risikoanalyse und risikobasierte Entscheidungsfindung zu ermöglichen, wird ein Ereignisdatensatz mit dazugehörenden Wahrscheinlichkeiten benötigt. Dies erfordert eine ereignisbasierte Herangehensweise, was mit der heute üblichen Methodik nicht möglich ist. Für viele Anwendungen wird zudem die Jährlichkeit von Intensität oder anderen Prozesskennwerten am Ort der Einwirkung benötigt. Auch dies ist mit der konventionellen Methodik nicht möglich, da hier die Jährlichkeit der Auslösung ausschlaggebend ist.
Mit probabilistischen Modellierungen können an jedem Standort der Einwirkung durchgehende Intensitäts-Frequenzkurven zur Charakterisierung der Gefährdung erstellt werden. Der Vorteil ist, dass somit ein räumlich differenzierteres Bild der Gefährdung entsteht, bei der auch berücksichtigt wird, wie oft ein Standort getroffen wird. Es kann auch für jeden Ort jede beliebige Jährlichkeit der dazugehörige Erwartungswert einer Prozesskenngrösse (z.B. Fliesstiefe) bzw. für jede beliebigen Wert der Prozesskenngrösse eine Jährlichkeit abgeleitet werden.
Zu jedem Ereignis der probabilistischen Modellierung lässt sich wiederum ein Schaden für jedes betroffene Objekt berechnen. Zur Charakterisierung von Risiken können daraus wiederum durchgehende Schadenfrequenzkurven für einzelne Objekte oder Gruppen von Objekten (z.B. ein Dorf oder eine Prozessquelle) erstellt werden.
Es ist wichtig sich bewusst zu sein, dass auch probabilistische Modellierungen ein Modell bleiben und die Realität nie 1:1 abbilden können. Wir können auch dieses Modell demnach nicht blind als direktes Abbild der Wirklichkeit verwenden.
Nachfolgend werden einige Vorteile und Nachteile der probabilistischen Gefahrenmodellierung angeführt.
Schwächen und Risiken
- Modelloutput kann nicht besser sein als sein Input
- verleitet zu Scheinpräzision
- Herausforderung lokale Gegebenheiten ausreichend detailliert und realitätsnah abzubilden
- Datentyp und Datenmenge stellen neue Anforderungen an die Nutzenden
- Erlernen neuer Methodik notwendig, Erfahrung - auch zur fachlichen Einordnung der Ergebnisse - fehlt
- Neuer, anderer Blick auf bisherige Gefahren- und Risikobeurteilung. Wie wird mit neuen Erkenntnissen im aktuell etablierten Prozedere umgegangen?
Stärken und Chancen
- Objektivität (einheitliche Grundlagendaten, gleiche Fälle werden gleich behandelt)
- reproduzierbare und nachvollziehbare Ergebnisse
- Flächendeckende Resultate
- hohe Effizienz (Berücksichtigung grosser Anzahl an Ereignissen möglich)
- breites Spektrum an Abläufen kann abgebildet werden, auch unwahrscheinliche
- Veränderung von Rahmenbedingungen sind quantifizierbar (z.B. Klimawandel)
- Verschiedene Auswertungen je nach Zielgruppe/Fragestellung möglic
- Ermöglich häufigere Aktualisierung der Resultate und Produkte
Im Zuge des Projekts ProBE soll mittels probabilistischer Modellierungen eine zentrale und einheitliche Beurteilungsgrundlage geschaffen werden, die das Fundament des integralen Risikomanagements im Kanton Bern darstellt. Diese Grundlage soll für alle gravitativen Naturgefahrenprozesse flächendeckend und von einheitlicher Qualität sein. Räumlich differenzierte Intensitäts-Frequenz-Kurven sollen für alle ausschlaggebenden Parameter für jeden Ort abrufbar sein.
Mit der anvisierten objektiven, effizienten und zukunftsgerichteten Beurteilungsgrundlage für ein proaktives Risikomanagement können u.a. folgende Fragestellungen leichter beantwortet werden:
- Proaktive Identifikation von Gebieten mit Schutzdefizit (heute reaktiv aufgrund von Ereignissen oder auf Basis der Gefahrenstufe (meist rot) in der Gefahrenkarte)
- Priorisierung der Schutzdefizite nach Risiko
- Projektierungsgrundlage für erste Stufe der Massnahmenplanung
- Basis für die kantonale Risikoübersicht gemäss Vorgabe BAFU
Die Grundlage für die Raumplanung wird die Gefahrenkarte bleiben. Diese wird weiterhin gutachterlich erstellt, wobei die probabilistische Gefahrenmodellierung eine der verwendeten Grundlagen sein wird. Die Gefahrenkarte soll aber künftig einzig ein Instrument für die Raumplanung - und nicht für das Risikomanagement - sein, so wie das ursprünglich konzipiert wurde.
Grundlagen
Bei deterministischen Modellen werden die Modellparameter (Randbedingungen, Parameter) vom Anwender für ein bestimmtes Szenario fix definiert. Die von deterministischen Modellen erzeugten Ergebnisse sind reproduzierbar: ein definiertes Ereignis liefert ein mögliches Ergebnis.
Probabilistische Modelle hingegen sind wahrscheinlichkeitsbasiert, sie integrieren Wahrscheinlichkeitsverteilungen in ein Modell und oft auch Zufallsvariablen. Sie berücksichtigen somit, dass wir selten alles über eine Situation wissen.
Bei ProBE: Hangmuren wird mit AvaFrame ein deterministisches Modell verwendet. Jedoch werden die Eingangsparameter innerhalb einer festgelegten Häufigkeitsverteilung variiert. Für jede Hangmure werdes so mehrere Dutzend Simulationen mit unterschiedlichen Wahrscheinlichkeiten berechnet, sodass wiederum von einem probabilistischen Ansatz gesprochen wird.
In der heutigen Herangehensweise der Gefahrenbeurteilung für gravitative Naturgefahren wird bestimmt, was bei einer Auslösung eines Ereignisses einer bestimmten Jährlichkeit passieren kann. Dies wird in der Regel für die 30-, 100-, 300- und zum Teil 1’000-jährliche Auslösung gemacht, indem Szenarien gebildet werden. In der Umhüllenden von diesen verschiedenen Szenarien wird für den gesamten Wirkungsbereich der gleiche statistische Wert verwendet, z.B. 98-Perzentil der Energie am besagten Punkt. Diesem Resultat wird die Jährlichkeit der Auslösung zugewiesen
Die Zuordnung der Wiederkehrperiode der Prozessauslösung sowie der räumlichen Auftretenswahrscheinlichkeit und Intensität auf der Fläche erfolgt in einer deterministischen Kette. Eine Zuweisung der Ereigniswahrscheinlichkeiten ist nicht möglich. Unsicherheiten werden nicht rechnerisch berücksichtigt.
Eine probabilistische Gefahrenbeurteilung basiert auf der Modellierung von vielen verschiedenen möglichen Ereignissen je Prozessquelle. Jedem dieser Ereignisse wird seine spezifische Ereigniswahrscheinlichkeit zugewiesen. Diese Art der Modellierung benötigt Wahrscheinlichkeitsverteilungen der Auslöseparameter (z.B. Abbruchvolumen) und gegebenenfalls der Prozessablaufparameter als Input. Durch die Auswertung der grossen Anzahl von Ereignissen und ihrer dazugehörenden Wahrscheinlichkeiten sind detaillierte Analysen an jedem Standort im Einwirkungsbereich möglich. Die Ergebnisse der probabilistischen Modellierung beziehen sich auf den Ort der Einwirkung, nicht der Auslösung wie in der konventionellen Methode.
Herangehensweise und Anwendung
Nein, auch eine probabilistische Modellierung braucht nach wie vor die Expertise einer Fachperson. Die Ergebnisse der Modellierung sollen zukünftig eine unter mehreren Grundlagen der gutachterlichen Beurteilung und Übertragung in weiterführende Gefahren- und Risikobetrachtungen darstellen.
So müssen z. B. für die Erstellung von Gefahrenkarten sowohl die Input-Parameter als auch die Ergebnisse der probabilistischen Modellierung gutachterlich plausibilisiert und gegebenenfalls angepasst werden. Die «Maschine» liefert also eine neue, zusätzliche Grundlage, die Entscheidungen werden weiterhin von Fachpersonen getroffen.
Eine mögliche Direktverwendung der Ergebnisse probabilistischer Modellierungen sieht das AWN z.B. bei kantonalen Risikokarten oder als Entscheidungswerkzeug bei der Priorisierung von anstehenden Arbeiten im Bereich Naturgefahren (z. B. Priorisierung Revision der Gefahrenkarten).
Aus der Betrachtung vieler Ereignisse (mit dazugehörender Ereigniswahrscheinlichkeit) resultiert ein durchgehendes Bild. Eine druchgehende Intensitäst-Frequenzkurve mit Schadensbeginn bis hin zum seltenen Ereignis.
Wenn viele Ereignisse unter Berücksichtigung der relevanten Parameter und deren Bandbreite modelliert werden, ist die Wahrscheinlichkeit grösser, dass die relevanten (Schaden-)Ereignisse darunter enthalten sind. So können auch «undenkbare» Ereignisse berücksichtigt werden. Wird also das ganze Spektrum an möglichen Ereignissen betrachtet, lässt sich zumindest ein Teil der Unsicherheiten abbilden.
Ja, das ist so. Trotzdem enthalten die Simulationen wertvolle Informationen über mögliche Ereignisabläufe. So werden einerseits die häufigeren Ereignisse möglichst stabil abgebildet und andererseits ergeben sich Hinweise für extrem seltene Ereignisse. Diese können bei der gutachterlichen Gefahrenbeurteilung als Worst-Case-Szenario mitgedacht werden.
Wichtig ist, dass mit der Wahl der Eingangsparameter ein physikalisch plausibles, aber ausreichend breites Spektrum abgebildet wird, welches auch solch sehr grosse und sehr seltene Ereignisse generiert. Durch die geringe Überschreitenswahrscheinlichkeit dieser seltenen Ereignisse erhalten sie im Endergebnis keine zu grosse Gewichtung, werden jedoch auch nicht völlig ausgeblendet.
In der heutigen Praxis ist eine Über- oder Unterrepräsentierung von Extremereignissen aufgrund notwendiger Vereinfachungen teilweise schwer zu vermeiden.
Die resultierende Datenmenge ist je nach Modellierung und Ansatz unterschiedlich. Grundsätzlich kann man mit diesen Datenmengen umgehen, was in anderen Bereichen (z.B. Klima, Erdbeben, Rückversicherung) bereits gemacht wird. Es ist sicherlich eine Umstellung im Vergleich zur heutigen Vorgehensweise nötig, da das Datenhandling aufwendiger ist und für die Auswertungen andere Werkzeuge benötigt werden.
Um Flexibilität bei zukünftigen Auswertungen zu haben, muss der gesamte Ereignisdatensatz mit den dazugehörigen Wahrscheinlichkeiten verfügbar sein. Dies kann je nach Auflösung und Anzahl der Ereignisse eine sehr grosse Datenmenge bedeuten. Die benötigte Speicherleistung lässt sich z.B. über die Verwendung eines Datenformats, das speichereffizient mit den vielen leeren Gitterzellen umgeht (die meisten Ereignisse betreffen nur einen Teil des Gitters), stark reduzieren.
Die vorgestellte Methodik kann grundsätzlich auf allen Massstabsebenen angewendet werden. Dabei ist wichtig, dass die Qualität der Eingabedaten und des verwendeten Prozessmodells für den Massstab der angestrebten Zieldaten (Ergebnisse im Bereich der Einwirkung) geeignet ist. Im Vorprojekt Pro-Mo wurde ein Massstab zwischen M1 (Stufe Hinweis) und M2 (Stufe Standard) erreicht. Für ProBE: Hangmure können noch keine solche Aussagen getroffen werden.
Probabilistische Modellierungen sind zudem skalierbar, d.h. sie können sowohl für einzelne Prozessquellen als auch für grössere Gebiete durchgeführt werden.
Der Klimawandel kann mittels probabilistischer Modellierung berücksichtigt werden. Hierfür können einerseits die Ereigniswahrscheinlichkeiten geändert und dadurch an neue Verhältnisse angepasst werden. Für diese Art der Klimafolge-Analyse sind keine neuen Modellierungen notwendig. Andererseits können auch neue Prozesssimulationen mit angepassten Eingangsparametern erstellt werden, womit die physikalischen Änderungen im Prozessablauf berücksichtig werden. Ein Beispiel wäre die Integration einer veränderten Bandbreite künftiger Wetterereignisse in das Modell, deren Konsequenzen in probabilistischen Niederschlags-Abfluss-Simulationen abgebildet werden können.
Auswertung und Ergebnisse
Ein wichtiges Produkt, das aus probabilistischen Modellierungen hervorgeht, sind Intensitäts-Frequenzkurven zur Charakterisierung der Gefährdung. Sie gelten jeweils für einen bestimmten Ort, sozusagen "ein Pixel“, und nicht für ein abgegrenztes Gebiet. Dabei wird ein ausgewählter Parameter (z.B. Fliesstiefe bei Hangmuren) gegen die Wiederkehrperiode in Jahren aufgetragen. Intensitätsfrequenzkurven sind das Ergebnis der statistischen Auswertung für jeden Standort im Untersuchungsgebiet, indem die simulierten Ereignisse jeweils nach Intensität sortiert und mit ihrer Wahrscheinlichkeit verbunden werden. Es kann also abgelesen werden mit welcher Überschreitenswahrscheinlichkeit von bestimmten Intensitäten an diesem Ort (Pixel) gerechnet werden muss. Der Verlauf der Kurve variiert je nach Standort, die Intensität kann z.B. je nach Wiederkehrperiode eher graduell oder aber sprunghaft ansteigen.
Die mit der probabilistischen Modellierung berechneten Wahrscheinlichkeiten bzw. Wiederkehrperioden sind nicht direkt vergleichbar mit jenen in den heutigen Gefahrenkarten. Bei letzterer bezieht sich die Jährlichkeit auf die Auslösung, während die Wiederkehrperioden der probabilistischen Modellierungen sich auf den Ort der Einwirkung beziehen. Dies muss bei der Verwendung der Ergebnisse berücksichtigt werden.
Zu jedem Ereignis der probabilistischen Modellierung lässt sich ein Schaden für jedes betroffene Objekt berechnen. In Schaden-Frequenzkurven wird das Schadenausmass eines Ereignisses der Wahrscheinlichkeit gegenübergestellt, dass dieser Schaden erreicht oder überschritten wird. Die Kurve bezieht sich damit direkt auf den Schaden nicht auf die Intensität oder das auslösende Ereignis. Die Schadenfrequenzkurve kann für einzelne Objekte oder Gruppen von Objekten (z.B. ein Dorf oder eine Prozessquelle) aus der Intensitäts-Frequenzkurve, den Sachwerten und den Verletzlichkeiten abgeleitet werden.
Das kann so nicht pauschal gesagt werden. Die Resultate in der probabilistischen Modellierung sind differenzierter: im Vergleich zur bisherigen Herangehensweise bei gravitativen Naturgefahren, bei der der Ort der Auslösung ausschlaggebend ist, wird nun die Wahrscheinlichkeit des Auftretens an einem bestimmten Standort (als Ort der Einwirkung) differenziert berücksichtigt. Standorte, die von wenigen Ereignis-Simulationen erreicht werden - z.B. morphologisch bedingt, aber auch Randbereiche des Simulationsgebiets -, erhalten eine tiefere Wahrscheinlichkeit im Vergleich zu Standorten, wo viele simulierte Ereignisse durchgehen. In der herkömmlichen Herangehensweise hingegen werden einheitliche Flächen ausgeschieden, die alle denselben Wert (Maximum) erhalten.
Die probabilistische Herangehensweise erlaubt zudem, die Überlagerung verschiedener Wirkungsräume durch unterschiedliche Auslösegebiete am Standort der Einwirkung abzubilden. Dazu werden die Ereignisse aus beiden Auslösegebieten mit den dazugehörigen Wahrscheinlichkeiten am Standort der Einwirkung kombiniert (Darstellung z.B. als Intensitätsfrequenzkurve), die Gefährdung steigt somit. Bei der konventionellen Herangehensweise dagegen kann dieser Überlagerungseffekt der Wahrscheinlichkeiten nicht berücksichtigt werden (systematischer Fehler aufgrund von notwendigen Vereinfachungen).
Es kann also zwischen probabilistischer und herkömmlicher Herangehensweise Methoden-bedingt sowohl zu Abweichungen der Ergebnisse nach oben als auch nach unten kommen. Nach derzeitigen Erkenntnissen scheinen geringere Gefährdungseinschätzungen bei der probabilistischen Methode vorzuherrschen.
Die Gefahrenkarte wird weiterhin aus einer Vielzahl von Grundlagen erarbeitet werden. Neben dem Ereigniskataster und Feldaufnahmen sollen zukünftig auch probabilistische Modellierungen als Grundlage dienen. Gefahrenkarten stellen somit ein mögliches, unter anderem aus der probabilistischen Modellierung, abgeleitetes Produkt dar.
Die modellierten Daten müssen stets im Gelände plausibilisiert und gutachterlich eingeordnet werden. Dies geschieht sowohl für die Eingangsdaten (z.B. Anrissmächtigkeit bei Hangmuren, Blockgrösse bei Sturzereignissen, etc.) als auch für die Ergebnisse. Je nach Qualität der Übereinstimmung sind allfällige gutachterliche Anpassungen notwendig.
Es gibt vielfältige Möglichkeiten zur Plausibilisierung, sie unterscheiden sich wenig von den Methoden zur Kalibrierung und Plausibilisierung bei herkömmlichen Modellierungen. Dazu zählen u.a.:
- Vergleich der Modellierungsergebnisse mit dem Ereigniskataster und Aussagen von Anrainern
- Abgleich angenommener Prozessparameter mit Geländebeobachtungen
- Überprüfung der Berücksichtigung von bestehenden Schutzmassnahmen
- Begutachtung des Verlaufs der Intensitätsfrequenzkurven (Sprünge vs. gleichmässiger Verlauf), insbesondere an Schlüsselstellen
In manchen Fällen kann auch eine zusätzliche herkömmliche Modellierung einzelner Prozessquellen zur Plausibilisierung empfehlenswert sein.
Praxisrelevanz
Derzeit liegen noch keine flächendeckenden probabilistischen Modellierungen für alle Naturgefahrenprozesse im Kanton Bern vor.
Prinzipiell lassen die Vorgaben des Bundes vor allem durch Methodenkompetenz der Anwenderinnen und Anwender die Möglichkeit für probabilistische Modellierungen offen. Zudem können Auftraggeber (z.B. Kantone) spezifische Anforderungen vorgeben.
Der Aufwand der Beurteilung sollte nach heutigem Kenntnisstand mit der Verwendung der probabilistischen Modellierungen als zusätzliche Grundlage tendenziell geringer werden. Wieviel geringer hängt in erster Linie von der Qualität und Plausibilität der zur Verfügung gestellten probabilistischen Daten für das jeweilige Arbeitsgebiet ab, d.h. wieviel Mehraufwand muss für Nachmodellierungen oder zusätzliche gutachterliche Beurteilungen verwendet werden.
Dazu kommt, dass probabilistische Modellierungen im Bereich der gravitativen Naturgefahren in der Schweiz noch weitgehend unbekannt sind. Das Aufbereiten und Analysieren der - durch die hohe Anzahl an Simulationen - grossen Datenmengen wird mehr Zeit benötigen. Wieviel hängt v.a. von den letztendlich zur Verfügung gestellten Daten bzw. Auswertungen ab und wie schnell sich sinnvolle und effiziente Arbeitsabläufe einspielen. Auch bei der fachlichen Einschätzung gibt es derzeit noch wenig Erfahrung und es wird anfänglich mehr Zeit brauchen bis sich die Methodik etabliert hat und praktisches Wissen aufgebaut wird.
Derzeit liegen noch keine flächendeckenden probabilistischen Modellierungen für die verschiedenen Naturgefahrenprozesse im Kanton Bern vor.
Probabilistische Modellierungen bieten jedoch zahlreiche Möglichkeiten, die grundsätzlich genutzt werden sollten. Sie sind ein zusätzliches Werkzeug unter Vielen und nicht in jedem Fall die beste Lösung. Ein Optimum entsteht oft aus der Kombination unterschiedlicher Ansätze und Betrachtungsweisen. Bei der Evaluation von Methoden sollten probabilistische Modellierungen aber künftig mitberücksichtigt werden.