Projektinhalt und Ziele


Unsere Umwelt und die Erdoberfläche unterliegen einem ständigen Wandel, wobei sich die Geschwindigkeit und das Ausmaß der Veränderungen in den letzten Jahren beschleunigen. Die globale Erwärmung und der daraus resultierende Klimawandel sorgen für veränderte Rahmenbedingungen. Viele Georisiken durch Naturereignisse nehmen dadurch zu, was durch intensive anthropogene Eingriffe zusätzlich verstärkt werden kann. Beispielsweise sorgen intensive, langanhaltende Niederschläge häufiger für Erdrutsche oder Felsstürze (Dinkel et al., 2021). Solche Ereignisse bedrohen vor allem die lokale Bevölkerung, die ein besonderes Interesse an der Prävention vor diesen Ereignissen hat. Zusätzlich sind zentrale und auch kritische Infrastrukturen (bspw. Eisenbahnlinien oder Straßenverkehrswege) durch solche Naturgefahren besonders potenziell betroffen, was ökonomisch weitreichende Auswirkungen haben kann (Hänsel et al., 2020).


Ein zentrales Instrument in einem integrierten Risikomanagement zur fundierten Entscheidungsunterstützung ist die Verfügbarkeit von relevanter 4D-Geoinformation (d.h. hochgenaue und räumlich hochaufgelöste 3D-Daten in gleichzeitig hoher zeitlicher Auflösung). Die 4D-Geoinformation wird dabei durch ein permanentes Monitoring oder die anlassbedingte (“on-demand”) Abfrage in naher Echtzeit erfasst. Der aktuelle Stand der Forschung und Technik stellt hierzu sogenannte permanent installierte und vorwiegend autonom operierende Laserscanning-Systeme (PLS) zur Verfügung, die in prototypischen Studien ihr enormes Potenzial für die hochgenaue Beobachtung von lokalen Gefährdungsbereichen bereits unter Beweis gestellt haben (Schröder et al. 2022). PLS-Systeme liefern riesige Datenmengen (Milliarden von Messungen pro Tag), für die bereits erste computerbasierte Analysemethoden in der Forschung existieren. Um PLS-Systeme und 4D-Methoden für die operationelle Anwendung verfügbar zu machen und die Datenflut auf die relevanten Informationen für Entscheidungsträger*innen zu beschränken, wird eine neue Schnittstelle zwischen den Informationsbedürfnissen der Anwendung und der 4D-Erfassung und -auswertung benötigt.


Um komplexe geomorphologische Prozesse erklären zu können, sind neben den Positions- und Höhenveränderungen zwischen zwei Messungen u.a. Geschwindigkeiten und Beschleunigungen relevant. Solche Merkmale haben das Potential, zuverlässig aus räumlich und zeitlich hochauflösenden Zeitreihen extrahiert zu werden, sofern die Laserscandaten einer durchgehenden Qualitätssicherung unterliegen, um Fehlinterpretationen und folglich Fehlalarme zu vermeiden (Holst et al. 2018). In der Wissenschaft ist die Analyse multitemporaler Punktwolken erst seit kurzer Zeit ein Thema. So wurden verschiedene Verfahren präsentiert, die ihr Anwendungspotenzial unter Beweis gestellt haben (z.B. Kharroubi et al. 2022, Kuschnerus et al. 2022, Voordendag et al. 2021, Williams et al. 2019 & Winiwarter et al. 2022). Zum Zweck der Implementierung dieser Verfahreninnerhalb eines Echtzeitassistenzsystems stehen aktuell noch keine automatisierten und operational einsetzbaren Verfahren zur Verfügung.


Der konkrete Bedarf und das Anwendungswissen der Stakeholder sollen in diesem neuen System mit dem autonomen PLS-System und dem PLS-Datenarchiv durch die 4D-Datenanalyse verknüpft werden. Dadurch soll es erstmals möglich werden, modernste PLS-Systeme im operationellen Risikomonitoring einzusetzen und in den riesigen Datenmengen mit Hilfe von Methoden der Künstlichen Intelligenz (KI) gezielt relevante Ereignisse finden zu können (z.B. Aktivierung eines Hangbereichs) und im fortlaufenden Monitoring zu verfolgen sowie neue Ereignisse automatisch zu identifizieren.


Der Online-Betrieb und die Datenerfassung mittels PLS stellen nicht mehr den limitierenden Faktor dar und solche Systeme sind wirtschaftlich attraktiv einsetzbar (Czerwonka-Schröder & Gaisecker 2022). Vielmehr sind bei der Transformation der erfassten Daten hin zu relevanten Informationen innerhalb eines integrierten Risikomanagements transparente Tools zur Verifizierung der Datenqualität, der zur automatisierten Datenanalyse und schlussendlich zur Visualisierung und dem Reporting gegenüber den Anwendern notwendig.


Hieraus ergibt sich thematisch der Schwerpunkt des vorliegenden Projektantrages. Ziel ist es, die Lücke zwischen Forschung und Anwendung zu schließen. Daher ist die Basis dieses Forschungsprojekts ein hohes Maß an Anwendungsorientierung, indem existierende Analyse- und Erfassungsmethoden entsprechend weiterentwickelt und ergänzt werden. Unter den hier beschriebenen Bedürfnissen aus Sicht der Forschung als auch der Anwender konnten wir das Landesamt für Geologie und Bergbau Rheinland-Pfalz und die DB Netz AG (Tunnel- und Erdbau Technik) als assoziierte Partner gewinnen. Beide Parteien haben ihre aktive Teilnahme und den Austausch für eine bedarfsgerechte Entwicklung zugesagt. Nach den Vorgesprächen mit den Partnern ist die Durchführung des Projektes innerhalb eines Testszenarios im Mittelrheintal vorgesehen. Ein Messsystem wird in Abstimmung aller Partner vor Ort installiert. Die Daten werden mittels der im Projekt zu entwickelnden Algorithmen und KI-Methoden in relevante Informationen umgewandelt und den Anwendern bedarfsorientiert zur Verfügung gestellt.


Unsere Methodenentwicklungen dienen dazu, Bewegungen und sich ändernde Bewegungsmuster (z.B. zunehmende Geschwindigkeiten) im gesamten Messgebiet zu identifizieren, zu charakterisieren und zu visualisieren. In diesem Projekt fokussieren wir als qualitative Anforderungen unseres Monitoringsystems, dass diese Schritte (a) zeitnah zum Event erfolgen und (b) Fehlalarme auf ein statistisches Minimum reduziert werden. Sowohl (a) als auch (b) setzen einerseits voraus, dass die Messunsicherheit bekannt ist und auf ein Minimum reduziert wurde, sowie andererseits, dass das Signal der Geobewegungen von unvermeidbaren Messabweichungen abgespalten wird. Genau hierauf zielen AP 4 - AP 7 ab. Dahingegen ist eine Aussage zur quantitativen Anforderung unseres Monitoringsystems hinsichtlich zu erreichender Genauigkeiten nicht pauschal formulierbar, da dies abhängig von den Charakteristika der Geobewegung ist, und sie steht deswegen auch nicht in primärem Fokus unserer Methodenentwicklung. Prinzipiell wurden z.B. bei langsamen Rutschungen und klar strukturierten Oberflächen aus Fels und wenig Vegetation bereits Veränderungen von ca. 1 bis 2 cm identifiziert (Winiwarter et al. 2022c).


Aus den entwickelten Systemen ergeben sich wirtschaftliche Erfolgsaussichten durch zusätzliche wirtschaftlich attraktive Projektaufträge, eine Erweiterung des Dienstleistungs- portfolios im Monitoring, Effizienzsteigerung der eigenen Dienstleistung sowie Referenzen und Renommee bei der Kunden- und Projektakquise. Der Projektverbund strebt eine hohe Sichtbarkeit in der Fachwelt an. Die Projektergebnisse werden in Fachzeitschriften (vorzugsweise Open Access) veröffentlicht sowie auf Fachkonferenzen vorgestellt. Während des Projektes werden Workshops mit Stakeholdern stattfinden. Darüber hinaus werden eine Projekt-Homepage erstellt sowie Social Media Posts eingestellt.
Hinsichtlich der wissenschaftlichen und wirtschaftlichen Anschlussfähigkeit ist zu erwarten, dass die Digitalisierung und Automatisierung mit den heutzutage zur Verfügung stehenden technischen Mitteln noch nicht abgeschlossen sein werden. In den kommenden Jahren werden sich sukzessiv weitere Hilfsmittel im Sinne von IoT und Big-Data-Management eröffnen, welche gerade in Verbindung mit KI-Methoden einen deutlichen Informationsgewinn ermöglichen.
 

Prinzipskizze - PLS:

 

 

Arbeitspakete:

PROJEKTKOORDINIERUNG / BERICHTSWESEN

Koordination der Projekttreffen, Berichtswesen an alle Projektpartner.
Leitung: DMT GmbH & Co. KG

read more »

Projektbericht, der u.a. Angaben zu möglichen Änderungen und Anpassungen an den Zielen, dem Zeitplan, dem Budget oder den Ressourcen enthält. Inhalt sind außerdem Angaben zum aktuellen Stand des Projekts einschließlich der erreichten Ziele, der verbleibenden Aufgaben, der Herausforderungen und Risiken. Die Dokumente sind die Entscheidungsgrundlage für das weitere Vorgehen im Projekt.

Ziel des Arbeitspakets ist die Projektkoordinierung und Organisation im Allgemeinen. Mit Hilfe des AP gilt es eine effektive und effiziente Durchführung des Projektes zu gewährleisten. Die Koordination umfasst die bei Verbundvorhaben übliche Koordinierung zwischen den Projektpartnern (inkl. assoziierten Projektpartnern), aber auch mit dem Projektträger selbst. Zu den wesentlichen Aufgaben gehören:

  • Abschluss und Überwachung der Einhaltung einer Kooperationsvereinbarung im Projektverbund (inkl. der assoziierten Partner).
  • Einhaltung der Projektdurchführung gemäß dem Zeitplan und der Fristen.
  • Überwachung der technischen und methodischen Überwachung im Projekt.
  • Teilnahme an Veranstaltungen des Projektträgers. Es sind drei Statustreffen (Kick-off-, Status-, Abschlussveranstaltung) vorgesehen. Für den Projektkoordinator sind zusätzlich Lenkungskreise im Anschluss an jede Konferenz vorgesehen sowie drei weitere Lenkungskreissitzungen, die voraussichtlich digital durchgeführt werden.
  • Pflege des Berichtswesens gegenüber dem Projektträger und Fördermittelgeber.
  • Gewährleistung der Kommunikation zwischen den Partnern.
  • Planung und Durchführung eines 14-tägigen Austauschformats (TechBoard-Meetings) in Form von Online-Meetings.
  • Organisation und Durchführung eines finalen Projektmeetings an der TU München (2025).
  • Bereitstellung einer digitalen Austauschplattform für relevante Projektdaten zwischen den Projektpartnern.

State of the Art / Benutzeranforderungen

Identifikation aktueller Forschungsergebnisse mit hohem Anwendungspotential sowie Dokumentation und Integration der Benutzeranforderungen. 
Leitung: DMT GmbH & Co. KG

read more »

Es werden aktuelle Publikationen und Initiativen systematisch aufgearbeitet und aktuelle Forschungsergebnisse mit hohem Anwendungspotenzial identifiziert. Die Projektpartner tragen gemeinsam den Forschungsstand in den einzelnen Bereichen (Datenformate/Schnittstellen, Datenqualität Terrestrisches Laserscanning, Datenanalyse Terrestrisches Laserscanning und webbasierter Datenvisualisierung) zusammen und evaluieren vorhandene Daten. Auf Grundlage des aktuellen Standes der Technik werden zusammen mit den assoziierten Partnern detaillierte Benutzeranforderungen an das zu entwickelnde System innerhalb eines Workshops erarbeitet. Diese Anforderungen werden in einem Report zusammengefasst und fließen als konzeptionelle Feinjustierung in die weitere Entwicklung mit ein.

Systemimplementierung

Realisierung und Demonstration des Messsystems im Testgebiet.
Leitung: DMT GmbH & Co. KG

read more »

Im Rahmen dieses Arbeitspaketes wird die entwickelte Technologie innerhalb einer Testmessung im Mittelrheintal zusammen mit den assoziierten Partnern DB Netz und GD RLP implementiert. Das Arbeitspaket beinhaltet die Studie zu einem geeigneten Messgebiet im Mittelrheintal. Die Partner werden einen geeigneten Teststandort für die Systementwicklungen auswählen und darüber berichten. Bei der Auswahl eines Teststandorts werden die technische und die wirtschaftliche Realisierbarkeit des Systems mit den örtlichen Gegebenheiten und den möglichen Herausforderungen, die sich aus den lokalen Geländebedingungen ergeben, abgewogen. Die Aufgabe umfasst auch die Identifizierung von Langzeitüberwachungsparametern, die an den Teststandorten relevant sind und die Anforderungen an das Überwachungssystem definieren.

Das Messgebiet soll unter Berücksichtigung der Benutzeranforderungen aus AP 2 und einer Ortsbesichtigung vor Ort ausgewählt werden. Für die Definition eines geeigneten Messgebietes sind unter anderem Kartierungen von geologisch gefährdeten Bereichen hinzuzuziehen. Das Messsystem selbst wird unter Zuhilfenahme der DB Netz AG und des Geologischen Dienstes RLP in Betrieb genommen und es wird eine kontinuierliche Datenerfassung (7x24h) durch die DMT gewährleistet. Um eine Datenerfassung zeitnah nach Projektstart zu ermöglichen, wird auf das bestehende System der DMT zurückgegriffen (Czerwonka-Schröder & Gaisecker, 2022 und Gaisecker & Schröder, 2022). Das System wird durch die DMT betrieben.

Reduktion der Unsicherheit in den gemessenen 4D-Punktwolken

Entwicklung neuer Methoden zur Reduktion und Quantifizierung der Unsicherheit in den Laserscans.
Leitung: TU München

read more »

Die 4D-Geoinformation hat eine unvermeidbare Ungenauigkeit. AP 4 hat das Ziel, die zugehörige Messunsicherheit zu reduzieren, sodass in AP 5 und AP 6 verlässliche Analysen durchgeführt werden können. AP 4 gliedert sich in fünf Arbeitsschritte.

  • Laserscanner sind wie alle Messinstrumente nur mit einer begrenzt hohen Genauigkeit gefertigt und der Messprozess selber führt auch zu Veränderungen, z.B. durch sich aufwärmende Bauteile (Medic et al. 2020a, Janßen et al. 2020). Dies führt zu systematischen Abweichungen, die temperatur- und zeitabhängig kalibriert werden müssen (Medic et al. 2022b). Wir entwickeln eine auf den verwendeten Laserscanner zugeschnittene Methode zur Kalibrierung der Konstruktionsabweichungen unter kontrollierten Bedingungen, um auch wiederkehrende Muster in den Kalibrierabweichungen erkennen und durch geeignete Funktionen eliminieren zu können. Des Weiteren entwickeln wir Methoden angelehnt an Holst et al. (2018) und Medic et al. (2019), um hochfrequentere Kalibrierrestabweichungen in-situ im Feld zu minimieren, um eine noch höhere Messgenauigkeit zu erzielen.
  • Bei der Messung mit Laserscannern über Distanzen von einigen hundert Metern führen atmosphärische Turbulenzen zu raumzeitlich variablen Messabweichungen von bis zu einigen Dezimetern (Friedli 2020). Wir entwickeln eine Methodik, die den Einfluss der Refraktion basierend auf Messungen zu im Messvolumen verteilten Prismen quantifiziert und anschließend auf die Punktwolke abhängig von der lokalen Topographie überträgt. Aufgrund der zeitlich hochaufgelösten Betrachtung werden wiederkehrende Refraktionsmuster, z.B. mit KI-Methoden wie neuronaler Netze, erlernt und in der Punktwolke größtmöglich reduziert, wobei wir – angepasst an das aktuelle Gefahrenpotential – einen Kompromiss zwischen Genauigkeit und naher-Echtzeitfähigkeit des Systems anstreben. Unvermeidliche Pfeilerbewegungen des Laserscanners führen zu zeitlichen Variationen in der Ausrichtung und des Koordinatensystems zwischen den verschiedenen Messepochen und somit zu einem instabilen Referenzrahmen (Georeferenzierung). Zur Analyse dieser Effekte und zur Separierung von tatsächlichen Hangbewegungen binden wir einerseits Zusatzsensorik (Messungen auf Prismen, Neigungssensoren montiert am Messpfeiler) ein, was sich in der Vergangenheit als mögliche Option erwiesen hat (Schröder et al. 2022). Andererseits nutzen wir die Methode nach Yang und Schwieger (2022) zur Aufdeckung stabiler Messbereiche in den Punktwolken, um eine qualitativ hochwertige Georeferenzierung auch rein basierend auf den Laserscans zu ermöglichen. Anschließend kombinieren wir die beiden Methoden der Georeferenzierung, sodass zeitliche und räumliche Instabilitäten in der Georeferenzierung bestmöglich über alle Epochen hinweg minimiert werden.
  • Wir filtern die nun vorliegenden Laserscans, um störende, nicht relevante Artefakte bzw. Objektveränderungen im Messgebiet (Vegetation, Schneefall, Tiere, o.ä.) zu reduzieren. Dafür entwickeln wir Methodiken, um die für die jeweiligen Artefakte charakteristischen raumzeitlichen Muster in der Punktwolke zu identifizieren (z.B. höhere rückgestreute Intensität bei Schneefall, lokal begrenzte Anomalien durch Tiere) und lokal abzugrenzen. Je nach Häufigkeit der auftretenden Phänomene und demzufolge der Menge an geeigneten Trainingsdaten greifen wir dabei entweder auf KI-Methoden (z.B. neuronale Netze) oder auf schon lang etablierte Verfahren der digitalen Bildverarbeitung (z.B. K-means Clustering) zurück. Anschließend tracken wird diese Muster über die Zeit. Nach der Identifikation dieser Bereiche eliminieren wir die zugehörigen Artefakte aus der Punktwolke und interpolieren das Signal an diesen lokalen Ausschnitten unter Zuhilfenahme der in AP 4.3 identifizierten stabilen Messbereiche.
  • Wir integrieren alle entwickelten Methoden kontinuierlich in die open source Software py4dgeo, die auf die Analyse von 4D-Punktwolken spezialisiert ist.

Erkennung und geometrische Parametrisierung von Änderungen

Entwicklung neuer Methoden zur Ableitung von raumzeitlichen Vektorfeldern.
Leitung: TU München

read more »

Auf Basis der in AP 4 vorverarbeiteten Messdaten analysiert AP 5 die Daten hinsichtlich raumzeitlicher Veränderungen. Geometrische Merkmale (engl.: Features) ermöglichen die hochaufgelöste, zuverlässige und statistisch gesicherte Ableitung von Geschwindigkeits- und Beschleunigungsfeldern in Form von raumzeitlichen Vektoren. AP 5 gliedert sich in vier Arbeitsschritte.

  • Aus den Messdaten werden digitale Höhenmodelle abgeleitet und darauf basierend geometrische Merkmale bzw. Features extrahiert unter Nutzung des SIFT- oder KAZE-Algorithmus. Durch die Betrachtung von zwei Messepochen können diese Features anschließend über das Feature-Tracking verfolgt werden, woraus dann 3D-Vektorfelder abgeleitet werden. Mögliche Methoden können in Anlehnung an Holst et al. (2021) implementiert werden. Problematisch ist hierbei der hohe Anteil an Fehldetektionen zu sehen, sodass spezielle Filtermethoden zur Homogenisierung zu implementieren sind, z.B. unter Nutzung lokaler Histogramm-Analysen. Generell können aus dieser Methodik aufgrund der Betrachtung von lediglich zwei Epochen nur Distanzfelder berechnet werden, nicht jedoch valide Geschwindigkeiten oder Beschleunigungen abgeleitet werden.
  • Die Erweiterung zum 4D-Feature-Tracking zur Ableitung raumzeitlich hochaufgelöster Vektorfelder gelingt über die Einbindung mehrerer Messepochen, sodass eine zuverlässige Ableitung der schadensrelevanten Charakteristika (Geschwindigkeiten, Beschleunigungen, Bewegungsrichtungen) gelingt. Hierfür wird die räumliche Histogramm-Analyse um eine zeitliche Analyse ergänzt, sodass einerseits Ausreißer herausgefiltert werden und andererseits lokale Anomalien im Bewegungsverhalten nicht unentdeckt bleiben. Hierfür untersuchen wir verschiedene mehrdimensionale Filterungs- und Glättungsalgorithmen: So könnte ein Kalman-Filter das Bewegungsverhalten in naher Echtzeit beschreiben. Eine darauf aufbauende Rauch-Tung-Striebel-Glättung könnte das Bewegungsverhalten zwar mit einer höheren Genauigkeit parametrisieren und prädizieren, jedoch nur mit einer gewissen Latenzzeit, deren Länge von der Homogenität des Bewegungsverhaltens abhängt. Diese Unterschiede gilt es methodisch aufzuarbeiten.
  • Wir evaluieren die Methodik des 4D-Feature-Trackings und der raumzeitlichen Filterung einerseits anhand einer Kreuzvalidierung, indem wir das Verhalten auf Basis nur einer Teilmenge des vorhandenen Datensatzes prädizieren und mit den realen Daten vergleichen. Andererseits nutzen wir Monte-Carlo-Simulationen und simulieren in diesem Rahmen mögliche Bewegungsmuster, sodass wir durch den Vergleich verschiedener Methoden zuverlässige Schlussfolgerungen ziehen können. Das Ziel dieser Evaluierung ist es, unabhängig von den aus dem Tracking und der Filterung bereits abgeleiteten Genauigkeitsmaßen, zum einen orts- und zeitveränderliche Signifikanzgrenzen für die parametrisierten Bewegungsfelder zu quantifizieren und zum anderen die Sensitivität der Ergebnisse hinsichtlich Bewegungsrichtung und Bewegungsgeschwindigkeit / -beschleunigung zu bestimmen.
  • Wir integrieren alle entwickelten Methoden kontinuierlich in die open source Software py4dgeo.

Hierarchische Klassifikation von erkannten Änderungen

Entwicklung neuer Methoden für die automatische Extraktion von relevanter Änderungsinformation.
Leitung: Universität Heidelberg

read more »

AP 6 entwickelt neue Methoden und Tools, um relevante Änderungsinformation aus den in AP 4 und AP 5 bearbeiteten Daten automatisch zu extrahieren. Dabei sollen verschiedene Änderungsarten des Geländes (z.B. Steinschlag-Events, Bewegungen oder Erosionsprozesse) vollautomatisch erkannt und zeitlich wie räumlich abgegrenzt werden.

AP 6 gliedert sich in fünf Arbeitsschritte: (6.1) Als Grundlage wird eine Methode implementiert, die benutzerdefinierte Änderungstypen (z.B. Steinschlagmuster) mit entsprechenden Schwellenwerten durch eine regelbasierte Klassifikation erkennen kann. Es ist geplant, über sogenannte Templates, die von den Usern in den vorhandenen Daten ausgewählt werden können, die verschiedenen Änderungstypen zu parametrisieren. Die Auswahl der Schwellenwerte soll durch Machine Learning (v.a. Random Forest Klassifikation und Regression) unterstützt und vereinfacht werden. (6.2) Um Nahe-Echtzeit in der Informationsextraktion zu erzielen, werden die Daten hierarchisch analysiert, sodass zeitaufwändige Berechnungen nur mehr in Teilen durchgeführt werden müssen, ohne die Informationsqualität zu verringern. Die hierarchische Approximation wird über ein vorgegebenes Regelwerk durchgeführt. (6.3) Ausgewählte KI-Methoden des Machine Learning (ML), insbesondere Deep Learning (DL), auf 3D-/4D-Punktwolken (z.B. Siamese kernel point convolution deep networks, Gélis et al. 2023) werden für die Klassifikation von Änderungen im Gelände trainiert und in ihrer Performance evaluiert. Dafür kann der Heidelberger LiDAR-Simulator HELIOS++ zur schnellen Erstellung von sehr großen synthetischen Trainingsdaten eingesetzt werden (Winiwarter et al. 2022a, 2022b). (6.4) Zusammen mit den Erkenntnissen aus AP 4 und AP 5 werden adaptive Aufnahme-Workflows zur Steuerung des PLS abgeleitet. Adaptiv bedeutet, dass die Datenaufnahme vom System nach definierten Regeln und auf Basis der bereits aufgenommenen Daten angepasst werden kann, sodass Änderungen schließlich genauer erkannt und besser klassifiziert werden können. Dies kann die räumliche Auflösung und Ausdehnung wie auch den zeitlichen Abstand der Aufnahme betreffen. (6.5) Die Methoden des AP 6 werden kontinuierlich in die Software py4dgeo integriert und getestet.

Für die Durchführung von AP 6 wird eine hochqualifizierte Person aus der (Geo-)Informatik benötigt, die sowohl Kenntnisse in der 4D-Punktwolkenanalyse als wie auch im Machine Learning verfügt. Die Methodenentwicklung und Open-Source Integration sind sehr zeitintensiv und beinhalten für jede Komponente jeweils eine Konzeptions-, Implementierungs-, Test- und Evaluierungsphase. Konzeption und Evaluierung werden zusammen mit den Stakeholdern durchgeführt, Implementierung und Test in Abstimmung mit den Projektpartnern.

Visualisierung von klassifizierten Änderungsevents

Entwicklung neuer Methodiken und Tools für die Visualisierung der erkannten Geländeänderungen.
Leitung: Universität Heidelberg

read more »

AP 7 entwickelt neue Methodiken und Tools für die Visualisierung der erkannten Geländeänderungen aus AP 5 und AP 6 für die Verwendung durch Enduser*innen und zur Unterstützung von Entscheidungsfindungen durch Stakeholder. Ziel ist es, die großen Datenmengen von PLS-Systemen auf die für die User*innen relevante Aspekte zu reduzieren, ohne wichtige auftretende Ereignisse im Untersuchungsgebiet dabei zu verlieren.

AP 7 besteht aus fünf zentralen Arbeitsschritten: (7.1) Relevante Änderungsinformationen werden abgeleitet und dienen als Input für alle weiteren Schritte. Dieser Schritt beinhaltet das Verschneiden der automatisch detektierten Änderungen aus AP 6 mit den vorgegebenen Suchkriterien der User*innen. (7.2) Für den Einsatz in GIS-Programmen und Web-Dashboards werden 2D-GIS-Layer abgeleitet, die die Änderungsgebiete in Überblickskarten kennzeichnen und mit wichtigen Maßzahlen beschreiben (z.B. Änderungsvolumen). GIS-Layer werden mit Zeit- und Sachinformation versehen und in einem GIS-Standardformat geschrieben (z.B. GeoJSON). (7.3) Für den Einsatz in (online) 3D-Viewern (z.B. potree) werden, die Änderungsgebiete und Maßzahlen als 3D-GIS-Datensatz erstellt und für gängige 3D-Webviewer lesbar gemacht. (7.4) Um die Änderungen auch dynamisch in 4D zu visualisieren (also über die Zeit in einem 3D- Viewer), muss eine neue Methodik entwickelt werden, die die reichhaltige 4D-Information übersichtlich und verständlich darstellt, ohne wichtige Information zu verlieren oder zu überfrachten. Erste methodische Ansätze wurden in Winiwarter et al. (2022c) entwickelt, die über Cluster-Verfahren ähnliche räumlich-zeitliche Änderungen gruppieren und visuell verstehbar machen. (7.5) Die Methoden des AP 7 werden kontinuierlich in py4dgeo als neues Visualisierungsmodul integriert und getestet. Die Software py4dgeo wird dabei um ein neues Visualisierungsmodul erweitert.

Für die Durchführung von AP 7 wird eine hochqualifizierte Person benötigt, die sowohl Kenntnisse in der 3D-Datenanalyse und Geoinformatik verfügt. Wie in AP 6, sind die Methodenentwicklung und Open-Source Integration sehr zeitintensiv und beinhalten Interaktion mit den Enduser*innen und Abstimmung mit den Projektpartnern in den verschiedenen Entwicklungsphasen (Konzeption, Implementierung, Test, Evaluation).

Webtool

Entwicklung eines webbasierten Informationstools zum Monitoring.
Leitung: DMT GmbH & Co. KG

read more »

Innerhalb dieses Arbeitspakets werden die 4D-Monitoringdaten und Analysen in ein datenbankgestütztes, webbasiertes Informationssystem integriert. Das System dient in erster Linie dazu, die Ergebnisse den assoziierten Partnern und Stakeholdern vorzustellen, die Effizienz und Effektivität von 4D-Monitoringdaten im betrieblichen Umfeld aufzuzeigen.

Zum Arbeitsumfang gehört die Systemkonzipierung und die Erstellung eines initialen, funktionsfähigen Prototyps, der für die Untersuchungen im Projekt eingesetzt und spezifisch um die im Projekt neu entwickelten Funktionen erweitert wird. Dazu gehören u.a. Analyse- und Visualisierungsfunktionen die eine quantitative Bewertung und Identifizierung der am stärksten gefährdeten Bereiche zu ermöglichen.

Die Entwicklung erfolgt in folgenden Schritten: Systemkonzipierung, Erstellung eines Systemprototypen, Integration der Spezialfunktionen aus dem Projekt, final optimierte Entwicklung mit Anwendung bei den assoziierten Partnern. Zusammen mit den Partnern wird das Webtool im Projektverlauf kontinuierlich entwickelt.

Dissemination / Projektverwertung

Pflege einer Projektwebseite, Publikationen, Fachkonferenzen und User-Workshops.

read more »

Die wissenschaftlichen Ergebnisse des Projekts sollen neues Wissen im Bereich der multitemporalen Datenanalyse von Daten einer permanenten Laserscanningstation generieren, um die Aus- und Weiterbildung von zukünftigen Wissenschaftler*innen und Ingenieur*innen zu unterstützen, sowie vorhandene Methoden, Verfahren und Expertise zur Bewertung von Massenbewegungen und deren Einsatz innerhalb eines Risikomanagements durch die enge Zusammenarbeit mit den Stakeholdern validieren und weiterentwickeln. Ergebnisse des Projektes werden mittels vier Open Access Publikationen veröffentlicht. Algorithmik und Analysetools werden innerhalb der Software py4dgeo integriert und stehen daher als Open Access für die Nutzung und Integration in weiteren Projekten zur Verfügung.

Die Ergebnisse und der Fortschritt des Projektes werden zum einen innerhalb einer Projektwebseite präsentiert. In Absprache mit den Stakeholdern werden relevante Informationen für die Bevölkerung ebenfalls abgeleitet und transparent für die Webdarstellung aufbereitet. Zum anderen soll ein externer Workshop mit Experten aus Ingenieurbüros, Kommunen, Ministerien und Infrastrukturbetreibern stattfinden.

Die DMT zielt darauf ab, die frei verfügbaren Algorithmen innerhalb innovativer Dienstleistungen im Anschluss an das Projekt zu verwerten und dem rasant wachsenden Markt anzubieten. Dafür kann die DMT auf einen großen, bereits existierenden Kundenstamm zurückgreifen und direkt im Anschluss des Projektes mit der Verwertung der im Projekt erzielten Ergebnisse starten.