GeoAI: Machine Learning and Spatial Data Science
-
Diffusions-Chronometrie von magmatischen Systemen (FOR 2881)Diffusions-Chronometrie von magmatischen Systemen Geologische Prozesse laufen in und auf der Erde über eine Reihe von Zeitskalen ab, die eine verschachtelte, hierarchische Struktur bilden. Die Bestimmung der Dauer von Prozessen, die am kürzeren Ende dieses Zeitspektrums stattfinden, ist eine Herausforderung. Die Instrumente der Diffusions-Chronometrie haben sich als vielversprechende Methode erwiesen, die in vielen Situationen Lösungen bietet. Magmatische Systeme mit hohen Temperaturen bieten ein hervorragendes natürliches Labor für die Entwicklung und Kalibrierung dieser Instrumente, da verschiedene Arten von Beobachtungen aus Überwachungsvulkanen eine Gegenkontrolle der Ergebnisse ermöglichen. In der Folge können die neu entwickelten und verfeinerten Instrumente dann auf ein viel breiteres Spektrum geologischer und planetarischer Gegebenheiten angewendet werden. Am ikg werden Verfahren des Deep Learning (DL) untersucht und entwickelt, die eine automatische Verarbeitung erlauben und somit zu einer starken Beschleunigung der Interpretation der Daten führen. Die DL-Verfahren werden dabei geschickt verknüpft mit der Möglichkeit, die Interaktion mit einem Menschen zu ermöglichen. Die Forschungsgruppe wird koordiniert von Prof. Sumit Chakraborty, Ruhr Universität Bochum. An der Leibniz Universität sind weiterhin die Gruppen von Prof. Holtz und Prof. Weyer aus der Mineralogie maßgeblich beteiligt.Leitung: SesterTeam:Jahr: 2024Förderung: DFG
-
Gauss-ZentrumZiel des Projekts ist die Entwicklung von Methoden zur automatisierten Klassifizierung, Speicherung und Analyse von Geodaten unterschiedlichen Alters und unterschiedlicher Qualität. Von großem Interesse ist hierbei die Analyse von Zeitreihen zur Gewinnung von Information über Veränderungen der Landschaft, welche für weiterführende Untersuchungen zu verschiedenen räumlichen Prozessen die Grundlage bilden, zum Beispiel im Kontext von Fragen der Entwicklung von besiedelten Flächen oder des Umweltschutzes. Geodaten unterschiedlicher Herkunft und unterschiedlichen Alters weisen in der Regel sehr heterogene Strukturen auf, sodass eine Analyse in Zeitreihen mittels herkömmlicher Methoden nicht möglich ist. In dem Projekt werden die Voraussetzungen geschaffen, eine universelle Zeitreihenanalyse auf historischen, räumlichen Daten durchzuführen, indem sie als semantisch strukturierte Objekte in einer Datenbank abgelegt werden. Folgende Forschungsleitfragen sollen in diesem Zusammenhang beantwortet werden: - Wie können historische Karten, aber auch historische Luftaufnahmen zusammen mit aktuellen räumlichen Daten gespeichert und Veränderungen über die Zeit analysiert werden? - Welche (Geo-)Informationen lassen sich aus historischen Kartenwerken oder historischen Luftbildern verlässlich ableiten? - Kann dies in einer größtenteils automatisierten Verfahrensweise erfolgen (KI-Unterstützung, speziell Deep Learning) und auf weitere Kartenwerke übertragen werden? - Welche Struktur muss eine Datenbank aufweisen, um Daten aus verschiedenen Quellen aufzunehmen und in Einklang zu bringen? - Können aus den Ergebnissen der Zeitreihenanalyse für ausgewählte Prozesse die wesentlichen Einflussfaktoren identifiziert werden? Der Fokus der Untersuchungen liegt auf den Möglichkeiten einer harmonisierten Analyse von historischen und modernen Daten. Weitere Informationen zum Projekt finden sich hier: https://www.gausszentrum.uni-hannover.deLeitung: Sester, Monika; Otto, PhilippTeam:Jahr: 2023Förderung: BKG - Bundesamt für Kartographie und GeodäsieLaufzeit: 2023-2025
-
Uncertainty Estimation of LiDAR Scene Semantic Segmentation (DFG i.c.sens)Despite the capability of advanced deep learning models to accurately assign semantic labels to LiDAR point clouds, there is a notable lack of methods for uncertainty quantification. However, the estimation of uncertainty is essential for assessing the reliability of any prediction, particularly for safety-critical systems such as autonomous vehicles that rely on real data, including LiDAR point clouds. These systems need not only to perceive their surroundings but also to quantify uncertainty to avoid over-reliance on potentially erroneous predictions. Two primary types of uncertainty are generally distinguished: epistemic and aleatoric. Epistemic uncertainty, which arises from the model itself, reflects the reliability of a model’s predictions, whereas aleatoric uncertainty stems from characteristics inherent in the data.Leitung: apl. Prof. Claus BrennerTeam:Jahr: 2022Förderung: DFG Graduiertenkolleg i.c.sens
-
Statistical estimation of high-dimensional, spatial dependency structures using machine learning methodsThe project deals with an important, fundamental problem of spatial and spatiotemporal statistics – the full estimation of the underlying spatial dependence structure. For these models, the focus has so far been on processes showing a dependence in the conditional means. That is, the mean of a realization of the random process at a particular measurement point depends on the adjacent observations. This finding goes back to Tobler’s first law of Geography. The surrounding observations are defined on the basis of their geographical proximity, although this does not necessarily lead to a dependence of the observations of the random variables, i.e. the covariances. Various application examples will be used to demonstrate how the estimated parameters can be interpreted. Here, the focus will be on natural processes in the environment, such as air pollution or particulate matter. Using freely available sensor data, the results can be used, for example, to obtain local predictions of fine dust pollution in an urban area, which can then be used for optimal routing with respect to air quality.Leitung: Prof. Dr. Philipp OttoJahr: 2019Förderung: Deutsche Forschungsgemeinschaft
-
Strukturbrucherkennung bei Zufallsprozessen mit räumlichen AbhängigkeitenWith growing availability of high-resolution spatial data, like high-definition images, 3d point clouds of LIDAR scanners, or communication and sensor networks, it might become challenging to timely detect changes and simultaneously account for spatial interactions. To detect local changes in the mean of isotropic spatiotemporal processes with a locally constraint dependence structure, we propose a monitoring procedure, which can completely be run on parallel processors. This allows for a fast detection of local changes, i.e., only a few spatial locations are affected by the change. Due to parallel computation, high-frequency data could also be monitored. We, therefore, additionally focus on the processing time required to compute the control statistics.Leitung: Prof. Dr. Philipp OttoJahr: 2019
-
TransMIT - Ressourcenoptimierte Transformation von Misch- und Trennentwässerungen in Bestandsquartieren mit hohem SiedlungsdruckZunehmende Starkregenereignisse und wachsende Stadtquartiere stellen die Siedlungsentwässerung vor große Herausforderungen. Am Beispiel von drei Quartieren der Städte Braunschweig, Hannover und Hildesheim wird gezeigt, wie bei einer Quartiersplanung die städtebaulichen mit wasserwirtschaftlichen Aspekte langfristig verknüpft werden können.Leitung: Dr.-Ing. M. Beier; Prof. S. Köster, ISAH; Prof. Sester, ikgTeam:Jahr: 2019Förderung: BMBFLaufzeit: 2019-2022
-
Ja, wo laufen sie denn?Für Profi-Trainer oder auch einfache Hobby-Kicker. Vielen Fußballbegeisterten wird der Weg zum Taktikfuchs durch eine automatisierte Spielanalyse am Computer erleichtert. Ausgeklügelte Verfahren ermöglichen eine einfachere Bewertung der Leistung der Akteure.Leitung: Feuerhake, UdoJahr: 2017Förderung: Ausgangspunkt: DFG-Projekt Q-TrajectoriesLaufzeit: laufend
-
3D-Objektextraktion aus hochaufgelösten 3D-PunktwolkenIn den Landesvermessungsbehörden liegen flächendeckende, kontrollierte Airborne Lascerscanning-Datensätze mit unterschiedlichen Punktdichten vor, welche i.d.R. mindestens in die Klassen Boden- und Nichtbodenpunkte differenziert wurden. In der Arbeitsgemeinschaft der Vermessungsverwaltungen (AdV) wird ein Aktualisierungszyklus von 10 Jahren diskutiert. Weiterhin leiten die Landesvermessungsämter auf Basis von digitalen Bildflügen mit hohen Überlappungen 3D-Punktwolken mit dem sogenannten „Dense-Image-Matching“-Verfahren (DIM) ab, welche eine Auflösung im Pixelbereich besitzen. Radiometrische Information aus den Luftbildern ergänzen die Informationstiefe dieser Punktwolken, welche aufgrund der Bildkorrelation in der Regeln auf ein Oberflächenmodell begrenzt sind. Hierbei ist ein 2-3-jähriger Befliegungszyklus die Basis.Leitung: Sester, MonikaTeam:Jahr: 2017Förderung: Forschungs- und Entwicklungsvorhaben zwischen den Landesvermessungsämtern Niedersachsen, Schleswig-Holstein und Mecklenburg-VorpommernLaufzeit: seit 2017