Home | Legals | Sitemap | KIT

BigGIS – Prädiktive und präskriptive Geoinformationssysteme basierend auf hochdimensionalen geo-temporalen Datenstrukturen (BMWi-funded)

BigGIS – Prädiktive und präskriptive Geoinformationssysteme basierend auf hochdimensionalen geo-temporalen Datenstrukturen (BMWi-funded)
Partner:

Universität Konstanz, Hochschule Karlsruhe, Disy Informationssysteme GmbH, EXASOL AG, EFTAS Fernerkundung Technologietransfer GmbH, Landesanstalt für Umwelt, Messungen und Naturschutz Baden-Württemberg, Codecentric AG, THW Karlsruhe,Stadt Karlsruhe


Startdate:

April 1, 2015

Enddate:

March 30, 2018

Geoinformationssysteme (GIS) sind wichtige Werkzeuge zur Entscheidungsunterstützung auf Basis räumlicher Daten (Verkehrsdichten, Temperatur, Windstärke, Schädlingsaufkommen, etc.). Fortschritte in der Sensortechnik und die Verfügbarkeit von immer mehr Datenquellen (Fern­erkundungs­daten, Mobiltelefone, Social Web, ...) führen zu immer mehr, aber auch unzuverlässigeren Daten im Tera- bis Petabytebereich. Dieses mehr an Daten bietet bessere Möglichkeiten zur Approximation von Werten, zur multivariaten bzw. kausalen Prognose zukünftiger Werte, sowie zur robusteren, proaktiven Planung und Entscheidungsfindung. Heutige GIS sind jedoch nicht für die (Echtzeit-) Analyse solcher Datenmengen ausgelegt. Auf technischer Ebene sind Indexstrukturen auf geologische Muster ohne Berücksichtigung der Zeitdynamik konzipiert; auch erfordert die Modellierung komplexer, häufig nicht-linearer Zusammenhänge und Entwicklungen in stetig wachsenden Mengen an unzuverlässigen, hochdimensionalen Daten neue Mechanismen in den Bereichen Analytics und Visual Analytics.

Ziel dieses Vorhabens ist die Erforschung, Evaluation und Demonstration einer neuen Generation von GIS mit Mechanismen, die in vielfältigen Anwendungsfällen Entscheidungen auf Basis von großen Mengen an  heterogenen, geo-temporalen Daten besser und schneller unterstützen. Die Neuigkeit liegt besonders in 1) der integrierten Betrachtung von Zeit und Raum in der Analyse, 2) der Berücksichtigung wesentlich größerer Mengen auch unstrukturierter und unzuverlässiger Datenmengen, und 3) einer durchgehenden Prozessierungspipeline, die neben deskriptiven auch prädiktive und präskriptive sowie visuelle Analysen unterstützt.