Mobile Vermessung
Transcrição
Mobile Vermessung
HARDWARE & TECHNOLOGIE Bei der Aspen Movie Map des MIT handelt es sich um einen Vorläufer von Google Maps aus dem Jahr 1978 (Quelle: MIT Architecture Maschine Group) Mobile Vermessung Im Bereich der Vermessung hat sich in den letzten Jahren einiges getan. Ein Novum dabei ist die Verschmelzung von GIS und Vermessung hinsichtlich Auskunftssystem, Bearbeitung und Datenvisualisierung. Stichwort: Mobile Mapping. Ein Blick über die Entwicklungen zu dieser Technologie. Text: Ute Weigand D ie Verkehrs- und Energieinfrastruktur ist mittlerweile von so gewaltiger volkswirtschaftlicher Bedeutung, dass sich deren Pflege, Bewirtschaftung und Bestandsaufnahme zu einem zentralen Thema entwickelt hat. Hierbei spielt die Vermessung eine große Rolle. Konventionelle Methoden, die nur mittels GNSS oder Tachymetrie arbeiten, sind dafür oft zu aufwendig oder zu langwierig. Damit hat die Notwendigkeit einer schnellen und genauen Erfassung von Geodaten entlang von Straßen, Schienen sowie Überlandleitungen zur Entwicklung von mobilen Vermessungssystemen geführt. Die moderne Technologie − mit 2 gis.Business 5-6/2014 Einbindung von GNSS-Empfängern − ermöglicht die Kombination hochgenauer Vermessungsarbeit mit mobilen Geoinformationssystemen, um die Ergebnisse in Echtzeit darzustellen und bearbeiten zu können. Rückblick Erste experimentelle mobile Bildaufnahmen im Straßenraum für Navigationsund Vermessungszwecke wurden erstmals vor über drei Jahrzehnten durchgeführt: Die 1978 von der MIT Architecture Machine Group entwickelte „Aspen Movie Map“ ermöglichte es dem Anwender, durch die Straßen von Aspen, Colorado, G40541 H&T Vermessung Cmw zu navigieren(1). In dem interaktiven Projekt wurde der Eindruck visueller Nahtlosigkeit mittels Input aus aufgenommenen Videodiscs erreicht. Mit den „Moviemaps“ war es nicht nur möglich, sich wie bei Panoramen rundum umzusehen, sondern es erlaubte auch, „unterwegs zu sein“ und sich auf eine Reise über vorher aufgenommene Strecken mit einer gewissen Steuerung der Geschwindigkeit und Richtung zu machen. Mit dem Aufkommen von Virtual-Reality-Systemen erfuhren die Ende der 1990er-Jahre populären Panoramen-Ansichten erneutes Interesse. Das machte sich nicht nur im Kunst- und Gamingsektor oder bei Militärtrainings, sondern auch in Architektur und dem Vermessungswesen bemerkbar. Rund 20 Jahre zurück liegt die Entwicklung erster stereobildbasierter MobileMapping-Prototypsysteme. 3D-Laserscanner für den geodätischen Bereich wurden allerdings erst Anfang des 21. Jahrhunderts konstruiert. Davor gab es kaum technologische Neuerungen. Die Voraussetzung zur Entwicklung von LaserEntfernungsmessern wurde in den 1960erJahren mit LiDAR (Light Detection and Ranging) geschaffen. Und obwohl LiDAR bereits in den 1980er-Jahren im Flugzeug oder Helikopter zur Erfassung von Höhenprofilen und seit den 1990er-Jahren zum flächendeckenden Scannen von Oberflächenmodellen eingesetzt wurde, dauerte es weitere zehn Jahre, bis ab 2005 das erste kommerzielle System zum Mobile Mapping zur Verfügung stand. So mancher Vermessungsingenieur hatte es sich schon in einer Ingenieursgesellschaft bequem eingerichtet, mit der bis dato üblichen Technik. Wie etwa Gerd Meixner und Bernd Zimmermann aus Amtzell im Allgäu. Das änderte sich schlagartig, als sie im März 2007 auf dem 3D-Forum Lindau einer Präsentation von Leica Geosystems lauschten. Das Unternehmen stellte erstmals einen 3D-Laserscanner vor. Meixner war sofort fasziniert, schnell war klar: „Das ist die Zukunft der Vermessung.“ Der Ingenieur und sein Kompagnon investierten und hatten ein Problem: Nun waren sie eines der ersten Vermessungsbüros europaweit mit einem 3D-Laserscanner, aber keiner konnte das Gerät richtig bedienen. So holten sie den 3D-Spezialisten Benjamin Sattes mit an Bord, der mit dem Scanner umgehen konnte, und gründeten die Z&M 3D Welt GmbH. Allerdings gab es noch gar keinen richtigen Markt für eine solche Dienstleistung. Doch auch das änderte sich: „Wir waren in ganz Europa unterwegs, um zu zeigen, was in der 3D-Laservermessung steckt“, erzählt Sattes. „Damit haben wir ein richtiges Erdbeben ausgelöst.“ Inzwischen dominiert Laserscanning die mobile Messtechnik. Die Positionierung und Orientierung der eingesetzten Messsensorik erfolgt durch die Integration von GNSS und IMU (Inertial Measurement Unit), indem durch Post-Processing eine hochpräzise Festlegung der Bewegungstrajektorie möglich ist. Abhängig von der GNNS-Konfiguration können damit Punktgenauigkeiten von mehr als 3 cm erzielt werden. 3D-Laserscanning Laserscanning ermöglicht direkte und tageslichtunabhängige 3D-Punktbestimmungen. Diese automatische Entfernungsmessung erfolgt entweder mit gepulsten oder kontinuierlich strahlenden Laserlichtquellen. Neuerdings kombiniert man beide und kommt damit auf Datenraten von 1 Mio. Messpunkte pro Sekunde. Diese hohen Punktdichten haben zu einem Paradigmenwechsel bei der geodätischen Punktbestimmung geführt – vom Punkt zur Punktwolke. Die Datenerfassung ist damit einfach, schnell und effizient geworden. Bei optimaler Co-Registrierung mitgeführter Bildsensorik können sehr dichte und detailgetreue Punktwolken erzeugt werden, die oft als eigenständige 3D-Modelle, z. B. im urbanen Bereich, dienen. Bei ungenauer Co-Registrierung der 3D-Punkte mit den Bilddaten zeigt sich aber auch die Schwäche des Laserscan- Die neuen Imaging Stations sind mittlerweile extrem leistungsfähig geworden nings: Die Punktwolken werden ungenau. Darüber hinaus bereiten die Interpretation von 3D-Punktwolken und die Navigation und Messung im 3D-Raum manchmal Schwierigkeiten. Wer keinen expliziten GIS-Hintergrund hat, zieht oftmals einfach zu handhabende und interpretierende Bilddaten den Punktwolken vor. Bildbasierte Systeme Die jüngste Entwicklung bei den MobileMapping-Systemen nutzt ausschließlich Kamerasysteme an Bord (siehe Bild 1). Diese bildbasierten Technologien und Dienste sind gerade für die Erfassung und das Management von Infrastrukturdaten im Straßen- und Schienenbereich interessant. An Bedeutung gewonnen haben so in letzter Zeit vor allem stereobildbasierte mobile Erfassungssysteme und darauf aufbauende bildbasierte 3D-Geoinformationsdienste. Gründe hierfür sind die Digitalisierung der gesamten Bilddaten-Prozesskette und die enormen Fortschritte in Bereichen wie Bildsensorik, Speicherkapazitäten, Dense Stereo, Multi-Image-Matching-Algorithmen sowie High-Performance und Cloud-Computing. Präzise Stereobilddaten können in eine streamingfähige 3D-Bilddatenbasis überführt werden, die in der Cloud gehostet wird und – basierend auf HTML5 und WebGL – vollständig webbasiert genutzt werden kann. Gerade Anbieter im Consumermarkt zeigen daran großes Interesse. 3D-Geodienste in der Cloud ermöglichen die einfache Nutzung großer Geodatenmengen durch eine breite Anwenderbasis. Aktuell dominiert Google als Taktgeber, daneben als Hauptkonkurrent Nokia sowie Microsoft, dessen Geodatendienst „Bing Streetside“ mit Nokias 2008 gekauftem US-Geodatenanbieter Navteq zusammenarbeitet. Multi-Image-Matching beispielsweise wird seit 2013 in Google Maps und Google Earth genutzt (siehe Bild 2). Ein detailliertes DOM (Digitales Oberflächenmodell) ersetzt hier explizite 3D-Gebäudemodelle. Neben den klassischen Dienstleistern in der Navigationsbranche wie TomTom von Tele Atlas sieht man daher auch die Fahrzeuge von Google mit Kameras bestückt auf der Straße, die vor allem Bilder für Google Streetview aufnehmen. (Quelle: Topcon Positioning Group) G40541 H&T Vermessung Cmw gis.Business 5-6/2014 3 HARDWARE & TECHNOLOGIE Google Street View setzt zur Datenerfassung Multi-Image-Matching ein (Quelle: Kinja) Aktuelle Entwicklungen und Ausblick In der mobilen Vermessung wurde 3DLaserscanning in den letzten Jahren vermehrt in Kombination mit Bildsensorik eingesetzt. Diese als „Hybride MobileMapping-Systeme“ gekennzeichneten Konfigurationen haben gleichzeitig Laserscanner und Kamerasysteme an Bord. Da die Laserscanner und die Kameras jeweils Punktwolken liefern, müssen diese fusioniert werden. Dazu werden gemeinsame Merkmale gesucht, die man an Kanten, Ecken oder Sprüngen im Objektraum findet. Die Fusion kann im 3D-Objektraum, im 3D-2D-Objektraum und im 2D-Objektraum stattfinden. Beim 3D-Objektraum beispielsweise sind die beiden Punktwolken durch eine räumliche Ähnlichkeitstransformation von mindestens sieben Parametern aufeinander zu transformieren. Dies erfolgt meist im Rahmen einer Ausgleichung bzw. Parameterschätzung, da es viele Überbestimmungen gibt. Generell geht der Trend zu integrierten Systemen, nach dem Motto „plug-anddrive“. Darunter fallen Multikamerasysteme, LiDAR mit Bildsensoren oder vollausgestattete Plattformen. Daneben sind die Mobile-MappingSysteme auf LiDAR-Basis weiterentwickelt worden: Die Scanraten haben sich erhöht und die Systeme wurden kleiner. Weltweit gibt es hierfür etwas mehr als 4 gis.Business 5-6/2014 zehn Systemanbieter, die sich allerdings nach wie vor in einem schwierigen Markt befinden. Die resultierenden Punktwolken produzieren nämlich ein großes Datenvolumen – Volumina im Giga- und Terrabyte-Bereich sind keine Ausnahmen. Oft werden Punktwolken manuell genutzt, um daraus Messungen verschiedener Art, wie beispielsweise Straßenbreiten, Positionen von Ampeln oder Lichtraumprofile für Schwertransporte, abzuleiten. Es mangelt jedoch noch an leistungsfähigen Softwarepaketen, welche die Geometrien entweder halb- oder vollautomatisch liefern – hier gibt es Nachholbedarf. Nur eine Handvoll Hersteller bietet solche Software an. Zu nennen sind beispielsweise CARD/1(2) oder der Trimble Trident Analyst(3), der in verschiedenen Ausführungen erhältlich ist. Oder komplette Mobile-Mapping-Systeme wie der Pegasus:Two(4) von Leica Geosystems, der von der Hardware bis zur halb automatischen Datenextraktion alle Elemente zur mobilen Vermessung beinhaltet. Solange es zur Auswertung aber nur wenige bis defizitäre Angebote gibt, wird es für diese Systeme nur eine geringe Nachfrage geben. Durch die Bereitstellung der dichten Bildzuordnung (Semi-Global-Matching), bei dem für jedes Pixel, welches ein und denselben Punkt in mehreren Bildern abbildet, ebenso Punkte einer Punktwolke im Objektraum berechnet werden kön- G40541 H&T Vermessung Cmw nen, ergeben sich neue Systemkonfigurationen. Die großen Punktwolken mit den hohen Datenvolumina schrecken noch manchen Anwender ab, sich ein solches System zu beschaffen oder einen Dienstleister mit der Datenerfassung zu beauftragen. Eine leistungsfähige Software mit halb- oder vollautomatischer Auswertung könnte diese Hürde verkleinern. Im vermessungstechnischen Alltag steht Mobile Mapping also noch am Anfang. In der Automobilbranche dagegen wird der Einsatz bildbasierter Mobile-Mapping-Systeme schon seit etwa 20 Jahren vorangetrieben. Schwerpunkte sind Fahrerassistenzsysteme und die Schaffung einer Basis für das autonome Fahren von Kraftfahrzeugen ab 2020. Die neuen Generationen von S-, E- und C-Klasse von Mercedes beispielsweise haben bereits ein optionales Stereokamerasystem hinter dem Rückspiegel integriert. Dieses erfasst mit rund 30 Bildern pro Sekunde permanent das Blickfeld des Fahrers, wertet die Punktwolken in Echtzeit aus und bietet dem Fahrer bei Gefahr eine Notbremsung an(5). Hier ist Mobile Mapping bereits im Alltag angekommen. Fazit Mit der mobilen Vermessung können dringende Aufgaben gelöst werden. Die Technologie bietet vielfältige Anwendungsmöglichkeiten, gerade im Infrastruktursektor. Allerdings liegt vor allem im Softwarebereich noch viel Potenzial verborgen, welches die Hürde zur alltäglichen Anwendung verkleinern könnte. Zusammenfassend für die vielen Entwicklungen passt vielleicht die Aussage von Professor Dieter Fritsch vom Institut für Photogrammetrie der Universität Stuttgart: „Mobile Mapping hat gerade erst begonnen.“ Quellen: (1) Lippmann, A. (1980): Movie-maps: An application of the optical videodisc to computer graphics. (2) www.card-1.com (3) www.trimble.com (4) www.leica-geosystems.com (5) Franke, U.; Gehrig, S. (2013): How Cars Learned to See. In: Fritsch, D. (Ed.): Photogrammetric Week ’13, Wichmann Verlag, Berlin/Offenbach.