DE112011102132T5 - Verfahren und Vorrichtung für eine imagebasierte Positionierung - Google Patents

Verfahren und Vorrichtung für eine imagebasierte Positionierung Download PDF

Info

Publication number
DE112011102132T5
DE112011102132T5 DE112011102132T DE112011102132T DE112011102132T5 DE 112011102132 T5 DE112011102132 T5 DE 112011102132T5 DE 112011102132 T DE112011102132 T DE 112011102132T DE 112011102132 T DE112011102132 T DE 112011102132T DE 112011102132 T5 DE112011102132 T5 DE 112011102132T5
Authority
DE
Germany
Prior art keywords
image
capture device
platform
location
image capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112011102132T
Other languages
English (en)
Inventor
Omar Pierre Soubra
Sy Bor Wang
Hongbo Teng
Gregory C. Best
Bruno M. Scherzinger
Peter Glen France
James M. Janky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trimble Inc
Original Assignee
Trimble Navigation Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Trimble Navigation Ltd filed Critical Trimble Navigation Ltd
Publication of DE112011102132T5 publication Critical patent/DE112011102132T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • G01C15/06Surveyors' staffs; Movable markers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/51Relative positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled

Abstract

Verfahren und Vorrichtung für imagebasiertes Positionieren, das Erfassen eines ersten Bildes (126) mit einer Bilderfassungsvorrichtung (34) umfasst, wobei das erste Bild mindestens einen Gegenstand umfasst. Beim Bewegen der Plattform und Erfassen eines zweiten Bildes mit der Bilderfassungsvorrichtung umfasst das zweite Bild mindestens einen Gegenstand. Erfassen im ersten Bild eines Bildes einer Oberfläche; Erfassen im zweiten Bild eines zweiten Bildes der Oberfläche. Verarbeiten der Vielzahl von Bildern des Gegenstands und der Oberfläche unter Verwendung eines kombinierten merkmalbasierten Prozesses und Oberflächenverfolgungsprozesses zum Verfolgen des Oberflächenstandorts (134). Letztlich, Bestimmen des Plattformstandorts durch Verarbeiten des kombinierten merkmalbasierten Prozesses und oberflächenbasierten Prozesses (138).

Description

  • TECHNISCHES GEBIET
  • Die Technologie bezieht sich auf den Bereich Navigation.
  • ALLGEMEINER STAND DER TECHNIK
  • Die US-Stammanmeldung mit Seriennummer 12/313,560 (im Folgenden „Scherzinger”) richtete sich auf ein System und ein Verfahren zum Erhalten präziser Positionsdaten mit hoher Messgenauigkeit.
  • KURZDARSTELLUNG
  • Diese Kurzdarstellung stellt eine Auswahl von Konzepten vor, die weiter unten in der Ausführlichen Beschreibung weiter erläutert werden. Diese Kurzdarstellung soll weder Schlüssel- oder wesentliche Merkmale des beanspruchten Gegenstands ermitteln, noch zur Unterstützung bei der Festlegung des Umfangs des beanspruchten Gegenstands verwendet werden.
  • Es wird ein imagebasiertes Positionsverfahren bereitgestellt, welches Einschränkungen des Stands der Technik überwindet.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Die begleitenden Zeichnungen, die in diese Patentschrift aufgenommen werden und einen Bestandteil derselben bilden, veranschaulichen Ausführungsformen der Technologie und dienen zusammen mit der Beschreibung zur Erläuterung der weiter unten aufgeführten Prinzipien:
  • 1 zeigt eine in „Scherzinger” offenbarte GIE Vermessungsvorrichtung.
  • 2 veranschaulicht eine imagebasierte Positionierungsvorrichtung der vorliegenden Technologie, die eine Bilderfassungsvorrichtung, welche zum Erfassen von mindestens einem Bild, das mindestens einen Gegenstand umfasst, konfiguriert ist, einen merkmalbasierten Prozess und einen Positionsbestimmungsprozess umfasst.
  • 3 stellt einen merkmalbasierten Prozess von 2 der vorliegenden Technologie dar, der unter Verwendung des georeferenzierten imagebasierten Prozesses ausgeführt wird.
  • 4 veranschaulicht ein photogrammetrisches Verfahren zum Finden einer Entfernung zu einer Kamera von einer bekannten Entfernung zwischen 2 Punkten (Skalafaktor) und eine Pixel-Umsetzung zu einem entgegengesetzten Winkel dar.
  • 5 veranschaulicht ein Flussdiagramm, in dem die Umsetzungsschritte des merkmalbasierten Prozesses von 2 unter Verwendung der georeferenzierten Gegenstandsbild-Datenbank und der Bildverarbeitungsmaschine von 3 beschrieben werden.
  • 6 zeigt eine Vorrichtung für die georeferenzierte imagebasierte Positionierung für die Zwecke der vorliegenden Technologie und zwar einschließlich eines Pfosten-GPS-Empfängers einschließlich am selben Pfosten befestigter Kamera, deren optische Mitte mit der Achse des Pfostens ausgerichtet ist und dem GIS/Vermessungsdatensammler.
  • 7 veranschaulicht ein Computersystem, das zum Aktivieren der Bildverarbeitungsmaschine von 3 für Zwecke der vorliegenden Technologie konfiguriert ist.
  • 8 zeigt eine imagebasierte Positionierungsvorrichtung, die den doppelmerkmalbasierten Verfolgungsprozess für die Zwecke der vorliegenden Technologie umfasst.
  • 9 zeigt die imagebasierte Positionierungsvorrichtung, die den Merkmal- und Oberflächenverfolgungsprozess für Zwecke der vorliegenden Technologie umfasst.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Es wird nun eingehend auf die Ausführungsformen der Technologie Bezug genommen; diesbezügliche Beispiele werden in den begleitenden Zeichnungen veranschaulicht. Die vorliegende Technologie wird zusammen mit verschiedenen Ausführungsformen beschrieben, wobei es sich versteht, dass diese die vorliegende Technologie nicht auf diese Ausführungsformen einschränken sollen. Ganz im Gegenteil, die vorliegende Technologie soll Alternativen, Abänderungen und Äquivalente abdecken, die im Geiste und Umfang der verschiedenen von den beigefügten Ansprüchen definierten Ausführungsformen mit aufgenommen werden können.
  • Ferner werden in der folgenden ausführlichen Beschreibung zahlreiche spezifische Einzelheiten für ein eingehendes Verständnis der vorgestellten Ausführungsformen dargetan. Jedoch ist es für einen Durchschnittsfachmann ersichtlich, dass die vorgestellten Ausführungsformen auch ohne diese spezifischen Einzelheiten ausgeübt werden können. In anderen Beispielen wurden allgemein bekannte Verfahren, Prozeduren, Komponenten und Schaltkreise nicht ausführlich beschrieben, um die Aspekte der vorliegenden Ausführungsformen nicht unnötigerweise zu verschleiern.
  • I. „Scherzinger”
  • 1 zeigt das in „Scherzinger” offenbarte GIE-Vermessungsinstrument 10.
  • II. Verfolgungsprozess für Einzelgegenstände
  • In einer Ausführungsform der vorliegenden Technologie veranschaulicht 2 die imagebasierte Positionierungsvorrichtung 30, die eine Bilderfassungsvorrichtung 34 umfasst, welche zum Erfassen von mindestens einem Bild, das mindestens einen Gegenstand umfasst, konfiguriert ist; einen Positionsbestimmungsprozess 38 und einen merkmalbasierten Prozess 36, die zum Verarbeiten von mindestens einem Bild zur Verfolgung des Standorts von mindestens einem erfassten Gegenstand konfiguriert sind.
  • In einer Ausführungsform der vorliegenden Technologie kann ein Gegenstand ein oder mehr Merkmale aufweisen; ein Merkmal ist im Grunde genommen ein Teil des Bildes, der von einem Algorithmus erkannt werden kann. Diese können Punkte, Bereiche oder Konturen oder abstrakte Texturbereiche oder sonstiges sein. Für viele der hier erörterten Algorithmen besteht auch die Prämisse, dass Merkmale über mehrere Bilder hinweg ermittelt werden können (gefundene Entsprechungen), dies gehört jedoch nicht zur Definition eines Merkmals. Das Finden von Entsprechungen ist ein an Merkmalen vorgenommener Prozess und nicht ein Charakteristikum derselben.
  • In einer Ausführungsform der vorliegenden Technologie kann die Bilderfassungsvorrichtung 34 von einer Gruppe stammen, die aus Folgenden besteht: einer Digitalkamera; einer Digitalvideokamera; einem Digitalcamcorder; einer Stereodigitalkamera; einer Stereovideokamera; einer Filmkamera; einer Tiefenkamera; und einer TV-Kamera oder Ähnlichem.
  • Noch bezugnehmend auf 2 umfasst die imagebasierte Positionierungsvorrichtung 30 in einer Ausführungsform der vorliegenden Technologie ferner Plattform 32.
  • In einer Ausführungsform der vorliegenden Technologie umfasst Plattform 32 ferner einen Rover.
  • In einer Ausführungsform der vorliegenden Technologie umfasst Plattform 32 ferner ein Rover-RTK-System.
  • In einer Ausführungsform der vorliegenden Technologie umfasst Plattform 32 ferner ein GIS/Mapping-Handgerät.
  • Noch bezugnehmend auf 2 werden in einer Ausführungsform der vorliegenden Technologie die Koordinaten einer Referenzposition der Bilderfassungsvorrichtung 34 (oder einer Plattform 32) durch einen GNSS-Positionsprozess 38 bestimmt.
  • Ein Globales Navigationssatellitensystem(GNSS)-Prozess kann ausgewählt ein aus der der Gruppe bestehend aus: einem GPS-Prozess; einem GLONASS-Prozess; einem kombinierten GPS/GLONASS-Prozess; einem GALILEO-Prozess; und einem COMPASS-(Beidou Navigationssystem)-Prozess; einem erdbasierten Pseudolitenprozess oder Ähnlichem.
  • Das Globale Positionsbestimmungssystem (GPS) ist ein aus Satellitensignaltransmittern bestehendes System, welches Informationen überträgt, mittels derer der aktuelle Standort eines Beobachters und/oder die Zeit der Beobachtung bestimmt werden können. Das GPS wurde von dem US-amerikanischen Verteidigungsministerium (DOD) im Rahmen seines Satellitenprogramms NAVSTAR entwickelt.
  • Noch bezugnehmend auf 2 werden in einer Ausführungsform der vorliegenden Technologie als Alternative zu einen GNSS-Prozess oder im Falle nicht erhältlicher oder beeinträchtigter Satellitensignale die Koordinaten einer Referenzposition der Bilderfassungsvorrichtung 34 (oder einer Plattform 32) mittels eines merkmalbasierten Prozesses bestimmt, der ausgewählt ist aus der Gruppe; bestehend aus: Inertiale Koppelnavigation, einem Simultane Lokalisierung und Kartenerstellung(SLAM)-Prozess, Matchmoving-Prozess oder ähnlichem Bildverarbeitungsalgorithmus; und einem photogrammetrischen Prozess.
  • In einer Ausführungsform der vorliegenden Technologie wird der merkmalbasierte Prozess 36 von einem Simultanen Lokalisierung und Kartenerstellung(SLAM)-Prozess eingesetzt.
  • Der Simultane Lokalisierung und Kartenerstellung(SLAM)-Prozess verwendet Bildsequenzen von einer oder mehreren Videokameras zur Ermittlung feststehender Merkmale und erstellt dann eine Karte dieser feststehenden Merkmale. Es können zwei Bildverarbeitungsmethoden angewendet werden.
  • Das erste in dem Simultanen Lokalisierung und Kartenerstellung(SLAM)-Prozess eingesetzte Bildverarbeitungsverfahren ist Bildsegmentierung und Merkmalsextraktion. SLAM verwendet diese zur Ermittlung bestimmter Gegenstände, von denen bekannt ist, dass sie stationär und somit stichhaltige Referenzpunkte im dreidimensionalen (3D) Raum sind. Typische Auswahlen sind Gegenstände mit halbwegs gut definierten Charakteristika, häufig Ecken im Freien oder Wandvorrichtungen verschiedener Art (Lampen, Schalter, Fenstersimse oder Ecken) in Innenräumen. Diese Charakteristika können dann mit einer Software verarbeitet werden, um Merkmale innerhalb des Algorithmus zu liefern.
  • Das zweite in dem Simultanen Lokalisierung und Kartenerstellung(SLAM)-Verfahren eingesetzte Bildverarbeitungsverfahren ist das Verfahren der Stereoabbildung, das zur Extraktion von Tiefen- und daher Entfernung-zu-Gegenstand-Informationen verwendet wird. SLAM erstellt eine Karte der Merkmale in einem dreidimensionalen (3D) Koordinatengitter, während es sie von verschiedenen Roboterpositionen aus abbildet und damit seine eigene Stellung in diesem Gitter bestimmt. Der Mapping- und Selbstlokalisierungsprozess werden in einem Kalman-Filter angewendet, der alle Variablen schätzt. In diesem Fall wird die Bereichsextraktion unter Verwendung einer Stereoabbildung von mehreren sich überlappenden zweidimensionalen (2D) Bildern ausgeführt.
  • In einer Ausführungsform der vorliegenden Technologie setzt das Simultane Lokalisierung und Kartenerstellung(SLAM)-Verfahren eine Videokamera ein.
  • In einer Ausführungsform der vorliegenden Technologie setzt das Simultane Lokalisierung und Kartenerstellung(SLAM)-Verfahren eine ladungsträgergekoppelte Vorrichtung (CCD) ein. CCD ist eine Vorrichtung für die Bewegung einer elektrischen Ladung, und zwar üblicherweise von innerhalb der Vorrichtung zu einem Bereich hin, wo die Ladung manipuliert werden kann, wie zum Beispiel die Umbildung in einen Digitalwert. Dies wird erzielt, indem die Signale zwischen Stufen innerhalb der Vorrichtung eines nach dem anderen „verschoben” werden. Technisch gesehen werden CCDs als Verschiebungsregister angewendet, die Ladung zwischen den kapazitiven Behältern in der Vorrichtung bewegen, wobei die Verschiebung die Übertragung der Ladung zwischen den Behältern gestattet. Die CCD wird häufig mit einem Bildsensor integriert, wie beispielsweise einer photoelektrischen Vorrichtung zum Erzeugen der Ladung, die gelesen wird, womit somit die CCD zu einer wichtigen Technik für die digitale Bildverarbeitung gemacht wird.
  • In einer Ausführungsform der vorliegenden Technologie setzt das Simultane Lokalisierung und Kartenerstellung(SLAM)-Verfahren eine mit einem CMOS-Sensor ausgestattete Videokamera ein.
  • In einer Ausführungsform der vorliegenden Technologie setzt das Simultane Lokalisierung und Kartenerstellung(SLAM)-Verfahren ein enges Sichtfeld (FOV) ein. Für eine gegebene Sensorgröße liefert dies eine höher aufgelöste Sicht eines kleineren Gesamtbereichs der sichtbaren Welt und würde somit die Erkennung kleinerer Gegenstände gestatten. Eine weite FOV ermöglicht es, dass die Kamera größere Gegenstände oder Gegenstände über einen größeren räumlichen Bereich hinweg erfassen kann, liefert aber nicht dieselbe Auflösung für einen gegebenen Sensor. Das Instrument würde einen SLAM-Verarbeitungsalgorithmus umfassen, der Bilder zu einer festgelegten Einzelbildrate oder zu einer variablen Einzelbildrate empfängt, welche von der Dynamik des Geräts bestimmt wird, und dann die Positionen der von ihm ermittelten Merkmale und die Position des Instruments allesamt in einem für die Anwendung geeigneten Koordinatenrahmen ausgeben. Kartesische Koordinaten in Bezug auf die anfängliche Orientierung des Instruments, absolut von einem vorgegebenen Ursprung gemessene kartesische Koordinaten, Breiten-/Längengrad-Höhe und erdzentriert erdfest; sphärische Koordinaten in Bezug auf die anfängliche Orientierung des Instruments. Für eine weitere Bezugnahme, vgl.: (i) Thomas Lemaire, Cyrille Berger, Il-Kyun Jung und Simon Lacroix, „Vision-Based SLAM: Stereo and Monocular Approaches", International Journal of Computer Vision 74(3), 343–364, 2007; und (ii) Moritz Köhler, Shwetak N. Patel, Jay W. Summet, Erich P. Stuntebeck und Gregory D. Abowd, Institute for Pervasisve Computing, Department of Computer Science ETH Zürich, 8092 Zürich, Schweiz, „TrackSense: Infrastructure Free Precise Indoor Positioning Using Projected Patterns".
  • In einer Ausführungsform der vorliegenden Technologie wird der merkmalbasierte Prozess 36 mit Hilfe eines Matchmoving-Prozesses angewendet. Der Matchmoving-Prozess umfasst mehrere Schritte. Der erste Schritt besteht im Ermitteln und Verfolgen von Gegenständen.
  • In einer Ausführungsform der vorliegenden Technologie besteht der merkmalsverfolgende Prozess aus zwei Schritten. Im ersten Schritt werden Positions- und Orientierungsreferenzen von den Merkmalen des Bildes abgeleitet. Auf diesen Schritt bezieht man sich üblicherweise als die „Merkmalserkennung”.
  • Der zweite Schritt umfasst Lösen für eine dreidimensionale (3D) Bewegung. In diesem Prozess wird versucht, die Bewegung der Bilderfassungsvorrichtung 34 (von 2) abzuleiten, indem die Rückprojektion von in den Merkmalen eines Bildes von der 2D-Bildebene ermittelten Transformationen in eine Schätzung der 3D Bewegung der Bilderfassungsvorrichtung 34 gelöst werden. Genauer gesagt kann nach der Aufnahme eines Punkts auf der Oberfläche eines dreidimensionalen Gegenstands dessen Position im zweidimensionalen (2D) Einzelbild durch eine dreidimensionale (3D) Projektionsfunktion errechnet werden.
  • Man kann den Gedanken einer abstrakten Kamera einführen. Diese abstrakte Kamera ist definitionsgemäß eine Abstraktion, die sämtliche Parameter enthält, die zur Modellierung der Bilderfassungsvorrichtung 34 in einer echten oder virtuellen Welt erforderlich sind.
  • Daher ist eine abstrakte Kamera im Grunde genommen ein Kameravektor, der als seine Elemente die Position der Bilderfassungsvorrichtung 34, ihre Orientierung, Fokaldistanz und sonstige möglichen Parameter umfasst, die definieren, wie die Bilderfassungsvorrichtung 34 Licht auf die Filmebene fokussiert. Es ist unwichtig zu wissen, wie nun genau dieser Kameravektor ausgeführt ist, solange es eine kompatible Projektionsfunktion P gibt.
  • Die Projektionsfunktion P benutzt als ihre Eingabe einen Kameravektor (als Kamera bezeichnet) und ein anderer Vektor benutzt die Position eines dreidimensionalen (3D) Punkts im Raum (als xyz bezeichnet) und bringt einen zweidimensionalen (2D) Punkt zurück, der auf eine Ebene vor der Kamera (als XY bezeichnet) projiziert wird. Dies wird wie folgt ausgedrückt: XY = P (Kamera, xyz). (Gl. 1)
  • Im Falle einer Merkmalsprojektion projizieren zum Beispiel die Kameras im Einzelbild i und j je nach den Parametern der Kamera die Sicht auf eine Ebene. Auf diese Art und Weise entsprechen die im zweidimensionalen (2D) Raum verfolgten Merkmale den echten Merkmale in einem dreidimensionalen (3D) Raum.
  • Die Projektionsfunktion verwandelt jedoch das echte 3D Merkmal und verringert die Informationsmenge, die es enthält. Ohne den vollständigen Informationsinhalt der Komponente zu kennen, kann eine Rückprojektionsfunktion P' nur einen Satz möglicher 3D-Punkte zurückbringen, die eine Linie bilden, welche von der Mitte der Kamera aus durch einen projizierten 2D-Punkt passiert. Eine ähnliche Ambiguität ergibt sich bei der Interpretation beliebiger Orientierungsinformationen, die in dem projizierten Merkmal enthalten sind. Die Rückprojektion wird wie folgt ausgedrückt: xyz ∈ P' (Kamera, XY). (Gl. 2) oder {xyz: P(Kamera, xyz) = XY}. (Gl. 3)
  • In einer Ausführungsform der vorliegenden Technologie wird der echte Punkt xyz an derselben Stelle in dem Realraum von einem Einzelbild des Bildes zum nächsten bleiben, wenn sich die Merkmale auf der Oberfläche eines starren Gegenstands, wie beispielsweise einem Gebäude, befinden: (xyz)i = (xyz)j; (Gl. 4) wobei sich die tiefgestellten Indizes i und j auf arbiträre Einzelbilder in der Aufnahme beziehen, die analysiert wird. Daraus folgt, dass: P'(Kamerai, XYi) ∩ P'(Kameraj, XYj) ≠ {} (Gl. 5)
  • Da der Wert von XY für alle Einzelbilder festgelegt wurde, durch die das Merkmal mittels des Verfolgungsprogramms verfolgt wurde, kann man die Rückprojektionsfunktion zwischen zwei beliebigen Einzelbildern lösen, solange P'(Kamerai, XYi) ∩ P'(Kameraj, XYj) ein kleiner Satz möglicher Kameravektoren ist, der die Gleichung bei i und j (als Cij bezeichnet) löst. Cij = ((Kamerai, Kameraj):P'(Kamerai, XYi) ∩ P'(Kameraj, XYj) ≠ {}); (Gl. 6)
  • Daraus folgt (aus Gl. 6), dass es einen Satz von Kameravektorpaaren Cij gibt, für die die Intersektion der Rückprojektionen zweier Punkte XY, und X ein nicht leerer Satz ist, der sich um den stationären Punkt xyz zentriert.
  • Des Weiteren folgt (aus Gl. 6), dass es für jede Position der Bilderfassungsvorrichtung 34 im Raum einen Satz an entsprechenden Parametern gibt (Orientierung, Fokaldistanz usw.), der ein Ein-Punkt-Merkmal auf genau dieselbe Weise aufnehmen wird. Da jedoch ein Satz von Kameravektorpaaren Cij eine unendliche Anzahl an Elementen aufweist, reicht ein Ein-Punkt-Merkmal nicht zur Festlegung der tatsächlichen Position der Bilderfassungsvorrichtung 34 aus.
  • Je mehr Verfolgungsinformationen in Gestalt zusätzlicher Punktmerkmalen oder zusätzlicher Orientierungsinformationen existieren, desto genauer kann die tatsächliche Position der Bilderfassungsvorrichtung 34 bestimmt werden.
  • Für einen Punktsatz {(xyz)i,0, ..., (xyz)i,n} und {(xyz)j,0, ..., (xyz)j,n}, wobei sich i und j immer noch auf Einzelbilder beziehen und n ein Index einer der vielen verfolgten Verfolgungsmerkmale ist, kann ein Satz von Kameravektorpaarsätzen abgeleitet werden.
  • Mit Hilfe dieses Ansatzes mehrfacher Spuren wird die Anzahl der möglichen Parameter der Kamera verringert. Der Satz möglicher Kameraparameter, die passen, F, ist die Intersektion aller Sätze: F = Ci,j,0 ∩...∩ Ci,j,n (Gl. 7)
  • Je geringer die Anzahl der Elemente in diesem Satz F ist, desto näher kommt man einer Extraktion der tatsächlichen Parameter der Bilderfassungsvorrichtung 34.
  • Aufgrund der in den Verfolgungsprozess eingeführten Fehler bedarf es eines statistischen Ansatzes zur Bestimmung eines Kameravektors für jedes Einzelbild. Optimierungsalgorithmen und Bündelblockausgleichungen können zur Eingrenzung der möglichen Lösungen für die Bewegung der Kamera eingesetzt werden.
  • Dreidimensionale Matchmoving-Werkzeuge ermöglichen ein Extrapolieren dreidimensionaler Informationen von zweidimensionalen Aufnahmen. 3D-matchmovingfähige Programme umfassen Folgende, sind jedoch nicht darauf beschränkt:
    Voodoo (Freeware; Scenespector VooCAT);
    Icarus (University of Manchester);
    Maya Live;
    The Pixel Farm PFTrack;
    PFHoe (basiert auf PFTrack-Algorithmen);
    REALVIZ MatchMover;
    Science.D.Visions 3DEqualizer (gewann einen Academy Award für Technische Errungenschaften);
    Andersson Technologies SynthEyes; und
    Boujou (gewann 2002 einen Emmy Award)
  • In einer Ausführungsform der vorliegenden Technologie wird der merkmalbasierte Prozess 36 unter Verwendung eines photogrammetrischen Prozesses angewendet.
  • Unter Photogrammetrie versteht man eine Vorgehensweise zur Bestimmung der geometrischen Eigenschaften von Gegenständen photographischer Bilder. Im einfachsten Beispiel kann die Entfernung zwischen zwei Punkten, welche auf einer Ebene parallel zur photographischen Bildebene liegen, durch eine Messung ihrer Entfernung auf dem Bild bestimmt werden, wenn der Maßstab s des Bildes bekannt ist. Dies wird durch eine Multiplizierung der gemessenen Entfernung mit 1/s erreicht.
  • Eine ausgereiftere Methode namens Stereophotogrammetrie beinhaltet Schätzen der' dreidimensionalen Koordinaten von Punkten auf einem Gegenstand. Diese werden mittels Messungen, die in zwei oder mehr aus verschiedenen Standpunkten aufgenommenen (siehe Stereoskopie) Messbildern bestimmt werden. Gemeinsame Punkte werden auf jedem Bild ermittelt. Eine Sichtlinie (oder ein Strahl) kann von dem Standort der Kamera zu dem Punkt auf dem Gegenstand erstellt werden. Die Intersektion dieser Strahlen (Triangulation) bestimmt den dreidimensionalen Standort des Punkts. Ausgereiftere Algorithmen können andere von vornherein bekannte Informationen über die Szene ausnutzen, wie beispielsweise Symmetrien, die in gewissen Fällen die Rekonstruktion von 3D-Koordinaten von nur einer Kameraposition aus ermöglichen.
  • Algorithmen für Photogrammetrie drücken in der Regel das Problem als ein Minimieren der Summe der Quadrate eines Satzes an Fehlern aus. Diese Minimierung ist als Bündelausgleichung bekannt und wird häufig unter Verwendung des Levenberg-Marquardt-Algorithmus (LMA) durchgeführt, der eine numerische Lösung zum Problem des Minimierens einer grundsätzlich nichtlinearen Funktion über den Raum der Parameter der Funktion liefert. Diese Minimierungsprobleme ergeben sich besonders in Kurvenanpassungen mit der Methode der kleinsten Quadrate und der nichtlinearen Programmierung.
  • Der Levenberg-Marquardt-Algorithmus (LMA) interpoliert zwischen dem Gauss-Newton-Algorithmus (GNA) und der Methode des Gradientenabstiegs. Der Levenberg-Marquardt-Algorithmus (LMA) ist robuster als der Gauss-Newton-Algorithmus (GNA), was bedeutet, dass er in vielen Fällen eine Lösung findet, auch wenn er sehr weit weg vom endgültigen Minimum anfängt.
  • Die 3D-Koordinaten definieren die Standorte der Gegenstandspunkte in dem 3D-Raum. Die Bildkoordinaten definieren die Standorte der Bilder der Gegenstandspunkte auf dem Film oder einer elektronischen Bildaufnahmevorrichtung. Die externe Orientierung der Kamera definiert ihren Standort im Raum sowie ihre Blickrichtung. Die innere Orientierung definiert die geometrischen Parameter des Bildverarbeitungsprozesses. Hier handelt es sich hauptsächlich um die Fokaldistanz der Linse, kann jedoch auch die Beschreibung von Linsenverzerrungen umfassen. Weitere zusätzliche Beobachtungen spielen eine wichtige Rolle: Die Verbindung zu den grundlegenden Messeinheiten wird mit Hilfe von Maßstabskalen – im Grunde genommen, eine bekannte Entfernung zweier Punkte im Raum- oder bekannter Fixpunkte erstellt.
  • Photogrammetrische Daten mit dichten Bereichsdaten von Scannern komplementieren sich gegenseitig. Photogrammetrie ist genauer in den fast parallel zur Bildebene liegenden Dimensionen, und die Bereichsdaten sind in der Regel genauer in der für die Bildebene senkrechten Dimension. Diese Bereichsdaten können von Methoden, wie beispielsweise LiDAR, Laserscarmern (die die Time-Of-Flight, Triangulation oder Interferometrie einsetzen), Weißlicht-Digitalisierern und einer beliebigen sonstigen Methode, die einen Bereich scannt und x-, y-, z-Koordinaten für mehrere diskrete Punkte (üblicherweise „Punktwolken” genannt) zurücksendet, bereitgestellt werden.
  • Eine 3D-Visualisierung kann zur Georeferenzierung der Photos und LiDAR-Daten im selben Referenzeinzelbild erstellt werden. Methoden, wie beispielsweise die adaptive Kleinste-Quadrate-Stereo-Anpassung werden dann zur Erzeugung einer dichten Anordnung von Entsprechungen verwendet, die durch ein Kameramodell umgewandelt werden, um eine dichte Anordnung von x-, y-, z-Daten zu erzeugen.
  • Noch bezugnehmend auf 2 wird in einer Ausführungsform der vorliegenden Technologie ein merkmalbasierter Prozess 36 durch den Einsatz eines georeferenzierten imagebasierten Prozesses, wie in 3 veranschaulicht, angewendet. Der georeferenzierte imagebasierte Prozess 36 setzt das Verfahren der „imagebasierten Georeferenzierung” ein, welches von James M. Janky et al. in der am 14.09.2009 eingereichten Patentanmeldung mit Seriennummer 12/559,322 offenbart wurde. Die Patentanmeldung mit dem Titel „Image-Based Georeferencing” wird hier in ihrer Gesamtheit aufgenommen.
  • Genauer gesagt, ist die Bildverarbeitungsmaschine 62 (von 3) im Grunde genommen eine Serie von Computerprogrammen, die ein Bild von der Bilderfassungsvorrichtung 64 aufnimmt, ein Konturbild der erblickten Gegenstände mit Hilfe eines Bildkonturerstellers 68 erstellt, eine Suche nach einer ähnlichen Kontur durch eine Suche in der Georeferenzierten Gegenstandsbild-Lokaldatenbank 66 durchführt, Merkmale in dem Kamerabild 70 ermittelt und nach einem Match mit Merkmalen in der Datenbank sucht (mit Hilfe des Mustererkennungs-Konturanpassungsprozesses 72), und prüft, ob die während des Matching-Prozesses gefundenen Merkmale georeferenzierte Standortkoordinaten aufweisen.
  • Noch bezugnehmend auf 3 extrahiert in einer Ausführungsform der vorliegenden Technologie, wenn es ein Match mit georeferenzierten Koordinaten gibt, das Georeferenzierte Abrufprogramm 74 diese Koordinaten aus der Datenbank und der Standortbestimmer 76 bestimmt die Standortkoordinaten der Bilderfassungsvorrichtung 64 unter Verwendung der Verfahren der merkmalbasierten Verarbeitung, wie beispielsweise Photogrammetrie, Matchmoving usw. Siehe Erörterung weiter oben.
  • Noch bezugnehmend auf 3 kann in einer Ausführungsform der vorliegenden Technologie der anfängliche Standort der Bilderfassungsvorrichtung 64 über den Block 78 auf jeder Präzisionsstufe eingegeben werden, so zum Beispiel: (a) über einen GNSS-Empfänger; oder (b) manuell, wie es der Fall beim Gebrauch von zwei Namen für eine Intersektion ist; oder (c) einen ungefähren Breiten-/Längengrad. In dieser Ausführungsform der vorliegenden Technologie kann dieses Eingabeverfahren der anfänglichen Positionsbestimmung der Bilderfassungsvorrichtung 64 den Suchprozess beschleunigen, indem geradewegs zu dem Bereich von Interesse gegangen wird.
  • Noch bezugnehmend auf 3 kann in einer Ausführungsform der vorliegenden Technologie die manuelle Positionseingabe mittels eines Handgeräts, wie dem Trimble TSC2 (Trimble Survey Controller Modell 2) vorgenommen werden.
  • Noch bezugnehmend auf 3 kann in einer Ausführungsform der vorliegenden Technologie die Bildverarbeitungsmaschine 62 so konfiguriert werden, dass sie sich in einer tragbaren Rechnervorrichtung befindet, wie beispielsweise als ein TSC2 Datensammler oder einem Laptop oder einem elektronischen Organizer oder dem Apple iPad. Die Eingaben des anfänglichen(Saat-)Standorts der Bilderfassungsvorrichtung 64 kann über diese Vorrichtungen ausgeführt werden.
  • Noch bezugnehmend auf 3 kann in einer Ausführungsform der vorliegenden Technologie die Kommunikationsvorrichtung 80 zum Bereitstellen eines (anfänglichen) Saat-Standorts der Bilderfassungsvorrichtung 64 eingesetzt werden.
  • In einer Ausführungsform der vorliegenden Technologie kann ein drahtloses System, einschließlich von Wi-Fi, Mobiltelefonen, ZigBee oder Ähnlichem zum Anschluss der Kommunikationsvorrichtung 80 mit einer externen Datenbank verwendet werden.
  • In einer Ausführungsform der vorliegenden Technologie kann die Rechnerferne Allgemeine Georeferenzierte Gegenstand-Bilddatenbank 82 eine gut bestückte Datenbank darstellen, in der lokale Gegenstände, wie die Dachecken von Gebäuden, Hauseingangstüren, Fenstersimse, Straßenschilder, Hydranten usw., also praktisch alles, was es auf der Erde gibt, geolokalisiert sind und über ein Bild von irgendeinem arbiträren Blickwinkel verfügt.
  • Aus diesem Grund kann die Rechnerferne Allgemeine Georeferenzierte Gegenstand-Bilddatenbank 82 zur Eingabe eines Saat-Standorts der Bilderfassungsvorrichtung 64 verwendet werden.
  • Sollte dies der Fall sein, kann eine äußerst lokalisierte Aktualisierung für die Lokal Abgespeicherte Georeferenzierte Gegenstand-Bilddatenbank 66 von der Rechnerfernen Allgemeinen Georeferenzierten Gegenstand-Bilddatenbank 82 heruntergeladen werden. Unter Verwendung der Merkmale in dem Mustererkennungskontur-Anpassungsprogramm 72 kann eine Bilddrehung und Übersetzung im Rahmen der Suche nach einem Match zum lokal erfassten Bild ausgeführt werden.
  • In einer Ausführungsform der vorliegenden Technologie, genauer gesagt, im Falle des Erhalts einer Saat-Positionsbestimmung mit Hilfe der GPS-Positionsbestimmung von einem GPS/GNSS-Empfänger oder durch andere Mittel erhaltene Standortsinformationen, kann diese mit einem Kamerabild durch Verwendung des Austauschbaren Bilddateiformats (Exil) kombiniert werden. Exif ist eine Festlegung für das von Digitalkameras verwendete Bilddateiformat. Die Festlegung verwendet die vorhandenen Dateiformate JPEG, TIFF Rev. 6.0 und RIFF WAV, denen spezifische Metadatentags hinzugefügt werden.
  • In einer Ausführungsform der vorliegenden Technologie, in der eine Saat-Positionsbestimmung von einem GPS/GNSS-Empfänger mittels einer GPS-Positionsbestimmung erhalten wird, hängt die Genauigkeit der Saat-Positionsbestimmung gänzlich von dem Entwicklungsstand und der Leistungsstufe des GPS-Empfängers ab. Einfache GPS-Chipset-Empfänger, die in mit Kameras ausgerüsteten Mobiltelefonen eingesetzt werden, liefern eine absolute Genauigkeit von ungefähr 4–7 Meter überall auf der Welt.
  • Andererseits setzen hochentwickeltere Empfänger eine Vielzahl an Berichtigungsverfahren ein, die die Genauigkeit drastisch verbessern können. So sendet der von der US Federal Aviation Administration bereitgestellte Wide Area Augmentation Service Signale von 2 synchronen Satelliten auf derselben Frequenz wie das GPS-Signal mit einem Sondercode aus und verbessert die Genauigkeit bis zu ca. 1 Meter im ganzen Land. Sonstige differenzielle Services bieten Verbesserungen bis zu ca. 20 cm. Schlussendlich kann das Echtzeit-Kinematik-Verfahren mit dem Virtuellem Referenzstationsservice eine Genauigkeit bis zu ca. 2–5 cm in Bezug auf einen bekannten Referenzpunkt liefern.
  • Noch bezugnehmend auf 3 wird in einer Ausführungsform der vorliegenden Technologie ein Kamerabild einer tragbaren Bildverarbeitungsmaschine 62 zu einer genaueren Bestimmung der Position der Kamera geliefert, als es mit einem einfachen GPS-Empfänger möglich wäre. Das Kamerabild wird in Echtzeit geliefert oder kann laut den in einer gleichzeitig anhängigen Anmeldung „Image-Based Georeferencing” erläuterten Prinzipien nachverarbeitet werden.
  • Noch bezugnehmend auf 3 wird in einer Ausführungsform der vorliegenden Technologie die tragbare Bildverarbeitungsmaschine 62 mit der Lokalen Georeferenzierten Gegenstandsbild-Datenbank 66, die Bilder von Gebäuden und sonstiger Gegenstände einschließlich der georeferenzierten Merkmale enthält, welche in der Datenbank ermittelt werden, geliefert. Die Georeferenzdaten können aus Längengraden, Breitengraden und Höheninformationen bestehen oder können in Form von „nordorientiert und ostorientiert” von einem lokalen Referenzpunkt, wie beispielsweise den Markierungen des Geländevermessers, die von der US Geological Survey Administration installiert und gepflegt werden, abgespeichert werden. Sonstige Koordinatensysteme können ebenfalls eingesetzt werden.
  • In einer Ausführungsform der Technologie ist die Lokale Georeferenzierte Gegenstandsbild-Datenbank 66 zur Durchsuchbarkeit konfiguriert, indem sie mit den entsprechenden Tags aktiviert wird.
  • In einer Ausführungsform der Technologie kann die Lokale Georeferenzierte Gegenstandsbild-Datenbank 66 unter Verwendung von Googles StreetView oder einem Service ähnlicher Art angewendet werden. Die Lokale Georeferenzierte Gegenstandsbild-Datenbank 66 verbindet Standortinformationen mit den Standort-Tags in Längen- und Breitengradkoordinaten, die mit jedem Abschnitt von Bildern verbunden sind, und gibt somit eine Suchmaschine frei. Aus diesem Grund kann ein Benutzer ein Bild einer Straßenansicht auf der Grundlage ihrer Adresse oder auf der Grundlage ihres Standort in den Längen- und Breitengradkoordinaten finden. Die Straßenkreuzungen stehen ebenfalls zum Suchen zur Verfügung.
  • In einer Ausführungsform der Technologie kann die Lokale Georeferenzierte Gegenstandsbild-Datenbank 66 eingesetzt werden, indem das georeferenzierte Gegenstandsbild verwendet wird. Die georeferenzierte Gegenstandsbild-Datenbank enthält eine Vielzahl an präzisen Positionsdaten, die Merkmale von Gebäuden und Kanten, Halteschilder, Straßenschilder, Hydranten und Ähnliches betreffen. Die georeferenzierte Gegenstandsbild-Datenbank umfasst ferner die mit einer geeigneten Analysesoftware ausgestattete Bildverarbeitungsmaschine, die konfiguriert ist, um von bekannten Merkmalspositionen auf einem gegebenen Gegenstand Merkmale abzuleiten, die in dem von einem Benutzer erfassten Bild sein können. Diese Ableitung kann unter Verwendung des Interpolationsverfahrens, bei dem geeignete geometrische Transformationen zur Normalisierung des Bildes verwendet werden, und zum Finden der geometrischen Beziehungen (Entfernung und Richtung) bekannter georeferenzierter Merkmale zu unbekannten, jedoch geeigneteren Merkmalen ausgeführt werden.
  • In einer Ausführungsform der Technologie wird Bestimmen der Position einer Kamera von Daten in einem Bild unter Verwendung von Photogrammetrie-Verfahren ausgeführt, was aus dem Stand der Technik wohl bekannt ist. Siehe Erörterung weiter oben.
  • In einer Ausführungsform der Technologie kann der zum Ausführen photogrammetrischer Lösungen benötigte Entfernungsskalierungsfaktor von der Verarbeitung georeferenzierter Daten gefunden werden, die mit Gegenständen von Interesse in dem erfassten Bild verbunden sind. Die georeferenzierten Daten für zwei oder mehr Punkte ermöglichen Erzeugen des Entfernungsskalierungsfaktors durch eine einfache Berechnung der dreidimensionalen Entfernung zwischen zwei ausgewählten Punkten unter Verwendung der gut bekannten Formel: Abstand = ↦((x1 – x2)2 + (y1 – y2)2 + (z1 – z2)2, (Gl. 8) wobei x, y und z die georeferenzierten Koordinaten der mit dem Gegenstand von Interesse verbundenen Punkte sind.
  • In einer Ausführungsform der Technologie liefert die Bildverarbeitungsmaschine (62 von 3) photogrammetrische Standardalgorithmen zur Bildverarbeitung, die dann eine Errechnung des Standorts der Kamera auf der Grundlage ausgewählter Referenzpunkte in dem erfassten Bild ermöglichen. Der Auswahlprozess setzt eine Suchroutine ein, die Kanten (Intersektionen zweier Linien) oder Ecken in dem erfassten Bild findet. Kanten oder Ecken mit der schärfsten Ecke bzw. dem schärfsten Punkt werden automatisch ausgewählt. Falls die ausgewählten Kanten/Ecken nicht mit einem georeferenzierten Datenpunkt verbunden sind, dann wird der Interpolationsalgorithmus zur Schätzung der georeferenzierten Daten für die ausgewählten Punkte eingesetzt. (Siehe Erörterung weiter oben).
  • In einer Ausführungsform der Technologie werden die ausgewählten Referenzpunkte in dem erfassten Bild dann zur Errechnung der Position der Kamera 64 verwendet. Falls drei oder mehr Punkte ausgewählt wurden, dann wird er Berechnungsprozess durch eine Serie an Schritten zur direkten Errechnung der Position geführt.
  • Ein Skalierungsfaktor wird über die berechenbaren Entfernungen zwischen den ausgewählten Referenzpunkten vermittels ihrer georeferenzierten Standortdaten bestimmt. Der Skalierungsfaktor wird in Form von physischer Entfernung in Metern oder Fuß, oder dem gegenüberliegenden Winkel an der Erdoberfläche gefunden.
  • Als Nächstes wird ein Winkel zwischen den ersten beiden georeferenzierten Punkten, wie in 4 abgebildet, bestimmt. Genauer gesagt, veranschaulicht 4 das Photogrammetrie-Verfahren zum Finden einer Entfernung 106 zu einer Kamera 92 von einer bekannten Entfernung D1 101 zwischen 2 Punkten P1 96 und P2 98, (Skalierungsfaktor) und Pixelkonvertierung zu einem gegenüberliegenden Winkel. In Geometrie ist ein einem Bogen entgegengesetzter Winkel einer, dessen zwei Strahlen durch die Endpunkte des Bogens passieren.
  • In einer Digitalkamera 92 wird dies durch eine Messung der Entfernung zwischen den beiden Punkten P1 96 und P2 98 ausgeführt, und dann wird das Verhältnis dieser Zahl zur Gesamtanzahl der Pixel 100 im Blickfeld der Kamera genommen. Die Entfernung 106 von dem Mittelwert 107 der Linie zwischen den 2 ausgewählten georeferenzierten Punkten zur Eintrittspupille der Kamera 94 wird unter Verwendung der Hälfte dieses Winkels A 102 und der Hälfte der Entfernung 1/2D 104 zwischen den 2 georeferenzierten Punkten berechnet, da die Tangente des halben Winkels zwischen den beiden ausgewählten Punkten durch das Verhältnis der Entfernung von der Kamera zur halben bekannten Entfernung zwischen den beiden Punkten für eine Art der Problemlösung gegeben ist. Tan (A) = D1/2D2 (Gl. 9)
  • In einer Ausführungsform der Technologie kann dieser Prozess des Bestimmens von mehr Entfernungsschätzwerten von den Mittelpunkten von Linien, die zwei beliebige georeferenzierte Punkte auf Gegenständen in dem erfassten Bild verbinden, durchgeführt werden. Nun kann der Mittelpunkt zwischen zwei beliebigen bekannten georeferenzierten Punkten ebenfalls im Sinne eines georeferenzierten Koordinatensystems berechnet werden.
  • Die soeben beschriebenen Entfernungen stellen nicht die Entfernungen dar, die zum Bestimmen der Position der Kamera erforderlich sind. Jedoch kann die Hypotenuse (lange Seite) 108, die die tatsächlichen Entfernungen von Punkt P1 96 zur Eintrittspupille der Kamera 94 ist, (und die Hypotenuse 110, die die tatsächliche Entfernung von Punkt P2 98 zur Eintrittspupille der Kamera 94 ist) mit diesen Informationen nun wie folgt für eine Art der Problemlösung berechnet werden: Entfernung (P1-Kamera) = 1/2 D.sin(A); (Gl. 10) wobei 1/2D die Hälfte der Entfernung zwischen P1 und P2 ist und A der Halbwinkel der Gesamtwinkelschiebung für die beiden Punkte P1 und P2 ist.
  • Noch bezugnehmend auf 4 dienen in einer Ausführungsform der Technologie, als ein Hilfsmittel zum Verständnis der nächsten Schritte, die georeferenzierten Punkte P1 96 und P2 98 nun als die Mitten von Kugeln, und die Entfernung von jedem Punkt zur Eintrittspupille der Kamera 94 liefert nun einen Radius für jede Kugel. Mit einem Minimum von drei georeferenzierten Punkten liefern daher drei Linien mit drei Punkten drei den Abstand zur Kamera darstellende Gleichungen. D. h., die drei Kugeln werden sich in der Eintrittspupille der Kamera – mit einigen Fehlern – kreuzen. Lösen für den Standort dieser Intersektion (drei Gleichungen in drei Unbekannten) liefert nun den georeferenzierten Punkt der Eintrittspupille. Es handelt sich hier um das Triangulationsverfahren.
  • In einer Ausführungsform der Technologie ist das Gleichungssystem überbestimmt, wenn mehr als drei bekannte Punkte vorliegen sollten. Der Großteil der photogrammetrischen Programme setzt wesentlich mehr Punkte zur Fehlerverringerung ein.
  • Das Verfahren der kleinsten Quadrate ist ein Standardansatz zur ungefähren Lösung überbestimmter Systeme, d. h. Sätze von Gleichungen, in denen es mehr Gleichungen als Unbekannte gibt. „Kleinste Quadrate” bedeutet, dass die Gesamtlösung die Summe der Quadrate der bei der Lösung jeder einzelnen Gleichung gemachten Fehler minimiert.
  • Die wichtigste Anwendung ist bei der Datenanpassung. Die beste Anpassung im Sinne der kleinsten Quadrate minimiert die Summe der Residuen im Quadrat, wobei ein Residuum die Differenz zwischen einem beobachteten Wert und dem von einem Modell gelieferten Wert ist. Kleinste Quadrat-Probleme fallen in zwei Kategorien – lineare kleinste Quadrate und nicht-lineare kleinste Quadrate-, was abhängig davon ist, ob die Residuen in allen Unbekannten linear sind oder nicht. Das lineare kleinste Quadrate-Problem wird in der statistischen Regressionsanalyse angetroffen; es hat eine geschlossene Lösung. Das nichtlineare Problem hat keine geschlossene Lösung und wird in der Regel durch eine iterative Verfeinerung gelöst; bei jeder Iteration wird das System durch eine lineare angenähert, wobei somit die Kernberechnung in beiden Fällen ähnlich ist. Kleinste Quadrate entsprechen dem Kriterium der höchsten Wahrscheinlichkeit, wenn die experimentellen Fehler normal verteilt sind und auch als ein Momentenschätzverfahren abgeleitet werden können. Auch kann das kleinste Quadrat-Verfahren zum Anpassen an ein verallgemeinertes lineares Modell verwendet werden, indem lokale quadratische Näherung auf die Wahrscheinlichkeit iterativ angewendet wird.
  • Es sind viele photogrammetrische Programme verfügbar, die die oben erwähnten Schritte ausführen. Des Weiteren wird der Prozess zum Bestimmen der genauen Orientierung von der die Aufnahme machenden Kamera bezüglich der georeferenzierten Punkte zur Kompensierung der Tatsache, dass eine Neigung in dem Liniensystem existiert, ebenfalls in Betracht gezogen. Eine Vielzahl an Referenzpunkten oder zumindest zwei Bilder von zwei verschiedenen Kamerastandorten liefert bzw. liefern genügend Daten, um den Standort der Kamera zu bestimmen.
  • Im Falle, dass der Anwender sich dafür entscheidet, mehr als ein Bild der Szene aufzunehmen, in der sich der Gegenstand von Interesse befindet, ist eine zusätzliche Verarbeitung zur Behandlung dieses anderen wichtigen Falls leicht verfügbar. Dieser Prozess kann auf einmal mithilfe dem als „Bündelausgleichung” bekannten Verfahren ausgeführt werden.
  • Angesichts eines Bildes, das eine gewisse Anzahl an 3D-Punkten von verschiedenen Blickwinkeln aus anzeigt, kann eine Bündelausgleichung als ein Problem des gleichzeitigen Verfeinerns der 3D-Koordinaten, die die Szenengeometrie beschreiben sowie auch der Parameter der relativen Bewegung und der optischen Charakteristika der zur Aufnahme der Bilder eingesetzten Kamera(s) gemäß eines Optimalitätskriteriums, welches die entsprechenden Bildprojektionen aller Punkte beinhaltet, definiert werden.
  • Die Bündelausgleichung wird fast immer als letzter Schritt eines jeden merkmalbasierten 3D-Rekonstruktionsalgorithmus verwendet. Sie läuft auf ein Optimierungsproblem auf der 3D-Struktur und der Betrachtungsparameter hinaus (d. h. die Pose der Kamera und eventuelle intrinsische Kalibrierung und radiale Verzerrung) zum Erhalten einer Rekonstruktion, die unter gewissen Annahmen in Bezug auf das die beobachteten Bildmerkmale betreffende Geräusch optimal ist.
  • Bündelausgleichung ist der Maximum-Likelihood-Schätzer, falls der Bildfehler mittelwertfrei und Gauß'sch ist. Der Name bezieht sich auf die Licht-„Bündel”, die aus jedem 3D-Merkmal hervorgehen und in der optischen Mitte jeder Kamera zusammentreffen, die sowohl in Bezug auf die Struktur als auch die Betrachtungsparameter optimal ausgeglichen sind.
  • Während des Bündelausgleichungsprozesses wird der Neuprojektionsfehler zwischen den Bildstandorten von beobachteten und vorausgesagten Bildpunkten minimiert, der als die Quadratsumme einer großen Anzahl nicht-linearer, realwertiger Funktionen ausgedrückt wird. Daher wird die Minimierung unter Verwendung nicht-linearer Kleinst-Quadrat-Algorithmen erreicht. Durch iteratives Linearisieren der zu minimierenden Funktion in der Nachbarschaft des laufenden Schätzwerts beinhaltet der Levenberg-Marquardt-Algorithmus die Lösung von Linearsystemen, die als Normalgleichungen bekannt sind. Bei der Lösung von sich im Rahmen der Bündelausgleichung ergebenden Minimierungsproblemen verfügen die Normalgleichungen über eine spärliche Blockstruktur aufgrund des Mangels von Interaktion unter den Parameter fair verschiedene 3D-Punkte und Kameras. Dies kann ausgenützt werden, um rechenbetonte Nutzen zu erzielen, indem eine spärliche Variante des Levenberg-Marquardt-Algorithmus eingesetzt wird, die explizit den Vorteil des Nullmusters der Normalgleichungen ausnutzt und die Speicherung und den Betrieb auf Nullelementen vermeidet.
  • In einer Ausführungsform der vorliegenden Technologie veranschaulicht 5 das Flussdiagramm 120, das die Umsetzungsschritte des merkmalbasierten Prozesses 36 (von 2) unter Verwendung der Georeferenzierten Gegenstandsbild-Lokaldatenbank 66 und der Bildverarbeitungsmaschine 62 (von 3) beschreibt.
  • Genauer gesagt, kann in einer Ausführungsform die Bildverarbeitungsmaschine 62 (von 3) in Schritt 124 mit Daten initialisiert werden, die für den gewünschten Standortbereich als relevant bestimmt wurden. Als Nächstes erfasst die Bilderfassungsvorrichtung 64 in Schritt 126 mindestens ein Bild eines Gegenstands von Interesse in einem Bereich von Interesse und liefert (in Schritt 128) der Bildverarbeitungsmaschine 62 (von 3) mindestens ein erfasstes Bild von Interesse. Ein Muster-Matching-Prozess wird ausgeführt (in Schritt 130), um ein Match zwischen der Kontur von Gegenständen im erfassten Bild und von Gegenständen in der Georeferenzierten Gegenstandsbild-Lokaldatenbank 66 anzustreben. Nachdem mindestens eine Merkmal in dem erfassten Bild des Gegenstands von Interesse ermittelt wurde (Schritt 132), wird eine Suche in der Georeferenzierten Gegenstandsbild-Lokaldatenbank 66 (Schritt 134) nach einem Match zwischen dem ausgewählten Merkmal in dem erfassten Bild und dem georeferenzierten Merkmal in der Datenbank 66 ausgeführt. Der Suchprozess wird für eine ausgewählte Anzahl an Merkmal-Matches wiederholt (Schritt 136). In Schritt 138 werden die photogrammetrische Bildverarbeitungsalgorithmen zum Bestimmen des Standorts der Eintrittspupillenposition der Kamera (94 von 4) in einem georeferenzierten Koordinatensystem eingesetzt, die der Georeferenzierten Gegenstandsbild-Datenbank entnommen wurden. Wahlweise (Schritt 140) umfasst der zusätzliche Schritt 124 des Initialisierens Bildverarbeitungsmaschine ferner die Eingabe einer lokalen Referenzposition, die eine Straße mit Hausnummer, der Kreuzung zweier Straßen, eines Orientierungspunkts oder eines georeferenzierten Datums definiert ist.
  • In einer Ausführungsform der vorliegenden Technologie zeigt 6 die Vorrichtung für eine imagebasierte Positionierung 150 einschließlich eines GNSS-Empfängers 152, der an einem Pfosten 154 befestigt ist, wobei eine Kamera 156 an demselben Pfosten 154 befestigt ist. Des Weiteren zeigt es den GIS-/Vermessungsdaten-Sammler 162, wie beispielsweise einen TSC2.
  • In einer Ausführungsform der vorliegenden Technologie veranschaulicht 7 ein Computersystem 170, das konfiguriert ist, um die Bildverarbeitungsmaschine 62 von 3 zu aktivieren. Der Hardware-Teil umfasst einen Prozessor 172, einen nicht flüchtigen, von einem Computer einsetzbaren Speicher (ROM) 174, einen flüchtigen von einem Computer einsetzbaren Speicher 176, eine Datenspeichereinheit 178, einen Datenbus 180, ein Bild-Datenbankverwaltungssystem (IDMS) 182, eine Anzeigevorrichtung 183, eine alphanumerische Eingabe 184, eine Cursorsteuerung 186, eine E/A-Vorrichtung 188 und periphäres computerlesbares Speichermedium 190. Der Softwareblock 192 umfasst Betriebssystem 194, Anwendungen 196, Module 198 und Datenblock 200. Dies dient lediglich als Beispiel eines solchen Computersystems. Tatsächliche Computersysteme, die nicht alle der aufgeführten Komponenten oder nicht aufgelistete Teile umfassen, könnten dennoch zum Aktivieren der Bildverarbeitungsmaschine geeignet sein.
  • III. Imagebasierte Positionierungsvorrichtung einschließlich eines Doppelgegenstandsverfolgungsprozesses
  • In einer Ausführungsform der vorliegenden Technologie zeigt 8 eine imagebasierte Positionierungsvorrichtung 210 einschließlich des Doppelmerkmals-Verfolgungsprozesses 212. Dieser Prozess 212 kann mittels eines Allgemeinzweck-Prozessors oder durch Verwendung eines anwendungsspezifischen Prozessors (ASIC, FPGA, PLD usw.) angewendet werden.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 210 ferner mindestens zwei Bilderfassungsvorrichtungen 214 und 216 (die dritte Vorrichtung 218 ist optional), welche an der Plattform 211 befestigt sind.
  • In einer Ausführungsform der vorliegenden Technologie haben die Bilderfassungsvorrichtungen 214 und 216 überlappende Blickfelder.
  • In einer Ausführungsform der vorliegenden Technologie haben die Bilderfassungsvorrichtungen 214 und 216 keine überlappenden Blickfelder.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die Plattform 211 einen Rover.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die Plattform 211 ein Rover-RTK-System.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die Plattform 211 ein GIS-/Mapping-Handgerät.
  • In einer Ausführungsform der vorliegenden Technologie ist jede Bilderfassungsvorrichtung 214 und 216 (und optional 218) zum Erfassen eines Bildes konfiguriert, und zwar einschließlich mindestens eines Merkmals an einer ersten Position der Plattform 211 und an einer zweiten Position der Plattform 211.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 210 ferner einen Synchronisierungsblock 226, der zum Synchronisieren der ersten Bilderfassungsvorrichtung 214 und der zweiten Bilderfassungsvorrichtung 216 (und wahlweise der dritten Bilderfassungsvorrichtung 218) konfiguriert ist. Siehe Erörterung weiter unten.
  • In einer Ausführungsform der vorliegenden Technologie wird der Synchronisierungsblock 226 unter Verwendung eines Steuersignals angewendet, das von einem Controller (nicht abgebildet) erzeugt wird.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 210 ferner einen Positionsprozess 220, der ausgewählt ist aus der Gruppe bestehend aus: einem GNSS-Prozess; einem bildangepassten photogrammetrischen Prozess; einem georeferenzierten bildangepassten Prozess; einem Matchmoving-Prozess; einem Oberflächenverfolgungsprozess und einem SLAM-Prozess.
  • Der Betrieb eines GNSS-Prozesses; ein bildangepasster photogrammetrischer Prozess, ein Matchmoving-Prozess, ein Oberflächenverfolgungsprozess und ein SLAM-Prozess wurden ausführlich in den weiter oben aufgeführten Erörterungen offenbart. Der Positionsprozess 220 ist zum Erhalten der Position der Plattform 211 konfiguriert.
  • In einer Ausführungsform der vorliegenden Technologie ist der doppelmerkmalbasierte Prozess 212 konfiguriert, um jedes an der ersten und an der zweiten Position von Plattform 211 erhaltene Bild zu verarbeiten und einen Satz an Verfolgungsdaten für mindestens zwei Merkmale zu extrahieren. Der doppelmerkmalbasierte Prozess 212 ist ebenfalls konfiguriert, um den Standort der zweiten Position der Plattform 212 zu bestimmen, indem der Satz an Verfolgungsdaten verwendet wird, der für jedes der mindestens zwei erfassten Merkmale erhalten wurde.
  • In einer Ausführungsform der vorliegenden Technologie ist der Prozess 212 ferner konfiguriert, um ein Bild zu verarbeiten, das mindestens ein Merkmal umfasst, das an der ersten und an der zweiten Position der Plattform 211 von der dritten Bilderfassungsvorrichtung 218 erhalten wurde, um einen Satz an Verfolgungsdaten für mindestens ein erfasstes Merkmal zu extrahieren. In dieser Ausführungsform der vorliegenden Technologie ist Prozess 212 ebenfalls konfiguriert, um den Standort der zweiten Position der Plattform 212 zu bestimmen, indem der Satz an Verfolgungsdaten verwendet wird, der für jedes mindestens eine erfasste Merkmal erhalten wurde.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 210 ferner einen Kalman-Filter 222. Kalman-Filter 222 ist konfiguriert, um eine Kalman-Schätzung der zweiten Position der Plattform 211 zu erhalten, indem der Satz von Verfolgungsdaten von mindestens einem ersten erfassten Merkmal als eine erste rauschreiche Messung und der Satz von Verfolgungsdaten von mindestens einem zweiten erfassten Merkmal als eine zweite rauschreiche Messung kombiniert werden. Wahlweise ist der Kalman-Filter 222 konfiguriert, um eine Kalman-Schätzung einer zweiten Position der Plattform 211 zu erhalten, indem ein Satz von Verfolgungsdaten von mindestens einem ersten erfassten Merkmal als eine erste rauschreiche Messung, der Satz an Verfolgungsdaten von mindestens einem zweiten erfassten Merkmal als eine zweite rauschreiche Messung und der Satz an Verfolgungsdaten von mindestens einem dritten erfassten Merkmal als eine dritte rauschreiche Messung kombiniert werden.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 210 ferner einen externen Speicherblock 224, der zum Speichern von mindestens einer merkmalbasierten dreidimensionalen (3D) Positionskoordinaten der Plattform zur weiteren Verarbeitung konfiguriert ist.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 210 ferner ein drahtloses Modem 228, das konfiguriert ist, um einem externen Speicherblock 224 Fernzugriff auf das Internet zu gewähren.
  • IV. Betriebsmodi der imagebasierten Positionierungsvorrichtung einschließlich des Doppelgegenstandsverfolgungsprozesses
  • A. Synchronbetrieb
  • In einer Ausführungsform der vorliegenden Technologie umfasst der Synchronbetrieb der imagegestützten Positionierungsvorrichtung 210 von 8 Erfassen eines ersten Bildes durch Verwendung einer ersten Bilderfassungsvorrichtung 214 (ein erstes-erstes Bild) an einer ersten Position der Plattform 211, wobei das erste-erste Bild mindestens einen ersten Gegenstand umfasst.
  • In einer Ausführungsform der vorliegenden Technologie wird die Position der Plattform 211 durch Verwendung des Positionsprozesses 220 (von 8) bestimmt, der ausgewählt ist aus der Gruppe bestehend aus: GNSS-Prozess, einem Oberflächenverfolgungsprozess, dem merkmalbasierten Prozess und dem georeferenzierten imagebasierten Prozess.
  • In einer Ausführungsform der vorliegenden Technologie wird eine Position der Plattform 211 vorbestimmt.
  • Als nächstes wird ein Bild durch Verwendung der ersten Bilderfassungsvorrichtung 214 an einer zweiten Position der Plattform 211 erfasst (ein zweites-erstes Bild), wobei das zweite-erste Bild mindestens eines derselben ersten erfassten Gegenstände umfasst.
  • Das erste-erste Bild und das zweite-erste Bild werden durch Verwendung des Prozesses 212 verarbeitet, um an den Standort von mindestens einem ersten erfassten Gegenstand anzudocken und diesen zu verfolgen. Prozess 212 ist konfiguriert, um einen Satz an zweidimensionalen Positionsbestimmungen für mindestens einen ersten erfassten Gegenstand von der Verarbeitung des ersten-ersten Satzes und des zweiten-ersten Bildes zu erhalten, welche einen Satz von Verfolgungsdaten für den ersten erfassten Gegenstand liefern.
  • In einer Ausführungsform der vorliegenden Technologie kann ein Verfolgungsalgorithmus verwendet werden, um an zumindest einen erfassten ersten Gegenstand anzudocken, und um dem angedockten ersten Gegenstand durch eine Reihe mehrerer Einzelbilder zu folgen. Siehe die Erörterung weiter oben und Gleichungen (1–7).
  • Auf ähnliche Weise wird ein erstes Bild durch Verwendung einer zweiten Bilderfassungsvorrichtung 216 (von 8) (ein erstes-zweites Bild) an der ersten Position von Plattform 211 erfasst, wobei das erste-zweite Bild mindestens einen zweiten Gegenstand umfasst.
  • In einer Ausführungsform der vorliegenden Technologie kann ein Synchronisierungsblock 226 zum Synchronisieren des Betriebs der ersten Bilderfassungsvorrichtung 214 (von 8) und der zweiten Bilderfassungsvorrichtung 216 (von 8) so eingesetzt werden, dass beide Vorrichtungen (jeweils) ersten und zweiten Gegenstand erfassen, die sich in dem entsprechenden FOV für jede Vorrichtung befinden und zwar zur gleichen Zeit, zu der sich Plattform 211 an derselben Position befindet.
  • Ein zweites Bild wird unter Verwendung einer zweiten Bilderfassungsvorrichtung 216 (von 8) (ein zweites-zweites Bild) von an der zweiten Position der Plattform 211 erfasst; wobei das zweite-zweite Bild mindestens eines desselben zweiten erfassten Gegenstands umfasst.
  • In einer Ausführungsform der vorliegenden Technologie kann der Synchronisierungsblock 226 zum Synchronisieren des Betriebs der ersten Bilderfassungsvorrichtung 214 (von 8) und der zweiten Bilderfassungsvorrichtung 216 (von 8) verwendet werden, damit beide Vorrichtungen (jeweils) ersten und zweiten Gegenstand erfassen, die sich in dem entsprechenden FOV für jede Vorrichtung befinden und zwar zur gleichen Zeit, zu der sich Plattform 211 an derselben Position befindet.
  • Das erste-zweite Bild und das zweite-zweite Bild werden unter Verwendung von Prozess 212 verarbeitet, um den Standort von mindestens einem zweiten erfassten Gegenstand zu verfolgen. Prozess 212 ist konfiguriert, um einen Satz von zweidimensionalen Positionsbestimmungen für mindestens einen zweiten erfassten Gegenstand zu erhalten und zwar von der Verarbeitung des ersten-zweiten Satzes und des zweiten-zweiten Satzes, die einen Satz an Verfolgungsdaten für den zweiten erfassten Gegenstand liefern.
  • In einer Ausführungsform der vorliegenden Technologie kann der Verfolgungsalgorithmus zum Verfolgen von mindestens einem erfassten zweiten Gegenstand verwendet werden und zum Folgen des ersten Merkmals durch eine Reihe an mehreren Einzelbildern. Siehe die Erörterung weiter oben und Gleichungen (1–7).
  • Der Standort der Plattform 211 wird von dem Doppelmerkmalprozess 212 bestimmt, indem der Satz von Verfolgungsdaten von mindestens einem ersten Gegenstand und der Satz von Verfolgungsdaten von mindestens einem zweiten Gegenstand verwendet werden.
  • Genauer gesagt, wendet Prozess 212 in einer Ausführungsform der vorliegenden Technologie eine inverse Projektionsfunktion auf den Satz von zweidimensionalen (2D) Verfolgungsdaten von mindestens einem ersten erfassten Gegenstand zum Lösen für einen Satz von dreidimensionalen (3D) Koordinaten für der Position der Plattform 211 an.
  • Genauer gesagt wendet der Prozess 212 in einer Ausführungsform der vorliegenden Technologie eine inverse Projektionsfunktion auf den Satz von zweidimensionalen (2D) Verfolgungsdaten von mindestens einem zweiten Gegenstand zum Lösen für einen Satz von dreidimensionalen (3D) Koordinaten für die Position der Plattform 211 an. Siehe die Erörterung weiter oben und Gleichungen (1–7).
  • In einer Ausführungsform der vorliegenden Technologie wird eine erste Gewichtung einem Satz von Verfolgungsdaten von mindestens einem ersten erfassten Gegenstand zugeordnet, und eine zweite Gewichtung wird einem Satz von Verfolgungsdaten von mindestens einem zweiten erfassten Gegenstand zugeordnet. In dieser Ausführungsform der vorliegenden Technologie wird die Bestimmung des Standorts der Position der Plattform 211 durch Prozess 212 ausgeführt, indem ein Satz von gewichteten Verfolgungsdaten von mindestens einem ersten erfassten Gegenstand und ein Satz von gewichteten Verfolgungsdaten von mindestens einem zweiten erfassten Gegenstand verwendet werden.
  • In einer Ausführungsform der vorliegenden Technologie wird ein Kalman-Filter 222 zum Erhalten einer Kalman-Schätzung der Position der Plattform 211 verwendet, indem ein Satz von Verfolgungsdaten von mindestens einem ersten erfassten Gegenstand als eine erste rauschreiche Messung und ein Satz von Verfolgungsdaten von mindestens einem zweiten erfassten Gegenstand als eine zweite rauschreiche Messung kombiniert werden.
  • B. Asynchronbetrieb.
  • In einer Ausführungsform der vorliegenden Technologie basiert der Asynchronbetrieb der imagebasierten Positionierungsvorrichtung 210 von 8 auf der ersten Bilderfassungsvorrichtung 214 und zweiten Bilderfassungsvorrichtung 216 die entsprechende Bilder zu verschiedenen Zeitpunkten (nicht synchronisiert) erfassen.
  • In einer Ausführungsform der vorliegenden Technologie umfasst der asynchrone Betrieb der imagebasierten Positionierungsvorrichtung 210 von 8 die folgenden Schritte: Erfassen eines ersten Bildes durch Verwendung einer ersten Bilderfassungsvorrichtung 214 (ein erstes-erstes Bild) an einer ersten Position der Plattform 211; wobei das erste-erste Bild mindestens einen ersten Gegenstand umfasst; Erfassen eines zweiten Bildes durch Verwendung der ersten Bilderfassungsvorrichtung 214 (ein zweiteserstes Bild) an einer zweiten Position der Plattform 211; wobei das zweite-erste Bild mindestens einen erfassten ersten Gegenstand umfasst; Verarbeiten des ersten-ersten Bildes und des zweiten-ersten Bildes zum Verfolgen eines Standorts von mindestens einem ersten erfassten Gegenstand; wobei ein Satz von zweidimensionalen Positionsbestimmungen für mindestens einen erfassten ersten Gegenstand von der Verarbeitung des ersten-ersten Bildes und des zweiten-ersten Bildes erhalten wird, wobei ein Satz von Verfolgungsdaten für den erfassten ersten Gegenstand geliefert wird.
  • In einer Ausführungsform der – vorliegenden Technologie umfasst der Asynchronbetrieb der imagebasierten Positionierungsvorrichtung 210 von 8 ferner die folgenden Schritte: Erfassen eines ersten Bildes durch Verwendung einer zweiten Bilderfassungsvorrichtung 216 (ein erstes-zweites Bild) an einer dritten Position der Plattform 211; wobei das erste-zweite Bild mindestens einen zweiten Gegenstand umfasst; Erfassen eines zweiten Bildes durch Verwendung einer zweiten Bilderfassungsvorrichtung 216 (ein zweites-zweites Bild) an einer vierten Position der Plattform 211; wobei das zweite-zweite Bild mindestens einen zweiten erfassten Gegenstand umfasst; Verarbeiten des erstenzweiten Bildes und des zweiten-zweiten Bildes, um einen Standort von mindestens einem zweiten Gegenstand zu verfolgen; wobei ein Satz von zweidimensionalen Positionsbestimmungen für mindestens einen zweiten erfassten Gegenstand vom Verarbeiten des ersten-zweiten Bildes und des zweiten-zweiten Bildes erhalten wird, wobei ein Satz von Verfolgungsdaten für den zweiten Gegenstand geliefert wird.
  • In einer Ausführungsform der vorliegenden Technologie umfasst der Asynchronbetrieb der imagebasierten Positionierungsvorrichtung 210 von 8 ferner Bestimmen der Position der Plattform 211 unter Verwendung des Satzes von Verfolgungsdaten von mindestens einem ersten erfassten Gegenstand. In dieser Ausführungsform der vorliegenden Technologie kann eine Position der Plattform 211 durch den Positionsprozess 220 bestimmt werden.
  • In einer Ausführungsform der vorliegenden Technologie umfasst der Asynchronbetrieb der imagebasierten Positionierungsvorrichtung 210 von 8 ferner Bestimmen des Standorts der vierten Position der Plattform 211 durch Verwendung eines Satzes von Verfolgungsdaten von mindestens einem zweiten erfassten Gegenstand. In dieser Ausführungsform der vorliegenden Technologie kann eine weitere Position der Plattform 211 durch den Positionsprozess 220 bestimmt werden.
  • In dieser „asynchronen” Ausführungsform der vorliegenden Technologie kann eine andere Position der Plattform 211 erhalten werden, indem eine lineare Interpolation der vorherigen Positionen der Plattform 211 ausgeführt wird, ohne neue Bilder mit den Vorrichtungen 214 und 216 zu erfassen.
  • Als ein weiteres Beispiel kann die sich bewegende Plattform 211 kurzzeitig in einen „dunklen” Bereich eintreten, in dem die erste Bilderfassungsvorrichtung 214 und die zweite Bilderfassungsvorrichtung 216 nicht genügend Licht zum Erzeugen eines brauchbaren Bildes erhalten. Daher kann mindestens eine Position der sich bewegenden Plattform 211 in diesem dunklen Bereich durch Durchführen einer linearen Interpolation der zwei vorherigen (d. h. vor dem Eintritt in den „dunklen” Bereich) Positionen der Plattform 211 (durch Verwendung beider Vorrichtungen 214 und 216) erhalten werden, ohne dass dabei Vorrichtungen 214 und 216 irgendwelche neuen Bilder in dem „dunklen” Bereich erfassen. Interpolation kann sich einfach auf die Zeitaufteilung der Linie zwischen den erhältlichen Positionen stützen oder sie kann Informationen mit einbeziehen, die bezüglich der Geschwindigkeit, Beschleunigung und Ableitungen höherer Ordnung von Bewegung sowie auch Orientierungs- und Drehungsinformationen bekannt sind. Diese zur Interpolation verwendeten Informationen können von einem Doppelmerkmalprozess 212 oder dem Positionsprozess 220 abgeleitet werden.
  • V. Imagebasierte Positionierungsvorrichtung einschließlich Gegenstand und Oberflächenverfolgungsprozess
  • In einer Ausführungsform der vorliegenden Technologie veranschaulicht 9 eine imagebasierte Positionierungsvorrichtung 260 einschließlich dem Merkmals- und Oberflächen-Verfolgungsprozess 270. Der Prozess 270 kann durch Verwendung eines Aligemeinzweckprozessors oder durch Verwendung eines anwendungsspezifischen Prozessors (ASIC, FPGA, PLD usw.) angewendet werden.
  • In einer Ausführungsform der vorliegenden Technologie umfasst der Prozess 270 zwei Unterprozesse: der Unterprozess 270-1 konfiguriert zum Durchführen Oberflächenverfolgungsverarbeitung (siehe Erörterung weiter unten), und ein Unterprozess 270-2 konfiguriert zum Durchführen einer Merkmalsverfolgungsverarbeitung (siehe Erörterung weiter oben).
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 210 ferner zwei Bilderfassungsvorrichtungen 264 und 266, die auf einer Plattform 262 befestigt sind. In einer Ausführungsform der vorliegenden Technologie überlappen sich die Blickfelder der beiden Bilderfassungsvorrichtungen. In einer Ausführungsform der vorliegenden Technologie überlappen sich die beiden Bilderfassungsvorrichtungen nicht.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die Plattform 262 einen Rover.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die Plattform 262 ein Rover-RTK-System.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die Plattform 262 ein GIS-/Mapping-Handgerät.
  • In einer Ausführungsform der vorliegenden Technologie ist die erste Bilderfassungsvorrichtung 264 zum Erfassen eines Bildes einer Oberfläche an einer ersten Position der Plattform 262 konfiguriert.
  • In einer Ausführungsform der vorliegenden Technologie kann die Oberfläche ausgewählt sein aus der guppe bestehend aus: einer Grundfläche; einer Oberseite; einer Seitenfläche; und einer in einem beliebigem Winkel geneigte Oberfläche oder Ähnliches.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 260 ferner die Bereichsmessvorrichtung 280, die konfiguriert ist, um einen Satz von Tiefendaten der ausgewählten Oberfläche zu erhalten.
  • In einer Ausführungsform der vorliegenden Technologie kann die Bereichsmessvorrichtung 280 ausgewählt sein aus der Gruppe bestehend aus: einem Punktlaserstrahl; einem Sonar; einem Radar; einem Laserscanner und einer Tiefenkamera oder Ähnlichem.
  • Eine Bereichsmessvorrichtung für den Punktlaserstrahl 280 kann durch Verwendung blaue Festkörperlaser, rote Diodenlaser, IR-Laser angewendet werden, die fortlaufend leuchtende Laser oder pulsierte Laser oder sequenzierte Laser oder eine ähnliche Vorrichtung sein können.
  • Eine Sonarbereichsmessvorrichtung 280 kann durch Verwendung eines aktiven Sonars, einschließlich Tonsenders und einem Empfänger angewendet werden.
  • Eine Radarbereichsmessvorrichtung 280 kann durch Verwendung eines Transmitters angewendet werden, der entweder Mikrowellen oder Radiowellen aussendet, die von der Oberfläche reflektiert und von einem Empfänger detektiert werden, in der Regel an derselben Stelle wie der Transmitter.
  • Eine Tiefenkamera kann durch Verwendung einer Videokamera angewendet werden, die Video mit Tiefeninformationen erfassen kann.
  • Diese Kamera verfügt über Sensoren, die die Tiefe eines jeden erfassten Pixels unter Verwendung eines Prinzips namens Time-Of-Flight messen können. Sie erhält 3D-Informationen durch das Aussenden von üblicherweise Infrarot-Lichtpulsen an alle Gegenstände in der Szene und Abtasten des reflektierten Lichts von der Oberfläche eines jedes Gegenstands. Tiefe wird durch Berechnen von Time-Of-Flight eines Lichtstrahls, wenn er die Quelle verlässt und von den Gegenständen auf der Oberfläche reflektiert wird, gemessen. Diese Umlaufzeit wird dann in Entfernungsinformationen unter Verwendung der allgemein bekannten Lichtgeschwindigkeit umgewandelt.
  • Noch bezugnehmend auf 9 ist in einer Ausführungsform der vorliegenden Technologie die zweite Bilderfassungsvorrichtung 266 zum Erfassen eines Bildes konfiguriert, das mindestens einen Gegenstand an der ersten Position und an einer zweiten Position der Plattform 262 umfasst.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 260 ferner einen Synchronisierungsblock 268, der zum Synchronisieren der ersten Bilderfassungsvorrichtung 264 und der zweiten Bilderfassungsvorrichtung 266 konfiguriert ist.
  • In einer Ausführungsform der vorliegenden Technologie wird der Synchronisierungsblock 266 durch Verwendung eines von einem Controller erzeugten Steuersignal angewendet.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 260 ferner einen Positionsprozess 274, der ausgewählt sein kann aus der Gruppe bestehend aus: einem GNSS-Prozess; einem bildangepassten photogrammetrischen Prozess; einem georeferenzierten imagebasierten Prozess; einem SLAM-Prozess; einem Matchmoving- Prozess; einem Oberflächenverfolgungsprozess; oder einer ähnlichen Vorrichtung. Der Betrieb eines GNSS-Prozesses, eines bildangepassten photogrammetrischen Prozesses, eines georeferenzierten imagebasierten Prozesses, eines SLAM-Prozesses; eines Matchmoving-Prozesses, eines Oberflächenverfolgungsprozesses; wurden ausführlich in den Erörterungen weiter oben offenbart. Der Positionsprozess 274 ist zum Erhalten einer Position der Plattform 262 konfiguriert.
  • In einer Ausführungsform der vorliegenden Technologie ist der Oberflächenverfolgungsunterprozess 270-1 konfiguriert, um ein Bild der ausgewählten Oberfläche zu verarbeiten, das von der ersten Bilderfassungsvorrichtung 264 an der ersten Position der Plattform 262 erhalten wurde.
  • Das Verfahren und die Vorrichtung zum Oberflächenerfolgen wurden in der Patentanmeldung „IMAGE-BASED TRACKING” von Hongbo Teng, Gregory C. Best und Sy Bor Wang, Seriennummer 12/459,843 offenbart, die hier in ihrer Gesamtheit aufgenommen wird.
  • Genauer gesagt, noch bezugnehmend auf 9 ist die Bilderfassungsvorrichtung 264 gemäß der US-Patentanmeldung „IMAGE-BASED TRACKTNG” zum Durchführen von Bilderfassung der ausgewählten Oberfläche konfiguriert, und die Bereichsmessvorrichtung 280 ist zum Erhalten eines Satzes von Tiefendaten auf einer ausgewählten Oberfläche konfiguriert. Das Verfolgen der Plattform 262 wird unter Verwendung von Oberflächenverfolgungsprozess 270-1 durchgeführt, der zum Analysieren eines Bildes unter Verwendung des Bildverarbeitungsalgorithmus 282 konfiguriert ist.
  • In einer Ausführungsform der vorliegenden Technologie nimmt der Bildverarbeitungsalgorithmus 282 eine globale Starrbewegung an. Durch Parametrisierung des globalen optischen Flusses mit den sechs Freiheitsgraden der Bilderfassungsvorrichtung 264 kann eine optimale globale Umbildung zwischen zwei aufeinanderfolgenden Einzelbildern durch Lösen des nicht-linearen Kleinst-Quadrat-Problems gefunden werden.
  • In einer Ausführungsform der vorliegenden Technologie stimmt ein Bildverarbeitungsalgorithmus 282 mit den optischen Merkmalen der Pixel überein, indem eine Einzelbildfunktion verwendet wird.
  • In einer Ausführungsform der vorliegenden Technologie stimmt unter Einbezug der erhältlichen Informationen der Bildverarbeitungsalgorithmus 282 mit der Tiefe der beiden Einzelbilder (anstelle der optischen Merkmale der Pixel) durch eine Neudefinition der Einzelbildfunktion überein.
  • In einer Ausführungsform der vorliegenden Technologie kann der Bildverarbeitungsalgorithmus 282 durch Matching einer Kombination aus optischen Pixeleigenschaften und Tiefeninformationen verbessert werden. Dies kann entweder durch Verwendung einer kombinierten Kostenfunktion oder durch die Unterstützung eines Prozesses mit dem anderen, wie weiter unten vollständig offenbart, ausgeführt werden.
  • In einer Ausführungsform der vorliegenden Technologie setzt der Bildverarbeitungsalgorithmus 282 mehrere Koordinatensysteme ein: ein stationäres Referenzsystem; ein Referenzsystem, dass sich an der Bilderfassungsvorrichtung 264 befindet; und ein 2D-Referenzsystem auf der Sensorebene der Bilderfassungsvorrichtung.
  • In dem stationären Referenzsystem besitzt ein Punkt auf der Oberfläche Koordinaten x = (x, y, z), die Bilderfassungsvorrichtung 264 wird durch 6 Vektoren umfassende Positionskoordinaten der Vorrichtung xa = (xa, ya, za) und den Orientierungskoordinaten (Ψi, Θi, φi) (Gier-, Steig- und Rollwinkel) für jedes i-tes Einzelbild beschrieben.
  • In dem mit der Bilderfassungsvorrichtung 264 verbundenen Referenzsystem hat derselbe Punkt auf der Oberfläche Koordinaten xi = (xi, yi, zi) in Bezug auf die Bilderfassungsvorrichtung 264.
  • In dem mit der Sensorebene 32 der Bilderfassungsvorrichtung verbundenen 2D-Referenzsystem sind die 2D-Pixel-Koordinaten eines Punkts in dem i-ten Einzelbild: ui = (ui, vi).
  • Die Beziehung zwischen dem stationären 3D-System und dem mit der Bilderfassungsvorrichtung verbundenen 3D-System ist wie folgt:
    Figure 00330001
  • Wobei
    Figure 00330002
    die Rotationsmatrix zwischen zwei Systemen ist.
  • Die Beziehung zwischen den mit der Bilderfassungsvorrichtung verbundenen 3D-Koordinaten und den 2D-Pixel-Koordinaten hängt von der Mappingfunktion m von der Bilderfassungsvorrichtung 264 ab. Die Mappingfunktion zieht 3D-Koordinaten xi in dem mit der Bilderfassungsvorrichtung verbundenen System des i-ten Einzelbildes heran und bildet in 2D-Pixel-Koordinaten im i-ten Einzelbild ab: Ui = m (xi) (Gl. 13)
  • Die Form der Mappingfunktion hängt von der Art der Linsen ab. In einer Ausfübrungsform der vorliegenden Technologie, bei der die Linsen normale gradlinige Linsen (in einem invertierten Lochblenden-Modell) umfassen, kann die Mappingfunktion m von den folgenden Gleichungen abgeleitet werden:
    Figure 00340001
    wobei f die Brennweite von Bilderfassungsvorrichtung 264 ist, Su, Sy, die Pixelbreite und – höhe sind. u0, v0 sind die Versätze zwischen der optischen Mitte und der Mitte des Sensors.
  • In einer weiteren Ausführungsform der vorliegenden Technologie, bei der die Linsen 16 orthographische Fischaugenlinsen umfassen, kann die Mappingfunktion m von den folgenden Gleichungen abgeleitet werden:
    Figure 00340002
    wobei r der Abstand zwischen dem Punkt und der optischen Mitte
    Figure 00340003
    ist.
  • In einer Ausführungsform der vorliegenden Technologie kann die Mappingfunktion m kalibriert und in numerischer Form abgespeichert werden.
  • Zum Herausfinden des Gegenteils der Mappingfunktion: Xi = m–1 (ui), (Gl. 16) muss die Tiefe des Gegenstandspunkts bekannt sein.
  • In einer Ausführungsform der vorliegenden Technologie wird die Tiefe eines Gegenstandspunkts einer Szene als eine Funktion des Pixelstandorts in jedem Einzelbild zi = zi (ui) erhalten. Diese Messungen werden in dem mit der Bilderfassungsvorrichtung verbundenen 3D-Referenzsystem ausgeführt.
  • Die Beziehung zwischen zwei sequentiellen Einzelbildern fi und fj ist auf der Annahme aufgebaut, dass derselbe Punkt auf der Oberfläche zwei Pixel derselben Intensität in zwei Einzelbildern erzeugt.
  • Das heißt, wenn ui und uj Pixelstandorte in fi und fj desselben Gegenstandpunkts sind, gilt fi (ui) = fj (uj). Hier bezieht sich fi (ui) auf die Pixelintensität bei ui in Einzelbild fi. Unter dieser Annahme ist die Beziehung zwischen zwei Einzelbildern eine rein geometrische sich aufgrund der Bewegung der Bilderfassungsvorrichtung ergebende Umbildung.
  • Die Bewegung der Bilderfassungsvorrichtung von fi auf fj kann durch
    Figure 00350001
    und
    Figure 00350002
    ausgedrückt werden, was die relative Verschiebung und Drehung zwischen Einzelbildern ist, oder auch als
    Figure 00350003
    was ein 6-Vektor mit sechs Freiheitsgraden ist. Sollte die Position der Bilderfassungsvorrichtung und Lage bei Einzelbild fi bekannt sein, liefert uns die Lösung dieser relativen Bewegung von fi auf fj die Position und Lage bei Einzelbild fj. Im Folgenden wird der tiefgestellte Index i -> j wann immer möglich weggelassen.
  • Derselbe Gegenstandspunkt mit den Koordinaten xi im Referenzsystem von Einzelbild fi hat Koordinaten xj im Referenzsystem von Einzelbild fj und:
    Figure 00350004
  • Aus diesem Grund ist die Beziehung zwischen ui und uj in den 2D-Pixel-Koordinatensystemen wie folgt:
    Figure 00350005
    wobei m die Mappingfunktion ist. Oder einfach ausgedrückt uj = δP (ui) (Gl. 19) wobei δP = m·ξ·m–1 die Zusammenlegung der drei Operationen darstellt.
  • Die Aufgabe besteht nun darin, das optimale ξ herauszufinden, sodass die Kostenfunktion
    Figure 00360001
    minimiert wird. Hier handelt es sich um ein gut erforschtes nicht lineares Kleinst-Quadrat-Problem. Lösen beinhaltet im Allgemeinen eine lineare Approximation und Iteration. Verschiedene lineare Approximationen führen zu verschiedenen Konvergenzverfahren, wie beispielsweise Gauss-Newton, steilster Abstieg, Levenberg-Marquar-Verfahren usw.
  • Noch bezugnehmend auf 9 ist einer Ausführungsform der vorliegenden Technologie die zweite Bilderfassungsvorrichtung 266 zum Erfassen eines Bildes konfiguriert, das mindestens einen Gegenstand an der ersten Position und an der zweiten Position der Plattform 262 umfasst.
  • In einer Ausführungsform der vorliegenden Technologie ist der merkmalverfolgende Unterprozess 270-2 konfiguriert, um jedes Bild zu verarbeiten, das von der zweiten Bilderfassungsvorrichtung 266 an der ersten und an der zweiten Position von der Plattform 262 erhalten wurde und konfiguriert ist, um einen Satz von Verfolgungsdaten für mindestens einen erfassten Gegenstand zu extrahieren.
  • Noch bezugnehmend auf 9 ist in einer Ausführungsform der vorliegenden Technologie ein merkmalverfolgender Unterprozess 270-2 ebenfalls konfiguriert, den Standort der Position der Plattform 262 durch Verwendung eines Satzes von Verfolgungsdaten, die für mindestens einen erfassten Gegenstand zu bestimmen.
  • Noch bezugnehmend auf 9 umfasst in einer Ausführungsform der vorliegenden Technologie die imagebasierte Positionierungsvorrichtung 260 ferner einen Kalman-Filter 272. Der Kalman-Filter ist konfiguriert, um eine Kalman-Schätzung der Position der Plattform 262 durch Kombinieren der auf oberflächenverfolgungsbasierten Koordinaten der zweiten Position der Plattform 262 als eine erste rauschreiche Messung und der merkmalbasierten Koordinaten der zweiten Position der Plattform 262 als eine zweite rauschreiche Messung zu erhalten.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 260 ferner einen externen Speicherblock 276, der zum Speichern von mindestens einer oberflächenverfolgungs- und merkmalbasierten dreidimensionalen (3D) Positionskoordinaten der Plattform 262 zur weiteren Verarbeitung konfiguriert ist.
  • In einer Ausführungsform der vorliegenden Technologie umfasst die imagebasierte Positionierungsvorrichtung 260 ferner das drahtlose Modem 278, das konfiguriert ist, um einem externen Speicherblock 276 Fernzugriff auf das Internet bereitzustellen.
  • VI. Betrieb einer imagebasierten Positionierungsvorrichtung einschließlich Gegenstand- und Oberflächenverfolgungsprozess
  • Noch bezugnehmend auf 9 umfasst in einer Ausführungsform der vorliegenden Technologie der Betrieb der imagebasierten Positionierungsvorrichtung 260, einschließlich Merkmals- und Oberflächenverfolgungsprozess 270, folgende Schritte.
  • Ein Bild einer ausgewählten Oberfläche wird unter Verwendung der ersten Bilderfassungsvorrichtung 264 an der ersten Position der Plattform 262 erfasst. Ein Satz von Tiefendaten der ausgewählten Oberfläche wird unter Verwendung der Bereichsmessvorrichtung 280 berechnet. Eine starre globale Umbildung des Satzes von erfassten Bilddaten und eines Satzes ausgewählter Oberflächentiefendaten in einen Satz von 6-Koordinatendaten wird unter Verwendung des Bildverarbeitungsalgorithmus 282 durchgeführt; wobei der Satz der 6-Koordinatendaten die Bewegung der Plattform 262 darstellt. Der Satz von 6-Koordinatendaten wird unter Verwendung des bildverarbeitenden Bildverarbeitungsalgorithmus 282 verarbeitet, um den Standort der Position der Plattform 262 zu erhalten.
  • Noch bezugnehmend auf 9 umfasst in einer Ausführungsform der vorliegenden Technologie der Betrieb der imagebasierten Positionierungsvorrichtung 260, einschließlich Merkmals- und Oberflächenverfolgungsprozess 270 ferner die folgenden Schritte.
  • Ein erstes Bild wird unter Verwendung der zweiten Bilderfassungsvorrichtung 266 an der ersten Position der Plattform 262 erfasst, wobei das erste Bild mindestens einen Gegenstand umfasst. Ein zweites Bild wird unter Verwendung der zweiten Bilderfassungsvorrichtung 266 an der zweiten Position der Plattform 262 erfasst; wobei das zweite Bild mindestens einen erfassten Gegenstand umfasst.
  • Das erste Bild und das zweite Bild werden verarbeitet, um den Standort von mindestens einem erfassten Gegenstand zu verfolgen; wobei ein Satz von zweidimensionalen Positionsbestimmungen für mindestens einen erfassten Gegenstand von dem Verarbeiten des ersten Bildes und des zweiten Bildes erhalten wird, wodurch ein Satz von Verfolgungsdaten für den erfassten Gegenstand geliefert wird. Siehe Gleichungen (1–7).
  • Der Standort der zweiten Position der Plattform 262 wird unter Verwendung eines Satzes von Verfolgungsdaten von mindestens einem erfassten Gegenstand bestimmt. Siehe Gleichungen (1–7).
  • Letztlich wird die Position der Plattform 262 durch Kombinieren der oberflächenverfolgungsbasierten Koordinaten der Position der Plattform 262 und der merkmalbasierten Koordinaten der Position der Plattform 262 bestimmt.
  • Noch bezugnehmend auf 9 wird in einer Ausführungsform der vorliegenden Technologie ein Kalman-Filter 272 zum Erhalten einer Kalman-Schätzung der Position der Plattform 262 verwendet, indem die oberflächenverfolgungsbasierten Koordinaten der Position der Plattform 262 als eine erste rauschreiche Messung und die merkmalbasierten Koordinaten der Position der Plattform 262 als eine zweite rauschreiche Messung kombiniert werden.
  • In einer Ausführungsform der vorliegenden Technologie und als eine Alternative zum Kombinieren zweier Standortschätzungen zum Entwickeln einer verbesserten Standortschätzung für die Plattform können die rohen Gegenstandsverfolgungsdaten und die rohen Oberflächenverfolgungsdaten in einem gemeinsamen Schätzer kombiniert werden und es kann eine einzelne Schätzung des Plattformstandorts erhalten werden. Das Verfahren umfasst den Einsatz von Elementen von einem der Schätzungsverfahren, wie beispielsweise SLAM, MoveMatch, Oberflächenverfolgung oder Photogrammetrie. Ein Kalman-Filter kann zur Ausführung der Schätzung eingesetzt werden, und zwar in derselben Art und Weise wie eine Kleinst-Quadrat-Lösung verwendet werden kann.
  • Die obige Erörterung führte den Betriebsablauf verschiedener beispielhafter Systeme und Vorrichtungen sowie verschiedener Ausführungsformen, die zu den beispielhaften Betriebsverfahren dieser Systeme und Vorrichtungen gehören, auf. In verschiedenen Ausführungsformen werden ein oder mehrere Schritte eines Anwendungsverfahrens durch einen Prozess ausgeführt, der von computerlesbaren und computerausführbaren Anweisungen gesteuert wird. Aus diesem Grund werden diese Verfahren in gewissen Ausführungsformen per Computer ausgeführt.
  • In einer Ausführungsform können die computerlesbaren und computerausführbaren Anweisungen auf von Rechnern einsetzbaren bzw. lesbaren Medien gespeichert sein.
  • Aus diesem Grund können ein oder mehrere Betriebsabläufe von verschiedenen Ausführungsformen unter Verwendung computerausführbarer Anweisungen gesteuert oder ausgeführt werden, wie beispielsweise Programmmodulen, die von einem Computer ausgeführt werden. In der Regel umfassen Programmmodule Routinen, Programme, Gegenstände, Komponenten, Datenstrukturen usw., die bestimmte Aufgaben ausführen oder gewisse abstrakte Datentypen umsetzen. Des Weiteren kann die vorliegende Technologie auch in verteilten Rechnerumgebungen, in denen Aufgaben per Fernverarbeitungsvorrichtungen durchgeführt werden, die miteinander durch ein Kommunikationsnetz verbunden sind. In einer verteilten Rechnerumgebung können sich Programmmodule sowohl in lokalen als auch Ferncomputer-Speichermedien, einschließlich Speichervorrichtungen befinden.
  • Obwohl spezifische Schritte von beispielhaften Anwendungsverfahren hier offenbart werden, stellen diese Schritte Beispiele von Schritten dar, die in Einklang mit verschiedenen Ausführungsbeispielen ausgeführt werden können. Das heißt, die hier offenbarten Ausführungsformen eignen sich hervorragend zur Durchführung verschiedener sonstiger Schritte bzw. von Variationen der aufgezeigten Schritte. Überdies können die hier offenbarten Schritte in einer anderen Reihenfolge, als hier angegeben, ausgeführt werden, und nicht jeder der Schritte ist notwendigerweise in einer bestimmten Ausführungsform vorzunehmen.
  • Obwohl hier verschiedene elektronik- und softwarebasierte Systeme erörtert werden, stellen diese Systeme lediglich Beispiele einsetzbarer Umgebungen dar, und es wird nicht beabsichtigt, eine Einschränkung in Bezug auf den Umfang des Einsatzes oder der Funktionalität der vorliegenden Technologie zu suggerieren. Auch sollten diese Systeme nicht so ausgelegt werden, dass sie von einer beliebigen Komponente oder Funktion oder Kombination davon, die in den offenbarten Beispielen veranschaulicht wird oder werden abhängig sind oder damit in Beziehung stehen.
  • Obwohl der Gegenstand in einer Sprache beschrieben wurde, die sich spezifisch auf strukturelle Merkmale und/oder methodologische Vorgänge bezieht, beschränkt sich der in den beigefügten Ansprüchen definierte Gegenstand nicht unbedingt auf die spezifischen weiter oben beschriebenen Merkmale oder Vorgänge. Stattdessen werden die weiter oben beschriebenen spezifischen Merkmale und Vorgänge als beispielhafte Formen der Umsetzung der Ansprüche offenbart.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Thomas Lemaire, Cyrille Berger, Il-Kyun Jung und Simon Lacroix, „Vision-Based SLAM: Stereo and Monocular Approaches”, International Journal of Computer Vision 74(3), 343–364, 2007 [0036]
    • Moritz Köhler, Shwetak N. Patel, Jay W. Summet, Erich P. Stuntebeck und Gregory D. Abowd, Institute for Pervasisve Computing, Department of Computer Science ETH Zürich, 8092 Zürich, Schweiz, „TrackSense: Infrastructure Free Precise Indoor Positioning Using Projected Patterns” [0036]

Claims (26)

  1. Imagebasiertes Verfahren zur Verfolgung des Standorts einer Plattform, die mindestens eine Bilderfassungsvorrichtung enthält, die Folgendes umfasst: Erfassen eines ersten Bildes mit der Bilderfassungsvorrichtung, wobei das erste Bild mindestens einen Gegenstand umfasst; Bewegen der Plattform und Erfassen eines zweiten Bildes mit der Bilderfassungsvorrichtung, wobei das zweite Bild mindestens einen Gegenstand umfasst; Erfassen eines Bildes einer Oberfläche in dem ersten Bild; Erfassen eines zweiten Bildes der Oberfläche in dem zweiten Bild; Verarbeiten der Vielzahl an Bildern des Gegenstands und der Oberfläche unter Verwendung eines kombinierten merkmalbasierten Prozesses und Oberflächenverfolgungsprozesses; und Bestimmen des Standorts der Plattform aus dem kombinierten merkmalbasierten Prozess und dem Oberflächenverfolgungsprozess.
  2. Verfahren nach Anspruch 1, wobei der merkmalbasierte Prozess auf dem die Simultane Lokalisierung und Kartenerstellungsmethode (SLAM) einsetzenden Verfolgungsprozess basiert.
  3. Verfahren nach Anspruch 1, wobei der merkmalbasierte Prozess auf dem Matchmoving-Verfolgungsverfahren basiert.
  4. Verfahren nach Anspruch 1, wobei der merkmalbasierte Prozess auf einem photogrammetrischen Verfolgungsprozess basiert.
  5. Verfahren nach Anspruch 1, wobei das Bild des Gegenstands von einer ersten Bilderfassungsvorrichtung erfasst wird und die Bilder der Oberfläche von einer zweiten Bilderfassungsvorrichtung erfasst werden.
  6. Verfahren nach Anspruch 5, das ferner Folgendes umfasst: Synchronisieren der ersten Bilderfassungsvorrichtung und der zweiten Bilderfassungsvorrichtung.
  7. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: einen GNSS-Empfänger auf der Plattform, der einen Standort für die Plattform ausgibt; und Bestimmen des Standorts der Plattform durch eine Kombinierung der Standortausgabe durch den kombinierten merkmalbasierten Prozess und Oberflächenverfolgungsprozess mit der Standortausgabe des GNSS-Empfängers.
  8. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Zugreifen auf georeferenzierte Daten, die mit dem mindestens einen Gegenstand korreliert sind; und Bestimmen des Standorts der Plattform auf der Grundlage der georeferenzierten Daten für den mindestens einen Gegenstand.
  9. Imagebasiertes Verfahren zur Verfolgung des Standorts einer Plattform, die mindestens eine Bilderfassungsvorrichtung enthält, das Folgendes umfasst: Erfassen eines ersten Bildes mit der Bilderfassungsvorrichtung, wobei das erste Bild mindestens einen Gegenstand umfasst; Bewegen der Plattform und Erfassen eines zweiten Bildes mit der Bilderfassungsvorrichtung, wobei das zweite Bild den mindestens einen Gegenstand umfasst; Verarbeiten der Vielzahl an Bildern zur Verfolgung des Standorts des Gegenstands unter Verwendung des merkmalbasierten Prozesses; Ausgeben von Koordinaten für die Plattform auf der Grundlage des merkmalbasierten Prozesses; Erfassung eines Bildes der Oberfläche in dem ersten Bild; Erfassen eines zweiten Bildes der Oberfläche in dem zweiten Bild; Verarbeiten der Vielzahl an Bildern der Oberfläche unter Verwendung eines Oberflächenverfolgungsprozesses zur Verfolgung des Standorts der Oberfläche; Ausgeben von Koordinaten für die Plattform auf der Grundlage des Oberflächenverfolgungsprozesses; und Bestimmen des Standorts der Plattform durch Verarbeiten der Koordinatenausgabe durch den merkmalbasierten Prozess und den oberflächenbasierten Prozess.
  10. Verfahren nach Anspruch 9, wobei der merkmalbasierte Prozess auf dem die Simultane Lokalisierung und Kartenerstellungsmethode (SLAM) einsetzenden Verfolgungsprozess basiert.
  11. Verfahren nach Anspruch 9, wobei der merkmalbasierte Prozess auf dem Matchmoving-Verfolgungsprozess basiert.
  12. Verfahren nach Anspruch 9, wobei der merkmalbasierte Prozess auf einem photogrammetrischen Verfolgungsprozess basiert.
  13. Verfahren nach Anspruch 9, wobei die Bilder des Gegenstands von einer ersten Bilderfassungsvorrichtung erfasst werden und die Bilder der Oberfläche von einer zweiten Bilderfassungsvorrichtung erfasst werden.
  14. Verfahren nach Anspruch 13, das ferner Folgendes umfasst: Synchronisieren der ersten Bilderfassungsvorrichtung und der zweiten Bilderfassungsvorrichtung.
  15. Verfahren nach Anspruch 9, das ferner Folgendes umfasst: einen GNSS-Empfänger auf der Plattform, der einen Standort für die Plattform ausgibt; und Bestimmen des Standorts der Plattform durch Kombinieren der Standortsausgaben durch den merkmalbasierten Prozess, den oberflächenbasierten Prozess und den GNSS-Empfänger.
  16. Verfahren nach Anspruch 9, das ferner Folgendes umfasst: Zugreifen auf georeferenzierte Daten, die mit dem mindestens einen Gegenstand korreliert sind; und Bestimmen des Standorts der Plattform auf der Grundlage der georeferenzierten Daten für den mindestens einen Gegenstand.
  17. Imagebasiertes Verfahren zur Schätzung eines Standorts einer Plattform, die eine Bilderfassungsvorrichtung und einen GNSS-Empfänger enthält, das Folgendes umfasst: Bestimmen des Standorts der Plattform unter Verwendung eines GNSS-Empfängers; Erfassen von mindestens einem Bild an einer ersten Position der Bilderfassungsvorrichtung; wobei das erste Bild mindestens einen Gegenstand umfasst; mindestens ein Bild an einer zweiten Position der Bilderfassungsvorrichtung; wobei das zweite Bild den mindestens einen Gegenstand umfasst; Verarbeiten der Vielzahl an Bildern zur Verfolgung eines Standorts des mindestens einen erfassten Gegenstands; wobei ein Satz von zweidimensionalen Positionsbestimmungen für den mindestens einen erfassten Gegenstand vom Verarbeiten der Vielzahl an Bildern erhalten wird, wobei ein Satz an Verfolgungsdaten für den mindestens einen Gegenstand bereitgestellt wird; Bestimmen des Standorts der Bilderfassungsvorrichtung durch den Einsatz des Satzes an Verfolgungsdaten von dem mindestens einen Gegenstand; und Berechnen eines neuen Standorts der Plattform durch Kombinieren des Standorts der Bilderfassungsvorrichtung mit dem von dem GNSS-Empfänger bestimmten Standort.
  18. Verfahren nach Anspruch 17, das ferner Folgendes umfasst: Einsetzen einer inversen Projektionsfunktion, die auf den Satz an zweidimensionalen (2D) Verfolgungsdaten des mindestens einen erfassten Gegenstands zur Lösung für einen aus dreidimensionalen (3D) Koordinaten der Position der Bilderfassungsvorrichtung bestehenden Satzes angewendet wird.
  19. Verfahren nach Anspruch 17, das ferner Folgendes umfasst: Erhalten eines Satzes an zweidimensionalen (2D) Verfolgungsdaten für mindestens drei Merkmale, wobei ein Satz von zweidimensionalen (2D) Verfolgungsdaten für die mindestens drei Merkmale zur Bestimmung dreidimensionaler (3D) Positionskoordinaten der Bilderfassungsvorrichtung unter Verwendung eines Triangulationsverfahrens konfiguriert wird.
  20. Verfahren nach Anspruch 17, wobei die Plattform ausgewählt ist aus der Gruppe bestehend aus: einem GNSS-Rover; einem GNSS-Rover-RTK-System; und einem GIS-/Mapping-Handgerät.
  21. Verfahren nach Anspruch 17, das ferner Folgendes umfasst: eine zweite Bilderfassungsvorrichtung auf der Plattform; Erfassen mindestens eines Bildes an der ersten Position mit der zweiten Bilderfassungsvorrichtung; wobei das erste Bild der zweiten Bilderfassungsvorrichtung mindestens einen zweiten Gegenstand umfasst; Erfassen von mindestens einem Bild an einer zweiten Position mit der zweiten Bilderfassungsvorrichtung; wobei das zweite Bild der zweiten Bilderfassungsvorrichtung mindestens einen zweiten Gegenstand umfasst; Verarbeiten einer Vielzahl an Bildern zur Verfolgung des Standorts des mindestens einen zweiten Gegenstands; wobei ein Satz von zweidimensionalen Positionsbestimmungen für den mindestens einen zweiten Gegenstand vom Verarbeiten der Vielzahl an Bildern erhalten wird, wobei ein Satz von Verfolgungsdaten für den mindestens einen zweiten Gegenstand bereitgestellt wird; Bestimmen des Standorts der zweiten Bilderfassungsvorrichtung durch den Einsatz des Satzes an Verfolgungsdaten des mindestens einen zweiten Gegenstands; und Berechnen eines neuen Standorts der Plattform durch Kombinieren des Standorts der zweiten Bilderfassungsvorrichtung mit dem Standort der Bilderfassungsvorrichtung und dem von dem GNSS-Empfänger bestimmten Standort.
  22. Verfahren nach Anspruch 21, das ferner Folgendes umfasst: Bestimmen der gewichteten merkmalbasierten Koordinaten des Standorts der Plattform.
  23. Verfahren nach Anspruch 22, das ferner Folgendes umfasst: Zuordnen einer ersten Gewichtung zu einem Satz an Verfolgungsdaten des mindestens einen ersten Gegenstands; Zuordnen einer zweiten Gewichtung zu einem Satz an Verfolgungsdaten des mindestens einen zweiten Gegenstands; und Bestimmen merkmalbasierter Koordinaten des Standorts der Plattform durch Verwendung des Satzes gewichteter Verfolgungsdaten des mindestens einen ersten Gegenstands und des Satzes an gewichteten Verfolgungsdaten des mindestens einen zweiten Gegenstands.
  24. Verfahren nach Anspruch 21, das ferner Folgendes umfasst: Einsetzen eines Kalman-Filters zum Erhalten einer Kalman-Schätzung der zweiten Position der Plattform durch Kombinieren des Satzes an Verfolgungsdaten des mindestens einen ersten Merkmals als eine erste Messung mit dem Satz an Verfolgungsdaten des mindestens einen zweiten Merkmals als eine zweite Messung.
  25. Imagebasierte Positionierungsvorrichtung, die Folgendes umfasst: eine Bilderfassungsvorrichtung, die zum Erfassen eines ersten Bildes, das mindestens ein Merkmal und eine Oberfläche umfasst, konfiguriert ist; die Bilderfassungsvorrichtung zum Erfassen eines zweiten Bildes, das ein Merkmal und die Oberfläche umfasst, konfiguriert ist; und einen Prozessor, der zum Verarbeiten eines jeden der Bilder konfiguriert ist; wobei der Prozessor konfiguriert ist, um den Standort der Plattform durch Verwendung eines kombinierten merkmalbasierten Prozesses und Oberflächenverfolgungsprozesses zu bestimmen.
  26. Imagebasierte Positionierungsvorrichtung, die Folgendes umfasst: mindestens zwei Bilderfassungsvorrichtungen; jede der Bilderfassungsvorrichtung ist an einer Plattform montiert; die erste Bilderfassungsvorrichtung ist zum Erfassen eines Bildes, das mindestens ein Merkmal umfasst, konfiguriert; die erste Erfassungsvorrichtung ist zum Erfassen eines zweiten Bildes, das mindestens ein Merkmal umfasst, konfiguriert; die zweite Bilderfassungsvorrichtung ist zum Erfassen eines Bildes, das eine Oberfläche umfasst, konfiguriert; die zweite Bilderfassungsvorrichtung ist zum Erfassen eines zweiten Bildes, das die Oberfläche umfasst, konfiguriert; und ein Prozessor, der zum Verarbeiten eines jeden der Bilder konfiguriert ist; wobei der Prozessor zum Bestimmen des Standorts der Plattform unter Verwendung einer aus einem merkmalbasierten Prozess und einem Oberflächenverfolgungsprozess bestehenden Kombination konfiguriert ist.
DE112011102132T 2010-06-25 2011-06-23 Verfahren und Vorrichtung für eine imagebasierte Positionierung Pending DE112011102132T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US35842310P 2010-06-25 2010-06-25
US61/358,423 2010-06-25
PCT/US2011/041590 WO2011163454A1 (en) 2010-06-25 2011-06-23 Method and apparatus for image-based positioning

Publications (1)

Publication Number Publication Date
DE112011102132T5 true DE112011102132T5 (de) 2013-05-23

Family

ID=45371815

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011102132T Pending DE112011102132T5 (de) 2010-06-25 2011-06-23 Verfahren und Vorrichtung für eine imagebasierte Positionierung

Country Status (5)

Country Link
US (2) US8754805B2 (de)
JP (1) JP6002126B2 (de)
CN (1) CN103119611B (de)
DE (1) DE112011102132T5 (de)
WO (1) WO2011163454A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013020307A1 (de) 2013-12-04 2014-08-14 Daimler Ag Verfahren und Vorrichtung zur Positionsbestimmung mindestens eines mobilen Objektes in mindestens einem mehrdimensionalen Raum
DE102018100738A1 (de) 2018-01-15 2019-07-18 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Selektive Merkmalsextraktion
WO2021083915A1 (de) * 2019-10-28 2021-05-06 Deep Up Gmbh Verfahren und mobile erfassungsvorrichtung zur erfassung von infrastrukturelementen eines unterirdischen leitungsnetzwerks

Families Citing this family (186)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
WO2011163454A1 (en) 2010-06-25 2011-12-29 Trimble Navigation Ltd. Method and apparatus for image-based positioning
US20160349057A1 (en) * 2010-10-13 2016-12-01 Elbit Systems Ltd. Multiple data sources pedestrian navigation system
US9879993B2 (en) 2010-12-23 2018-01-30 Trimble Inc. Enhanced bundle adjustment techniques
US9182229B2 (en) 2010-12-23 2015-11-10 Trimble Navigation Limited Enhanced position measurement systems and methods
US10168153B2 (en) 2010-12-23 2019-01-01 Trimble Inc. Enhanced position measurement systems and methods
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9134127B2 (en) 2011-06-24 2015-09-15 Trimble Navigation Limited Determining tilt angle and tilt direction using image processing
US9109889B2 (en) 2011-06-24 2015-08-18 Trimble Navigation Limited Determining tilt angle and tilt direction using image processing
EP2786303A4 (de) * 2011-12-01 2015-08-26 Lightcraft Technology Llc Matte-system mit automatischer nachverfolgung
US10660561B2 (en) * 2012-02-25 2020-05-26 Massachusetts Institute Of Technology Personal skin scanner system
US9019316B2 (en) 2012-04-15 2015-04-28 Trimble Navigation Limited Identifying a point of interest from different stations
US9214021B2 (en) * 2012-10-09 2015-12-15 The Boeing Company Distributed position identification
US9235763B2 (en) 2012-11-26 2016-01-12 Trimble Navigation Limited Integrated aerial photogrammetry surveys
US9910158B2 (en) 2012-12-28 2018-03-06 Trimble Inc. Position determination of a cellular device using carrier phase smoothing
US9903957B2 (en) 2012-12-28 2018-02-27 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US10101465B2 (en) 2012-12-28 2018-10-16 Trimble Inc. Electronic tape measure on a cellphone
US9602974B2 (en) 2012-12-28 2017-03-21 Trimble Inc. Dead reconing system based on locally measured movement
US9456067B2 (en) 2012-12-28 2016-09-27 Trimble Navigation Limited External electronic distance measurement accessory for a mobile data collection platform
US9488736B2 (en) 2012-12-28 2016-11-08 Trimble Navigation Limited Locally measured movement smoothing of GNSS position fixes
US9462446B2 (en) 2012-12-28 2016-10-04 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an internal chipset
US9467814B2 (en) 2012-12-28 2016-10-11 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an external GNSS raw observable provider
US9429640B2 (en) 2012-12-28 2016-08-30 Trimble Navigation Limited Obtaining pseudorange information using a cellular device
US9835729B2 (en) 2012-12-28 2017-12-05 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US9945959B2 (en) 2012-12-28 2018-04-17 Trimble Inc. Global navigation satellite system receiver system with radio frequency hardware component
US9821999B2 (en) 2012-12-28 2017-11-21 Trimble Inc. External GNSS receiver module with motion sensor suite for contextual inference of user activity
US9544737B2 (en) 2012-12-28 2017-01-10 Trimble Inc. Performing data collection based on external raw observables using a mobile data collection platform
US9369843B2 (en) 2012-12-28 2016-06-14 Trimble Navigation Limited Extracting pseudorange information using a cellular device
US9538336B2 (en) 2012-12-28 2017-01-03 Trimble Inc. Performing data collection based on internal raw observables using a mobile data collection platform
US9645248B2 (en) 2012-12-28 2017-05-09 Trimble Inc. Vehicle-based global navigation satellite system receiver system with radio frequency hardware component
US9880286B2 (en) 2012-12-28 2018-01-30 Trimble Inc. Locally measured movement smoothing of position fixes based on extracted pseudoranges
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9177384B2 (en) 2013-07-31 2015-11-03 Trimble Navigation Limited Sequential rolling bundle adjustment
US9639941B2 (en) 2012-12-28 2017-05-02 Trimble Inc. Scene documentation
US9612341B2 (en) 2012-12-28 2017-04-04 Trimble Inc. GNSS receiver positioning system
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9208382B2 (en) 2013-03-08 2015-12-08 Trimble Navigation Limited Methods and systems for associating a keyphrase with an image
US9043028B2 (en) 2013-03-13 2015-05-26 Trimble Navigation Limited Method of determining the orientation of a machine
US20140267686A1 (en) * 2013-03-15 2014-09-18 Novatel Inc. System and method for augmenting a gnss/ins navigation system of a low dynamic vessel using a vision system
JP2014185996A (ja) * 2013-03-25 2014-10-02 Toshiba Corp 計測装置
US9558559B2 (en) 2013-04-05 2017-01-31 Nokia Technologies Oy Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US9699375B2 (en) 2013-04-05 2017-07-04 Nokia Technology Oy Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US9999038B2 (en) 2013-05-31 2018-06-12 At&T Intellectual Property I, L.P. Remote distributed antenna system
US9247239B2 (en) 2013-06-20 2016-01-26 Trimble Navigation Limited Use of overlap areas to optimize bundle adjustment
DE102013011969A1 (de) 2013-07-18 2015-01-22 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
AU2013400684B2 (en) 2013-09-20 2018-05-17 Caterpillar Inc. Positioning system using radio frequency signals
CN105531601B (zh) 2013-09-20 2019-02-19 卡特彼勒公司 定位系统
US9811731B2 (en) * 2013-10-04 2017-11-07 Qualcomm Incorporated Dynamic extension of map data for object detection and tracking
US20150098079A1 (en) * 2013-10-09 2015-04-09 Hilti Aktiengesellschaft System and method for camera based position and orientation measurement
US11004259B2 (en) * 2013-10-25 2021-05-11 Hover Inc. Estimating dimensions of geo-referenced ground level imagery using orthogonal imagery
US9470511B2 (en) 2013-11-12 2016-10-18 Trimble Navigation Limited Point-to-point measurements using a handheld device
TWI537580B (zh) 2013-11-26 2016-06-11 財團法人資訊工業策進會 定位控制方法
US10037469B2 (en) 2013-12-10 2018-07-31 Google Llc Image location through large object detection
EP2913796B1 (de) * 2014-02-26 2019-03-27 NavVis GmbH Verfahren zur Erzeugung von Panoramaansichten auf einem mobilen Abbildungssystem
CN104881860B (zh) 2014-02-28 2019-01-08 国际商业机器公司 基于照片进行定位的方法和装置
US10288738B1 (en) * 2014-04-01 2019-05-14 Rockwell Collins, Inc. Precision mobile baseline determination device and related method
US10234287B2 (en) * 2014-05-05 2019-03-19 Hexagon Technology Center Gmbh Surveying system
US9923626B2 (en) 2014-06-13 2018-03-20 Trimble Inc. Mobile ionospheric data capture system
US9420737B2 (en) 2014-08-27 2016-08-23 Trimble Navigation Limited Three-dimensional elevation modeling for use in operating agricultural vehicles
KR102232517B1 (ko) 2014-09-15 2021-03-26 삼성전자주식회사 이미지 촬영 방법 및 이미지 촬영 장치
US10063280B2 (en) 2014-09-17 2018-08-28 At&T Intellectual Property I, L.P. Monitoring and mitigating conditions in a communication network
WO2016054060A1 (en) 2014-09-30 2016-04-07 University Of Virginia Patent Foundation Intrafractional motion reduction system using audiovisual-aided interactive guidance and related methods thereof
US9615269B2 (en) 2014-10-02 2017-04-04 At&T Intellectual Property I, L.P. Method and apparatus that provides fault tolerance in a communication network
US9503189B2 (en) 2014-10-10 2016-11-22 At&T Intellectual Property I, L.P. Method and apparatus for arranging communication sessions in a communication system
US9973299B2 (en) 2014-10-14 2018-05-15 At&T Intellectual Property I, L.P. Method and apparatus for adjusting a mode of communication in a communication network
CN104297762B (zh) * 2014-10-17 2016-08-24 安徽三联交通应用技术股份有限公司 一种驾考科目三地图测绘仪的测绘方法
US9312919B1 (en) 2014-10-21 2016-04-12 At&T Intellectual Property I, Lp Transmission device with impairment compensation and methods for use therewith
US9769020B2 (en) 2014-10-21 2017-09-19 At&T Intellectual Property I, L.P. Method and apparatus for responding to events affecting communications in a communication network
US9954287B2 (en) 2014-11-20 2018-04-24 At&T Intellectual Property I, L.P. Apparatus for converting wireless signals and electromagnetic waves and methods thereof
US9800327B2 (en) 2014-11-20 2017-10-24 At&T Intellectual Property I, L.P. Apparatus for controlling operations of a communication device and methods thereof
US9461706B1 (en) 2015-07-31 2016-10-04 At&T Intellectual Property I, Lp Method and apparatus for exchanging communication signals
US9544006B2 (en) 2014-11-20 2017-01-10 At&T Intellectual Property I, L.P. Transmission device with mode division multiplexing and methods for use therewith
US10009067B2 (en) 2014-12-04 2018-06-26 At&T Intellectual Property I, L.P. Method and apparatus for configuring a communication interface
US10243784B2 (en) 2014-11-20 2019-03-26 At&T Intellectual Property I, L.P. System for generating topology information and methods thereof
US9997819B2 (en) 2015-06-09 2018-06-12 At&T Intellectual Property I, L.P. Transmission medium and method for facilitating propagation of electromagnetic waves via a core
US9519061B2 (en) * 2014-12-26 2016-12-13 Here Global B.V. Geometric fingerprinting for localization of a device
JP6510247B2 (ja) * 2015-01-27 2019-05-08 株式会社トプコン 測量データ処理装置、測量データ処理方法およびプログラム
US9876570B2 (en) 2015-02-20 2018-01-23 At&T Intellectual Property I, Lp Guided-wave transmission device with non-fundamental mode propagation and methods for use therewith
CN105989586A (zh) * 2015-03-04 2016-10-05 北京雷动云合智能技术有限公司 一种基于语义光束平差法的slam方法
US10224981B2 (en) 2015-04-24 2019-03-05 At&T Intellectual Property I, Lp Passive electrical coupling device and methods for use therewith
US9705561B2 (en) 2015-04-24 2017-07-11 At&T Intellectual Property I, L.P. Directional coupling device and methods for use therewith
US9793954B2 (en) 2015-04-28 2017-10-17 At&T Intellectual Property I, L.P. Magnetic coupling device and methods for use therewith
US9871282B2 (en) 2015-05-14 2018-01-16 At&T Intellectual Property I, L.P. At least one transmission medium having a dielectric surface that is covered at least in part by a second dielectric
US9490869B1 (en) 2015-05-14 2016-11-08 At&T Intellectual Property I, L.P. Transmission medium having multiple cores and methods for use therewith
US10650940B2 (en) 2015-05-15 2020-05-12 At&T Intellectual Property I, L.P. Transmission medium having a conductive material and methods for use therewith
US9917341B2 (en) 2015-05-27 2018-03-13 At&T Intellectual Property I, L.P. Apparatus and method for launching electromagnetic waves and for modifying radial dimensions of the propagating electromagnetic waves
US10812174B2 (en) 2015-06-03 2020-10-20 At&T Intellectual Property I, L.P. Client node device and methods for use therewith
US9912381B2 (en) 2015-06-03 2018-03-06 At&T Intellectual Property I, Lp Network termination and methods for use therewith
US9866309B2 (en) 2015-06-03 2018-01-09 At&T Intellectual Property I, Lp Host node device and methods for use therewith
US9913139B2 (en) 2015-06-09 2018-03-06 At&T Intellectual Property I, L.P. Signal fingerprinting for authentication of communicating devices
US9820146B2 (en) 2015-06-12 2017-11-14 At&T Intellectual Property I, L.P. Method and apparatus for authentication and identity management of communicating devices
US9509415B1 (en) 2015-06-25 2016-11-29 At&T Intellectual Property I, L.P. Methods and apparatus for inducing a fundamental wave mode on a transmission medium
US9640850B2 (en) 2015-06-25 2017-05-02 At&T Intellectual Property I, L.P. Methods and apparatus for inducing a non-fundamental wave mode on a transmission medium
US9865911B2 (en) 2015-06-25 2018-01-09 At&T Intellectual Property I, L.P. Waveguide system for slot radiating first electromagnetic waves that are combined into a non-fundamental wave mode second electromagnetic wave on a transmission medium
US9847566B2 (en) 2015-07-14 2017-12-19 At&T Intellectual Property I, L.P. Method and apparatus for adjusting a field of a signal to mitigate interference
US9628116B2 (en) 2015-07-14 2017-04-18 At&T Intellectual Property I, L.P. Apparatus and methods for transmitting wireless signals
US10044409B2 (en) 2015-07-14 2018-08-07 At&T Intellectual Property I, L.P. Transmission medium and methods for use therewith
US9853342B2 (en) 2015-07-14 2017-12-26 At&T Intellectual Property I, L.P. Dielectric transmission medium connector and methods for use therewith
US9882257B2 (en) 2015-07-14 2018-01-30 At&T Intellectual Property I, L.P. Method and apparatus for launching a wave mode that mitigates interference
US10148016B2 (en) 2015-07-14 2018-12-04 At&T Intellectual Property I, L.P. Apparatus and methods for communicating utilizing an antenna array
US10205655B2 (en) 2015-07-14 2019-02-12 At&T Intellectual Property I, L.P. Apparatus and methods for communicating utilizing an antenna array and multiple communication paths
US10090606B2 (en) 2015-07-15 2018-10-02 At&T Intellectual Property I, L.P. Antenna system with dielectric array and methods for use therewith
US9749053B2 (en) 2015-07-23 2017-08-29 At&T Intellectual Property I, L.P. Node device, repeater and methods for use therewith
US9871283B2 (en) 2015-07-23 2018-01-16 At&T Intellectual Property I, Lp Transmission medium having a dielectric core comprised of plural members connected by a ball and socket configuration
US9912027B2 (en) 2015-07-23 2018-03-06 At&T Intellectual Property I, L.P. Method and apparatus for exchanging communication signals
US9948333B2 (en) 2015-07-23 2018-04-17 At&T Intellectual Property I, L.P. Method and apparatus for wireless communications to mitigate interference
US9967173B2 (en) 2015-07-31 2018-05-08 At&T Intellectual Property I, L.P. Method and apparatus for authentication and identity management of communicating devices
US9904535B2 (en) 2015-09-14 2018-02-27 At&T Intellectual Property I, L.P. Method and apparatus for distributing software
US9769128B2 (en) 2015-09-28 2017-09-19 At&T Intellectual Property I, L.P. Method and apparatus for encryption of communications over a network
US9876264B2 (en) 2015-10-02 2018-01-23 At&T Intellectual Property I, Lp Communication system, guided wave switch and methods for use therewith
JP6332699B2 (ja) * 2015-10-13 2018-05-30 株式会社amuse oneself 測量用撮影装置
CN105371827A (zh) * 2015-10-13 2016-03-02 同创智慧空间(北京)科技有限公司 Gnss立体摄像全功能测绘仪
US10355367B2 (en) 2015-10-16 2019-07-16 At&T Intellectual Property I, L.P. Antenna structure for exchanging wireless signals
US9918204B1 (en) 2015-12-08 2018-03-13 Bentley Systems, Incorporated High accuracy indoor tracking
ES2742894T3 (es) * 2015-12-30 2020-02-17 Fund Centre Tecnologic De Telecomunicacions De Catalunya Cttc Vara de prospección mejorada
US10072934B2 (en) 2016-01-15 2018-09-11 Abl Ip Holding Llc Passive marking on light fixture detected for position estimation
WO2017172778A1 (en) * 2016-03-28 2017-10-05 Sri International Collaborative navigation and mapping
CN107272727B (zh) * 2016-04-01 2022-02-01 松下电器(美国)知识产权公司 自主移动体
US9860075B1 (en) 2016-08-26 2018-01-02 At&T Intellectual Property I, L.P. Method and communication node for broadband distribution
US10402675B2 (en) * 2016-08-30 2019-09-03 The Boeing Company 2D vehicle localizing using geoarcs
CN106485785B (zh) * 2016-09-30 2023-09-26 李娜 一种基于室内三维建模和定位的场景生成方法及系统
US10811767B2 (en) 2016-10-21 2020-10-20 At&T Intellectual Property I, L.P. System and dielectric antenna with convex dielectric radome
US10312567B2 (en) 2016-10-26 2019-06-04 At&T Intellectual Property I, L.P. Launcher with planar strip antenna and methods for use therewith
US10225025B2 (en) 2016-11-03 2019-03-05 At&T Intellectual Property I, L.P. Method and apparatus for detecting a fault in a communication system
US10178445B2 (en) 2016-11-23 2019-01-08 At&T Intellectual Property I, L.P. Methods, devices, and systems for load balancing between a plurality of waveguides
US10694379B2 (en) 2016-12-06 2020-06-23 At&T Intellectual Property I, L.P. Waveguide system with device-based authentication and methods for use therewith
US10819035B2 (en) 2016-12-06 2020-10-27 At&T Intellectual Property I, L.P. Launcher with helical antenna and methods for use therewith
US10637149B2 (en) 2016-12-06 2020-04-28 At&T Intellectual Property I, L.P. Injection molded dielectric antenna and methods for use therewith
US10727599B2 (en) 2016-12-06 2020-07-28 At&T Intellectual Property I, L.P. Launcher with slot antenna and methods for use therewith
US10168695B2 (en) 2016-12-07 2019-01-01 At&T Intellectual Property I, L.P. Method and apparatus for controlling an unmanned aircraft
US10446936B2 (en) 2016-12-07 2019-10-15 At&T Intellectual Property I, L.P. Multi-feed dielectric antenna system and methods for use therewith
US10243270B2 (en) 2016-12-07 2019-03-26 At&T Intellectual Property I, L.P. Beam adaptive multi-feed dielectric antenna system and methods for use therewith
US10389029B2 (en) 2016-12-07 2019-08-20 At&T Intellectual Property I, L.P. Multi-feed dielectric antenna system with core selection and methods for use therewith
US9893795B1 (en) 2016-12-07 2018-02-13 At&T Intellectual Property I, Lp Method and repeater for broadband distribution
US10359749B2 (en) 2016-12-07 2019-07-23 At&T Intellectual Property I, L.P. Method and apparatus for utilities management via guided wave communication
US10139820B2 (en) 2016-12-07 2018-11-27 At&T Intellectual Property I, L.P. Method and apparatus for deploying equipment of a communication system
US10547348B2 (en) 2016-12-07 2020-01-28 At&T Intellectual Property I, L.P. Method and apparatus for switching transmission mediums in a communication system
US10777873B2 (en) 2016-12-08 2020-09-15 At&T Intellectual Property I, L.P. Method and apparatus for mounting network devices
US10530505B2 (en) 2016-12-08 2020-01-07 At&T Intellectual Property I, L.P. Apparatus and methods for launching electromagnetic waves along a transmission medium
US10938108B2 (en) 2016-12-08 2021-03-02 At&T Intellectual Property I, L.P. Frequency selective multi-feed dielectric antenna system and methods for use therewith
US10601494B2 (en) 2016-12-08 2020-03-24 At&T Intellectual Property I, L.P. Dual-band communication device and method for use therewith
US10326689B2 (en) 2016-12-08 2019-06-18 At&T Intellectual Property I, L.P. Method and system for providing alternative communication paths
US9998870B1 (en) 2016-12-08 2018-06-12 At&T Intellectual Property I, L.P. Method and apparatus for proximity sensing
US10069535B2 (en) 2016-12-08 2018-09-04 At&T Intellectual Property I, L.P. Apparatus and methods for launching electromagnetic waves having a certain electric field structure
US10389037B2 (en) 2016-12-08 2019-08-20 At&T Intellectual Property I, L.P. Apparatus and methods for selecting sections of an antenna array and use therewith
US10103422B2 (en) 2016-12-08 2018-10-16 At&T Intellectual Property I, L.P. Method and apparatus for mounting network devices
US9911020B1 (en) 2016-12-08 2018-03-06 At&T Intellectual Property I, L.P. Method and apparatus for tracking via a radio frequency identification device
US10264586B2 (en) 2016-12-09 2019-04-16 At&T Mobility Ii Llc Cloud-based packet controller and methods for use therewith
US10340983B2 (en) 2016-12-09 2019-07-02 At&T Intellectual Property I, L.P. Method and apparatus for surveying remote sites via guided wave communications
US9838896B1 (en) 2016-12-09 2017-12-05 At&T Intellectual Property I, L.P. Method and apparatus for assessing network coverage
US10458792B2 (en) * 2016-12-15 2019-10-29 Novatel Inc. Remote survey system
CN106707287A (zh) * 2016-12-23 2017-05-24 浙江大学 基于扩展卡尔曼滤波结合最近邻聚类算法的鱼群数量估计方法
US10563980B2 (en) * 2016-12-23 2020-02-18 Topcon Positioning Systems, Inc. Enhanced remote surveying systems and methods
JP7121017B2 (ja) * 2017-01-23 2022-08-17 オックスフォード ユニヴァーシティ イノヴェーション リミテッド モバイル装置の位置特定方法
KR102647351B1 (ko) 2017-01-26 2024-03-13 삼성전자주식회사 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
US9973940B1 (en) 2017-02-27 2018-05-15 At&T Intellectual Property I, L.P. Apparatus and methods for dynamic impedance matching of a guided wave launcher
US10298293B2 (en) 2017-03-13 2019-05-21 At&T Intellectual Property I, L.P. Apparatus of communication utilizing wireless network devices
US10097241B1 (en) 2017-04-11 2018-10-09 At&T Intellectual Property I, L.P. Machine assisted development of deployment site inventory
CN106997055B (zh) * 2017-05-27 2019-09-24 金华航大北斗应用技术有限公司 基于最小二乘和梯度下降法的北斗meo卫星信号拟合方法
CN107295227A (zh) * 2017-05-27 2017-10-24 欧阳聪星 一种口腔内窥器
WO2018235923A1 (ja) * 2017-06-21 2018-12-27 国立大学法人 東京大学 位置推定装置、位置推定方法、及びプログラム
CN107727104B (zh) * 2017-08-16 2019-04-30 北京极智嘉科技有限公司 结合标识的同时定位和地图创建导航方法、装置及系统
US10586349B2 (en) 2017-08-24 2020-03-10 Trimble Inc. Excavator bucket positioning via mobile device
KR101836926B1 (ko) * 2017-12-05 2018-04-19 한국지질자원연구원 트렌치 단면 기준선 설정 장치 및 이를 이용한 트렌치 단면 분석 방법
WO2019153855A1 (zh) * 2018-02-07 2019-08-15 迎刃而解有限公司 一种360度环绕方位及位置感知物件信息获取系统及其应用
JP6478305B1 (ja) * 2018-07-04 2019-03-06 有限会社ネットライズ Slamの手法を応用した矢板の地中位置測定方法とその装置
CN109059941B (zh) * 2018-07-06 2019-11-29 禾多科技(北京)有限公司 特征地图构建方法、视觉定位方法及对应装置
CN109099889B (zh) * 2018-07-10 2022-04-12 广州市中海达测绘仪器有限公司 近景摄影测量系统和方法
JP7183017B2 (ja) * 2018-12-11 2022-12-05 株式会社トプコン 測量装置及び写真測量方法
CN109754408B (zh) * 2019-01-07 2020-12-01 合肥泰禾光电科技股份有限公司 轨迹跟踪方法及装置
EP3935581A4 (de) 2019-03-04 2022-11-30 Iocurrents, Inc. Datenkompression und -kommunikation mit maschinenlernung
US11727646B2 (en) * 2019-04-10 2023-08-15 Trimble Inc. Augmented reality image occlusion
US11693126B2 (en) * 2019-04-10 2023-07-04 Trimble Inc. Augmented reality distance measurement
US11039118B2 (en) * 2019-04-17 2021-06-15 XRSpace CO., LTD. Interactive image processing system using infrared cameras
US10885671B2 (en) 2019-04-17 2021-01-05 XRSpace CO., LTD. Method, apparatus, and non-transitory computer-readable medium for interactive image processing using depth engine and digital signal processor
CN112348884A (zh) * 2019-08-09 2021-02-09 华为技术有限公司 一种定位方法、终端设备和服务器
US11566896B2 (en) 2019-08-22 2023-01-31 Leica Geosystems Ag Surveying system with image-based measuring
JP7036783B2 (ja) * 2019-10-09 2022-03-15 株式会社 ミックウェア 位置推定システム、位置推定方法、及び位置推定プログラム
WO2021075967A1 (en) * 2019-10-18 2021-04-22 Xnr B.V. Method and apparatus for optical measurement of environments
US10943360B1 (en) 2019-10-24 2021-03-09 Trimble Inc. Photogrammetric machine measure up
US11536857B2 (en) 2019-12-19 2022-12-27 Trimble Inc. Surface tracking on a survey pole
CN111167052B (zh) * 2020-03-18 2021-02-26 沈阳天目科技有限公司 基于摄像机定位的自动消防炮目标经纬度计算方法
JP6976537B1 (ja) * 2020-10-08 2021-12-08 株式会社Fronteo 情報検索装置、情報検索方法および情報検索用プログラム
KR102398839B1 (ko) * 2020-12-01 2022-05-17 서울과학기술대학교 산학협력단 객체의 표면에 영상을 투영시키는 장치
CN113820735B (zh) * 2021-08-31 2023-12-01 上海华测导航技术股份有限公司 位置信息的确定方法、位置测量设备、终端及存储介质
CN115979231B (zh) * 2023-03-20 2023-07-18 广东工业大学 一种基于虚拟点位的无量纲运动学标定方法及其相关装置

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6195609B1 (en) * 1993-09-07 2001-02-27 Harold Robert Pilley Method and system for the control and management of an airport
US5642285A (en) 1995-01-31 1997-06-24 Trimble Navigation Limited Outdoor movie camera GPS-position and time code data-logging for special effects production
US6282362B1 (en) 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
US6147598A (en) 1997-07-03 2000-11-14 Trimble Navigation Limited Vehicle theft system including a handheld computing device
DE10025110C2 (de) 2000-05-20 2003-01-16 Zsp Geodaetische Sys Gmbh Verfahren und Vorrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7248285B2 (en) 2001-03-30 2007-07-24 Intel Corporation Method and apparatus for automatic photograph annotation
JP4004316B2 (ja) 2002-03-20 2007-11-07 株式会社トプコン 測量装置及び測量装置を用いて画像データを取得する方法
US7162338B2 (en) * 2002-12-17 2007-01-09 Evolution Robotics, Inc. Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system
US7009561B2 (en) * 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US7204596B2 (en) 2003-09-19 2007-04-17 Nec Corporation Projector with tilt angle measuring device
JP4253239B2 (ja) 2003-10-07 2009-04-08 富士重工業株式会社 画像認識を用いた航法装置
US20050209815A1 (en) 2004-03-02 2005-09-22 Russon Virgil K Method, system, and computer-readable medium for user-assignment of geographic data to an image file
US7650013B2 (en) 2004-11-15 2010-01-19 Mobilerobots Inc. System and method for map and position-determination enhancement
US7860301B2 (en) * 2005-02-11 2010-12-28 Macdonald Dettwiler And Associates Inc. 3D imaging system
US7526384B2 (en) 2005-03-10 2009-04-28 Witten Technologies Inc. Method for correcting a 3D location measured by a tracking system assuming a vertical offset
US7541974B2 (en) 2005-12-15 2009-06-02 Trimble Navigation Limited Managed traverse system and method to acquire accurate survey data in absence of precise GPS data
ATE467817T1 (de) 2005-09-12 2010-05-15 Trimble Jena Gmbh Vermessungsinstrument und verfahren zur bereitstellung von vermessungsdaten unter verwendung eines vermessungsinstruments
US8229166B2 (en) 2009-07-07 2012-07-24 Trimble Navigation, Ltd Image-based tracking
JP4984650B2 (ja) * 2006-05-30 2012-07-25 トヨタ自動車株式会社 移動装置及び移動装置の自己位置推定方法
CN100451543C (zh) 2006-08-22 2009-01-14 邓业灿 桩斜模拟直桩检测方法
JP4800163B2 (ja) * 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
CN101196395A (zh) 2006-12-04 2008-06-11 李正才 微小倾角测量仪
US7719467B2 (en) * 2007-03-08 2010-05-18 Trimble Navigation Limited Digital camera with GNSS picture location determination
EP1970005B1 (de) * 2007-03-15 2012-10-03 Xsens Holding B.V. System und Verfahren zur Bewegungsnachverfolgung über eine Kalibriereinheit
JP2008261755A (ja) 2007-04-12 2008-10-30 Canon Inc 情報処理装置、情報処理方法
JP5380789B2 (ja) * 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2008304269A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP5184830B2 (ja) * 2007-07-06 2013-04-17 株式会社トプコン 位置計測装置及び位置計測方法
US20090024325A1 (en) 2007-07-19 2009-01-22 Scherzinger Bruno M AINS enhanced survey instrument
US20090093959A1 (en) * 2007-10-04 2009-04-09 Trimble Navigation Limited Real-time high accuracy position and orientation system
CN101932906B (zh) 2008-02-12 2013-12-18 特林布尔公司 相对于地面标志来定位勘测仪器
EP2240740B1 (de) 2008-02-12 2014-10-08 Trimble AB Lokalisierung eines vermessungsinstruments in bezug auf eine bodenmarkierung
DE112008003711B4 (de) 2008-02-22 2024-01-25 Trimble Jena Gmbh Winkelmessgerät und -verfahren
US9189858B2 (en) 2008-02-29 2015-11-17 Trimble Ab Determining coordinates of a target in relation to a survey instrument having at least two cameras
JP4930443B2 (ja) * 2008-04-10 2012-05-16 トヨタ自動車株式会社 地図データ生成装置および地図データ生成方法
US20090262974A1 (en) 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data
CN101567121A (zh) 2008-04-24 2009-10-28 深圳富泰宏精密工业有限公司 手持行动电子装置遗失侦测系统及方法
US9857475B2 (en) * 2008-09-09 2018-01-02 Geooptics, Inc. Cellular interferometer for continuous earth remote observation (CICERO)
KR101538775B1 (ko) * 2008-09-12 2015-07-30 삼성전자 주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
US8379929B2 (en) 2009-01-08 2013-02-19 Trimble Navigation Limited Methods and apparatus for performing angular measurements
US7991575B2 (en) 2009-01-08 2011-08-02 Trimble Navigation Limited Method and system for measuring angles based on 360 degree images
DE112010000812T5 (de) 2009-01-08 2012-06-06 Trimble Navigation Limited Verfahren und Systeme zum Bestimmen von Winkeln und Orten von Punkten
TWI418210B (zh) 2010-04-23 2013-12-01 Alpha Imaging Technology Corp 避免快門延遲之影像擷取模組及影像擷取方法
WO2011163454A1 (en) 2010-06-25 2011-12-29 Trimble Navigation Ltd. Method and apparatus for image-based positioning
US9109889B2 (en) 2011-06-24 2015-08-18 Trimble Navigation Limited Determining tilt angle and tilt direction using image processing
US9134127B2 (en) 2011-06-24 2015-09-15 Trimble Navigation Limited Determining tilt angle and tilt direction using image processing

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Moritz Köhler, Shwetak N. Patel, Jay W. Summet, Erich P. Stuntebeck und Gregory D. Abowd, Institute for Pervasisve Computing, Department of Computer Science ETH Zürich, 8092 Zürich, Schweiz, "TrackSense: Infrastructure Free Precise Indoor Positioning Using Projected Patterns"
Thomas Lemaire, Cyrille Berger, Il-Kyun Jung und Simon Lacroix, "Vision-Based SLAM: Stereo and Monocular Approaches", International Journal of Computer Vision 74(3), 343-364, 2007

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013020307A1 (de) 2013-12-04 2014-08-14 Daimler Ag Verfahren und Vorrichtung zur Positionsbestimmung mindestens eines mobilen Objektes in mindestens einem mehrdimensionalen Raum
DE102018100738A1 (de) 2018-01-15 2019-07-18 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Selektive Merkmalsextraktion
WO2021083915A1 (de) * 2019-10-28 2021-05-06 Deep Up Gmbh Verfahren und mobile erfassungsvorrichtung zur erfassung von infrastrukturelementen eines unterirdischen leitungsnetzwerks

Also Published As

Publication number Publication date
WO2011163454A1 (en) 2011-12-29
CN103119611B (zh) 2016-05-11
US20140267700A1 (en) 2014-09-18
JP2013535013A (ja) 2013-09-09
JP6002126B2 (ja) 2016-10-05
US8754805B2 (en) 2014-06-17
US9683832B2 (en) 2017-06-20
CN103119611A (zh) 2013-05-22
US20120163656A1 (en) 2012-06-28

Similar Documents

Publication Publication Date Title
DE112011102132T5 (de) Verfahren und Vorrichtung für eine imagebasierte Positionierung
Eltner et al. Analysis of different methods for 3D reconstruction of natural surfaces from parallel‐axes UAV images
US9710919B2 (en) Image-based surface tracking
DE112011100458B4 (de) Systeme und Verfahren zur Verarbeitung von Kartierungs- und Modellierungsdaten
US20120038902A1 (en) Enhancement of range measurement resolution using imagery
CN104599281B (zh) 一种基于水平直线方位一致性的全景图与遥感图配准方法
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
DE102019120561A1 (de) System und verfahren zur automatischen relokalisierung und automatischen angleichung vorhandener nichtdigitaler grundrisspläne
Burkhard et al. Stereovision mobile mapping: System design and performance evaluation
CN112132900A (zh) 一种视觉重定位方法及系统
Barrile et al. 3D modeling with photogrammetry by UAVs and model quality verification
Piermattei et al. Panorama image sets for terrestrial photogrammetric surveys
Koppanyi et al. Experiences with acquiring highly redundant spatial data to support driverless vehicle technologies
KR100981588B1 (ko) 특징점 픽셀의 크기와 방향 정보를 이용하는 벡터 변환에 기초한 도시공간 지리정보 생성 시스템
Rodarmel et al. Rigorous error modeling for sUAS acquired image-derived point clouds
DE102016222319A1 (de) 3d-referenzierung
Zhang et al. An overlap-free calibration method for LiDAR-camera platforms based on environmental perception
CN110617800A (zh) 基于民航客机的应急遥感监测方法、系统及存储介质
Hirzinger et al. Photo-realistic 3D modelling-From robotics perception to-wards cultural heritage
Habib et al. Standards and specifications for the calibration and stability of amateur digital camaras for close-range mapping applications
Gabara et al. Kortowo test field for testing photogrammetric products accuracy–design and first evaluation
Casella et al. Gnss and Photogrammetry by the same Tool: a First Evaluation of the Leica GS18I Receiver
KR101016071B1 (ko) 이동측량장치의 이동경로에 따른 스테레오 영상으로부터 벡터변환을 이용하여 대응영역을 추출하는 도시공간 영상처리장치
Förstner et al. Online geocoding and evaluation of large scale imagery without GPS
US20200294315A1 (en) Method and system for node vectorisation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009320000

Ipc: G06V0030146000

R016 Response to examination communication