WO2013143820A1 - Method and device for tracking the position of an object - Google Patents

Method and device for tracking the position of an object Download PDF

Info

Publication number
WO2013143820A1
WO2013143820A1 PCT/EP2013/054576 EP2013054576W WO2013143820A1 WO 2013143820 A1 WO2013143820 A1 WO 2013143820A1 EP 2013054576 W EP2013054576 W EP 2013054576W WO 2013143820 A1 WO2013143820 A1 WO 2013143820A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensors
image sequence
projector
sequence
relative
Prior art date
Application number
PCT/EP2013/054576
Other languages
German (de)
French (fr)
Inventor
Hubert Burggraf
Axel REHDER
Bernhard Hampel-Vogedes
Original Assignee
Rheinmetall Defence Electronics Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rheinmetall Defence Electronics Gmbh filed Critical Rheinmetall Defence Electronics Gmbh
Priority to EP13708406.7A priority Critical patent/EP2831618A1/en
Publication of WO2013143820A1 publication Critical patent/WO2013143820A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude

Definitions

  • the present invention relates to a method and a device for tracking the position of an object. This is also called tracking.
  • the term position encompasses the location of the object in up to three translational dimensions and / or the orientation of the object in up to three rotational dimensions.
  • Possible applications of the tracking are, in particular, the head tracking, in which the position of a head is tracked, for example to produce an image corresponding to the head position, or the tracking of objects such as participants of an exercise and / or their weapons in a battlefield simulation, in particular also in closed rooms.
  • Document WO 2005/015904 A1 discloses a method and apparatus for determining the correspondence between points on a projection surface of arbitrary shape and pixels in the image of a projector. For this purpose, a two-dimensional image sequence from Gray Codes projected by the projector and detected by individual light sensors in the projection surface. The output signals of the sensors are used to determine the correspondence between the sensor positions and pixels of the projected image.
  • the present invention relates to a method for tracking the position of an object with the steps of projecting a two-dimensional image sequence by means of a projector, respectively detecting a light signal sequence from the image sequence with at least four sensors arranged in a known configuration on the object and determining the position of the object relative to the projector based on the output signals of the sensors and the two-dimensional image sequence, wherein the position of the object relative to the projector is determined at least every second.
  • the two-dimensional image sequence emitted by the projector generates corresponding light signal sequences in different partial spatial regions of the illuminated spatial region.
  • a light signal sequence is detected by a sensor, it is thus possible to determine in which partial space region the sensor is located.
  • a partial space area is usually conical or in particular pyramidal with the apex at the location of the projector. The longer the image sequence is, the more images the image sequence contains, the more light signal sequences and correspondingly more partial spatial regions can be distinguished.
  • the sensors which are light sensors and in particular photodiodes, are arranged in a known configuration on the object. This means that the relative positions between the sensors and the relative positions of the sensors to the object are known.
  • the position of the object relative to the projector can be calculated.
  • the orientation of the sensors is disregarded and only their location relative to the projector is considered.
  • sensors may be used which are already arranged on the object for other purposes, for example sensors for detecting hits in a battlefield simulation.
  • the position of the object is determined according to the invention at least once a second.
  • the frequency is even higher, for example exactly or at least 2, 5, 10, 20, 25, 50, 100, 200 or 250 times per second. Due to the repeated, preferably regular, determination of the position tracking of the object is possible.
  • the image sequence is a binary image sequence. This means that only one binary information, that is a bit sequence, is contained in a light signal sequence. Thus only the states light on and light off are used. Thus, a simple and robust determination of the partial space area becomes possible.
  • the image sequence is monochrome. This means that the image sequence contains only light of a single wavelength or a narrow wavelength range. Thus, narrow-band filters can be arranged in front of the sensors which filter out light of a different wavelength and thus suppress the interfering influence of extraneous light.
  • the image sequence is a bar code such as a two-dimensional Gray code.
  • a bar code such as a two-dimensional Gray code.
  • This consists of two subsequences. In the first picture of each sequence, one half of the picture is dark, the other bright. In the next image, each half of the image is divided into two halves and one of the halves inverted. Thus, for example, there is an alternating stripe pattern of alternating light and dark stripes, whereby the stripe width is halved from image to image. In one of the subsequences the stripes run horizontally, in the other vertically.
  • Each of the sequences is therefore a one-dimensional Gray code.
  • the strips of the two Gray codes are preferably perpendicular to each other.
  • the image sequence is preferably in the infrared or ultraviolet frequency spectrum.
  • the light emitted by the projector is in the infrared or ultraviolet spectrum and preferably contains no light in the visible spectrum.
  • the light emitted by the projector is in the infrared or ultraviolet spectrum and preferably contains no light in the visible spectrum.
  • people who are in the area illuminated by the projector not disturbed, such as dazzled.
  • Using an ultraviolet spectrum alone will not hinder the use of night vision equipment.
  • a digital projector is used to project the image sequence.
  • One pixel or several adjacent pixels then illuminate a partial spatial area into which the same light signal sequence is emitted.
  • a middle straight is defined.
  • the middle straight is then the height of the pyramid.
  • the middle straight lines are identified on which the sensors are located.
  • the locations of the sensors are virtually shifted along the respective middle line until the virtual relative locations of the sensors coincide with the actual configuration of the sensors.
  • the position of the entirety of the sensors in their known arrangement is virtually changed until virtually every sensor is located on the middle straight assigned to it.
  • the object can only lie on a known straight line.
  • the third translational component the distance from the projector
  • the three rotational components orientation
  • the present invention further relates to a device for tracking the position of an object with a projector, which is adapted to project a two-dimensional image sequence, with at least four sensors, which are arranged in a known configuration on the object and are adapted to each one Capture real-time signal sequence from the image sequence, and with a computing unit which is adapted to determine the position of the object relative to the projector based on the output signals of the sensors and the two-dimensional image sequence at least every second.
  • the arithmetic unit is adapted to carry out the method described above in one or more embodiments. This means that the arithmetic unit either itself carries out the method steps or instructs another component of the device to execute a method step.
  • four sensors are arranged at the tips of an imaginary square. This means that the distances between each two sensors are the same, so the sensors are arranged symmetrically. This simplifies in particular the calculation of the position of the object from the light signal sequences of the sensors.
  • the device has two projectors that are each configured to project a two-dimensional image sequence.
  • the projectors are preferably synchronized, so that the transmitted image sequences are synchronized.
  • the availability of position tracking of the object can be improved and / or the space area for tracking can be increased. If only one projector is used, it may be that one of the sensors is shaded, Thus, no light signal sequence detected by the projector
  • the probability of the occurrence of this case is significantly reduced, especially if the projectors are located in different locations.
  • the projectors project image sequences in different wavelength ranges.
  • the projectors can project simultaneously without interfering with each other at the sensors.
  • the sensors can differentiate between the wavelength ranges.
  • the projectors project image sequences in the same wavelength range, and in particular monochromatically at the same wavelength. In this case, a collision of the projections on the sensors must be prevented, for example by the fact that the projectors project in time division multiplex.
  • the present invention further relates to the use of a device having a projector that is configured to project a two-dimensional image sequence, having at least four sensors, which are arranged in a known configuration on an object and are adapted to each a light signal sequence from the image sequence and a computing unit configured to determine the position of the object relative to the projector from the output signals of the sensors and the two-dimensional image sequence for tracking the position of the object.
  • a device having a projector that is configured to project a two-dimensional image sequence, having at least four sensors, which are arranged in a known configuration on an object and are adapted to each a light signal sequence from the image sequence and a computing unit configured to determine the position of the object relative to the projector from the output signals of the sensors and the two-dimensional image sequence for tracking the position of the object.
  • the use is in particular in the context of a battlefield simulation or to determine the position of a head (head tracking).
  • the object to be tracked is, for example, a vehicle, a participant or a weapon.
  • the viewing direction of the observed person can be determined. It can then be used to control the appearance of a head-mounted display (HMD), to target weapon systems, to determine the line of sight of individuals, or to determine the firing direction of simulated weapons. It is also possible to track and control sensor platforms or autonomous vehicles, for example in factories or warehouses.
  • the present invention makes it possible to locate and track objects in confined spaces and, with proper choice of the light spectrum of the projector, it prevents the interference of persons and devices located in the area illuminated by the projector.
  • the device and method are not affected by magnetic, electrical or acoustic sources of interference.
  • An application is possible in both stationary and moving environments. A location-dependent calibration of the device, for example in a cockpit, is not required. It is within the scope of the present invention to combine individual features of embodiments or Ausgestaitungsformen or optional features together or omit features not essential to the invention of an embodiment or embodiment.
  • the present invention will be explained in more detail with reference to an embodiment. Showing:
  • Figure 1 is a schematic representation of a
  • FIG. 2 is a flowchart of the invention
  • FIG. 3 shows an exemplary image sequence.
  • 1 shows schematically a device according to the invention for determining the position of an object 1.
  • the device comprises a projector 2, a control unit 3 and four sensors S1, S2, S3 and S4.
  • the projector is, for example, a Light Commander from Texas Instruments. It contains a DLP 0.55 XGA chipset with a 0.55 inch Digital Micromirror Device (DMD), a DLPA200 (DMD Micromirror Driver) and a DLPC200 (Controller) to display 1024x768 pixels.
  • the control unit 3 controls the projector 2 in such a way that it emits an image sequence with binary two-dimensional Gray codes.
  • the transmission of a single image is designated in FIG. 2 by S01.
  • the sensors S1 to S4 are mounted in a known arrangement, in particular in pairs with the same distance, on the object 1 and connected to the control unit 3 so that they can receive and evaluate the output signals of the sensors.
  • the sensors are adapted to receive the light emitted by the projector 2 and in particular to convert it into an electrical signal. This is designated in FIG. 2 as method step S02.
  • FIG. It consists of two partial image sequences.
  • the first partial image sequence which is indicated in the upper half of FIG. 3, has 10 individual images with narrowing vertical stripes.
  • the left half of the picture is dark and the right half is bright.
  • the right half of each half of the picture is inverted, so the first and fourth picture quarters are dark and the second and third picture areas are bright.
  • the projector 2 illuminates a region of space, which is indicated by dashed lines in FIG. 1, with the image sequence. Due to the image sequence, the illuminated room area is subdivided into partial room areas, wherein a characteristic light signal sequence is emitted in each partial room area.
  • the size of a partial room area depends on the number of pictures in the picture signal sequence and / or the resolution of the projector.
  • the projection geometry of the projector 2 is known. This means that the relationship between an area in the image and the partial space area is known. This depends inter alia on the optical system of the projector 2.
  • a 2D mapping to compensate for the distortions by the optics of the projector. 2
  • the transmission of the image sequence is shown in FIG. 2 as a loop of steps S01 and S02. Each time the loop is looped, another image is projected from the sequence (another part of the code).
  • the control unit 3 can determine in which subspace region the sensor is located. To simplify the position determination, it is assumed that the sensor lies on the middle straight of the partial spatial area. The middle straight is the geometric center axis of the partial space area. The origin of each middle straight is the position PO of the projector 2. In the present example, it is determined that the sensor S1 on the straight line L1, the sensor S2 on the straight line L2, the sensor S3 on the straight line L3 and the sensor S4 on the straight line L4 lies.
  • the sensor positions are calculated by virtually displacing the four sensors S1 to S4 along the corresponding middle straight lines L1 to L4 until the virtual locations of the sensors result in an arrangement of the sensors corresponding to the actual arrangement of the sensors.
  • the virtual pairwise distances of the Be identical sensors In the present case with pairwise equidistant arrangement of the sensors, the virtual pairwise distances of the Be identical sensors.
  • the three location coordinates X, Y and Z of the sensors are known.
  • the index i in FIG. 2 identifies the respective sensor.
  • the location of the object 1 is, for example, the center of gravity of the square formed by the four sensors, but may also be generally related to the arrangement of the sensors.
  • the orientation of the object 1 is calculated from the location coordinates of the sensors.
  • the spatial relationship between the object 1 and the sensors S1 to S4 is known.
  • all six degrees of freedom (DOF) of the position of the object 1 are known.
  • the three rotational degrees of freedom relate in particular to heading, pitch and roll of the object 1 and are given as angles ⁇ , ⁇ and ⁇ , in particular with reference to an earth-fixed reference system.
  • the position of the object 1 is output, for example to a control computer of a simulator such as a flight simulator or a battlefield simulator.
  • a control computer of a simulator such as a flight simulator or a battlefield simulator.
  • the position of the object 1, which was determined relative to the projector 2 is converted by means of a coordinate transformation on the basis of the known position of the projector 2 into another reference system.
  • each sub-image sequence consists of 10 images, so the image sequence consists of 20 images.
  • the position determination takes place 250 times per second.
  • the projector 2 sends out the image sequence 250 times per second. This means that the projector 2 transmits a total of 5000 images per second.
  • a larger or smaller frequency is possible as long as the continuous or quasi-continuous tracking of the object 1 is possible.
  • the image sequence is either stored in the control unit 3 (or generated there) and is transmitted to the projector 2 for display or the image sequence is stored in the projector 2 and is clocked by the control unit 3.
  • the control unit 3 can also be integrated in the projector 2.
  • the calculation of the sensor positions in method step S03 does not have to be done by moving the positions along the middle straight line. Rather, any calculation method that determines the locations of the sensors and thus the position of the object 1 relative to the projector 2 from the middle straight line and the known arrangement of the sensors can be used.

Abstract

The invention relates to a method for tracking the position of an object (1) comprising the steps of projecting a two-dimensional image sequence by means of a projector (2), detecting in each case a light signal sequence from the image sequence by means of at least four sensors (S1, S2, S3, S4) arranged in a known configuration on the object (1), and determining the position of the object (1) relative to the projector (2) on the basis of the output signals of the sensors (S1, S2, S3, S4) and the two-dimensional image sequence, wherein the position of the object (1) relative to the projector (2) is determined at least every second.

Description

B E S C H R E I B U N G  DESCRIPTION
Verfahren und Vorrichtung zur Verfolgung der Position eines Objekts Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Verfolgung der Position eines Objekts. Dies wird auch als Tracking bezeichnet. Dabei umfasst der Begriff Position den Ort des Objekts in bis zu drei translatorischen Dimensionen und/oder die Ausrichtung des Objekts in bis zu drei rotatorischen Dimensionen. Mögliche Anwendungen des Trackings sind insbesondere das Head Tracking, bei dem die Position eines Kopfes verfolgt wird, beispielsweise um ein zu der Kopfposition korrespondierendes Bild zu erzeugen, oder das Verfolgen von Objekten wie beispielsweise Teilnehmern einer Übung und/oder deren Waffen in einer Gefechtsfeldsimulation, insbesondere auch in geschlossenen Räumen. Method and device for tracking the position of an object The present invention relates to a method and a device for tracking the position of an object. This is also called tracking. The term position encompasses the location of the object in up to three translational dimensions and / or the orientation of the object in up to three rotational dimensions. Possible applications of the tracking are, in particular, the head tracking, in which the position of a head is tracked, for example to produce an image corresponding to the head position, or the tracking of objects such as participants of an exercise and / or their weapons in a battlefield simulation, in particular also in closed rooms.
Es sind verschiedene Ansätze zum Verfolgen der Position eines Objekts bekannt. Eine Variante besteht darin, Beschleunigungssensoren an dem Objekt anzubringen und aus deren Ausgangssignalen auf eine Positionsänderung zu schließen. Dies ist jedoch recht ungenau. Eine andere Variante nutzt ein GPS Signal. Damit lässt sich jedoch die Ausrichtung des Objekts nicht bestimmen und die Verfolgung ist innerhalb von Gebäuden nicht möglich. Das Dokument WO 2005/015904 A1 offenbart ein Verfahren und eine Vorrichtung zum Ermittein der Übereinstimmung zwischen Punkten auf einer Projektionsoberfläche mit beliebiger Form und Pixeln im Bild eines Projektors. Dazu wird eine zweidimensionale Bildsequenz aus Gray- Codes mittels des Projektors projiziert und von einzelnen Lichtsensoren in der Projektionsoberfläche detektiert. Die Ausgangssignale der Sensoren werden verwendet, um die Übereinstimmung zwischen den Sensorpositionen und Pixeln des projizierten Bildes zu ermitteln. Various approaches for tracking the position of an object are known. One variant is to attach acceleration sensors to the object and to conclude from their output signals to a change in position. This is quite inaccurate. Another variant uses a GPS signal. However, this can not determine the orientation of the object and the tracking is not possible within buildings. Document WO 2005/015904 A1 discloses a method and apparatus for determining the correspondence between points on a projection surface of arbitrary shape and pixels in the image of a projector. For this purpose, a two-dimensional image sequence from Gray Codes projected by the projector and detected by individual light sensors in the projection surface. The output signals of the sensors are used to determine the correspondence between the sensor positions and pixels of the projected image.
Es ist eine Errungenschaft der vorliegenden Erfindung, das Prinzip aus dem Dokument WO 2005/015904 A1 , das sich auf die Anpassung eines projizierten Bildes an die einmalig ermittelte Beziehung zwischen dem Projektor und der Projektionsoberfläche bezieht, auf die Verfolgung der Position eines Objekts zu übertragen. It is an achievement of the present invention to transfer the principle of document WO 2005/015904 A1, which relates to the adaptation of a projected image to the uniquely determined relationship between the projector and the projection surface, to the tracking of the position of an object.
Die vorliegende Erfindung betrifft ein Verfahren zur Verfolgung der Position eines Objekts mit den Schritten projizieren einer zweidimensionalen Bildsequenz mittels eines Projektors, erfassen jeweils einer Lichtsignalfolge aus der Bildsequenz mit mindestens vier in einer bekannten Konfiguration an dem Objekt angeordneten Sensoren und ermitteln der Position des Objekts relativ zu dem Projektor anhand der Ausgangssignale der Sensoren und der zweidimensionalen Bildsequenz, wobei die Position des Objekts relativ zum Projektor mindestens jede Sekunde ermittelt wird. The present invention relates to a method for tracking the position of an object with the steps of projecting a two-dimensional image sequence by means of a projector, respectively detecting a light signal sequence from the image sequence with at least four sensors arranged in a known configuration on the object and determining the position of the object relative to the projector based on the output signals of the sensors and the two-dimensional image sequence, wherein the position of the object relative to the projector is determined at least every second.
Die von dem Projektor ausgesendete zweidimensionale Biidsequenz erzeugt in verschiedenen Teil-Raumbereichen des ausgeleuchteten Raumbereichs entsprechende Lichtsignalfolgen. Wenn eine Lichtsignalfolge von einem Sensor erfasst wird, iässt sich somit bestimmen, in welchem Teil-Raumbereich sich der Sensor befindet. Ein Teil-Raumbereich ist üblicherweise kegelförmig oder insbesondere pyramidenförmig mit der Spitze am Ort des Projektors. Je länger die Bildsequenz ist, je mehr Bilder die Bildsequenz also enthält, desto mehr Lichtsignalfolgen und entsprechend mehr Teil-Raumbereiche lassen sich unterscheiden. Die Sensoren, bei denen es sich um Lichtsensoren und insbesondere um Photodioden handelt, sind in einer bekannten Konfiguration an dem Objekt angeordnet. Das bedeutet, dass die Relativpositionen zwischen den Sensoren und die Relativpositionen der Sensoren zu dem Objekt bekannt sind. Somit kann aus den Positionen der Sensoren relativ zu dem Projektor die Position des Objekts relativ zu dem Projektor berechnet werden. Insbesondere wird die Ausrichtung der Sensoren nicht berücksichtigt und nur ihr Ort relativ zu dem Projektor betrachtet. Es können insbesondere Sensoren verwendet werden, die bereits zu anderen Zwecken an dem Objekt angeordnet sind, beispielsweise Sensoren zur Trefferdetektion in einer Gefechtsfeldsimulation. The two-dimensional image sequence emitted by the projector generates corresponding light signal sequences in different partial spatial regions of the illuminated spatial region. When a light signal sequence is detected by a sensor, it is thus possible to determine in which partial space region the sensor is located. A partial space area is usually conical or in particular pyramidal with the apex at the location of the projector. The longer the image sequence is, the more images the image sequence contains, the more light signal sequences and correspondingly more partial spatial regions can be distinguished. The sensors, which are light sensors and in particular photodiodes, are arranged in a known configuration on the object. This means that the relative positions between the sensors and the relative positions of the sensors to the object are known. Thus, from the positions of the sensors relative to the projector, the position of the object relative to the projector can be calculated. In particular, the orientation of the sensors is disregarded and only their location relative to the projector is considered. In particular, sensors may be used which are already arranged on the object for other purposes, for example sensors for detecting hits in a battlefield simulation.
Die Position des Objekts wird erfindungsgemäß mindestens einmal pro Sekunde ermittelt. Bevorzugt ist die Frequenz noch höher, beispielsweise genau oder mindestens 2, 5, 10, 20, 25, 50, 100, 200 oder 250 mal pro Sekunde. Durch die wiederholte, bevorzugt regelmäßige, Ermittlung der Position ist eine Verfolgung des Objekts möglich. The position of the object is determined according to the invention at least once a second. Preferably, the frequency is even higher, for example exactly or at least 2, 5, 10, 20, 25, 50, 100, 200 or 250 times per second. Due to the repeated, preferably regular, determination of the position tracking of the object is possible.
In einer Ausführungsform der Erfindung ist die Bildsequenz eine binäre Bildsequenz. Dies bedeutet, dass nur eine binäre Information, also eine Bitfolge, in einer Lichtsignalfolge enthalten ist. Es werden somit nur die Zustände Licht an und Licht aus verwendet. Somit wird eine einfache und robuste Bestimmung des Teil-Raumbereichs möglich. in einer weiteren Ausführungsform ist die Bildsequenz monochrom. Das bedeutet, dass die Bildsequenz nur Licht einer einzigen Wellenlänge oder eines schmalen Wellenlängenbereiches enthält. Somit können schmalbandige Filter vor den Sensoren angeordnet werden, die Licht anderer Wellenlänge ausfiltern und somit den störenden Einfluss von Fremdlicht unterdrücken. Es liegt jedoch ebenfalls im Rahmen dieser Erfindung, eine polychromatische Bildsequenz und/oder eine Bildsequenz mit mehr als zwei Helligkeitsstufen zu verwenden. Damit lassen sich bei gleicher Länge der Bildsequenz mehr Teil-Raumbereiche unterscheiden. Dies geht jedoch auf Kosten komplexerer Lichtsensoren und Auswertung sowie einer weniger robusten Erkennung. In one embodiment of the invention, the image sequence is a binary image sequence. This means that only one binary information, that is a bit sequence, is contained in a light signal sequence. Thus only the states light on and light off are used. Thus, a simple and robust determination of the partial space area becomes possible. In another embodiment, the image sequence is monochrome. This means that the image sequence contains only light of a single wavelength or a narrow wavelength range. Thus, narrow-band filters can be arranged in front of the sensors which filter out light of a different wavelength and thus suppress the interfering influence of extraneous light. However, it is also within the scope of this invention to use a polychromatic image sequence and / or an image sequence with more than two brightness levels. This can be distinguished with the same length of the image sequence more partial space areas. However, this comes at the expense of more complex light sensors and evaluation as well as less robust detection.
Bevorzugt ist die Bildsequenz ein Strichcode wie beispielsweise ein zweidimensionaler Gray-Code. Dieser besteht aus zwei Teilsequenzen. Im ersten Bild jeder Teiisequenz ist die eine Bildhälfte dunkel, die andere Hell. Im nächsten Bild wird jede Bildhälfte wieder in zwei Hälften unterteilt und eine der Hälften invertiert. Somit ergibt sich ein beispielsweise alternierendes Streifenmuster aus abwechselnd hellen und dunklen Streifen, wobei die Streifenbreite von Bild zu Bild halbiert wird. In einer der Teilsequenzen verlaufen die Streifen horizontal, in der anderen vertikal. Jede der Teiisequenzen für sich genommen ist demnach ein eindimensionaler Gray-Code. Die Streifen der beiden Gray-Codes stehen bevorzugt senkrecht zueinander. Die Bildsequenz liegt bevorzugt im infraroten oder ultravioletten Frequenzspektrum. Das bedeutet dass das von dem Projektor ausgesendete Licht im infraroten oder ultravioletten Spektrum liegt und bevorzugt kein Licht im sichtbaren Spektrum enthält. Somit werden beispielsweise Personen, die sich in dem vom Projektor ausgeleuchteten Bereich aufhalten, nicht gestört, beispielsweise geblendet. Bei der Verwendung eines ausschließlich ultravioletten Spektrums wird der Einsatz von Nachtsichtgeräten nicht behindert. Preferably, the image sequence is a bar code such as a two-dimensional Gray code. This consists of two subsequences. In the first picture of each sequence, one half of the picture is dark, the other bright. In the next image, each half of the image is divided into two halves and one of the halves inverted. Thus, for example, there is an alternating stripe pattern of alternating light and dark stripes, whereby the stripe width is halved from image to image. In one of the subsequences the stripes run horizontally, in the other vertically. Each of the sequences is therefore a one-dimensional Gray code. The strips of the two Gray codes are preferably perpendicular to each other. The image sequence is preferably in the infrared or ultraviolet frequency spectrum. This means that the light emitted by the projector is in the infrared or ultraviolet spectrum and preferably contains no light in the visible spectrum. Thus, for example, people who are in the area illuminated by the projector, not disturbed, such as dazzled. Using an ultraviolet spectrum alone will not hinder the use of night vision equipment.
In einer Ausführungsform der Erfindung wird ein digitaler Projektor zur Projektion der Bildsequenz verwendet. Ein Pixel oder mehrere benachbarte Pixel leuchten dann einen Teil-Raumbereich aus, in den dieselbe Lichtsignalfolge ausgesendet wird. Für jeden Teil-Raumbereich wird eine Mittelgerade definiert. Bei einem Teil-Raumbereich in Form einer geraden Pyramide, insbesondere mit rechteckiger Grundfläche, ist die Mittelgerade dann die Höhe der Pyramide. Aus den Lichtsignalfolgen der Sensoren werden die Mittelgeraden identifiziert, auf denen die Sensoren liegen. Anders ausgedrückt wird angenommen, dass ein Sensor, der in einem Teil- Raumbereich liegt, auf der mittelgeraden dieses Teil-Raumbereichs liegt, um die anschließenden Berechnungen zu vereinfachen. Dann werden die Orte der Sensoren virtuell entlang der jeweiligen Mittelgeraden verschoben, bis die virtuellen relativen Orte der Sensoren mit der tatsächlichen Konfiguration der Sensoren übereinstimmen. In einer Alternative wird die Position der Gesamtheit der Sensoren in ihrer bekannten Anordnung zueinander so lange virtuell verändert, bis jeder Sensor auf der ihm zugeordneten Mittelgeraden liegt. In one embodiment of the invention, a digital projector is used to project the image sequence. One pixel or several adjacent pixels then illuminate a partial spatial area into which the same light signal sequence is emitted. For each subspace, a middle straight is defined. In a partial space area in the form of a straight pyramid, in particular with a rectangular base, the middle straight is then the height of the pyramid. From the light signal sequences of the sensors, the middle straight lines are identified on which the sensors are located. In other words, it is assumed that a sensor located in a partial space area lies on the middle straight of this partial space area in order to simplify the subsequent calculations. Then, the locations of the sensors are virtually shifted along the respective middle line until the virtual relative locations of the sensors coincide with the actual configuration of the sensors. In an alternative, the position of the entirety of the sensors in their known arrangement is virtually changed until virtually every sensor is located on the middle straight assigned to it.
Berücksichtigt man nur einen Sensor und die zugehörige Mitteigerade, so kann das Objekt nur auf einer bekannten Geraden liegen. Über die dritte translatorische Komponente (die Entfernung vom Projektor) und die drei rotatorischen Komponenten (Orientierung) der Position des Objekts kann noch keine Aussage getroffen werden. Vier Freiheitsgrade des Objekts sind somit noch unbestimmt. Werden drei weitere Sensoren berücksichtigt, so können die restlichen Freiheitsgrade ebenfalls berechnet werden. Damit sind die Position und die Orientierung des Objekts eindeutig bestimmt. Taking into account only one sensor and the associated middle echelon, the object can only lie on a known straight line. About the third translational component (the distance from the projector) and the three rotational components (orientation) of the position of the object, no statement can be made yet. Four degrees of freedom of the object are thus still undetermined. If three additional sensors are considered, the remaining degrees of freedom can also be calculated. Thus, the position and orientation of the object are uniquely determined.
Optional werden Zusatzinformation bei der Ermittlung der Position des Objekts relativ zum Projektor aus den Ausgangssignalen der Sensoren und der Bildsequenz berücksichtigt. Ein Beispiel für eine solche Zusatzinformation ist der Abstand eines Sensors von dem Projektor. Die vorliegende Erfindung betrifft ferner eine Vorrichtung zur Verfolgung der Position eines Objekts mit einem Projektor, der dazu eingerichtet ist, eine zweidimensionale Bildsequenz zu projizieren, mit mindestens vier Sensoren, die in einer bekannten Konfiguration an dem Objekt angeordnet sind und dazu eingerichtet sind, jeweils eine Uchtsignalfolge aus der Bildsequenz zu erfassen, und mit einer Recheneinheit, die dazu eingerichtet ist, die Position des Objekts relativ zu dem Projektor anhand der Ausgangssignale der Sensoren und der zweidimensionalen Bildsequenz mindestens jede Sekunde zu ermitteln. Optionally, additional information is taken into account when determining the position of the object relative to the projector from the output signals of the sensors and the image sequence. An example of such additional information is the distance of a sensor from the projector. The present invention further relates to a device for tracking the position of an object with a projector, which is adapted to project a two-dimensional image sequence, with at least four sensors, which are arranged in a known configuration on the object and are adapted to each one Capture real-time signal sequence from the image sequence, and with a computing unit which is adapted to determine the position of the object relative to the projector based on the output signals of the sensors and the two-dimensional image sequence at least every second.
Die Vorteile sind analog zu den im Rahmen des Verfahrens beschriebenen. Insbesondere ist die Recheneinheit dazu eingerichtet, das vorstehend beschriebene Verfahren in einer oder mehreren Ausgestaltungsformen auszuführen. Das bedeutet, dass die Recheneinheit entweder selber die Verfahrensschritte ausführt oder eine andere Komponente der Vorrichtung anweist, einen Verfahrensschritt auszuführen. The advantages are analogous to those described in the context of the method. In particular, the arithmetic unit is adapted to carry out the method described above in one or more embodiments. This means that the arithmetic unit either itself carries out the method steps or instructs another component of the device to execute a method step.
In einer Ausgestaltungsform der Erfindung sind vier Sensoren an den Spitzen eines gedachten Quadrats angeordnet. Dies bedeutet, dass die Abstände zwischen jeweils zwei Sensoren gleich sind, die Sensoren also symmetrisch angeordnet sind. Dadurch wird insbesondere die Berechnung der Position des Objekts aus den Lichtsignaifolgen der Sensoren vereinfacht. In one embodiment of the invention, four sensors are arranged at the tips of an imaginary square. This means that the distances between each two sensors are the same, so the sensors are arranged symmetrically. This simplifies in particular the calculation of the position of the object from the light signal sequences of the sensors.
In einer Ausgestaltungsform weist die Vorrichtung zwei Projektoren auf, die dazu eingerichtet sind, jeweils eine zweidimensionale Bildsequenz zu projizieren. Die Projektoren sind bevorzugt synchronisiert, sodass auch die ausgesendeten Bildsequenzen synchronisiert sind. Durch die Verwendung mehrerer Projektoren kann die Verfügbarkeit der Positionsverfolgung des Objekts verbessert werden und/oder der Raumbereich für die Verfolgung vergrößert werden. Wird nur ein Projektor verwendet, so kann es sein, dass einer der Sensoren abgeschattet wird, also keine Lichtsignalfolge von dem Projektor detektiert Durch die Verwendung von zwei oder mehr Projektoren wird die Wahrscheinlichkeit des Eintretens dieses Falles deutlich verringert, insbesondere wenn sich die Projektoren an unterschiedlichen Orten befinden. In one embodiment, the device has two projectors that are each configured to project a two-dimensional image sequence. The projectors are preferably synchronized, so that the transmitted image sequences are synchronized. By using multiple projectors, the availability of position tracking of the object can be improved and / or the space area for tracking can be increased. If only one projector is used, it may be that one of the sensors is shaded, Thus, no light signal sequence detected by the projector By using two or more projectors, the probability of the occurrence of this case is significantly reduced, especially if the projectors are located in different locations.
In einer Ausgestaltungsform projizieren die Projektoren Bildsequenzen in unterschiedlichen Wellenlängenbereichen. In diesem Fall können die Projektoren gleichzeitig projizieren, ohne sich an den Sensoren gegenseitig zu beeinflussen. Dies setzt jedoch voraus, dass die Sensoren zwischen den Wellenlängenbereichen differenzieren können. Alternativ projizieren die Projektoren Bildsequenzen im selben Wellenlängenbereich, und insbesondere monochromatisch auf derselben Wellenlänge. In diesem Fall muss eine Kollision der Projektionen an den Sensoren verhindert werden, beispielsweise dadurch, dass die Projektoren im Zeitmultiplex projizieren. In one embodiment, the projectors project image sequences in different wavelength ranges. In this case, the projectors can project simultaneously without interfering with each other at the sensors. However, this assumes that the sensors can differentiate between the wavelength ranges. Alternatively, the projectors project image sequences in the same wavelength range, and in particular monochromatically at the same wavelength. In this case, a collision of the projections on the sensors must be prevented, for example by the fact that the projectors project in time division multiplex.
Die vorliegende Erfindung betrifft weiterhin die Verwendung einer Vorrichtung mit einem Projektor, der dazu eingerichtet ist, eine zweidimensionale Bildsequenz zu projizieren, mit mindestens vier Sensoren, die in einer bekannten Konfiguration an einem Objekt angeordnet sind und dazu eingerichtet sind, jeweils eine Lichtsignalfolge aus der Bildsequenz zu erfassen, und mit einer Recheneinheit, die dazu eingerichtet ist, die Position des Objekts relativ zu dem Projektor anhand der Ausgangssignale der Sensoren und der zweidimensionalen Bildsequenz zu ermitteln, zur Verfolgung der Position des Objekts. Die Verwendung erfolgt insbesondere im Rahmen einer Gefechtsfeldsimulation oder zur Bestimmung der Position eines Kopfes (head tracking). Bei einer Gefechtsfeldsimulation ist das zu verfolgende Objekt beispielsweise ein Fahrzeug, ein Teilnehmer oder eine Waffe. Eine Gefechtsfeldsimulation dient dem Training von Orts- und Häuserkämpfen in Gefechtsübungszentren. Bei der Verwendung in einem Head Tracker kann die Blickrichtung der beobachteten Person festgestellt werden. Daraufhin kann die Steuerung der Darstellung eines Head Mounted Display (HMD), die Zielzuweisung von Waffensystemen, die Ermittlung der Sichtlinie von Personen oder die Ermittlung der Schussrichtung von simulierten Waffen erfolgen. Es ist auch eine Verwendung zum Tracken und Steuern von Sensorplattformen oder autonomen Fahrzeugen, zum Beispiel in Fabrik- oder Lagerhallen, möglich. Die vorliegende Erfindung ermöglicht das Lokalisieren und Verfolgen von Objekten in geschlossenen Räumen und bei passender Wahl des Lichtspektrums des Projektors wird eine störende Beeinflussung von Personen und Geräten, die sich in dem vom Projektor ausgeleuchteten Bereich befinden, verhindert. Die Vorrichtung und das Verfahren werden nicht durch magnetische, elektrische oder akustische Störquellen beeinträchtigt. Eine Anwendung ist sowohl in ruhenden als auch in bewegten Umgebungen möglich. Eine ortsabhängige Kalibrierung der Vorrichtung, zum Beispiel in einem Cockpit, ist nicht erforderlich. Es liegt im Rahmen der vorliegenden Erfindung, einzelne Merkmale aus Ausführungsformen oder Ausgestaitungsformen oder optionale Merkmale miteinander zu kombinieren oder nicht erfindungswesentliche Merkmale einer Ausführungsform oder Ausgestaltungsform wegzulassen. Die vorliegende Erfindung soll anhand eines Ausführungsbeispiels näher erläutert werden. Dabei zeigt: The present invention further relates to the use of a device having a projector that is configured to project a two-dimensional image sequence, having at least four sensors, which are arranged in a known configuration on an object and are adapted to each a light signal sequence from the image sequence and a computing unit configured to determine the position of the object relative to the projector from the output signals of the sensors and the two-dimensional image sequence for tracking the position of the object. The use is in particular in the context of a battlefield simulation or to determine the position of a head (head tracking). In a battlefield simulation, the object to be tracked is, for example, a vehicle, a participant or a weapon. A battlefield simulation serves to train local and house battles in combat training centers. When used in a head tracker, the viewing direction of the observed person can be determined. It can then be used to control the appearance of a head-mounted display (HMD), to target weapon systems, to determine the line of sight of individuals, or to determine the firing direction of simulated weapons. It is also possible to track and control sensor platforms or autonomous vehicles, for example in factories or warehouses. The present invention makes it possible to locate and track objects in confined spaces and, with proper choice of the light spectrum of the projector, it prevents the interference of persons and devices located in the area illuminated by the projector. The device and method are not affected by magnetic, electrical or acoustic sources of interference. An application is possible in both stationary and moving environments. A location-dependent calibration of the device, for example in a cockpit, is not required. It is within the scope of the present invention to combine individual features of embodiments or Ausgestaitungsformen or optional features together or omit features not essential to the invention of an embodiment or embodiment. The present invention will be explained in more detail with reference to an embodiment. Showing:
Figur 1 eine schematische Darstellung einer Figure 1 is a schematic representation of a
erfindungsgemäßen Vorrichtung,  device according to the invention,
Figur 2 ein Ablaufdiagramm des erfindungsgemäßen FIG. 2 is a flowchart of the invention
Verfahrens und  Procedure and
Figur 3 eine beispielhafte Bildsequenz. Die Figur 1 zeigt schematisch eine erfindungsgemäße Vorrichtung zur Ermittlung der Position eines Objekts 1. Die Vorrichtung umfasst einen Projektor 2, eine Steuereinheit 3 und vier Sensoren S1 , S2, S3 und S4. Bei dem Projektor handelt es sich beispielsweise um einen Light Commander von Texas Instruments. Dieser enthält einen DLP 0.55 XGA Chipsatz mit einem 0.55 inch Digital Micromirror Device (DMD), einen DLPA200 (DMD Micromirror Driver) und einen DLPC200 (Controller) zur Darstellung von 1024x768 Pixeln. Die Steuereinheit 3 steuert den Projektor 2 derart an, dass dieser eine Bildsequenz mit binären zweidimensionalen Gray-Codes aussendet. Die Aussendung eines Einzelbildes ist in der Figur 2 mit S01 bezeichnet. FIG. 3 shows an exemplary image sequence. 1 shows schematically a device according to the invention for determining the position of an object 1. The device comprises a projector 2, a control unit 3 and four sensors S1, S2, S3 and S4. The projector is, for example, a Light Commander from Texas Instruments. It contains a DLP 0.55 XGA chipset with a 0.55 inch Digital Micromirror Device (DMD), a DLPA200 (DMD Micromirror Driver) and a DLPC200 (Controller) to display 1024x768 pixels. The control unit 3 controls the projector 2 in such a way that it emits an image sequence with binary two-dimensional Gray codes. The transmission of a single image is designated in FIG. 2 by S01.
Die Sensoren S1 bis S4 sind in einer bekannten Anordnung, insbesondere jeweils paarweise mit gleichem Abstand, an dem Objekt 1 angebracht und so mit der Steuereinheit 3 verbunden, dass diese die Ausgangssignale der Sensoren empfangen und auswerten kann. Die Sensoren sind dazu eingerichtet, das vom Projektor 2 ausgesendete Licht zu empfangen und insbesondere in ein elektrisches Signal umzuwandein. Dies ist in der Figur 2 als Verfahrensschritt S02 bezeichnet. The sensors S1 to S4 are mounted in a known arrangement, in particular in pairs with the same distance, on the object 1 and connected to the control unit 3 so that they can receive and evaluate the output signals of the sensors. The sensors are adapted to receive the light emitted by the projector 2 and in particular to convert it into an electrical signal. This is designated in FIG. 2 as method step S02.
Eine beispielhafte Bildsequenz ist in der Figur 3 dargestellt. Sie besteht aus zwei Teil-Bildsequenzen. Die erste Teil-Bildsequenz, die in der oberen Hälfte der Figur 3 angedeutet ist, weist 10 Einzelbilder mit schmaler werdenden vertikalen Streifen auf. im ersten Bild ist die linke Bildhälfte dunkel und die rechte Bildhälfte hell. Im zweiten Bild ist jeweils die rechte Hälfte der jeweiligen Bildhälfte invertiert, also sind das erste und vierte Bildviertel dunkel und das zweite und dritte Bildviertel hell. Allgemein gesprochen wird ein homogener (gleichfarbiger und/oder gleich heller) Bildbereich in der Mitte geteilt und für das nächste Bild eine Hälfte des Bildbereichs "invertiert. Analog dazu weist die in der unteren Hälfte der Figur 3 angedeutete zweite Teil-Bildsequenz von Bild zu Bild schmaler werdende horizontale Streifen auf. Der Projektor 2 leuchtet einen Raumbereich, der in der Figur 1 durch gestrichelte Linien angedeutet ist, mit der Bildsequenz aus. Aufgrund der Bildsequenz wird der ausgeleuchtete Raumbereich in Teif-Raumbereiche unterteilt, wobei in jeden Teil-Raumbereich eine charakteristische Lichtsignalfolge ausgestrahlt wird. Die Größe eines Teil-Raumbereichs hängt von der Anzahl der Bilder in der Bildsignalfolge und/oder der Auflösung des Projektors ab. Die Projektionsgeometrie des Projektors 2 ist bekannt. Dies bedeutet, dass der Zusammenhang zwischen einem Bereich im Bild und dem Teil-Raumbereich bekannt ist. Dies hängt unter anderem von dem optischen System des Projektors 2 ab. Optional erfolgt ein 2D-Mapping zur Kompensation der Verzerrungen durch die Optik des Projektors 2. An exemplary image sequence is shown in FIG. It consists of two partial image sequences. The first partial image sequence, which is indicated in the upper half of FIG. 3, has 10 individual images with narrowing vertical stripes. In the first picture, the left half of the picture is dark and the right half is bright. In the second picture, the right half of each half of the picture is inverted, so the first and fourth picture quarters are dark and the second and third picture areas are bright. Generally speaking, a homogeneous (same color and / or equal to brighter divided) image area at the center and inverted for the next picture one half of the image area. "includes Analogously, in the lower half of Figure 3 indicated second part-image sequence from one image to narrowing horizontal stripes. The projector 2 illuminates a region of space, which is indicated by dashed lines in FIG. 1, with the image sequence. Due to the image sequence, the illuminated room area is subdivided into partial room areas, wherein a characteristic light signal sequence is emitted in each partial room area. The size of a partial room area depends on the number of pictures in the picture signal sequence and / or the resolution of the projector. The projection geometry of the projector 2 is known. This means that the relationship between an area in the image and the partial space area is known. This depends inter alia on the optical system of the projector 2. Optionally, a 2D mapping to compensate for the distortions by the optics of the projector. 2
Die Aussendung der Bildsequenz ist in der Figur 2 als Schleife der Schritte S01 und S02 dargestellt. Bei jedem Durchlauf der Schleife wird ein anderes Bild aus der Sequenz (ein anderer Teil des Codes) projiziert. Auf Basis des Ausgangssignals eines Sensors und der bekannten Bildsequenz kann die Steuereinheit 3 bestimmen, in welchem Teil- Raumbereich der Sensor liegt. Zur Vereinfachung der Positionsermittlung wird angenommen, dass der Sensor auf der Mittelgeraden des Teil- Raumbereichs liegt. Als Mittelgerade wird die geometrische Mittelachse des Teil-Raumbereichs angesehen. Der Ursprung jeder Mittelgeraden ist die Position PO des Projektors 2. Im vorliegenden Beispiel wird ermittelt, dass der Sensor S1 auf der Geraden L1 , der Sensor S2 auf der Geraden L2, der Sensor S3 auf der Geraden L3 und der Sensor S4 auf der Geraden L4 liegt. The transmission of the image sequence is shown in FIG. 2 as a loop of steps S01 and S02. Each time the loop is looped, another image is projected from the sequence (another part of the code). On the basis of the output signal of a sensor and the known image sequence, the control unit 3 can determine in which subspace region the sensor is located. To simplify the position determination, it is assumed that the sensor lies on the middle straight of the partial spatial area. The middle straight is the geometric center axis of the partial space area. The origin of each middle straight is the position PO of the projector 2. In the present example, it is determined that the sensor S1 on the straight line L1, the sensor S2 on the straight line L2, the sensor S3 on the straight line L3 and the sensor S4 on the straight line L4 lies.
Im Verfahrensschritt S03 werden die Sensorpositionen berechnet, indem die vier Sensoren S1 bis S4 virtuell entlang der zugehörigen Mittelgeraden L1 bis L4 verschoben werden, bis die virtuellen Orte der Sensoren eine Anordnung der Sensoren ergeben, die der tatsächlichen Anordnung der Sensoren entspricht. Im vorliegenden Fall mit paarweise äquidistanter Anordnung der Sensoren müssen die virtuellen paarweisen Abstände der Sensoren identisch sein. Damit sind die drei Ortskoordinaten X, Y und Z der Sensoren bekannt. Der Index i in der Figur 2 identifiziert den jeweiligen Sensor. Der Ort des Objekts 1 ist beispielsweise der Schwerpunkt des aus den vier Sensoren gebildeten Quadrats, kann aber auch allgemein im Bezug auf die Anordnung der Sensoren bezogen sein. In method step S03, the sensor positions are calculated by virtually displacing the four sensors S1 to S4 along the corresponding middle straight lines L1 to L4 until the virtual locations of the sensors result in an arrangement of the sensors corresponding to the actual arrangement of the sensors. In the present case with pairwise equidistant arrangement of the sensors, the virtual pairwise distances of the Be identical sensors. Thus, the three location coordinates X, Y and Z of the sensors are known. The index i in FIG. 2 identifies the respective sensor. The location of the object 1 is, for example, the center of gravity of the square formed by the four sensors, but may also be generally related to the arrangement of the sensors.
Im Verfahrensschritt S04 wird aus den Ortskoordinaten der Sensoren die Orientierung des Objekts 1 berechnet. Der räumliche Zusammenhang zwischen dem Objekt 1 und den Sensoren S1 bis S4 ist bekannt. Damit sind alle sechs Freiheitsgrade (degrees of freedom, DOF) der Position des Objekts 1 bekannt. Die drei Rotationsfreiheitsgrade beziehen sich insbesondere auf Heading, Pitch und Roll des Objekts 1 und werden als Winkel Θ, Φ und Ψ angegeben, insbesondere bezogen auf ein erdfestes Bezugssystem. In method step S04, the orientation of the object 1 is calculated from the location coordinates of the sensors. The spatial relationship between the object 1 and the sensors S1 to S4 is known. Thus, all six degrees of freedom (DOF) of the position of the object 1 are known. The three rotational degrees of freedom relate in particular to heading, pitch and roll of the object 1 and are given as angles Θ, Φ and Ψ, in particular with reference to an earth-fixed reference system.
Im Verfahrensschritt S05 wird die Position des Objekts 1 ausgegeben, beispielsweise an einen Kontrollrechner eines Simulators wie einem Flugsimulator oder einem Gefechtsfeldsimulator. Optional wird die Position des Objekts 1 , die relativ zu dem Projektor 2 ermittelt wurde, über eine Koordinatentransformation auf Basis der bekannten Position des Projektors 2 in ein anderes Bezugssystem umgerechnet. In method step S05, the position of the object 1 is output, for example to a control computer of a simulator such as a flight simulator or a battlefield simulator. Optionally, the position of the object 1, which was determined relative to the projector 2, is converted by means of a coordinate transformation on the basis of the known position of the projector 2 into another reference system.
Im vorliegenden Beispiel besteht jede Teil-Bildsequenz aus 10 Bildern, sodass die Bildsequenz aus 20 Bildern besteht. Die Positionsermittlung erfolgt 250 mal pro Sekunde. Dazu sendet der Projektor 2 die Bildsequenz 250 mal pro Sekunde aus Das bedeutet, dass der Projektor 2 insgesamt 5000 Bilder pro Sekunde aussendet. Es ist jedoch auch eine größere oder kleinere Frequenz möglich, solange die kontinuierliche oder quasikontinuierliche Verfolgung des Objekts 1 möglich ist. Die Bildsequenz ist entweder in der Steuereinheit 3 gespeichert (oder wird dort erzeugt) und wird zur Darstellung an den Projektor 2 übertragen oder die Bildsequenz ist im Projektor 2 gespeichert und wird von der Steuereinheit 3 getaktet dargestellt. Die Steuereinheit 3 kann auch in den Projektor 2 integriert sein. In this example, each sub-image sequence consists of 10 images, so the image sequence consists of 20 images. The position determination takes place 250 times per second. For this purpose, the projector 2 sends out the image sequence 250 times per second. This means that the projector 2 transmits a total of 5000 images per second. However, a larger or smaller frequency is possible as long as the continuous or quasi-continuous tracking of the object 1 is possible. The image sequence is either stored in the control unit 3 (or generated there) and is transmitted to the projector 2 for display or the image sequence is stored in the projector 2 and is clocked by the control unit 3. The control unit 3 can also be integrated in the projector 2.
Die Berechnung der Sensorpositionen im Verfahrensschritt S03 muss nicht durch Verschieben der Positionen entlang der Mittelgeraden erfolgen. Vielmehr kann jede Berechnungsmethode, die aus den Mittelgeraden und der bekannten Anordnung der Sensoren die Orte der Sensoren und damit die Position des Objekts 1 relativ zum Projektor 2 bestimmt, verwendet werden. The calculation of the sensor positions in method step S03 does not have to be done by moving the positions along the middle straight line. Rather, any calculation method that determines the locations of the sensors and thus the position of the object 1 relative to the projector 2 from the middle straight line and the known arrangement of the sensors can be used.

Claims

Rheinmetall Defence Electronics GmbH, Bremen P A T E N T A N S P R Ü C H E Rheinmetall Defense Electronics GmbH, Bremen PATENT APPLICATIONS
1. 1.
Verfahren zur Verfolgung der Position eines Objekts (1) mit den Schritten projizieren einer zweidimensionalen Bildsequenz mittels eines Projektors (2), erfassen jeweils einer Lichtsignalfolge aus der Bildsequenz mit mindestens vier in einer bekannten Konfiguration an dem Objekt (1) angeordneten Sensoren (S1 , S2, S3, S4) und ermittein der Position des Objekts (1) relativ zu dem Projektor (2) anhand der Ausgangssignale der Sensoren (S1 , S2, S3, S4) und der zweidimensionalen Bildsequenz, wobei die Position des Objekts (1) relativ zum Projektor (2) mindestens jede Sekunde ermittelt wird.  Method for tracking the position of an object (1) with the steps of projecting a two-dimensional image sequence by means of a projector (2), respectively detecting a light-signal sequence from the image sequence with at least four sensors (S1, S2) arranged on the object (1) in a known configuration , S3, S4) and in the position of the object (1) relative to the projector (2) from the output signals of the sensors (S1, S2, S3, S4) and the two-dimensional image sequence, the position of the object (1) relative to Projector (2) is determined at least every second.
2. Second
Verfahren nach Anspruch 1 , wobei die Bildsequenz eine binäre Bildsequenz ist. The method of claim 1, wherein the image sequence is a binary image sequence.
3. Third
Verfahren nach Anspruch 2, wobei die Bildsequenz ein zweidimensionaler Gray-Code ist.  The method of claim 2, wherein the image sequence is a two-dimensional Gray code.
4. 4th
Verfahren nach einem der Ansprüche 1 bis 3, wobei die Bildsequenz im infraroten oder ultravioletten Frequenzspektrum liegt. Method according to one of claims 1 to 3, wherein the image sequence is in the infrared or ultraviolet frequency spectrum.
5. 5th
Verfahren nach einem der Ansprüche 1 bis 4, wobei ein digitaler Projektor (2) zur Projektion der Bildsequenz verwendet wird, ein Pixel oder mehrere benachbarte Pixel jeweils einen Raumbereich ausleuchten, in den dieselbe Lichtsignalfolge ausgesendet wird, für jeden Raumbereich eine Mittelgerade (L1 , L2, L3, L4) definiert wird, aus den Lichtsignalfolgen der Sensoren (S1 , S2, S3, S4) die Mittelgeraden (L1 , L2, L3, L4) identifiziert werden, auf denen die Sensoren (S1 , S2, S3, S4) liegen, und die Lagen der Sensoren (S1 , S2, S3, S4) virtuell entlang der jeweiligen Mitteigeraden (L1 , L2, L3, L4) verschoben werden, bis die virtuelle relative Lage der Sensoren (S1 , S2, S3, S4) mit der tatsächlichen Konfiguration der Sensoren (S1 , S2, S3, S4) übereinstimmt.  Method according to one of claims 1 to 4, wherein a digital projector (2) is used for projection of the image sequence, one pixel or several adjacent pixels each illuminate a region in which the same light signal sequence is emitted, a middle straight (L1, L2 , L3, L4), from the light signal sequences of the sensors (S1, S2, S3, S4) the middle straight lines (L1, L2, L3, L4) are identified, on which the sensors (S1, S2, S3, S4) are located , and the positions of the sensors (S1, S2, S3, S4) are virtually displaced along the respective center lines (L1, L2, L3, L4) until the virtual relative position of the sensors (S1, S2, S3, S4) with the actual configuration of the sensors (S1, S2, S3, S4) matches.
6. 6th
Vorrichtung zur Verfolgung der Position eines Objekts (1) mit einem Projektor (2), der dazu eingerichtet ist, eine zweidimensionale Bildsequenz zu projizieren, mindestens vier Sensoren (S1 , S2, S3, S4), die in einer bekannten Konfiguration an dem Objekt (1) angeordnet sind und dazu eingerichtet sind, jeweils eine Lichtsignalfolge aus der Bildsequenz zu erfassen, und einer Recheneinheit (3), die dazu eingerichtet ist, die Position des Objekts (1) relativ zu dem Projektor (2) anhand der Ausgangssignale der Sensoren (S1 , S2, S3, S4) und der zweidimensionalen Bildsequenz mindestens jede Sekunde zu ermitteln. Device for tracking the position of an object (1) with a projector (2), which is set up to project a two-dimensional image sequence, at least four sensors (S1, S2, S3, S4), which in a known configuration on the object ( 1) and are arranged to each detect a light signal sequence from the image sequence, and a computing unit (3) which is adapted to the position of the object (1) relative to the projector (2) based on the output signals of the sensors ( S1, S2, S3, S4) and the two-dimensional image sequence at least every second.
7. 7th
Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Recheneinheit (3) dazu eingerichtet ist, das Verfahren nach einem der Ansprüche 2 bis 5 auszuführen.  Apparatus according to claim 6, characterized in that the arithmetic unit (3) is adapted to carry out the method according to one of claims 2 to 5.
8. 8th.
Vorrichtung nach einem der Ansprüche 6 oder 7, dadurch gekennzeichnet, dass vier Sensoren (S1 , S2, S3, S4) an den Spitzen eines gedachten Quadrats angeordnet sind. Device according to one of claims 6 or 7, characterized in that four sensors (S1, S2, S3, S4) are arranged at the tips of an imaginary square.
9. 9th
Vorrichtung nach einem der Ansprüche 6 bis 8, gekennzeichnet durch zwei Projektoren, die dazu eingerichtet sind, jeweils eine zweidimensionale Büdsequenz zu projizieren.  Device according to one of claims 6 to 8, characterized by two projectors which are adapted to each project a two-dimensional Büdsequenz.
10. 10th
Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass die beiden Projektoren Bildsequenzen in unterschiedlichen Wellenlängenbereichen projizieren.  Apparatus according to claim 9, characterized in that the two projectors project image sequences in different wavelength ranges.
1 1. 1 1.
Verwendung einer Vorrichtung mit einem Projektor (2), der dazu eingerichtet ist, eine zweidimensionale Bildsequenz zu projizieren, mit mindestens vier Sensoren (S1 , S2, S3, S4), die in einer bekannten Konfiguration an einem Objekt (1 ) angeordnet sind und dazu eingerichtet sind, jeweils eine Lichtsignalfolge aus der Bildsequenz zu erfassen, und mit einer Recheneinheit (3), die dazu eingerichtet ist, die Position des Objekts (1) relativ zu dem Projektor (2) anhand der Ausgangssignale der Sensoren (S1 , S2, S3, S4) und der zweidimensionalen Bildsequenz zu ermitteln, zur Verfolgung der Position des Objekts (1 ).  Use of a device with a projector (2), which is adapted to project a two-dimensional image sequence, with at least four sensors (S1, S2, S3, S4), which are arranged in a known configuration on an object (1) and to are each arranged to detect a light signal sequence from the image sequence, and with a computing unit (3) which is adapted to the position of the object (1) relative to the projector (2) based on the output signals of the sensors (S1, S2, S3 , S4) and the two-dimensional image sequence, for tracking the position of the object (1).
12. 12th
Verwendung nach Anspruch 1 1 im Rahmen einer Gefechtsfeldsimulation oder zur Bestimmung der Position eines Kopfes.  Use according to claim 1 1 in the context of a battlefield simulation or for determining the position of a head.
PCT/EP2013/054576 2012-03-27 2013-03-07 Method and device for tracking the position of an object WO2013143820A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP13708406.7A EP2831618A1 (en) 2012-03-27 2013-03-07 Method and device for tracking the position of an object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012204855A DE102012204855A1 (en) 2012-03-27 2012-03-27 Method and device for tracking the position of an object
DE102012204855.3 2012-03-27

Publications (1)

Publication Number Publication Date
WO2013143820A1 true WO2013143820A1 (en) 2013-10-03

Family

ID=47844307

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/054576 WO2013143820A1 (en) 2012-03-27 2013-03-07 Method and device for tracking the position of an object

Country Status (3)

Country Link
EP (1) EP2831618A1 (en)
DE (1) DE102012204855A1 (en)
WO (1) WO2013143820A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4396945A (en) * 1981-08-19 1983-08-02 Solid Photography Inc. Method of sensing the position and orientation of elements in space
US5187540A (en) * 1990-10-31 1993-02-16 Gec Ferranti Defence Systems Limited Optical system for the remote determination of position and orientation
WO2005015904A1 (en) 2003-08-06 2005-02-17 Mitsubishi Denki Kabushiki Kaisha Method and system for determining correspondence between locations on display surface having arbitrary shape and pixels in output image of projector
US20100079830A1 (en) * 2006-09-05 2010-04-01 Thales Device for optically detecting position and/or orientation of objects and associated detection methods

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2364243C3 (en) * 1973-12-22 1978-03-16 Messerschmitt-Boelkow-Blohm Gmbh, 8000 Muenchen Method and device for determining the position and guiding of missiles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4396945A (en) * 1981-08-19 1983-08-02 Solid Photography Inc. Method of sensing the position and orientation of elements in space
US5187540A (en) * 1990-10-31 1993-02-16 Gec Ferranti Defence Systems Limited Optical system for the remote determination of position and orientation
WO2005015904A1 (en) 2003-08-06 2005-02-17 Mitsubishi Denki Kabushiki Kaisha Method and system for determining correspondence between locations on display surface having arbitrary shape and pixels in output image of projector
US20100079830A1 (en) * 2006-09-05 2010-04-01 Thales Device for optically detecting position and/or orientation of objects and associated detection methods

Also Published As

Publication number Publication date
EP2831618A1 (en) 2015-02-04
DE102012204855A1 (en) 2013-10-02

Similar Documents

Publication Publication Date Title
DE10058244C2 (en) Measuring method for determining the position of an object in front of a screen and device for carrying out the method
DE69228187T3 (en) Representation of the inverse-perspective transformation of an image on a surface, for subsequent image acquisition
DE102015122172A1 (en) Headlamp based projection of patterns to measure spatial characteristics of a vehicle environment
WO2012113686A1 (en) Simulator for training a team, in particular for training a helicopter crew
DE102016104186A1 (en) Simulator for training a team of a helicopter crew
DE112019004963T5 (en) Optics-based multi-dimensional target and multiple object detection and tracking method
WO2020053215A1 (en) System and method for radio-wave-based locating and coordinate transformation
DE102009015204A1 (en) Optical sensor i.e. distance sensor, for use in area of automatic control engineering to measure three-dimensional distance of object, has evaluation unit provided for evaluating output signals of surface camera
DE102011082881A1 (en) Method for representing surroundings of vehicle e.g. motor vehicle e.g. car, involves transforming primary image information into secondary image information corresponding to panoramic view using spatial information
EP3711392B1 (en) Method and device for position determination
WO2013143820A1 (en) Method and device for tracking the position of an object
WO2016202562A1 (en) Fringe projection method, fringe projection device, and computer program product
EP3458935A1 (en) Method for setting a viewing direction in a representation of a virtual environment
DE102022201316B3 (en) Marking and method for determining position and associated camera system
DE2734913C2 (en) Target instruction device for target tracking devices
DE10065180A1 (en) Aircraft collision avoidance method, involves determining edge information and object center of gravity profiles, extrapolating and predicting possible courses for comparison with aircraft path
WO2017182021A1 (en) Method and system for representing a simulation environment
DE10308981A1 (en) Methods and devices for data input into a computing device
EP0824827B1 (en) Process for preparing an object mask for video monitoring systems
DE102007056835A1 (en) Image processing module for estimating an object position of a surveillance object, method for determining an object position of a surveillance object and computer program
DE102008023269A1 (en) Optical system or method for improved target recognition
WO2002035904A2 (en) Method and device for determining the position, orientation and/or deformation of an object
EP3721330A1 (en) Method and system for determining a position of an object
EP4109040A2 (en) Device and method for optically analyzing a surface
DE102022120088A1 (en) Device and method for measuring three-dimensional virtual images and objects of a head-up display

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13708406

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2013708406

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013708406

Country of ref document: EP