WO2001058164A1 - Ecran de proximite pour vehicule automobile - Google Patents

Ecran de proximite pour vehicule automobile Download PDF

Info

Publication number
WO2001058164A1
WO2001058164A1 PCT/JP2001/000580 JP0100580W WO0158164A1 WO 2001058164 A1 WO2001058164 A1 WO 2001058164A1 JP 0100580 W JP0100580 W JP 0100580W WO 0158164 A1 WO0158164 A1 WO 0158164A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
unit
video data
position information
video
Prior art date
Application number
PCT/JP2001/000580
Other languages
English (en)
French (fr)
Inventor
Jyoji Wada
Masami Takahashi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US09/937,515 priority Critical patent/US6515597B1/en
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to AU28846/01A priority patent/AU2884601A/en
Priority to EP01949082A priority patent/EP1168846A4/en
Publication of WO2001058164A1 publication Critical patent/WO2001058164A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/28
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • B60K2360/179
    • B60K2360/21

Definitions

  • the present invention relates to a vehicle peripheral display device that captures an image of the periphery of a vehicle with a camera mounted on the vehicle and displays the captured image of the periphery of the vehicle on a monitor display unit on a screen.
  • such a peripheral display device for a vehicle is equipped with a plurality of cameras for capturing an image of the periphery of the vehicle, and synthesizes video images of different view angles captured by the plurality of cameras. Therefore, the area around the vehicle was displayed on the monitor display section inside the vehicle.
  • the vehicle body bottom display device can be displayed. There is a problem that it is not possible to monitor and display even the road surface, and it is also impossible to monitor and display the surroundings of the vehicle in the past again.
  • the present invention has been made in view of the above-described problems, and has as its object the purpose of not only mounting a plurality of cameras for imaging the entire periphery of a vehicle, but also including a road surface under a vehicle body. It is an object of the present invention to provide a vehicle periphery display device that can monitor and display the periphery of a vehicle in the past.
  • a vehicle periphery display device of the present invention captures an image around a vehicle.
  • Imaging means for detecting, the position information detecting means for detecting the position of the own vehicle of the vehicle as position information, video data around the vehicle imaged by the imaging means, and the position information of the imaged vehicle A video memory that reads the video data corresponding to the position information detected by the position information detection unit from the data storage unit, and combines the video data with video data representing the shape of the vehicle.
  • the image processing apparatus further includes a synthesizing unit, and a display control unit that causes the display unit to display the video data synthesized by the video synthesizing unit.
  • the captured image of the surroundings of the vehicle and the position information of the vehicle at the time of the imaging are sequentially stored in the data storage means, and the position information detection is performed.
  • the video data corresponding to the position information detected by the means is read out from the data storage means, the video data representing the shape of the vehicle is synthesized with the video data, and the synthesized video data is displayed on the display means. Because it is displayed, it is possible to monitor not only the road surface under the vehicle body but also the past vehicle area without installing multiple cameras that image the entire area around the vehicle. .
  • the vehicle periphery display device of the present invention is stored in the data storage unit corresponding to the current video data around the vehicle imaged by the imaging unit and the position information of the imaged vehicle.
  • the image processing apparatus further includes video data comparing means for comparing with the video data, and the position information detecting means corrects the detected current position information based on a comparison result of the video data comparing means.
  • the current image data around the imaged vehicle and the position information of the imaged vehicle are stored in the first day storage means corresponding to the image information. Since the current position information is corrected based on the comparison result with the current image data, the accuracy of the current position information of the vehicle can be improved.
  • the peripheral display device for a vehicle wherein the position information detecting unit detects a steering amount corresponding to a steering angle of the vehicle, and a traveling detecting unit detects a traveling amount corresponding to a traveling distance of the vehicle.
  • Distance detecting means, and steering detected by the steering amount detecting means By applying amount and integration process to the travel amount detected by the travel distance detecting means, before Symbol c was to have an integration processing unit for calculating the position information of the vehicle position of the vehicle therefore, of the present invention
  • the own vehicle position of the vehicle can be easily calculated as position information by performing the integration processing on the steering amount and the travel amount of the vehicle.
  • the vehicle periphery display device of the present invention is stored in the data storage unit corresponding to the current video data around the vehicle imaged by the imaging unit and the position information of the imaged vehicle.
  • a video data comparing means for comparing the past video data with the past video data; and a video data comparing means for calculating the current position information based on an error of a portion where the current video data is overlapped with the past video data.
  • a correction coefficient calculating means for calculating a correction coefficient of the integration processing by the integration processing means is provided.
  • the current video data and the past video data around the imaged vehicle are compared, and the current video data and the past video data are overlapped. Since the correction coefficient of the integration process is calculated based on the error of the portion to be calculated, the calculation accuracy of the position information by the integration processing means can be greatly improved.
  • the image synthesizing means may include a three-dimensional image based on image data corresponding to current position information and image data corresponding to position information adjacent to the current position information. An image is generated, and the image data of the vehicle is combined with the 3D image data.
  • the three-dimensional video data is generated based on the current location information and the plurality of video data corresponding to the neighboring location information. Since the image of the vehicle is synthesized overnight, it can be displayed on a monitor in a stereoscopic image.
  • the peripheral display device for a vehicle has a video map generation unit that generates a video map based on a plurality of pieces of position information stored in the data storage unit and past video data corresponding to each piece of the position information.
  • the display control means displays the video map generated by the video map generation means on the display means. Therefore, according to the vehicle peripheral display device of the present invention, an image map is generated based on a plurality of position information stored in the data storage means and the past image data corresponding to each position information. Is displayed on the display means, so that the convenience of the user can be greatly improved by using a real image as a map that cannot be obtained by a conventional map.
  • the peripheral display device for a vehicle wherein the imaging unit includes: a rear imaging unit that captures an image of the rear of the vehicle; and a front imaging unit that captures an image of the front of the vehicle.
  • the imaging unit includes: a rear imaging unit that captures an image of the rear of the vehicle; and a front imaging unit that captures an image of the front of the vehicle.
  • the traveling direction detecting means when the forward direction of the vehicle is detected by the traveling direction detecting means, an imaging operation is performed only by the forward imaging means, and the traveling direction detecting means performs the backward movement of the vehicle.
  • the imaging operation is performed only by the rear imaging unit, so that even if the user does not perform the switching operation of the rear imaging unit and the front imaging unit, it is possible to capture more video images, Even more effects can be achieved.
  • FIG. 1 is a block diagram showing a schematic configuration inside a vehicle peripheral display device shown in an embodiment of the present invention.
  • FIG. 2 is an explanatory diagram showing a usage state of a vehicle employing the vehicle peripheral display device according to the present embodiment.
  • FIG. 3 is a flowchart showing a processing operation of CPU relating to peripheral display processing of the vehicle peripheral display device shown in the present embodiment.
  • FIG. 4 is a flowchart showing the processing operation of the CPU in the case where the planar display in the peripheral display processing according to the present embodiment is stereoscopically displayed.
  • 1 denotes a peripheral display device for a vehicle
  • 11 denotes a camera (imaging means)
  • 1 2 Is a vehicle sensor (position information detection means)
  • 12a is a steering sensor (steering amount detection means)
  • 12b is a wheel rotation sensor (travel distance detection means)
  • 15 is a memory (data storage means)
  • 15a Is a video memory area (data storage means)
  • 15b is a vehicle position information memory area (data storage means)
  • 16 is a monitor display section (display means)
  • 20 is a CPU
  • 21 is an integration processing section.
  • Video processing means 24 is a memory control section (video synthesis means), 25 is a video synthesis processing section (video synthesis means), 26 is a display control section (display control means), and 27 is a video data ratio.
  • Comparison processing section video data comparison means
  • 28 is a correction coefficient calculation section (correction coefficient calculation means)
  • 29 is a video stereoscopic processing section (video synthesis means)
  • 30 is a video map generation section (video map generation section). Means).
  • FIG. 1 is a block diagram illustrating a schematic configuration inside a vehicle peripheral device according to the present embodiment
  • FIG. 2 is an explanatory diagram illustrating a schematic configuration of a vehicle employing the vehicle peripheral device according to the present embodiment.
  • the vehicle periphery display device 1 shown in FIG. 1 includes a camera 11 that is an imaging unit that captures an image of the periphery of the vehicle 2, a vehicle sensor 12 that detects the position of the vehicle 2 as its own vehicle, and a camera 1.
  • a camera video buffer 13 that captures the video data around the vehicle 2 captured in 1 and an A / D converter that converts the video data captured by the camera video buffer 13 into digital data.
  • 14 and a memory 15 which is a data storage means for sequentially storing digitized video data and various data, and a monitor display which is a display means for displaying various video data on a screen. It has a unit 16, a warning display unit 17 for displaying warnings and the like, and a CPU 20 for controlling the entire vehicle peripheral display device 1 via a CPU bus 18.
  • the vehicle sensor 12 includes a steering sensor 12a that detects a steering amount corresponding to a steering angle of the vehicle 2 and a travel distance detection that detects a travel amount corresponding to the travel distance of the vehicle 2. And a wheel rotation sensor 12b.
  • the CPU 20 includes a steering amount detected by the steering sensor 12a and a wheel rotation sensor 1 2b by performing an integration process on the travel distance detected in 2b, an integration processing unit 21 as integration processing means for calculating the own vehicle position of the vehicle 2 as position information, and an integration for taking in the calculated position information.
  • a video synthesizing unit 25 which is a video synthesizing means for synthesizing vehicle shape data X as shown in FIG. 2 (b), and the video data synthesized by the video synthesizing processing unit 25 Table 6 is a display control means to be displayed in 6.
  • the controller 26 compares the current video image around the vehicle 2 captured by the camera 11 with the past video data corresponding to the current position information around the vehicle 2 captured.
  • the video data comparison processing unit 27, which is video data comparison means, and the video data comparison processing unit 27 determine the current video data based on the error of the overlapping portion between the current video data and the past video data.
  • a correction coefficient calculation unit 28 which is a correction coefficient calculation unit for calculating a correction coefficient of the integration processing by the integration processing unit 21.
  • the CPU 20 calculates the position change on the screen of the same target point relating to the same imaging target from the two pieces of video data related to the adjacent position information, and calculates the change in the moving distance of the vehicle 2 and the position change on the screen.
  • a video stereoscopic processing unit 29 which is a video synthesizing means for generating three-dimensional video data, a plurality of position information stored in the memory 15 and each position information
  • a video map generation unit 30 that is a video map generation unit that generates a video map based on past video data corresponding to the image data.
  • the memory 15 includes a video memory area 15a for sequentially storing the video data captured by the camera 11 and the position of the vehicle 2 when the video data is captured in association with the video data.
  • Initial setting such as installation position, camera 11 view angle, camera 11 distortion specification, display range specification of monitor display section 16 depending on automatic / manual or vehicle speed direction It has an initial setting value memory area 15 d in which values are stored.
  • FIG. 2 is an explanatory diagram showing an outer parent configuration of a vehicle 2 employing the vehicle peripheral display device 1 shown in the present embodiment.
  • a camera 11 for capturing the rear area Z of the vehicle 2 is installed at the rear of the vehicle 2, and a monitor display section 16 is provided inside the vehicle driver's seat. The image picked up in 1 is displayed on the monitor display section 16.
  • FIG. 3 is a flowchart showing a processing operation of CPU 20 relating to peripheral display processing of vehicle peripheral display device 1 shown in the present embodiment.
  • the peripheral display processing shown in FIG. 3 is usually performed by associating the image data around the vehicle 2 captured by the camera 11 with the position information of the vehicle 2 which is the imaging position around the vehicle 2 in the memory 1. 5 and further, if it is determined that the past video data corresponding to the current position information is stored in the memory 15, the past video data is combined with the video data X of the vehicle shape. This is the process of displaying the synthesized video image on a monitor.
  • the CPU 20 shown in FIG. 3 reads the initial setting value stored in the initial setting value memory area 15 d, and sets the display range specification of the monitor display section 16 to display the monitor display section 16, for example. Perform initial settings such as setting the range and setting the camera specifications, for example, by setting the camera angle of view, distortion specifications, camera installation position and direction, etc. (Step S11).
  • the CPU 20 determines whether or not the current mode is a display mode in which the monitor display section 16 displays the periphery of the vehicle 2 on the monitor (step S12).
  • the mode settings such as the display mode can be set by operating keys prepared on the monitor display section 16.
  • the current mode is the display mode
  • the current mode is the image acquisition mode only for acquiring an image around the vehicle 2 without performing monitor display
  • the image data sequentially captured by the camera 11 is determined.
  • One night is acquired and taken into the camera video buffer 13 (step S13).
  • the integration processing unit 21 of the CPU 20 detects the vehicle position captured by the camera 11 by using the steering amount from the steering sensor 12a and the travel amount from the wheel rotation sensor 12b. Then, the current position information of the vehicle is detected by performing the integration process (step S14).
  • the memory control unit 24 of the CPU 20 determines whether or not the past video data corresponding to the detected current position information of the vehicle is stored in the video memory area 15a (step S1). 5) o
  • the camera video buffer is determined in step S13.
  • the video data captured in 13 is digit-converted, this video data is stored in the video memory area 15a, and associated with this video data.
  • the position information of the vehicle detected in 14 is stored in the vehicle position information memory area 15b (step S16).
  • the video data overnight comparison processing section 27 compares the current video data corresponding to the vehicle position information with the past video data to obtain the current video data and the past video data. An error in a portion overlapping with the data is detected (step S17).
  • the correction coefficient calculation unit 28 calculates a correction coefficient for the integration processing by the integration processing unit 21 to correct the current position information based on the error detected by the video data comparison processing unit 27 (In step S18), the calculated correction coefficient is set in the integration processing unit 21 (step S19), and the process proceeds to Ml in the figure to acquire a further image.
  • step S15 When the memory control unit 24 determines in step S15 that the previous video data corresponding to the current vehicle position is not stored, the memory controller 24 displays the video data acquired in step S13 as a video. In addition to storing the current position information of the vehicle detected in step S14 in the vehicle position information memory area 15b while storing it in the memory area 15a (step S2). 0), and move to M 1 in the figure to acquire more images.
  • step S12 If it is determined in step S12 that the current mode is the display mode, the video data captured by the camera 11 is captured into the camera video buffer 13 (step S12). The current position information of the vehicle is detected through the integration processing unit 21 (step S21) (step S22).
  • the memory control unit 24 determines whether or not the past video data corresponding to the current vehicle position information is stored in the video memory area 15a (step S23).
  • the memory control unit 24 determines that the video data acquired in step S20 is present. One night is stored in the image memory area 15a, and the current position information detected in step S21 is stored in the vehicle position information memory area 15b in association with this image data ( Step S2 4).
  • the video data comparison processor 27 compares the current video data corresponding to the vehicle position information with the past video data, thereby obtaining the current video data and the past video data. An error in a portion overlapping the evening is detected (step S25).
  • the correction coefficient calculation unit 28 calculates a correction coefficient for the integration processing by the integration processing unit 21 based on the error detected by the video data comparison processing unit 27 in order to correct the current position information (Step S). 26), the calculated correction coefficient is set in the integration processing unit 21 (step S27).
  • the video synthesis processing unit 25 generates synthesized video data by combining the past video data and the current video data, and a new video is generated in a range where the past video data and the current video data overlap.
  • video data around the vehicle 2 to be displayed on the monitor display section 16 is generated (step S28).
  • the image synthesizing unit 25 reads the vehicle shape data X stored in the vehicle shape data memory area 15c, and stores the vehicle shape data X in the image generated in step S28. Combine with the data (step S29).
  • the display controller 26 displays the image data synthesized in step S29 on the monitor display 26 (step S30), and shifts to M2 in the figure to acquire further images. I do.
  • an image of the lower part of the vehicle 2 that cannot be displayed on the monitor in the video data acquired in real time can be displayed on the monitor by using the past video data.
  • the memory control unit 24 proceeds to step S21.
  • the acquired image data is stored in the image memory area 15a, and the vehicle position information detected in step S22 is stored in the vehicle position information memory area 15b in association with the image data. (Step S 3 l) o
  • the video synthesis processing unit 25 reads the vehicle shape data X stored in the vehicle shape data memory area 15c, and stores the vehicle shape data X with the video data corresponding to the current vehicle position information. Compositing (step S32).
  • the display control unit 26 causes the monitor display unit 26 to display the image data synthesized in step S32 on the monitor (step S33), and shifts to M2 in the figure to acquire a further image.
  • FIG. 4 is a flowchart showing the processing operation of CPU 20 relating to the stereoscopic display.
  • This stereoscopic display processing starts the stereoscopic display processing by inputting a stereoscopic display activation key prepared as an operation key of the monitor display unit 16, for example.
  • the video stereoscopic processing unit 29 stores the video in the video memory area 15 a.
  • the video data corresponding to the current position information of the image and the video data corresponding to the position information adjacent to the current position information are compared.
  • 3D image data is generated by calculating the position change of the target point on the screen from the moving distance of the vehicle 2 and the position change on the screen (step S 4).
  • the image synthesizing unit 25 calculates the object and the vehicle calculated by the image stereoscopic processing unit 29
  • the vehicle shape data X read from the vehicle shape data memory area 15c based on the interval between , It is combined with the generated three-dimensional image de Isseki (Step Tub S43).
  • the video synthesis processing unit 25 stereoscopically displays the synthesized 3D video data on the monitor display unit 16 (step S44), and proceeds to M2 shown in FIG.
  • the video stereoscopic processing unit 29 After performing the processing operations of steps S 23 and S 31, the video stereoscopic processing unit 29 generates a video image corresponding to the current position information stored in the video memory area 15 a, The current position information is compared with the image data corresponding to the position information adjacent thereto, and from these two pieces of image data, the position change on the screen of the same target point relating to the same imaging target is calculated, and the moving distance of the vehicle 2 Then, three-dimensional image data is generated by calculating the three-dimensional coordinates of the target point from the position change on the screen (step S45).
  • the image stereoscopic processing unit 29 calculates an interval between the object to be imaged and the vehicle 2 (step S46).
  • the video synthesizing unit 25 reads the vehicle shape data X read from the vehicle shape data memory area 15 c based on the distance between the imaging object and the vehicle calculated by the image stereoscopic viewing processing unit 29. Is combined with the generated 3D video data (Step S47) o
  • the video synthesis processing unit 25 stereoscopically displays the synthesized 3D video data on the monitor display unit 16 (step S48), and shifts to M2 shown in FIG.
  • the distance between the imaging target and the vehicle is calculated in steps S42 and S46.
  • the CPU 20 issues a warning indicating that the vehicle may collide with the imaging target.
  • the steering guide for avoiding the collision is also notified to the user through the warning display 17.
  • the video data and vehicle position information stored in the video memory area 15a and the vehicle location information memory area 15b are used as described below. You can also create a simple video map.
  • the image map generator 30 of the CPU 20 stores the position information stored in the image memory area 15a and the vehicle position information memory area 15b, and the past image data corresponding to each position information.
  • a video map is generated based on the evening.
  • the display controller 26 displays the video map generated by the video map generator 30 on the monitor display 16.
  • the image data around the vehicle 2 and the position information of the vehicle at the time of imaging are sequentially stored in the image memory area 15a and the vehicle position information memory area 15b. Then, the past video data corresponding to the current position information of the vehicle 2 is read from the video memory area 15a, and the past video data is combined with the vehicle shape data X, and the synthesized video data is read. Evening is displayed on the monitor display section 16 so that even if multiple cameras 11 that capture the entire area around the vehicle 2 are not installed, the vehicles below the vehicle 2 The area around 2 can also be displayed on the monitor.
  • the monitor display can improve the garage putting work. it can.
  • current video data and past video data related to the current position information of vehicle 2 are compared, and these current video data and past video data are overlapped. Since the correction coefficient of the integration processing is calculated based on the error of the part, the accuracy of calculating the position information by the integration processing unit 21 can be greatly improved.
  • a three-dimensional video image is generated based on the current position information and a plurality of video data corresponding to the adjacent position information. Since the vehicle shape data X is synthesized, it can be displayed on a monitor in a 3D image.
  • a video map is created based on a plurality of pieces of position information stored in the video memory area 15a and the vehicle location information memory area 15b, and past video data corresponding to each piece of location information. Is generated, and this video map is displayed on the monitor display section 16.
  • a rear imaging unit as a camera for imaging the rear area of the vehicle 2, and a front area of the vehicle 2
  • a forward imaging means as a camera for imaging the vehicle 2, and further provided in the CPU 20, for example, a traveling direction detecting means for detecting a traveling direction of the vehicle 2 by detecting a gear range of the vehicle 2, and a traveling direction detecting means.
  • Control means for executing an imaging operation only by the forward imaging means when the forward movement of the vehicle 2 is detected, and executing an imaging operation only by the rear imaging means when the backward movement of the vehicle 2 is detected by the traveling direction detection means.
  • the periphery of the running vehicle 2 is stored as video data in the video memory area 15a. Therefore, after the vehicle stops running, the video memory area 1 5 By allowing the contents of a to be played back and displayed on the monitor display section 16, for example, when used in a vehicle used in a driving school, the trainee sees the video displayed on the monitor display section 16 This allows the driver to objectively recognize his driving situation.
  • a video image around the vehicle that has been imaged and the position information of the vehicle at the time of the imaging are sequentially stored in the data storage means.
  • the video data corresponding to the current vehicle position information is read from the data storage unit, and the video data representing the shape of the vehicle is combined with the video data, and the combined video is displayed. Since the data is displayed on the display means, it is possible to monitor not only the road surface at the bottom of the vehicle but also the surroundings of the vehicle in the past, even if it is not equipped with multiple cameras that capture the entire area around the vehicle. can do.

Description

明 細 書 車両用周辺表示装置 <技術分野 >
本発明は、 車両に搭載したカメラで車両の周辺を撮像して、 この撮像した車両 の周辺の映像をモニタ表示部に画面表示する車両用周辺表示装置に関する。
<背景技術 >
従来、 このような車両用周辺表示装置としては車両の周辺を撮像するために複 数のカメラを搭載し、 これら複数のカメラにて撮像された、 異なるビュー角度の 映像デ一夕を合成することで、 車両の周辺を車両内部のモニタ表示部に画面表示 するようにしていた。
しかしながら、 上記従来の車両用周辺表示装置によれば、 車両の周辺をモニタ 表示する為には、 車両の周辺を全て撮像するための複数のカメラを搭載する必要 があるといった問題点があった。
また、 上記従来の車両用周辺表示装置によれば、 車両の周辺をリアルタイムに モニタ表示することはできても、 例えば車両の車体下部の路面を撮像するカメラ の搭載位置を考えると、その車体下部の路面までもモニタ表示することはできず、 さらには過去における車両の周辺を再びモニタ表示することもできないといった 問題点があった。
本発明は上記問題点に鑑みてなされたものであり、 その目的とするところは、 車両の周辺を全て撮像する複数のカメラを搭載しなくても、 車両の車体下部の路 面はもちろんのこと、 過去における車両の周辺をもモニタ表示することができる 車両用周辺表示装置を提供することにある。 ぐ発明の開示 >
上記目的を達成するために本発明の車両用周辺表示装置は、 車両の周辺を撮像 する撮像手段と、 前記車両の自車位置を位置情報として検出する位置情報検出手 段と、 前記撮像手段にて撮像された車両の周辺の映像データ及び、 前記撮像され た車両の位置情報を記憶するデータ記憶手段と、 前記位置情報検出手段にて検出 された位置情報に対応する映像データを、 前記データ記憶手段から読み出して、 前記映像データに前記車両の形を表した映像データを合成する映像合成手段と、 前記映像合成手段にて合成した映像データを表示手段に表示させる表示制御手段 とを有するようにした。
従って、 本発明の車両用周辺表示装置によれば、 撮像された車両の周辺の映像 デ一夕及び、 その撮像時における車両の位置情報をデータ記憶手段に順次記憶し ておき、前記位置情報検出手段にて検出された位置情報に対応する映像データを、 前記データ記憶手段から読み出して、 この映像データに前記車両の形を表した映 像データを合成し、 この合成した映像データを表示手段に表示するようにしたの で、 車両の周辺を全て撮像する複数のカメラを搭載しなくても、 車両の車体下部 の路面はもちろんのこと、 過去における車両の周辺をもモニタ表示することがで ぎる。
本発明の車両用周辺表示装置は、 前記撮像手段にて撮像された車両の周辺の現 在の映像データと、 前記撮像された車両の位置情報に対応した、 前記データ記憶 手段に記憶されている映像データとを比較する映像データ比較手段を有し、 前記 位置情報検出手段は、 前記映像データ比較手段の比較結果に基づいて、 検出され た現在の位置情報を補正するようにした。
従って、 本発明の車両用周辺表示装置によれば、 撮像された車両の周辺の現在 の映像データと、 前記撮像された車両の位置情報に対応した、 前期デ一夕記憶手 段に記憶されている映像データとを比較し、 この比較結果に基づいて、 現在の位 置情報を補正するようにしたので、 その車両の現在位置情報の精度を上げること ができる。
本発明の車両用周辺表示装置は、 前記位置情報検出手段が、 前記車両の操舵角 に相当する操舵量を検出する操舵量検出手段と、 前記車両の走行距離に相当する 走行量を検出する走行距離検出手段と、 前記操舵量検出手段にて検出された操舵 量及び前記走行距離検出手段にて検出された走行量に積分処理を施すことで、 前 記車両の自車位置を位置情報として算出する積分処理手段とを有するようにした c 従って、 本発明の車両用周辺表示装置によれば、 前記車両の操舵量及び走行量 に積分処理を施すことで、 簡単に車両の自車位置を位置情報として算出すること ができる。
本発明の車両用周辺表示装置は、 前記撮像手段にて撮像された車両の周辺の現 在の映像データと、 前記撮像された車両の位置情報に対応した、 前記データ記憶 手段に記憶されている過去の映像データとを比較する映像データ比較手段と、 前 記映像データ比較手段にて現在の映像デ一夕と過去の映像デ一夕と重複する部分 の誤差に基づいて、 現在の位置情報を補正すべく、 前記積分処理手段による積分 処理の補正係数を算出する補正係数算出手段とを有するようにした。
従って、 本発明の車両用周辺表示装置によれば、 前記撮像された車両の周辺の 現在の映像データと過去の映像データとを比較し、 これら現在の映像データと過 去の映像データとが重複する部分の誤差に基づいて積分処理の補正係数を算出す るようにしたので、 前記積分処理手段による位置情報の算出精度を大幅に向上さ せることができる。
本発明の車両用周辺表示装置は、 前記映像合成手段が、 現在の位置情報に対応 する映像データ及び、 その現在の位置情報に隣接する位置情報に対応する映像デ 一夕に基づいて三次元映像デ一夕を生成し、 この三次元映像デ一夕に車両の映像 データを合成するようにした。
従って、 本発明の車両用周辺表示装置によれば、 現在の位置情報及び、 その隣 接する位置情報に対応した複数の映像デ一夕に基づいて三次元映像データを生成 し、 この三次元映像デ一夕に車両の映像デ一夕を合成するようにしたので、 立体 映像でモニタ表示することができる。
本発明の車両用周辺表示装置は、 前記データ記憶手段に記憶された複数の位置 情報及び、 各位置情報に対応した過去の映像データに基づいて映像地図を生成す る映像地図生成手段を有し、 前記表示制御手段が、 前記映像地図生成手段にて生 成された映像地図を前記表示手段に表示するようにした。 従って、 本発明の車両用周辺表示装置によれば、 データ記憶手段に記憶された 複数の位置情報及び、 各位置情報に対応した過去の映像データに基づいて映像地 図を生成し、 この映像地図を表示手段に表示するようにしたので、 従来の地図で は得られないような現実の映像を地図として用いることで、 ユーザーの利便性を 大幅に図ることができる。
本発明の車両用周辺表示装置は、 前記撮像手段が、 前記車両後方を撮像する後 方撮像手段と、 前記車両前方を撮像する前方撮像手段とを備え、 前記車両の進行 方向を検出する進行方向検出手段と、 前記進行方向検出手段にて前記車両の前進 を検出すると、 前記前方撮像手段のみによる撮像動作を実行し、 前記進行方向検 出手段にて前記車両の後進を検出すると、 前記後方撮像手段のみによる撮像動作 を実行する制御手段とを有するようにした。
従って、 本発明の車両用周辺表示装置によれば、 進行方向検出手段にて車両の 前進を検出すると、 前方撮像手段のみによる撮像動作を実行し、 前記進行方向検 出手段にて車両の後進を検出すると、 後方撮像手段のみによる撮像動作を実行す るようにしたので、 ユーザーによる後方撮像手段及び前方撮像手段の切替操作を 行わなくても、 より多くの映像デ一夕を採り込むことで、 さらに一層の効果を上 げることができる。 ぐ図面の簡単な説明 >
図 1は、 本発明の実施の形態に示す車両用周辺表示装置内部の概略構成を示す ブロック図である。
図 2は、 本実施の形態に示す車両用周辺表示装置を採用した車両の使用状況を 示す説明図である。
図 3は、 本実施の形態に示す車両用周辺表示装置の周辺表示処理に関わる C P Uの処理動作を示すフロー図である。
図 4は、 本実施の形態における周辺表示処理における平面表示を立体化表示す る場合の C P Uの処理動作を示すフロー図である。
なお、 図中の符号、 1は車両用周辺表示装置、 1 1はカメラ (撮像手段)、 1 2 は車両センサ (位置情報検出手段)、 1 2 aは操舵センサ (操舵量検出手段)、 1 2 bは車輪回転センサ (走行距離検出手段)、 1 5はメモリ (データ記憶手段)、 1 5 aは映像メモリ領域(データ記憶手段)、 1 5 bは車両位置情報メモリ領域(デ —夕記憶手段)、 1 6はモニタ表示部 (表示手段)、 2 0は C P U、 2 1は積分処 理部 (積分処理手段)、 2 4はメモリ制御部 (映像合成手段)、 2 5は映像合成処 理部 (映像合成手段)、 2 6は表示制御部 (表示制御手段)、 2 7は映像データ比 較処理部 (映像データ比較手段)、 2 8は補正係数算出部 (補正係数算出手段)、 2 9は映像立体視化処理部(映像合成手段)、 3 0は映像地図生成部(映像地図生 成手段) である。
<発明を実施するための最良の形態 >
以下、 図面に基づいて本発明の実施の形態を示す車両用周辺装置について説明 する。 図 1は本実施の形態に示す車両用周辺装置内部の概略構成を示すプロック 図、 図 2は本実施の形態に示す車両用周辺装置を採用した車両の概略構成を示す 説明図である。
図 1に示す車両用周辺表示装置 1は、 車両 2の周辺を撮像する撮像手段である カメラ 1 1と、 車両 2の自車位置を位置情報として検出するための車両センサ 1 2と、 カメラ 1 1にて撮像された車両 2の周辺の映像データを採り込むカメラ映 像バッファ 1 3と、 このカメラ映像バッファ 1 3に採りこまれた映像デ一夕をデ ィジタル変換する A/Dコンパ一夕 1 4と、 ディジ夕ル変換された映像データを 順次記憶すると共に、 様々なデータを記憶するデータ記憶手段であるメモリ 1 5 と、 様々な映像デ一夕を画面表示する表示手段であるモニタ表示部 1 6と、 警告 等を表示する警告表示部 1 7と、 C P Uバス 1 8を通じて車両用周辺表示装置 1 全体を制御する C P U 2 0とを有している。
車両センサ 1 2は、 車両 2の操舵角に相当する操舵量を検出する操舵量検出手 段である操舵センサ 1 2 aと、 車両 2の走行距離に相当する走行量を検出する走 行距離検出手段である車輪回転センサ 1 2 bとを有している。
C P U 2 0は、 操舵センサ 1 2 aにて検出された操舵量及び車輪回転センサ 1 2 bにて検出された走行量に積分処理を施すことで、 車両 2の自車位置を位置情 報として算出する積分処理手段である積分処理部 2 1と、 算出された位置情報を 取り込む積分バッファ 2 2と、 メモリ 1 5に記憶された映像データにカメラビュ —角の変更処理等を施す映像加工処理部 2 3と、 メモリ 1 5に映像データ及び、 この映像データを撮像した位置情報を対応づけて記憶制御する映像合成手段であ るメモリ制御部 2 4と、 メモリ制御部 2 4にて現在の位置情報に対応した過去の 映像データをメモリ 1 5から読み出して、 この過去の映像デ一夕に、 図 2 (b )に 示すような車両形状データ Xを合成する映像合成手段である映像合成処理部 2 5 と、 この映像合成処理部 2 5にて合成した映像データをモニタ表示部 1 6に表示 させる表示制御手段である表示制御部 2 6と、 カメラ 1 1にて撮像された車両 2 の周辺の現在の映像デ一夕と、 撮像された車両 2の周辺の現在の位置情報に対応 した過去の映像データとを比較する映像データ比較手段である映像データ比較処 理部 2 7と、 この映像デ一夕比較処理部 2 7にて現在の映像データと過去の映像 データとで重複する部分の誤差に基づいて、 現在の位置情報を補正すべく、 積分 処理部 2 1による積分処理の補正係数を算出する補正係数算出手段である補正係 数算出部 2 8とを有している。
さらに、 C P U 2 0は、 隣接する位置情報にかかわる二枚の映像データから同 一撮像対象物に関わる同一対象点の画面上の位置変化を求め、 車両 2の移動距離 と画面上の位置変化から対象点の三次元座標を求めることで、 三次元映像データ を生成する映像合成手段である映像立体視化処理部 2 9と、 メモリ 1 5に記憶さ れた複数の位置情報及び、 各位置情報に対応した過去の映像データに基づいて映 像地図を生成する映像地図生成手段である映像地図生成部 3 0とを有している。 メモリ 1 5には、 カメラ 1 1にて撮像された映像デ一夕を順次記憶する映像メ モリ領域 1 5 aと、 映像データと対応づけて、 その映像データを撮像したときの 車両 2の位置情報を記憶する位置情報メモリ領域 1 5 bと、 映像合成処理部 2 5 にて合成される車両 2の自車形状データ Xを記憶した自車形状データメモリ領域 1 5 cと、 カメラ 1 1の設置位置、 カメラ 1 1のビュー角、 カメラ 1 1の歪仕様、 自動/手動や車速方向に依存したモニタ表示部 1 6の表示範囲仕様等の初期設定 値を記憶した初期設定値メモリ領域 1 5 dとを有している。
図 2は本実施の形態に示す車両用周辺表示装置 1を採用した車両 2の外親構成 を示す説明図である。
図 2 ( a ) に示すように車両 2の後部には、 その車両 2の後方範囲 Zを撮像す るカメラ 1 1を設置し、 車両運転席内部にはモニタ表示部 1 6を備え、 カメラ 1 1にて撮像した映像をモニタ表示部 1 6に表示させるようにしている。
次に本実施の形態に示す車両用周辺表示装置 1の動作について説明する。 図 3 は本実施の形態に示す車両用周辺表示装置 1の周辺表示処理に関わる C P U 2 0 の処理動作を示すフロー図である。
図 3に示す周辺表示処理とは、 通常、 カメラ 1 1にて撮像された車両 2の周辺 の映像データ及び、 その車両 2の周辺の撮像位置である車両 2の位置情報を対応 づけてメモリ 1 5に記憶し、 さらに、 現在の位置情報に対応する過去の映像デー 夕がメモリ 1 5に記憶されていると判定されると、 この過去の映像データに自車 形状の映像データ Xを合成することで、 この合成した映像デ一夕をモニタ表示す る処理である。
図 3に示す C P U 2 0は、 初期設定値メモリ領域 1 5 dに記憶中の初期設定値 を読み出し、 例えばモニタ表示部 1 6の表示範囲仕様を設定することでモニタ表 示部 1 6の表示範囲を設定したり、 例えばカメラ画角、 歪仕様、 カメラ設置位置 や方向等を設定することでカメラ仕様を設定したりする、初期設定を実行する(ス テツプ S 1 1 )。
C P U 2 0は、 初期設定を実行した後、 現在のモードがモニタ表示部 1 6に車 両 2の周辺をモニタ表示させる表示モードであるか否かを判定する(ステツプ S 1 2 )。 尚、 表示モード等のモード設定は、 モニタ表示部 1 6に準備した操作キ一 によって設定可能である。
現在モードが表示モードではないと判定されると、 モニタ表示は行わずに車両 2の周辺の映像を取得するだけの映像取得モードであると判定し、 カメラ 1 1に て順次撮像される映像デ一夕を取得してカメラ映像バッファ 1 3に採り込む(ス テヅプ S 1 3 )。 さらに、 C P U 2 0の積分処理部 2 1は、 このカメラ 1 1にて撮像された車両 位置を検出するために、 操舵センサ 1 2 aからの操舵量及び車輪回転センサ 1 2 bからの走行量に積分処理を施すことで、車両の現在位置情報を検出する(ステツ プ S 1 4 )。
C P U 2 0のメモリ制御部 2 4は、 検出された車両の現在位置情報に対応する 過去の映像デ一夕が映像メモリ領域 1 5 a内に記憶されているか否かを判定する (ステップ S 1 5 )o
メモリ制御部 2 4は、 映像メモリ領域 1 5 a内に現在位置情報に対応した映像 データが記憶されていると判定すると、 ステップ S 1 3にてカメラ映像バッファ
1 3に採りこまれた映像データをディジ夕ル変換して、 この映像データを映像メ モリ領域 1 5 a内に記憶すると共に、 この映像データと対応づけて、 ステップ S
1 4にて検出した車両の位置情報を車両位置情報メモリ領域 1 5 bに記憶する (ステツプ S 1 6 )。
さらに、 映像デ一夕比較処理部 2 7は、 この車両位置情報に対応する現在の映 像デ一夕と過去の映像デ一夕とを比較することで、 現在の映像データと過去の映 像データとで重複する部分の誤差を検出する(ステップ S 1 7 )。
補正係数算出部 2 8は、 映像デ一夕比較処理部 2 7にて検出した誤差に基づい て、 現在の位置情報を補正すべく、 積分処理部 2 1による積分処理の補正係数を 算出し(ステップ S 1 8 )、 この算出した補正係数を積分処理部 2 1に設定し(ステ ップ S 1 9 )、 さらなる映像を取得すべく、 図中の M lに移行する。
また、 メモリ制御部 2 4が、 ステップ S 1 5にて現在の車両位置に対応する過 去の映像データが記憶されていないと判定すると、 ステップ S 1 3にて取得した 映像デ一夕を映像メモリ領域 1 5 aに記憶すると共に、 この映像データと対応づ けて、 ステップ S 1 4にて検出した車両の現在位置情報を車両位置情報メモリ領 域 1 5 bに記憶して (ステップ S 2 0 )、 さらなる映像を取得すべく、 図中の M 1 に移行する。
また、 ステップ S 1 2にて現在モードが表示モードであると判定されると、 力 メラ 1 1にて撮像した映像データをカメラ映像バッファ 1 3に採り込み(ステツ プ S 2 1 )、 さらに積分処理部 2 1を通じて車両の現在位置情報を検出する(ステ ップ S 2 2 )。
メモリ制御部 2 4は、 現在の車両位置情報に対応する過去の映像デ一夕が映像 メモリ領域 1 5 aに記憶されているか否かを判定する(ステップ S 2 3 )。
メモリ制御部 2 4は、 現在の車両位置情報に対応する過去の映像データが映像 メモリ領域 1 5 a内に記憶されているものと判定されると、 ステップ S 2 0にて 取得された映像デ一夕を映像メモリ領域 1 5 aに記憶すると共に、 この映像デ一 夕と対応づけて、 ステップ S 2 1にて検出した現在位置情報を車両位置倩報メモ リ領域 1 5 bに記憶する(ステップ S 2 4 )。
さらに、 映像デ一夕比較処理部 2 7は、 この車両位置情報に対応する現在の映 像デ一夕と過去の映像データとを比較することで、 現在の映像データと過去の映 像デ一夕とで重複する部分の誤差を検出する(ステップ S 2 5 )。
補正係数算出部 2 8は、 映像データ比較処理部 2 7にて検出した誤差に基づい て、 現在の位置情報を補正すべく、 積分処理部 2 1による積分処理の補正係数を 算出し(ステップ S 2 6 )、 この算出した補正係数を積分処理部 2 1に設定する(ス テツプ S 2 7 )。
さらに映像合成処理部 2 5は、 過去の映像データと現在の映像デ一夕とで合成 の映像データを生成し、 過去の映像デ一夕と現在の映像データとで重複する範囲 については新しい映像側を選択することで、 モニタ表示部 1 6に表示する車両 2 の周辺の映像データを生成する(ステップ S 2 8 )。
さらに、 映像合成処理部 2 5は、 自車形状データメモリ領域 1 5 cに記憶中の 自車形状データ Xを読み出し、 この自車形状デ一夕 Xをステップ S 2 8にて生成 された映像データと合成する(ステップ S 2 9 )。
表示制御部 2 6は、 ステップ S 2 9にて合成した映像デ一夕をモニタ表示部 2 6にモニタ表示させ (ステップ S 3 0 )、 さらなる映像を取得すべく、 図中の M 2 に移行する。 尚、 このように従来においては、 リアルタイムで取得した映像デー 夕ではモニタ表示できないような車両 2の下部の映像をも、 過去の映像デ一夕を 利用することでモニタ表示することができる。 メモリ制御部 2 4は、 ステップ S 2 3にて現在位置情報に対応する過去の映像 デ一夕が映像メモリ領域 1 5 a内に記憶されていないと判定されると、 ステップ S 2 1にて取得された映像データを映像メモリ領域 1 5 aに記憶すると共に、 こ の映像データと対応づけて、 ステップ S 2 2にて検出された車両位置情報を車両 位置情報メモリ領域 1 5 bに記憶する(ステップ S 3 l ) o
さらに映像合成処理部 2 5は、 自車形状デ一夕メモリ領域 1 5 cに記憶中の自 車形状データ Xを読み出し、 この自車形状データ Xを現在の車両位置情報に対応 した映像データと合成する(ステップ S 3 2 )。
表示制御部 2 6は、 ステップ S 3 2にて合成した映像データをモニタ表示部 2 6にモニタ表示させ(ステップ S 3 3 )、 さらなる映像を取得すべく、 図中の M 2 に移行する。
尚、 図 3に示す周辺表示処理によれば、 モニタ表示部 1 6に表示される映像は 平面表示であるが、 図 3に示す処理動作 Aを図 4に示すような処理動作に置き換 えることで、 その映像を立体的に表示することもできる。 図 4は立体表示に関わ る C P U 2 0の処理動作を示すフロー図である。
この立体表示処理は、 例えばモニタ表示部 1 6の操作キーに準備した立体表示 起動キーの入力によって、 立体表示処理を起動するものである。
図 4に示すようにステップ S 2 3, 2 4 , 2 5, 2 6, 2 7の処理動作を行つ た後、 映像立体視化処理部 2 9は、 映像メモリ領域 1 5 aに記憶中の現在の位置 情報に対応する映像データと、 その現在の位置情報に隣接する位置情報に対応す る映像データとを比較し、 この二枚の映像データから同一撮像対象物に関わる同 一対象点の画面上の位置変化を求め、 車両 2の移動距離と画面上の位置変化から 対象点の三次元座標を求めることで、三次元映像データを生成する(ステップ S 4 さらに映像立体視化処理部 2 9は、 その撮像対象物と車両との間隔を算出する (ステップ S 4 2 )。 映像合成処理部 2 5は、 映像立体視化処理部 2 9にて算出さ れた撮像対象物及び車両間の間隔に基づいて、 自車形状データメモリ領域 1 5 c から読み出した自車形状データ Xを、生成した三次元映像デ一夕と合成する(ステ ッブ S 4 3 )。
そして、 映像合成処理部 2 5は、 この合成した三次元映像データをモニタ表示 部 1 6に立体表示して(ステップ S 4 4 )、 図 3に示す M 2に移行する。
また、 ステップ S 2 3, 3 1の処理動作を行った後、 映像立体視化処理部 2 9 は、 映像メモリ領域 1 5 aに記憶中の現在の位置情報に対応する映像デ一夕と、 その現在の位置情報に隣接する位置情報に対応する映像データとを比較し、 この 二枚の映像データから同一撮像対象物に関わる同一対象点の画面上の位置変化を 求め、 車両 2の移動距離と画面上の位置変化から対象点の三次元座標を求めるこ とで、 三次元映像データを生成する(ステップ S 4 5 )。
さらに映像立体視化処理部 2 9は、 その撮像対象物と車両 2との間隔を算出す る(ステップ S 4 6 )。 映像合成処理部 2 5は、 映像立体化視処理部 2 9にて算出 された撮像対象物及び車両間の間隔に基づいて、 自車形状データメモリ領域 1 5 cから読み出した自車形状データ Xを、生成した三次元映像データと合成する(ス テツブ S 4 7 )o
そして、 映像合成処理部 2 5は、 この合成した三次元映像データをモニタ表示 部 1 6に立体表示して(ステップ S 4 8 )、 図 3に示す M 2に移行する。
尚、 自車形状データ Xを三次元映像データに合成するために、 ステップ S 4 2, 4 6にて撮像対象物及び車両間の間隔を算出するようにしたが、 さらに、 このよ うに間隔を算出することで、 その後、 C P U 2 0は、 車両 2が当該撮像対象物に 所定距離まで接近したことを検知すると、 車両が撮像対象物に衝突するおそれが ある旨の警告を、 警告表示部 1 7を通じてユーザーに通知すると共に、 その衝突 を避ける為の操舵ガイ ドを、 警告表示部 1 7を通じて回避策表示をユーザーに通 知するようにもしている。
また、 本実施の形態においては、 このように映像メモリ領域 1 5 a及び車両位 置情報メモリ領域 1 5 bに記憶した映像デ一夕及び車両位置情報を利用すること で、 次に説明するような映像地図も作成することができる。
C P U 2 0の映像地図生成部 3 0は、 映像メモリ領域 1 5 a及び車両位置情報 メモリ領域 1 5 bに記憶した位置情報及び、 各位置情報に対応した過去の映像デ 一夕に基づいて映像地図を生成する。
表示制御部 2 6は、 映像地図生成部 3 0にて生成した映像地図をモニタ表示部 1 6に表示する。
本実施の形態によれば、 車両 2の周辺の映像デ一夕及び、 その撮像時における 車両の位置情報を映像メモリ領域 1 5 a及び車両位置情報メモリ領域 1 5 bに順 次記憶しておき、 現在の車両 2の位置情報に対応する過去の映像デ一夕を、 映像 メモリ領域 1 5 aから読み出して、 この過去の映像データに自車形状データ Xを 合成し、この合成した映像デ一夕をモニタ表示部 1 6に表示するようにしたので、 車両 2の周辺を全て撮像する複数のカメラ 1 1を搭載しなくても、 車両 2の車体 下部の路面はもちろんのこと、 過去における車両 2の周辺をもモニタ表示するこ とができる。
このように車両 2の車体下部の路面をモニタ表示することができるようにした ので、 例えば車両 2を車庫入れするような場合には、 そのモニタ表示によって、 その車庫入れ作業を良好にすることができる。
また、 本実施の形態によれば、 現在の車両 2の位置情報に関わる、 現在の映像 データと過去の映像データとを比較し、 これら現在の映像データと過去の映像デ —夕とが重複する部分の誤差に基づいて積分処理の補正係数を算出するようにし たので、 積分処理部 2 1による位置情報の算出精度を大幅に向上させることがで ぎる。
また、 本実施の形態によれば、 現在の位置情報及び、 その隣接する位置情報に 対応した複数の映像データに基づいて三次元映像デ一夕を生成し、 この三次元映 像デ一夕に自車形状データ Xを合成するようにしたので、 立体映像でモニタ表示 することができる。
また、 本実施の形態によれば、 映像メモリ領域 1 5 a及び車両位置情報メモリ 領域 1 5 bに記憶された複数の位置情報及び、 各位置情報に対応した過去の映像 データに基づいて映像地図を生成し、 この映像地図をモニタ表示部 1 6に表示す るようにしたので、 従来の地図では得られないような現実の映像を地図として用 いることで、 ユーザーの利便性を大幅に図ることができる。 尚、 上記実施の形態においては、 車両 2の後部にカメラ 1 1を設置した例をあ げて説明したが、 車両 2の後方範囲を撮像するカメラとしての後方撮像手段と、 車両 2の前方範囲を撮像するカメラとしての前方撮像手段とを備え、 さらに C P U 2 0に、 例えば車両 2のギアレンジを検出することで、 車両 2の進行方向を検 出する進行方向検出手段と、 進行方向検出手段にて車両 2の前進を検出すると、 前方撮像手段のみによる撮像動作を実行し、 進行方向検出手段にて車両 2の後進 を検出すると、 後方撮像手段のみによる撮像動作を実行する制御手段とを設ける ようにすれば、 ユーザーによる後方撮像手段及び前方撮像手段の切替操作を行わ なくても、 より多くの映像データを採り込むことで、 さらに一層の効果を上げる ことができる。
また、 上記実施の形態においては、 走行中の車両 2の周辺を映像データとして 映像メモリ領域 1 5 aに記憶するようにしたので、 車両走行停止後、 所定操作に 応じて、 その映像メモリ領域 1 5 aの内容をモニタ表示部 1 6で再生表示可能と することで、 例えば自動車教習所で使用される車両に使用した場合、 その教習者 は、 そのモニタ表示部 1 6に表示される映像を見ることで、 自分の運転状況を客 観的に認識することができる。
<産業上の利用可能性 >
上記のように構成された本発明の車両用周辺表示装置によれば、 撮像された車 両の周辺の映像デ一夕及び、 その撮像時における車両の位置情報をデータ記憶手 段に順次記憶しておき、 現在の車両の位置情報に対応する映像データを、 前記デ 一夕記憶手段から読み出して、 この映像デ一夕に前記車両の形を表した映像デー 夕を合成し、 この合成した映像データを表示手段に表示するようにしたので、 車 両の周辺を全て撮像する複数のカメラを搭載しなくても、 車両の車体下部の路面 はもちろんのこと、 過去における車両の周辺をもモニタ表示することができる。

Claims

請 求 の 範 囲
1 . 車両の周辺を撮像する撮像部と、
前記車両の自車位置を位置情報として検出する位置情報検出部と、
前記撮像部にて撮像された車両の周辺の映像データ及び、 前記撮像された車両 の位置情報を記憶するデ一夕記憶部と、
前記位置情報検出部にて検出された位置情報に対応する映像データを、 前記デ 一夕記憶部から読み出して、 前記映像デ一夕に前記車両の形を表した映像データ を合成する映像合成部と、
前記映像合成部にて合成した映像データを表示部に表示させる表示制御部とを 有することを特徴とする車両用周辺表示装置。
2 . 前記撮像部にて撮像された車両の周辺の現在の映像データと、 前記撮 像された車両の位置情報に対応した、 前記データ記憶部に記憶されている映像デ 一夕とを比較する映像デ一夕比較部を有し、
前記位置情報検出部は、 前記映像デ一夕比較部の比較結果に基づいて、 検出さ れた現在の位置情報を補正することを特徴とする請求の範囲第 1項記載の車両用 周辺表示装置。
3 . 前記位置情報検出部は、
前記車両の操舵角に相当する操舵量を検出する操舵量検出部と、
前記車両の走行距離に相当する走行量を検出する走行距離検出部と、 前記操舵量検出部にて検出された操舵量及び前記走行距離検出部にて検出され た走行量に積分処理を施すことで、 前記車両の自車位置を位置情報として算出す る積分処理部とを有することを特徴とする請求の範囲第 1項記載の車両用周辺表
4 . 前記撮像部にて撮像された車両の周辺の現在の映像データと、 前記撮 像された車両の位置情報に対応した、 前記データ記憶部に記憶されている過去の 映像データとを比較する映像データ比較部と、
前記映像デ一夕比較部にて現在の映像データと過去の映像データと重複する部 分の誤差に基づいて、 現在の位置情報を補正すべく、 前記積分処理部による積分 処理の補正係数を算出する補正係数算出部とを有することを特徴とする請求の範 囲第 3項記載の車両用周辺表示装置。
5 . 前記映像合成部は、
現在の位置情報に対応する映像データ及び、 その現在の位置情報に隣接する位 置情報に対応する映像データに基づいて三次元映像データを生成し、 この三次元 映像データに車両の映像データを合成することを特徴とする請求の範囲第 1項に 記載の車両用周辺表示装置。
6 . 前記データ記憶部に記憶された複数の位置情報及び、 各位置情報に対 応した過去の映像データに基づいて映像地図を生成する映像地図生成部を有し、 前記表示制御部が、 前記映像地図生成部にて生成された映像地図を前記表示部 に表示することを特徴とする請求の範囲第 1項に記載の車両用周辺表示装置。
7 . 前記撮像部は、
前記車両後方を撮像する後方撮像部と、
前記車両前方を撮像する前方撮像部とを備え、
前記車両の進行方向を検出する進行方向検出部と、
前記進行方向検出部にて前記車両の前進を検出すると、 前記前方撮像部のみに よる撮像動作を実行し、 前記進行方向検出部にて前記車両の後進を検出すると、 前記後方撮像部のみによる撮像動作を実行する制御部とを有することを特徴とす る請求の範囲第 1項に記載の車両用周辺表示装置。
PCT/JP2001/000580 2000-01-31 2001-01-29 Ecran de proximite pour vehicule automobile WO2001058164A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/937,515 US6515597B1 (en) 2000-01-31 2000-01-29 Vicinity display for car
AU28846/01A AU2884601A (en) 2000-01-31 2001-01-29 Vicinity display for car
EP01949082A EP1168846A4 (en) 2000-01-31 2001-01-29 DEVICE FOR DISPLAYING THE ENVIRONMENT FOR AN AUTOMOTIVE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000022697A JP2001218197A (ja) 2000-01-31 2000-01-31 車両用周辺表示装置
JP2000-022697 2000-01-31

Publications (1)

Publication Number Publication Date
WO2001058164A1 true WO2001058164A1 (fr) 2001-08-09

Family

ID=18548967

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/000580 WO2001058164A1 (fr) 2000-01-31 2001-01-29 Ecran de proximite pour vehicule automobile

Country Status (5)

Country Link
US (1) US6515597B1 (ja)
EP (1) EP1168846A4 (ja)
JP (1) JP2001218197A (ja)
AU (1) AU2884601A (ja)
WO (1) WO2001058164A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014204872A1 (de) 2014-03-17 2015-09-17 Volkswagen Aktiengesellschaft Anzeigen von Umgebungsinformationen in einem Fahrzeug

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5910854A (en) 1993-02-26 1999-06-08 Donnelly Corporation Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices
US5668663A (en) 1994-05-05 1997-09-16 Donnelly Corporation Electrochromic mirrors and devices
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US6124886A (en) 1997-08-25 2000-09-26 Donnelly Corporation Modular rearview mirror assembly
US8294975B2 (en) 1997-08-25 2012-10-23 Donnelly Corporation Automotive rearview mirror assembly
US6172613B1 (en) 1998-02-18 2001-01-09 Donnelly Corporation Rearview mirror assembly incorporating vehicle information display
US6326613B1 (en) 1998-01-07 2001-12-04 Donnelly Corporation Vehicle interior mirror assembly adapted for containing a rain sensor
US8288711B2 (en) 1998-01-07 2012-10-16 Donnelly Corporation Interior rearview mirror system with forwardly-viewing camera and a control
US6445287B1 (en) 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
US6477464B2 (en) 2000-03-09 2002-11-05 Donnelly Corporation Complete mirror-based global-positioning system (GPS) navigation solution
US6329925B1 (en) 1999-11-24 2001-12-11 Donnelly Corporation Rearview mirror assembly with added feature modular display
US6693517B2 (en) 2000-04-21 2004-02-17 Donnelly Corporation Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants
EP1263626A2 (en) 2000-03-02 2002-12-11 Donnelly Corporation Video mirror systems incorporating an accessory module
US7370983B2 (en) 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
WO2007053710A2 (en) 2005-11-01 2007-05-10 Donnelly Corporation Interior rearview mirror with display
US7167796B2 (en) * 2000-03-09 2007-01-23 Donnelly Corporation Vehicle navigation system for use with a telematics system
EP1158803A3 (en) * 2000-05-24 2003-12-10 Matsushita Electric Industrial Co., Ltd. Rendering device for generating a display image
DE10035223A1 (de) * 2000-07-20 2002-01-31 Daimler Chrysler Ag Vorrichtung und Verfahren zur Überwachung der Umgebung eines Objekts
JP3675330B2 (ja) * 2000-11-07 2005-07-27 日産自動車株式会社 車両用表示装置及び表示装置を有する自動車
US7255451B2 (en) 2002-09-20 2007-08-14 Donnelly Corporation Electro-optic mirror cell
ATE363413T1 (de) * 2001-01-23 2007-06-15 Donnelly Corp Verbessertes fahrzeugbeleuchtungssystem
US7581859B2 (en) 2005-09-14 2009-09-01 Donnelly Corp. Display device for exterior rearview mirror
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
US6918674B2 (en) 2002-05-03 2005-07-19 Donnelly Corporation Vehicle rearview mirror system
US7110021B2 (en) * 2002-05-31 2006-09-19 Matsushita Electric Industrial Co., Ltd. Vehicle surroundings monitoring device, and image production method/program
US7329013B2 (en) 2002-06-06 2008-02-12 Donnelly Corporation Interior rearview mirror system with compass
WO2003105099A1 (en) 2002-06-06 2003-12-18 Donnelly Corporation Interior rearview mirror system with compass
JP4176430B2 (ja) * 2002-09-18 2008-11-05 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
AU2003278863A1 (en) 2002-09-20 2004-04-08 Donnelly Corporation Mirror reflective element assembly
US7310177B2 (en) 2002-09-20 2007-12-18 Donnelly Corporation Electro-optic reflective element assembly
WO2004103772A2 (en) 2003-05-19 2004-12-02 Donnelly Corporation Mirror assembly for vehicle
US7446924B2 (en) 2003-10-02 2008-11-04 Donnelly Corporation Mirror reflective element assembly including electronic component
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
JP4079083B2 (ja) * 2003-12-12 2008-04-23 トヨタ自動車株式会社 車両の制御装置
JP2005311868A (ja) * 2004-04-23 2005-11-04 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP2006112962A (ja) * 2004-10-15 2006-04-27 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP4466571B2 (ja) * 2005-05-12 2010-05-26 株式会社デンソー ドライバ状態検出装置、車載警報装置、運転支援システム
ATE517368T1 (de) 2005-05-16 2011-08-15 Donnelly Corp Fahrzeugspiegelanordnung mit zeichen am reflektierenden teil
JP4561479B2 (ja) * 2005-05-26 2010-10-13 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
DE102005030838A1 (de) * 2005-07-01 2007-01-04 Siemens Ag Nightvisionsystem
JP2007024590A (ja) * 2005-07-13 2007-02-01 Toyota Motor Corp 物体検出装置
JP4980617B2 (ja) * 2005-08-26 2012-07-18 株式会社岩根研究所 二次元図面と映像の合成表示装置
JP2007076425A (ja) * 2005-09-12 2007-03-29 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP4622806B2 (ja) * 2005-10-27 2011-02-02 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
EP2378350B1 (en) 2006-03-09 2013-12-11 Gentex Corporation Vehicle rearview assembly including a high intensity display
JP4818816B2 (ja) * 2006-06-05 2011-11-16 富士通株式会社 駐車支援プログラム及び駐車支援装置
US20100001881A1 (en) * 2007-01-16 2010-01-07 Pioneer Corporation Method of adjusting display device for vehicle and display device for vehicle
US20090248300A1 (en) * 2008-03-31 2009-10-01 Sony Ericsson Mobile Communications Ab Methods and Apparatus for Viewing Previously-Recorded Multimedia Content from Original Perspective
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
KR100906673B1 (ko) * 2008-05-29 2009-07-07 현대자동차주식회사 차량용 카메라 시스템
US9487144B2 (en) 2008-10-16 2016-11-08 Magna Mirrors Of America, Inc. Interior mirror assembly with display
JP2010183170A (ja) 2009-02-03 2010-08-19 Denso Corp 車両用表示装置
JP5627253B2 (ja) * 2009-05-29 2014-11-19 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
JP2013007921A (ja) * 2011-06-24 2013-01-10 Sony Corp 音制御装置、プログラム及び制御方法
JP5811804B2 (ja) * 2011-11-24 2015-11-11 トヨタ自動車株式会社 車両用周辺監視装置
JP5891783B2 (ja) * 2011-12-27 2016-03-23 富士通株式会社 調査装置、調査プログラムおよび調査方法
US8879139B2 (en) 2012-04-24 2014-11-04 Gentex Corporation Display mirror assembly
JP6003226B2 (ja) * 2012-05-23 2016-10-05 株式会社デンソー 車両周囲画像表示制御装置および車両周囲画像表示制御プログラム
US9598018B2 (en) 2013-03-15 2017-03-21 Gentex Corporation Display mirror assembly
AU2014326772B2 (en) 2013-09-24 2017-07-20 Gentex Corporation Display mirror assembly
US9511715B2 (en) 2014-01-31 2016-12-06 Gentex Corporation Backlighting assembly for display for reducing cross-hatching
WO2015143333A1 (en) 2014-03-21 2015-09-24 Gentex Corporation Tri-modal display mirror assembly
KR101894262B1 (ko) 2014-04-01 2018-09-04 젠텍스 코포레이션 자동 디스플레이 미러 어셈블리
WO2016044746A1 (en) 2014-09-19 2016-03-24 Gentex Corporation Rearview assembly
WO2016073848A1 (en) 2014-11-07 2016-05-12 Gentex Corporation Full display mirror actuator
EP3218227B1 (en) 2014-11-13 2018-10-24 Gentex Corporation Rearview mirror system with a display
KR101997815B1 (ko) 2014-12-03 2019-07-08 젠텍스 코포레이션 디스플레이 미러 어셈블리
USD746744S1 (en) 2014-12-05 2016-01-05 Gentex Corporation Rearview device
US9744907B2 (en) 2014-12-29 2017-08-29 Gentex Corporation Vehicle vision system having adjustable displayed field of view
US9720278B2 (en) 2015-01-22 2017-08-01 Gentex Corporation Low cost optical film stack
JP2018513810A (ja) 2015-04-20 2018-05-31 ジェンテックス コーポレイション 装飾を備えた後方視認アセンブリ
EP3297870B1 (en) 2015-05-18 2020-02-05 Gentex Corporation Full display rearview device
WO2016209877A1 (en) 2015-06-22 2016-12-29 Gentex Corporation System and method for processing streamed video images to correct for flicker of amplitude-modulated lights
DE102015212370B4 (de) 2015-07-02 2023-02-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen einer Darstellung einer Fahrzeugumgebung eines Fahrzeuges
USD798207S1 (en) 2015-10-30 2017-09-26 Gentex Corporation Rearview mirror assembly
CN108349435B (zh) 2015-10-30 2021-06-15 金泰克斯公司 切换板
USD797627S1 (en) 2015-10-30 2017-09-19 Gentex Corporation Rearview mirror device
EP3368375B1 (en) 2015-10-30 2020-03-04 Gentex Corporation Rearview device
USD800618S1 (en) 2015-11-02 2017-10-24 Gentex Corporation Toggle paddle for a rear view device
USD845851S1 (en) 2016-03-31 2019-04-16 Gentex Corporation Rearview device
USD817238S1 (en) 2016-04-29 2018-05-08 Gentex Corporation Rearview device
US10025138B2 (en) 2016-06-06 2018-07-17 Gentex Corporation Illuminating display with light gathering structure
JP6720729B2 (ja) * 2016-06-28 2020-07-08 アイシン精機株式会社 表示制御装置
CN108068696B (zh) * 2016-11-17 2020-06-19 比亚迪股份有限公司 全景影像的显示方法和显示装置
USD809984S1 (en) 2016-12-07 2018-02-13 Gentex Corporation Rearview assembly
USD854473S1 (en) 2016-12-16 2019-07-23 Gentex Corporation Rearview assembly
EP3562710A4 (en) 2016-12-30 2019-11-13 Gentex Corporation COMPLETE DISPLAY MIRROR WITH ON-DEMAND OBSERVER VIEW
CN106828319A (zh) * 2017-01-16 2017-06-13 惠州市德赛西威汽车电子股份有限公司 一种显示车身底部图像的全景环视显示方法
CN110312641A (zh) 2017-03-17 2019-10-08 金泰克斯公司 双显示倒车摄像系统
US10744941B2 (en) 2017-10-12 2020-08-18 Magna Electronics Inc. Vehicle vision system with bird's eye view display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783693A (ja) * 1993-09-20 1995-03-28 Sumitomo Electric Ind Ltd 位置検出装置
JPH07329638A (ja) * 1994-06-13 1995-12-19 Olympus Optical Co Ltd 車外監視装置
JPH10217852A (ja) * 1997-02-06 1998-08-18 Mitsubishi Electric Corp 後方監視装置
JPH1172342A (ja) * 1998-03-12 1999-03-16 Aisin Aw Co Ltd 車両用ナビゲーション装置
JPH11160080A (ja) * 1997-12-01 1999-06-18 Harness Syst Tech Res Ltd 移動体情報システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05330425A (ja) * 1992-05-29 1993-12-14 Railway Technical Res Inst 撮影制御装置
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP3866328B2 (ja) * 1996-06-06 2007-01-10 富士重工業株式会社 車両周辺立体物認識装置
US5798575A (en) * 1996-07-11 1998-08-25 Donnelly Corporation Vehicle mirror digital network and dynamically interactive mirror system
JP3337197B2 (ja) * 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置
JPH1144548A (ja) 1997-07-28 1999-02-16 Alpine Electron Inc ナビゲーションシステム
JP3528548B2 (ja) * 1997-11-18 2004-05-17 トヨタ自動車株式会社 車両用動画像処理方法および車両用動画像処理装置
US6115651A (en) * 1998-01-15 2000-09-05 Cruz; Diogenes J. Large vehicle blindspot monitor
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783693A (ja) * 1993-09-20 1995-03-28 Sumitomo Electric Ind Ltd 位置検出装置
JPH07329638A (ja) * 1994-06-13 1995-12-19 Olympus Optical Co Ltd 車外監視装置
JPH10217852A (ja) * 1997-02-06 1998-08-18 Mitsubishi Electric Corp 後方監視装置
JPH11160080A (ja) * 1997-12-01 1999-06-18 Harness Syst Tech Res Ltd 移動体情報システム
JPH1172342A (ja) * 1998-03-12 1999-03-16 Aisin Aw Co Ltd 車両用ナビゲーション装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1168846A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014204872A1 (de) 2014-03-17 2015-09-17 Volkswagen Aktiengesellschaft Anzeigen von Umgebungsinformationen in einem Fahrzeug
DE102014204872B4 (de) 2014-03-17 2018-03-22 Volkswagen Aktiengesellschaft Verfahren und Anzeigesystem zum Anzeigen von Umgebungsinformationen eines Fahrzeugs

Also Published As

Publication number Publication date
AU2884601A (en) 2001-08-14
US6515597B1 (en) 2003-02-04
JP2001218197A (ja) 2001-08-10
EP1168846A1 (en) 2002-01-02
EP1168846A4 (en) 2005-01-19

Similar Documents

Publication Publication Date Title
WO2001058164A1 (fr) Ecran de proximite pour vehicule automobile
JP5341789B2 (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
JP5561566B2 (ja) 運転支援装置
JP5099451B2 (ja) 車両周辺確認装置
KR100785724B1 (ko) 주차 지원 프로그램을 기록한 컴퓨터 판독 가능한 기록매체, 주차 지원 장치, 주차 지원 화면
WO2013047012A1 (ja) 車両周辺監視装置
EP1803602A1 (en) Driving assist method and driving assist apparatus
JP2008013015A (ja) 車両周辺画像生成装置および画像切替方法
JP2007116377A (ja) 駐車支援方法及び駐車支援装置
JP2010184607A (ja) 車両周辺表示装置
JP2004254219A (ja) 車両周辺画像処理装置及びプログラム並びに記録媒体
WO2013038681A1 (ja) カメラ較正装置、カメラ、及びカメラ較正方法
JP2010028432A (ja) 駐車支援装置および画像表示方法
JP2006054662A (ja) 運転支援装置
JP4023311B2 (ja) 車両周辺監視装置
JP2013062692A (ja) 車載カメラの較正装置及び方法
JP5083137B2 (ja) 運転支援装置
JP5077286B2 (ja) 車両周辺画像表示装置
JP2005186906A (ja) 通過判断支援装置及び方法
JP4545485B2 (ja) 停車位置検出装置
JP4956880B2 (ja) 車両用監視装置
JP3882517B2 (ja) 駐車位置設定装置
JP4557712B2 (ja) 運転支援システム
KR101659606B1 (ko) 뒷바퀴 위치 표시 차량 후진 영상 시스템의 영상 표시 방법
JP4211588B2 (ja) 運転支援装置及び方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CR CU CZ DE DK DM DZ EE ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2001949082

Country of ref document: EP

Ref document number: 09937515

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2001949082

Country of ref document: EP

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWW Wipo information: withdrawn in national office

Ref document number: 2001949082

Country of ref document: EP