DE202012013411U1 - Systeme für Overhead-Bild- und Videoanzeige - Google Patents

Systeme für Overhead-Bild- und Videoanzeige Download PDF

Info

Publication number
DE202012013411U1
DE202012013411U1 DE202012013411.6U DE202012013411U DE202012013411U1 DE 202012013411 U1 DE202012013411 U1 DE 202012013411U1 DE 202012013411 U DE202012013411 U DE 202012013411U DE 202012013411 U1 DE202012013411 U1 DE 202012013411U1
Authority
DE
Germany
Prior art keywords
spectral
sensor
panchromatic
image
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202012013411.6U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Planet Labs PBC
Original Assignee
Terra Bella Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terra Bella Technologies Inc filed Critical Terra Bella Technologies Inc
Publication of DE202012013411U1 publication Critical patent/DE202012013411U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/36Investigating two or more bands of a spectrum by separate detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/462Computing operations in or between colour spaces; Colour management systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/51Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters
    • G01J3/513Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters having fixed filter-detector pairs
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/02Details
    • H01L31/0216Coatings
    • H01L31/02161Coatings for devices characterised by at least one potential jump barrier or surface barrier
    • H01L31/02162Coatings for devices characterised by at least one potential jump barrier or surface barrier for filtering or shielding light, e.g. multicolour filters for photodetectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging

Abstract

Sensor (202) für die Sammlung von Bilddaten für die Verwendung in einem beweglichen Bildgebungssystem, wobei der Sensor (202) Folgendes umfasst: einen Spektralsensor, der so konfiguriert ist, dass er Spektralbilddaten erfasst, der Spektralsensor umfassend einen Bildgebungsflächenbereich, der eine Bildgebungsbreite umfasst; eine Vielzahl von Spektralfiltern (305a, 305b, 305c, 305d; 505a, 505b, 505c, 505d; 905a, 905b, 905c, 905d; 1005a, 1005b, 1005c, 1005d), wobei die Spektralfilter zusammen einen Spektralbildgebungsteil des Bildgebungsflächenbereichs des Spektralsensors abdecken, jeder Spektralfilter eine Filterbreite hat, die im Wesentlichen mindestens gleich der Bildgebungsbreite ist, und jeder Spektralfilter eine Spektralfilterhöhe (307; 507; 907; 1007) hat, die größer als oder gleich einer Mindestfilterhöhe ist, worin aufgrund der relativen Bewegung des beweglichen Bildgebungssystems geteilt durch eine Rate der Einzelbilderfassung des Spektralsensors die Mindestfilterhöhe einer Rate entspricht, mit der ein Bild einer interessanten Region sich um den Spektralsensor zu bewegen scheint; und ein panchromatischen Sensor, der so konfiguriert ist, dass er panchromatische Bilddaten der interessanten Region erfasst, wobei der panchromatische Sensor einen panchromatischen Bildgebungsteil des Bildgebungsflächenbereichs des Spektralsensors abdeckt, und der panchromatische Sensor eine panchromatische Breite hat, die im Wesentlichen mindestens dieselbe wie die Bildgebungsbreite ist, und eine panchromatische Höhe, die größer als oder gleich der Mindestfilterhöhe ist.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung bezieht sich auf die provisorische US-Patentanmeldung Nr. 61/478,871, eingereicht am 25. April 2011, mit dem Titel „Fast Framing Two-Dimensional Staring Sensor with Block Filters for Multispectral Overhead Push Frame Imaging” und auf die provisorische US-Patentanmeldung Nr. 61/565,345, eingereicht am 30. November 2011, mit dem Titel „A Modified Push-Frame Image Sensor for Collection of Multispectral Imagery, High-Resolution Pan-chromatic Imagery, and Video”. Die beiden vorstehenden Anmeldungen werden in ihrer Gesamtheit ausdrücklich durch Bezugnahme hierin einbezogen und sind Teil dieser Spezifikation.
  • HINTERGRUND
  • Technisches Gebiet
  • Diese Offenbarung bezieht sich im Allgemeinen auf das Feld des Bildmaterials und insbesondere auf Overhead-Bilder und -Videos.
  • Beschreibung der verwandten Technik
  • Das Wachstum der Industrien für geografisch-räumliche Informationen und Geoservices hat die Nachfrage nach Overhead-Bildmaterial erheblich erhöht. Traditionelle Methoden für die Sammlung von Overhead-Bildmaterial sind äußerst teuer und die hohen Kosten verhindern die Erfassung von Bildern für viele potenzielle Anwendungen.
  • ZUSAMMENFASSUNG
  • Unter Schutz gestellt werden und Gegenstand des Gebrauchsmusters sind dabei, entsprechend den Vorschriften des Gebrauchsmustergesetzes, lediglich Vorrichtungen wie in den beigefügten Schutzansprüchen definiert, jedoch keine Verfahren. Soweit nachfolgend in der Beschreibung gegebenenfalls auf Verfahren Bezug genommen wird, dienen diese Bezugnahmen lediglich der beispielhaften Erläuterung der in den beigefügten Schutzansprüchen unter Schutz gestellten Vorrichtung oder Vorrichtungen. Beispiele von Vorrichtungen, Verfahren und Systemen für die effiziente Aufnahme und Verarbeitung hochauflösender panchromatischer Kanäle (und/oder verschiedener Kombinationen von Multispektralkanälen mit hoher und niedriger Auflösung) werden hierin offenbart. Einige solche exemplarischen Vorrichtungen, Verfahren und Systeme können für die Videoerfassung und panchromatische Bildgebung verwendet werden. Mithilfe überlappender, zweidimensionaler Sensoren mit festem Suchfeld mit mehreren Redundanzen im panchromatischen Kanal können Multi-Frame-Verbesserungen und panchromatische Schärfungstechniken in verschiedenen Ausführungsformen eingesetzt werden, um hochauflösende, Multispektralbilder ohne die Kosten, Komplexitäten oder Beschränkungen bereitzustellen, die bei anderen Sensorsystemen anzutreffen sind. In einigen Ausführungsformen können Videos vom panchromatischen Kanal bereitgestellt werden.
  • In einem Aspekt wird ein Sensor für die Sammlung von Bilddaten für die Verwendung in einem beweglichen Bildgebungssystem offenbart. Der Sensor umfasst einen Spektralsensor, der so konfiguriert ist, dass er Spektralbilddaten erfasst. Der Spektralsensor kann einen Bildgebungsflächenbereich umfassen, der eine Bildgebungsbreite und eine Vielzahl von Spektralfiltern umfasst. Die Spektralfilter können zusammen einen Spektralbildgebungsbereich für den Bildgebungsflächenbereich des Spektralsensors abdecken. Jeder Spektralfilter kann eine Filterbreite haben, die im Wesentlichen mindestens der Bildgebungsbreite entspricht, und eine Spektralfilterhöhe, die größer oder gleich einer Mindestfilterhöhe ist. Aufgrund der relativen Bewegung des beweglichen Bildgebungssystems geteilt durch eine Rate der Einzelbilderfassung des Spektralsensors kann die Mindestfilterhöhe einer Rate entsprechen, mit der ein Bild einer interessanten Region sich um den Spektralsensor zu bewegen scheint. Der Sensor kann eine Steuerung umfassen, die so konfiguriert ist, dass sie Bilddaten vom panchromatischen Sensor mit einer Video-Frame-Rate erfasst und die Bilddaten einem Echtzeit-Video-Feed bereitstellt. Das bewegliche Bildsystem kann in einer Overhead-Bildgebungsplattform angeordnet sein, z. B. einem Flugzeug oder einem erdumlaufenden Satelliten.
  • In einem anderen Aspekt wird ein Verfahren für die Verbesserung von Bilddaten offenbart. Das Verfahren kann unter der Kontrolle eines Bildgebungsverarbeitungssystems durchgeführt werden, das Computerhardware umfasst. Das Verfahren kann den Empfang einer Sequenz von Spektralbildstreifen umfassen, wobei jeder Spektralbildstreifen ein Bild eines Teils der interessanten Region umfasst. Jeder Spektralbildstreifen kann Bilddaten aus einem Spektralbereich der Wellenlängen des Lichts umfassen. Das Verfahren kann des Weiteren die Registrierung der Sequenz der Spektralbildstreifen umfassen, um ein Spektralbild der interessanten Region bereitzustellen. Das Verfahren kann außerdem den Empfang einer Vielzahl parichromatischer Bilder der interessanten Region umfassen. Jedes panchromatische Bild kann Bilddaten aus einem panchromatischen Bereich der Wellenlängen des Lichts umfassen, der breiter als der Spektralbereich der Wellenlängen des Lichts ist. Das Verfahren kann die Durchführung von Multi-Frame-Verbesserungen bei der Vielzahl panchromatischer Bilder umfassen, um ein verbessertes panchromatisches Bild mit einer höheren Auflösung als jedes aus der Vielzahl der panchromatischen Bilder zu erzeugen. In einigen Aspekten kann das Verfahren des Weiteren die Erzeugung eines panchromatisch geformten Spektralbilds mindestens unter Verwendung des verbesserten panchromatischen Bilds und des Spektralbilds umfassen, wobei das panchromatisch geformte Spektralbild eine höhere Auflösung als das Spektralbild hat.
  • In einem anderen Aspekt wird ein Verfahren für die Verbesserung von Spektralbilddaten offenbart. Das Verfahren kann unter der Kontrolle eines Bildgebungsverarbeitungssystems sein, das Computerhardware umfasst. Das Verfahren kann den Empfang einer Vielzahl aufeinanderfolgender Spektralbilder von Teilen einer interessanten Region umfassen, wobei jedes Spektralbild eine Vielzahl von Spektralbildstreifen umfasst. Jeder Spektralbildstreifen kann Bilddaten aus einem anderen Bereich der Wellenlängen des Lichts umfassen. Das Verfahren kann die Registrierung von Spektralbildstreifen aus jedem Bereich der Wellenlängen umfassen, um eine Vielzahl rekonstruierter Spektralbilder zu erstellen, und die Kombination der rekonstruierten Spektralbilder, um ein Multispektralbild zu erstellen. Das Verfahren kann außerdem die Umwandlung des Multispektralbilds in ein Farbsystem beinhalten, das eine Luminanzkomponente umfasst, um ein umgewandeltes Multispektralbild zu erstellen, und den Ersatz der Luminanzkomponente des umgewandelten Multispektralbilds durch ein Ersatzspektralbild auf Basis der rekonstruierten Spektralbilder, um ein verbessertes Spektralbild zu erzeugen.
  • Die vorstehenden und andere Aspekte werden unter Bezugnahme auf die Figuren und die nachfolgende detaillierte Beschreibung beschrieben.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht ein Beispiel einer Messung eines eindimensionalen Zeilensensors, entlang einer Spurrichtung gescannt, gemäß einer Ausführungsform.
  • 2 veranschaulicht ein Beispiel einer Messung eines zweidimensionalen Zeilensensors mit festem Suchfeld, entlang der Spurrichtung gescannt, gemäß einer Ausführungsform.
  • 3 veranschaulicht ein exemplarisches Filterdesign für einen zweidimensionalen Multispektralsensor mit festem Suchfeld mit Spektralfilterstreifen, gemäß einer Ausführungsform.
  • 4A veranschaulicht einen exemplarischen Sensor mit einem zweidimensionalen Sensor mit festem Suchfeld mit Spektralfilterstreifen und einem panchromatischem Block, gemäß einer Ausführungsform.
  • 4B veranschaulicht einen exemplarischen Sensor mit einem zweidimensionalen Sensor mit festem Suchfeld mit Spektralfilterstreifen und panchromatischen Streifen, gemäß einer Ausführungsform.
  • 4C zeigt einen exemplarischen Sensor, wobei der rote Spektralstreifen die doppelte Größe der anderen einzelnen Spektralstreifen hat, gemäß einer Ausführungsform.
  • 4D zeigt einen exemplarischen Sensor mit einem panchromatischen Block sowie einen roten Spektralfilterstreifen, der größer als die anderen Spektralfilterstreifen ist, gemäß einer Ausführungsform.
  • 5A und 5B sind Teilansichten, die ein Beispiel einer Bildgebungssequenz für die Erfassung, Registrierung und Kombination eines Bilds mithilfe eines zweidimensionalen Multispektralsensors mit festem Suchfeld mit Spektralfilterstreifen veranschaulichen, gemäß einer Ausführungsform. 5 ist eine Ansicht, die die gesamte Bildgebungssequenz anzeigt, die von den Teilansichten in 5A und 5B gebildet wird und die Postionen der Teilansichten angibt.
  • 6 veranschaulicht ein Beispiel einer Bildgebungssequenz für die Erfassung eines Bilds mithilfe eines Sensors, der einen Multispektralsensor und einen panchromatischen Sensor enthält, gemäß einer Ausführungsform.
  • 7 zeigt ein Beispiel dafür, wie erfasste Teilbilder registriert und kombiniert werden können, um Multispektralbilder zu erstellen, gemäß einer Ausführungsform.
  • 8 veranschaulicht schematisch ein Beispiel einer Subpixel-Falschausrichtung für Pixel, die in mehreren Bildern für einen exemplarischen Bereich erfasst wurden, gemäß einer Ausführungsform.
  • 9 zeigt ein Beispiel eines Subframe-Bereichs, der mit Multi-Frame- und/oder Pan-Sharpening-Verbesserung bearbeitet wird, während der Rest des Bilds nicht mit Multi-Frame- und/oder Pan-Sharpening-Verbesserung bearbeitet wird, gemäß einer Ausführungsform.
  • 10 ist ein Ablaufdiagramm, das ein Beispiel eines Verfahrens für die Verbesserung von Bildern mithilfe von Multi-Frame-Verbesserung und/oder Pan-Sharpening-Techniken veranschaulicht.
  • 11 ist ein Ablaufdiagramm, das ein Beispiel eines Verfahrens für panchromatische Schärfung von Multispektralbildern veranschaulicht.
  • Die Figuren stellen verschiedene Ausführungsformen der vorliegenden Offenbarung nur zum Zweck der Veranschaulichung dar und sind nicht als einschränkend gedacht. Alternative Ausführungsformen der hierin veranschaulichten Strukturen und Verfahren können verwendet werden, ohne von den hierin beschriebenen Prinzipien abzuweichen. Nun wird im Detail Bezug auf mehrere Ausführungsformen genommen, von denen Beispiele in den begleitenden Figuren veranschaulicht sind. Es wird angemerkt, dass soweit dies praktisch möglich ist, ähnliche oder gleiche Referenzziffern in den Figuren verwendet werden können, die auf ähnliche oder gleiche Funktionalität hinweisen. Es ist zu beachten, dass die relativen Dimensionen der Figuren möglicherweise nicht maßstabsgetreu sind.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Übersicht
  • Manche Overhead-Bildgebungssysteme nehmen Bilder auf, indem eine Bildgebungsplattform auf einem Pfad über der interessanten Region fährt, einer so genannten Spur. Der Pfad kann eine oder mehrere gerade Linien oder Segmente umfassen oder er kann ein gekrümmter Pfad sein. Die Overhead-Bildgebungsplattform kann zum Beispiel ein Satellit, ein Flugzeug, ein Hubschrauber, ein unbenanntes Fluggerät (unmanned aerial vehicle, UAV), eine Drohne, ein Ballon usw. sein. Die Overhead-Bildgebungsplattform kann in einer bestimmten Höhe über der interessanten Region fliegen. Bildstichproben können kontinuierlich während der Fahrt der Plattform erhalten werden und sie können am Boden mithilfe digitaler Bearbeitung in einem Ausgabebild zusammengestellt werden. Einige Bildgebungssysteme können Multispektraldaten erfassen. Diese Bildgebungssysteme sammeln Bildstichproben über mehrere Spektralkanäle. Es gibt mehrere vorhandene Arten von Sensoren, die am Bildgebungssystem montiert werden können, um die Bildstichproben zu erfassen, während die Bildgebungsplattform entlang der Spur über der interessanten Region fährt. Diese Sensoren beinhalten Zeilensensoren, Time Delay Integration(TDI)-Sensoren, zweidimensionale (2D) Sensoren mit festem Suchfeld, farbradartige 2D-Sensoren mit festem Suchfeld und Color Filter Array(CFA)-Sensoren.
  • 1 veranschaulicht eine Messung eines eindimensionalen Zeilensensors, entlang einer Spurrichtung gescannt, gemäß einer Ausführungsform. Ein Zeilensensor kann ein Sensor mit einer einzigen Pixelreihe 103 für jede zu sammelnde Farbe sein. Der Sensor ist in der Plattform so positioniert, dass er rechtwinklig 102 zur Spurrichtung 101 ist und sich somit auf lineare Weise durch eine Szene bewegt. Jede Pixelreihe des Bilds wird nacheinander exponiert, während der Sensor sich durch die Szene bewegt, wodurch ein vollständiges 2D-Bild 104 erstellt wird. Eine Overhead-Bildgebungsplattform, die Bilder mit Multispektraldaten (z. B. mehreren Farben) erfasst, kann einen unabhängigen Zeilensensor für jedes zu erfassende Spektrum (z. B. Farbband) verwenden, worin jeder Zeilensensor mit einem anderen Spektralfilter (z. B. Farbfilter) ausgestattet ist.
  • Ein TDI-Sensor ist ein spezifischer Typ von Zeilensensorsystem, bei dem jedes Spektrumband mehrere Pixelreihen hat. Jede Pixelspalte entspricht einem einzelnen Punkt auf dem Boden. Während sich der Sensor die Spur entlang bewegt, wird jede Spalte über den einzelnen Punkt am Boden geschwenkt. Die durch den ersten Pixel in der Spalte erfasste Ladung wird nacheinander von Reihe von Reihe in dieser Spalte bewegt. Somit wird die Ladung von Pixel zu Pixel akkumuliert. Das Signal für einen einzelnen Punkt am Boden wird in der letzten Reihe der Spalte ausgelesen. Dies ermöglicht die Integration des Lichtsignals für jedes Bild für einen längeren Zeitraum, wodurch das Signal-Rausch-Verhältnis des Bildes verbessert wird. Wie beim obigen Zeilensensor der Fall, kann eine Overhead-Bildgebungsplattform, die Bilder mit Multispektraldaten erfasst, in einem unabhängigen TDI-Sensor für jedes zu erfassende Spektrum verwendet werden, worin jeder TDI-Sensor mit einem anderen Spektralfilter ausgestattet ist.
  • Die Verwendung von Zeilensensoren oder TDI-Sensoren in einer Overhead-Bildgebungsplattform hat mögliche Nachteile. In einigen Implementierungen erfordern die Sensoren eine extrem stabile und gut kontrollierte Bildgebungsplattform während der Bildsammlung, um sicherzustellen, dass die relative Bewegung der abgebildeten Region rechtwinklig zu dem eindimensionalen Bildsensor ist. Jede Abweichung bei der Ausrichtung oder relativen Geschwindigkeit der abgebildeten Region während der Sammlung kann zu einer unregelmäßigen Bildstichprobe und somit zur einer Verzerrung der Bildabtastung führen. Diese Bedenken können in Multispektralsystemen erhöht sein, wo die Stabilität über die mehreren Zeilen- oder TDI-Sensoren aufrechterhalten werden sollte.
  • Bildgebungssysteme, die Sensoren mit festem Suchfeld verwenden, nehmen ganze 2D-Einzelbilder auf, die als Schnappschüsse aufgenommen wurde, während die Plattform die Spur entlang fährt, wie dargestellt in 2 nachfolgend beschrieben. Bildgebungssysteme mit Sensoren mit festem Suchfeld können so gestaltet sein, dass benachbarte Bilder überlappende Messungen der interessanten Region enthalten. Das Vorhandensein überlappender Regionen in den Ausgabebildern ermöglicht die spätere Bildbearbeitung, um benachbarte Einzelbilder zu registrieren und die Bilder mosaikartig zusammenzusetzen, um ein Bild der interessanten Region zu rekonstruieren.
  • Ein Farbradsensor beinhaltet eine mechanische Ergänzung zu einem 2D-Sensor mit festem Suchfeld. Der Sensor mit festem Suchfeld wird hinter einem mechanischen Rad angebracht, das einen Satz von mehreren verschiedenen Spektralfiltern enthält. Eine interessante Region wird durch Exposition des Sensors mit festem Suchfeld während des Drehens des Farbrades durch jeden der Spektralfilter erfasst. Durch aufeinanderfolgende Ausrichtung der Bilder, die mit jedem einzelnen Spektralfilter exponiert wurden, kann ein vollständiges Farbbilder der interessanten Region erstellt werden, wenn das Bild während der Bildbearbeitung rekonstruiert wird.
  • Die Verwendung von Filterrad-Sensoren mit festem Suchfeld als Teil einer Overhead-Bildgebungsplattform hat mögliche Nachteile. Filterradsysteme sind komplexe elektromechanische Systeme, die sich schnell bewegende Teile enthalten, die genaue mechanische Betätigung erfordern, um sicherzustellen, dass die Filter vor dem Sensor mit festem Suchfeld präzise ausgerichtet sind. Des Weiteren kann eine präzise Zeitsynchronizität implementiert werden, um sicherzustellen, dass der Filter richtig ausgerichtet ist, wenn jedes aufeinanderfolgende Bild erfasst wird. Filterradsysteme sind außerdem durch die Rate beschränkt, mit der sie Bilder erfassen werden, da das Bewegen von Spektralfiltern in den Bildgebungspfad und aus ihm heraus Zeit benötigt. Des Weiteren erfordert die mechanische Natur des Filterrads die Hinzufügung einer erheblichen Menge an Energie und Masse für das Bildgebungssystem. Mechanische Filter neigen zur Störungen im Zeitverlauf. Zusammen erhöhen diese Faktoren sowohl die Kosten als auch die Größe eines Overhead-Farbradbildgebungssystems.
  • Ein Color Filter Array (CFA), zum Beispiel ein Bayer-Filter ist die häufigste Methode für die Erstellung von Farbbilder für Digitalkameras für die Verbraucherfotografie. Über den 2D-Sensor wird eine Reihe von Filtern gelegt. Jedes Pixel hat einen anderen Farbfilter, während die Farbfilter sich in einem schachbrettartigen Muster wiederholen. Ein Bild wird in einer Exposition aufgenommen und mithilfe eines Farb-Demosaicing genannten Verfahrens wird ein einheitliches Farbbild erstellt. Farb-Demosaicing ist ein Interpolationsvorgang, der ein vollständiges Farbbild durch Annäherung des unterschiedlichen Farbwerts in jedem einzelnen Pixel formuliert. Das Muster der Filter stellt sicher, dass Farbbildmessungen innerhalb einer Genauigkeit von einem Pixel gemeinsam registriert werden.
  • Die Verwendung von CFA-Sensoren als Teil einer Overhead-Bildgebungsplattform hat mögliche Nachteile. Das grundlegende Musterdesign eines CFA verringert die Auflösung des zugrundeliegenden Sensors mit festem Suchfeld in Bezug auf ein Einzelspektrumbild inhärent. Wenn das CFA zusammen mit einem Sensor mit festem Suchfeld verwendet wird, erfordert eine Abmilderung dieses Verlusts bei der Auflösung hochauflösendere Sensoren mit festem Suchfeld, was beides die Kosten und Energie erhöht, die vom Gesamtsystem benötigt werden. Außerdem haben, während der CFA-Ansatz für fotografische Systeme mit nur drei Farbkanälen sehr gut funktioniert, Multispektralbildgebungssysteme, die in Overhead-Bildgebungssystemen verwendet werden, sehr häufig fünf oder mehr Spektralkanäle. Die Einbeziehung von fünf oder mehr Spektralkanälen in ein CFA-Muster verringert die Auflösung ausgegebener Bilder weiter und erfordert unregelmäßige Filteranordnungsmuster. Und schließlich können Overhead-Bildgebungsplattformsysteme, die in Weltraumanwendungen verwendet werden, anders als Bildgebungssysteme für die Verbraucherfotografie die Verwendung von Interferenzfiltern erfordern, um in einer Weltraumumgebung zu überleben. Die Herstellung einer Reihe von Interferenzfiltern in der Größe einer CFA-Pixeldimension erfordert erhebliche Herstellungskosten.
  • Jede vorhandene Art von Sensor, der Multispektraldaten sammelt, ist ein panchromatischer Kanal (oder panchromatischer Sensor). Ein panchromatischer Kanal kann eine breitere Spektralbandbreite haben als einzelne Spektralkanäle. In einigen Ausführungsformen hat der panchromatische Kanal eine Bandbreite, die so groß wie zwei, drei oder mehr (z. B. alle) Spektralkanäle ist. Panchromatische Kanäle können Echtzeit-Videopräsentation und panchromatische Schärfung bieten. Panchromatische Schärfung (Pan-Sharpening) ist eine Technik, durch die die native Auflösung eines Multispektralbilds durch Kombination mit panchromatischem Bildmaterial mit vergleichbar höherer Auflösung verbessert wird. Aufgrund des geringeren Signal-Rausch-Verhältnisses der Spektralfilter, die in Multispektralbildsensoren vorhanden sind, im Vergleich zu einem panchromatischen Kanalfilter, kann es kostspielig sein, Multispektralbilddaten mit derselben Auflösung wie panchromatische Bilddaten zu sammeln. Pan-Sharpening kann dieses Problem durch Kombination panchromatischer Bilddaten mit höherer Auflösung mit Multispektralbilddaten mit niedrigerer Auflösung überwinden. Die panchromatischen Bilddaten haben eine höhere Auflösung gegenüber der niedrigeren Auflösung der Multispektralbilddaten.
  • Traditionell werden Bilder mit Pan-Sharpening mithilfe getrennter Sensoren für die panchromatischen Bilddaten und die Multispektralbilddaten gesammelt. Die verschiedenen Sensoren haben Pixel in unterschiedlicher Größe, die die Sammlung mehrerer Auflösungen über ein einziges Kamerasystem ermöglichen.
  • Die Verwendung mehrerer Sensoren hat jedoch mehrere inhärente Nachteile. Jeder zusätzliche Sensor erfordert ein zusätzliches Paket unterstützender Elektronik. Dies erhöht die Kosten und Komplexität, die mit dem Bildgebungssystem verbunden sind, erheblich. Die zusätzlichen elektronischen Systeme fügen zum Beispiel Gewicht hinzu und erfordern Platz-äußerst wertvolle Güter bei Overhead-Bildgebungssystemen. Außerdem erfordern mehrere Sensorsysteme zusätzliche Energie für den Betrieb. Und schließlich muss eine präzise Ausrichtung der mehreren Sensoren erreicht und während Herstellung, Montage, Bereitstellung und dem restlichen Lebenszyklus des Overhead-Bildgebungssystems aufrechterhalten werden.
  • Konfigurationsüberblick
  • Beispiele von Sensoren, die einen zweidimensionalen Sensor mit festem Suchfeld und schnellem Framing mit Spektralfilterstreifen für Multispektral-Overhead-Bildgebung beinhalten, werden bereitgestellt. Der Sensor kann außerdem einen panchromatischen Sensor enthalten, der in einem einzelnen Block oder mehreren Streifen angeordnet ist. Der Sensor kann verwendet werden, um Multispektralfarbbilddaten zu sammeln. Wenn ein panchromatischer Sensor enthalten ist, kann der Sensor auch verwendet werden, um panchromatische Bilddaten zu sammeln. Die panchromatischen Bilddaten können verwendet werden, um Multi-Frame-Verbesserung und/oder Pan-Sharpening an rekonstruierten Spektralbildern durchzuführen, um ihre Qualität zu verbessern. Der Sensor kann verwendet werden, um Bilder und/oder Videos bereitzustellen. Der Sensor kann als einzelner monolithischer (oder einheitlicher) Sensor statt als mehrere einzelne Sensoren gestaltet sein, z. B. können die Bildgebungsteile des Sensors an einem einzelnen, monolitischen Substrat gebildet oder montiert werden.
  • In einigen Ausführungsformen können Spektralfilterstreifen in Bezug auf den Sensor mit festem Suchfeld angeordnet sein, z. B. zwischen dem Sensor mit festem Suchfeld und der abzubildenden interessanten Region. Die Spektralfilterstreifen können am Sensor mit festem Suchfeld angebracht sein. In einer Ausführungsform gibt es drei oder mehr Spektralfilterstreifen. Die Spektralfilterstreifen können so angeordnet sein, dass sie die Fläche des Sensors mit festem Suchfeld abdecken, und sie können so angeordnet sein, dass die langen Kanten der Streifen im Bildgebungssystem so montiert werden können, dass sie rechtwinklig zur Fahrtrichtung der Bildgebungsplattform sind. Bildbearbeitung kann verwendet werden, um vollständige Multispektralbilder aus den einzelnen Teilbildern zu rekonstruieren, die über die Spektralfilterstreifen erfasst wurden.
  • Der Sensor mit festem Suchfeld und die Spektralbildstreifen ermöglichen die Sammlung von Multispektralbilddaten zu einem Bruchteil der Kosten traditioneller Multispektralsammelsysteme. Die Spektralfilterstreifen ermöglichen es dem Sensor, die entspannten Plattformstabilitätsanforderungen eines 2D-Sensors mit festem Suchfeld mit der räumlichen und temporalen Auflösung eines Zeilenscansystems zu nutzen. Die Verwendung eines Sensors mit festem Suchfeld verringert die Präzisions- und Stabilitätsanforderungen für den Betrieb des Sensors zumindest teilweise, da ein ganzes Multispektralbild in einem einzigen Schnappschuss aufgenommen werden kann. In einigen Implementierungen kann das Bild zum Beispiel in weniger als 1 ms (z. B. in manchen Fällen in 0,1 ms) aufgenommen werden, sodass die Stabilitätsanforderungen gegenüber Sensoren, die längere Schnappschusszeiten (z. B. bis zu über 1 s für einige Sensoren, die in großen Satelliten verwendet werden) benötigen, erheblich abgeschwächt sind. Die Verringerung der Präzisions- und/oder Stabilitätsanforderungen für einen Sensor kann die Kosten der Herstellung des Sensors verringern, da weniger Infrastruktur nötig ist, um sicherzustellen, dass Präzision und/oder Stabilität aufrechterhalten werden. Kleinere Störeinflüsse bei den erfassten Bildern aufgrund von Änderungen bei der Position oder Geschwindigkeit des Sensors können während der Bildbearbeitung korrigiert werden.
  • Durch die Hinzufügung eines panchromatischen Sensors kann der Sensor die effiziente Aufnahme und Bearbeitung hochauflösender panchromatischer Bilder ermöglichen. Durch Erfassung mehrerer, zumindest teilweise redundanter panchromatischer Bilder können Multi-Frame-Verbesserung und/oder panchromatische Schärfung durchgeführt werden, um die Qualität der erfassten Multispektralbilder zu verbessern, ohne die Kosten, Komplexitäten oder Einschränkungen, die bei anderen Sensorsystemen anzutreffen sind. In einigen Ausführungsformen beinhaltet der Sensor einen zweidimensionalen Sensor mit festem Suchfeld mit Spektralfilterstreifen sowie einen panchromatischen Sensorstreifen, der in Fahrtrichtung um einen Faktor größer ist als die einzelnen Spektralfilterstreifen. Der Faktor kann in einigen Implementierungen eins oder vier sein, auch wenn der Faktor in anderen Implementierungen größer als vier sein kann.
  • In einer Ausführungsform werden Multispektral- und panchromatische Bilder mit einer Rate erfasst, die sicherstellt, dass die relative Bewegung des Sensors (in Bezug auf die abzubildende Region) während eines Bilds kleiner als die Breite des kleinsten Spektralfilterstreifens ist, was die komplette Erfassung der gesamten interessanten Region durch den Teil des Sensors mit festem Suchfeld ermöglicht, der mit dem jeweiligen Spektralfilterstreifen verbunden ist. Der größte Filter nach Größe (entweder spektral oder panchromatisch, je nach Ausführungsform) kann eine redundante Abdeckung für den abzubildenden Bereich haben. Redundante Bilderfassungen können in Multi-Frame-Verbesserung und/oder panchromatischer Schärfung verwendet werden.
  • Somit werden Beispiele von Vorrichtungen, Verfahren und Systemen für die effiziente Aufnahme und Verarbeitung hochauflösender panchromatischer Kanäle (und/oder verschiedener Kombinationen von Multispektralkanälen mit hoher und niedriger Auflösung) hierin offenbart. Einige solche exemplarischen Vorrichtungen, Verfahren und Systeme können für die Videoerfassung und panchromatische Bildgebung verwendet werden. Mithilfe überlappender, zweidimensionaler Sensoren mit festem Suchfeld mit mehreren Redundanzen im panchromatischen Kanal können Multi-Frame-Verbesserungen und panchromatische Schärfungstechniken in verschiedenen Ausführungsformen eingesetzt werden, um hochauflösende, Multispektralbilder ohne die Kosten, Komplexitäten oder Beschränkungen bereitzustellen, die bei anderen Sensorsystemen anzutreffen sind. In einigen Ausführungsformen können Videos vom panchromatischen Kanal bereitgestellt werden.
  • Beispiele der Sensorstruktur
  • Der Sensor bildet einen Teil eines Bildgebungssystems für die Overhead-Bildgebung. Das Bildgebungssystem bewegt sich in eine Fahrtrichtung, während der Sensor Bilder erfasst. Das Bildgebungssystem kann in oder an jeder Art von Overhead-Bildgebungsplattform montiert werden, zum Beispiel einem Flugzeug, einem Hubschrauber, einem unbenannten Fluggerät (unmanned aerial vehicle, UAV), einer Drohne, einem Satelliten usw. Der Pfad, den die Bildgebungsplattform während der Fahrt nimmt, kann als „Spur” bezeichnet werden, auch wenn die Bildgebungsplattform nicht buchstäblich an einem Führungsmechanismus wie einer Schiene befestigt ist. Der vom Sensor erfasste Bereich kann als interessante Region bezeichnet werden.
  • Der Sensor kann einen zweidimensionalen Sensor mit festem Suchfeld umfassen. 2 veranschaulicht ein Beispiel einer Messung eines zweidimensionalen Zeilensensors mit festem Suchfeld, entlang einer Spur 101 gescannt, gemäß einer Ausführungsform. Ein Sensor mit festem Suchfeld 202 kann ein komplettes zweidimensionales Einzelbild 203 in einem einzigen Schnappschuss aufnehmen. Sensoren mit festem Suchfeld können so konfiguriert sein, dass sie Bilder in schneller Folge erfassen. In der exemplarischen Ausführungsform von 2 wird ein Bild nacheinander durch Erfassung vieler verschiedener Einzelbilder 204 erfasst, von denen jedes 203 eine gewisse Überlappung 205 mit den Einzelbildern aufweisen kann, die davor und/oder danach kommen. Die Bildgebungsregion eines Sensors mit festem Suchfeld kann als zweidimensionaler Flächenbereich veranschaulicht werden. Licht kann in einzelnen Pixeln gesammelt und gebündelt werden, wobei die Zahl der Pixel in Bezug auf den Flächenbereich der Bildregion die Auflösung des Sensors mit festem Suchfeld bestimmt. In verschiedenen Ausführungsformen kann der Sensor mit festem Suchfeld einen komplementären Metalloxid-Halbleiter-Sensor (complementary metal-oxide-semiconductor, CMOS) oder einen ladungsträgergekoppelten Schaltungssensor (charge coupled device, CCD) umfassen. Der Sensor mit festem Suchfeld kann eine Reihe von Fotodioden umfassen. In einigen Ausführungsformen beinhaltet der Sensor mit festem Suchfeld einen aktiven Pixelsensor (APS), der eine integrierte Schaltung mit einer Reihe von Pixelsensoren umfasst. Jeder Pixelsensor kann eine Fotodiode und einen aktiven Verstärker umfassen. Für einige Implementierungen der Overhead-Bildgebung können der Sensor mit festem Suchfeld (und/oder andere Komponenten einer Overhead-Bildgebungsplattform) strahlungsfest sein, um beständiger gegenüber Schäden aufgrund ionisierender Strahlung um Weltraum zu werden.
  • Sensoren mit festem Suchfeld 202 können so gestaltet sein, dass benachbarte Bilder 204 überlappende Messungen der interessanten Region enthalten (z. B. die Überlappung 205). Das Vorhandensein überlappender Regionen in den Ausgabebildern ermöglicht die spätere Bildbearbeitung, um benachbarte Einzelbilder zu registrieren und die Bilder mosaikartig zusammenzusetzen, um ein genaueres Bild der interessanten Region zu rekonstruieren. Durch Erzeugung eines Mosaiks („Mosaicing”) vieler getrennter ähnlicher Bilder kann das endgültige rekonstruierte Bild, das von einem Sensor mit festem Suchfeld erfasst wurde, bei Abweichungen bei der Bewegung der Bildgebungsplattform von der erwarteten Fahrtrichtung 101 einschließlich Abweichungen bei der Geschwindigkeit und/oder Richtung korrigiert werden.
  • 3 veranschaulicht das Beispiel eines Filterdesigns für einen zweidimensionalen Multispektralsensor mit festem Suchfeld 202, der Spektralfilterstreifen enthält, gemäß einer Ausführungsform. Um Multispektraldaten zu erfassen, enthält der Sensor 202 einen Block 308 einer Vielzahl von Spektralfilterstreifen 305a305d. In diesem Beispiel sind die Spektralfilterstreifen 305 lang und schmal geformt (z. B. Streifen 305a, 305b, 305c und 305d) und erstrecken sich über die Achse des Flächenbereichs des Sensors mit festem Suchfeld 202. Die Spektralfilterstreifen 305 können in Bezug auf die Fläche des Sensors mit festem Suchfeld 202 so angeordnet sein, dass die Filterstreifen 305a305d zwischen der Fläche des Sensors und der interessanten Region angeordnet sind, die in einem Bild erfasst werden soll. Die interessante Region kann zum Beispiel einen Teil der Fläche der Erde umfassen, die von einer Overhead-Plattform abgebildet werden soll. Licht von der interessanten Region kann durch die Filterstreifen 305a305d gehen, bevor es von lichtempfindlichen Elementen des Sensors mit festem Suchfeld erkannt wird. Die Steifen 305a305d können über oder am Sensor mit festem Suchfeld gebildet werden oder am Sensor mit festem Suchfeld angebracht oder angeklebt sein. Die Streifen 305a305d können zum Beispiel auf einen keramischen Träger oder ein keramisches Substrat für den Sensor mit festem Suchfeld aufgeklebt sein.
  • Wie in 3 kann die Struktur des Sensors mit festem Suchfeld 202 in Bezug auf zwei rechtwinklige Achsen 306, 307 beschrieben werden, wobei die Achse 307 sich in der erwarteten Fahrtrichtung 101 der Overhead-Plattform befindet. In diesem Beispiel sind die Filterstreifen 305a305d rechtwinklig zur Achse 307 in Fahrtrichtung 101 ausgerichtet. Jeder Streifen 305a305d kann eine Längsachse (z. B. Achse 306a, die für Filterstreifen 305a dargestellt ist) haben, die rechtwinklig zur Achse 307 in Fahrtrichtung 101 der Overhead-Plattform ausgerichtet ist. Wie unten weiter beschrieben, kann jeder Filterstreifen eine Höhe h in Richtung 307 haben. In einigen Ausführungsformen kann die Breite der Filterstreifen entlang Richtung 306 (rechtwinklig zur Bewegungsrichtung 101) im Wesentlichen dieselbe Länge des Sensors mit festem Suchfeld in diese Richtung haben, sodass die Filterstreifen die Fläche des Sensors mit festem Suchfeld 202 im Wesentlichen abdecken.
  • In einer exemplarischen Ausführungsform umfasst der Sensor mindestens vier Spektralfilterstreifen (z. B. rot, grün, blau, infrarot). Andere Ausführungsformen können eine andere Zahl von Streifen haben, z. B. einen, zwei, drei, fünf, sechs, sieben oder mehr. Die Spektralfilterstreifen 305 können in etwa als Rechtecke geformt sein (z. B. wie in 3 dargestellt) oder als Parallelogramme, Quadrate, Polygone oder jede andere geeignete Form. In verschiedenen Ausführungsformen decken die Filterstreifen im Wesentlichen die gesamte Fläche des Sensors mit festem Suchfeld ab.
  • Jeder Spektralfilterstreifen kann so konfiguriert sein, dass er Licht innerhalb eines Wellenlängenbereichs aussendet. Zum Beispiel kann ein blauer Spektralfilterstreifen so konfiguriert sein, dass er Wellenlängen des Lichts aussendet, die um die Farbe blau zentriert sind (z. B. 450–475 nm). Wellenlängen des Lichts außerhalb des von einem Filter ausgesendeten Bereichs werden blockiert, sodass Licht außerhalb des ausgesendeten Bereichs von den Pixeln des Sensors mit festem Suchfeld, die sich „unter” dem Filterstreifen befinden, nicht gesammelt wird. Der Wellenlängenbereich, der von jedem Filter ausgesendet wird, kann sich unterscheiden. Je nach Ausführungsform kann sich der von einem bestimmten Filterstreifen ausgesendete Wellenlängenbereich, zumindest teilweise, mit dem Wellenlängenbereich überlappen oder nicht, der von anderen Filterstreifen ausgesendet wird. Neben roten (R), grünen (G), blauen (B) und Infrarot-(IR-)Filtern wie veranschaulicht, gibt es viele andere mögliche Wellenlängenbereiche, die durch einen Spektralfilter ausgesendet werden können, z. B. zyan, gelb, magenta oder orange. Infrarotfilter können nahe, mittlere oder ferne Infrarotfilter umfassen. Es können Ultraviolettfilter verwendet werden. In einigen Implementierungen werden die Wellenlängenbereiche (oder Bandbreiten) für die Filterstreifen so gewählt, dass sie mindestens einen Teil des gewünschten Spektralbereichs abdecken, z. B. einen sichtbaren Spektralbereich, einen Infrarotspektralbereich, einen Ultarviolettspektralbereich oder einen Kombination solcher Spektralbereiche. In einigen Implementierungen liegt der Spektralbereich der Filterstreifen 305a305d zwischen ca. 450 nm und ca. 900 nm. In einigen Implementierungen können die Filterbandbreiten kleiner als ca. 20 nm, kleiner als ca. 50 nm, kleiner als ca. 100 nm, kleiner als ca. 150 nm, kleiner als ca. 200 nm oder irgendein anderer Bereich sein. Außerdem ist die Reihenfolge der Spektralfilter (sowie die Anordnung in Bezug auf einen panchromatischen Sensor, falls verwendet) entlang der Richtung der relativen Bewegung 101 zufällig und als Folge kann jede Reihenfolge der Filterstreifen verwendet werden.
  • In einigen Ausführungsformen ist die Höhe 307 der Filterstreifen entlang ihrer kurzen Kanten hfilter zwischen dem Ein- und Vierfachen einer Mindestfilterhöhe. In einer Ausführungsform ist die Mindestfilterhöhe die Geschwindigkeit des Bilds eines Punkts auf dem Boden, wie an Sensor (vsensor) zu sehen, während er sich in Fahrtrichtung 101 bewegt, geteilt durch die Einzelbilder pro Sekunde (oder frames per second, fps), mit denen der Sensor mit festem Suchfeld 202 (und/oder die Bildgebungselektronik, z. B. Steuerung 320) Bilder erfassen kann. In einigen Ausführungsformen kann die Steuerung 320 im Sensor 202 integriert sein, was die Verpackung und Verwendung mit einem Bildgebungssystem erleichtern kann. Die Steuerung 320 kann mit allen Ausführungsformen von Sensor 202 verwendet oder integriert werden, die hierin beschrieben sind, um die Bild- oder Videoerfassung durch Sensor 202 elektronisch zu steuern.
  • Die Mindestfilterhöhe hmin kann als Verhältnis der Overhead-Geschwindigkeit des Sensors (in Bezug auf die Bildgebungsregion) zur Bilderfassungsrate ausgedrückt werden: vsensor/fps. Filterstreifen mit einer kürzeren Höhe als hmin können möglicherweise keine ausreichende Überlappung der Bilder liefern, was die Registrierung schwierig machen kann. Demgemäß ist in bestimmten Ausführungsformen die Höhe eines Spektralfilters (hfilter) in Pixeln größer als oder gleich dem Verhältnis der relativen Rate, mit der sich das Bild über den Sensor (vsensor) in Pixeln pro Sekunde bewegt, was durch Berechnung der Größe eines Pixels und der Frame-Rate (fps) in einen Abstand umgerechnet werden kann:
    Figure DE202012013411U1_0002
  • In einer exemplarischen Konfiguration stellt eine Mindestfilterhöhe sicher, dass der Sensor ein klares Bild erfassen kann. Die Größe und Anordnung der Spektralfilter 305a305d ist so konfiguriert, dass sie die relative Geschwindigkeit des Sensors, während er sich die Spurrichtung 101 entlang bewegt, gegenüber der Rate, mit der der Sensor mit festem Suchfeld 202 Bilder erfassen kann, berücksichtigt. Filterstreifen mit einer Höhe größer als die Mindesthöhe hmin (auf der rechten Seite der Gleichung (1) angegeben) tragen dazu bei, eine angemessene Überlappung zwischen nacheinander erfassten Bildern einer interessanten Region zu liefern, damit das Bild rekonstruiert werden kann. Eine angemessene Überlappung zwischen nacheinander erfassten Bildern beinhaltet eine allgemeine Überlappung zwischen aufeinanderfolgenden Bildern einer interessanten Region unabhängig von Spektralfiltern. In einer Ausführungsform, bei der sich die Spektralfilterhöhen in der Nähe der Mindesthöhe befinden, wird eine Messung oder ein Einzelbild für eine interessante Region pro Spektralfilter erfasst. Wenn es zum Beispiel 4 Spektralfilter gibt, gibt es mindestens 4 Einzelbilder, die eine interessante Region erfassen, wobei jedes das Licht erfasst, das durch einen anderen Spektralfilter gegangen ist.
  • Die Mindestfilterhöhe kann in einigen Fällen ein Mindestwert sein, der mit dem Sensor machbar ist. In einer Ausführungsform können die Filterhöhen größer sein, um mehr als eine Messung pro Spektralfilter für eine interessante Region zu erfassen. In dieser Ausführungsform beinhaltet eine angemessene Überlappung eine Überlappung zwischen aufeinanderfolgenden Einzelbildern, die für eine interessante Region erfasst werden, wobei die interessante Region vom Sensor mehrmals mit demselben Spektralfilter erfasst wird. In einer Implementierung ist die Filterhöhe hfilter ca. das 1,25-fache der Mindestfilterhöhe. Andere Filterhöhen können verwendet werden. Zum Beispiel kann das Verhältnis von Filterhöhe zu Mindestfilterhöhe im Bereich von ca. 1,0 bis 1,2, 1,0 bis 1,5, 1,0 bis 2,0, 1,5 bis 2,5 oder ein anderer Bereich sein.
  • Es gibt keine obere Grenze der Spektralfilterhöhe 307 (außer ca. die physische Größe des Sensors mit festem Suchfeld). Jedoch können Filterhöhen 307, die größer als das Vierfache der Mindestfilterhöhe sind, in einigen Implementierungen aufgrund der unnötigen Redundanz bei den erfassten Bilddaten nicht wünschenswert sein. In einer Overhead-Bildgebungsanwendung kann zu viel Redundanz zum Beispiel zu einer großen Menge von Bildgebungsinformationen führen, die zu einer Bodenstation zur Bearbeitung gesendet werden. Aufgrund der begrenzten Sendebandbreite einiger Satelliten kann es unerwünscht sein, eine zu große Menge von Bildgebungsinformationen zu übertragen. Demgemäß kann in einigen Overhead-Bildgebungsimplementierungen die Filterhöhe hfilter ungefähr zwischen dem Einfachen und dem Vierfachen der Mindesthöhe liegen.
  • Die Zahl der Filter (Nfilter), die an Sensor 202 angeordnet sein können, ist das Verhältnis der Höhe 310 des Sensors (hsensor) zur Höhe 307 für den Filter (hfilter):
    Figure DE202012013411U1_0003
  • Obwohl 3 den Sensor 202 mit Filterstreifen 305a305d veranschaulicht, die jeweils dieselbe Höhe 307 haben, dient dies Veranschaulichungszwecken und ist nicht als einschränkend gedacht. In anderen Implementierungen können sich die Höhen aller Filterstreifen voneinander unterscheiden.
  • Neben einem zweidimensionalen Sensor mit festem Suchfeld kann der Sensor optional auch einen panchromatischen Block für die Erfassung panchromatischer Bilddaten neben den Multispektralbilddaten umfassen, die über die Filterstreifen 305a305d des Sensors mit festem Suchfeld erfasst werden. Der panchromatische Block kann gegenüber einer breiten Bandbreite des Lichts empfindlich sein, verglichen mit der Bandbreite des Lichts, das von einem oder mehreren der Spektralfilterstreifen ausgesendet wird. Der panchromatische Block kann zum Beispiel eine Bandbreite haben, die im Wesentlichen zumindest einen erheblichen Teil der kombinierten Bandbreiten der Spektralfilterstreifen abdeckt. In verschiedenen Ausführungsformen kann die Bandbreite des panchromatischen Blocks größer als ca. 50 nm, größer als ca. 100 nm, größer als ca. 250 nm oder größer als ca. 500 nm sein. In einer Implementierung ist die Bandbreite des panchromatischen Blocks zwischen ca. 450 nm und ca. 900 nm. In verschiedenen Implementierungen kann die Bandbreite des panchromatischen Blocks größer als das ca. Zwei-, größer als das ca. Drei-, größer als das ca. Vier- oder größer als ca. das Fünffache der Bandbreite eines Spektralfilterstreifens sein.
  • 4A veranschaulicht einen exemplarischen Sensor mit einem zweidimensionalen Sensor mit festem Suchfeld 202 mit Spektralfilterstreifen 505a505d und einem panchromatischem Block 505efgh, gemäß einer Ausführungsform. Im Beispiel von 4A hat der panchromatische Block (505efgh) dieselbe Breite (rechtwinklig zur Richtung der relativen Bewegung 508) wie jeder einzelne Filterstreifen (z. B. infrarot 505a, blau 505b, grün 505c, rot 505d), aber die vierfache Höhe 507 (parallel zur Bewegungsrichtung 101) jeder der einzelnen Spektralfilterstreifen 505a505d. Die Höhe des panchromatischen Blocks in Bezug auf die Höhe der Spektralfilterstreifen kann sich in verschiedenen Implementierungen unterscheiden. Breite und Höhe können auf Basis der Richtung der relativen Bewegung 101 der Overhead-Plattform bestimmt werden, wobei die Höhe parallel zur Richtung der relativen Bewegung 101 und die Breite rechtwinklig zur Richtung der relativen Bewegung 101 ist.
  • In einer Ausführungsform erfasst der panchromatische Block Bilddaten mit derselben Auflösung wie der/die zweidimensionalen, Multispektralsensor(en) und Filterstreifen. Der panchromatische Sensor und der Multispektralsensor haben zum Beispiel dieselbe Zahl von Pixeln und/oder Größe von Pixeln. In einer Ausführungsform sind in einer Overhead-Bildgebungsanwendung, z. B. einem Bildgebungssatelliten, die Auflösungen der Multispektralsensoren so, dass jedes Pixel des Multispektralsensors und panchromatischen Sensors ca. Bereich von 1 Quadratmeter auf der Erde in einem einzigen Pixel erfassen kann.
  • 4A stellt Lücken 510 zwischen den Spektralfilterstreifen und panchromatischen Streifen dar, diese Lücken können jedoch je nach Ausführungsform des Sensors größer oder kleiner als dargestellt oder überhaupt nicht vorhanden sein. Die Gesamthöhe 506 dieser Ausführungsform des Sensors mit festem Suchfeld 202 ist die Summe der Höhen des panchromatischen Blocks 505efgh, der Spektralstreifen 505a505d und der Lücken 510 (falls enthalten).
  • In einigen Ausführungsformen (z. B. 4A) beinhaltet der panchromatische Block 505efgh einen einzigen panchromatischen Filter. In anderen Ausführungsformen, wie in 4B dargestellt, kann der Sensor einen zweidimensionalen, Multispektralsensor mit festem Suchfeld mit Spektralfilterstreifen 505a505d und einer Vielzahl panchromatischer Streifen 505e505h enthalten. Im Gegensatz zum panchromatischen Block von 4A werden im Beispiel von 4B panchromatische Bilddaten mithilfe der Vielzahl von panchromatischen Streifen 505e505h erfasst. Die panchromatischen Bilddaten aus der Vielzahl panchromatischer Streifen können in einem Mosaicing-Verfahren kombiniert werden, um vollständige panchromatische Bilder zu erstellen.
  • Einer oder mehrere der Spektralfilterstreifen am Sensor können in Bezug auf die anderen Streifen in der Höhe vergrößert werden, um die Multi-Frame-Verbesserung während der Bildbearbeitung zu erleichtern. 4C zeigt einen exemplarischen Sensor mit Spektralstreifen 905a905d, bei dem der rote Spektralfilterstreifen 905d eine Höhe hat, die das Doppelte der Höhe 907 der anderen Streifen 905a905c ist. Eine Folge der Vergrößerung eines der Streifen (z. B. des roten Streifens) ist, dass die erfassten Spektralbilddaten erfasste zusätzliche Einzelbilder einer bestimmten interessanten Region für die Verwendung in einer Multi-Frame-Verbesserungsbearbeitung haben. Einer oder mehrere der Spektralstreifen können auf verschiedene Größen in Bezug zueinander vergrößert werden, unabhängig davon, ob ein panchromatischer Sensor vorhanden ist oder nicht. Die Gesamthöhe 906 dieser Ausführungsform des Sensors mit festem Suchfeld 202 ist die Summe der Höhen der Spektralstreifen 905a905d und eventueller Lücken (falls enthalten).
  • 4D zeigt einen exemplarischen Sensor mit einem panchromatischen Block 1005e sowie einen Spektralfilterstreifen 1005d, der größer als die anderen Spektralfilterstreifen ist, gemäß einer Ausführungsform. Auch wenn der Streifen 1005d rot dargestellt ist, könnte die in anderen Ausführungsformen vom Streifen 1005d weitergegebene Farbe eine andere Farbe als rot (z. B. grün oder blau) sein. 4D zeigt den panchromatischen Block 1005e mit einer vierfachen Höhe 1007 des kleinsten Spektralstreifens (grüne, blaue bzw. Infrarot-Streifen 1005c, 1005b, 1005a in diesem Beispiel) und einen roten Spektralstreifen 1005d mit der doppelten Höhe 1007 des kleinsten Spektralstreifens. In anderen Ausführungsformen können sich die relativen Höhen der Spektralfilterstreifen und/oder des/der panchromatischen Streifen(s) voneinander unterscheiden und anders sein, als in den Beispielen dargestellt, die in 3 und 4A4D veranschaulicht sind. In anderen Ausführungsformen kann ein zusätzlicher oder anderer Spektralstreifen als der rote Spektralstreifen 1005d eine größere Höhe im Vergleich zu den anderen Spektralstreifen haben (z. B. könnte der grüne Streifen 1005c die größte Höhe der Spektralstreifen 1005a1005d haben). Die Gesamthöhe 1006 dieser Ausführungsform des Sensors mit festem Suchfeld 202 ist die Summe der Höhen des panchromatischen Blocks 1005e, der Spektralstreifen 1005a1005d und eventueller Lücken (falls enthalten).
  • In einigen Implementierungen können alle Teile der Bildbereiche des Spektralsensors/der Spektralsensoren und des panchromatischen Sensors/der panchromatischen Sensoren dieselbe Pixelgröße, dieselbe Pixelform, dasselbe Pixelraster und dieselbe Reihenplatzierung und/oder dieselbe Pixeldichte haben. In manchen Fällen können jedoch einzelne Teile der Sensoren unterschiedliche Pixelgrößen, unterschiedliche Formen, unterschiedliche Raster oder unterschiedliche Reihenplatzierungen und/oder unterschiedliche Dichten haben. Solange die einzelne Pixelgröße, die einzelne Form, das einzelne Raster, die einzelne Reihe und/oder die einzelne Dichte bekannt ist, können vollständige Bilder rekonstruiert und eine Bildbearbeitung kann durchgeführt werden. In einigen Ausführungsformen können sich die Pixelgröße, die Form, das Raster oder die Reihe und/oder die Pixeldichte für verschiedene Teile des Sensors mit festem Suchfeld unterscheiden. Zum Beispiel ist in einer Implementierung die Pixeldichte für den/die panchromatischen Streifen größer als für den/die Spektralstreifen, sodass die räumliche Auflösung des Bilds des panchromatischen Streifens/der panchromatischen Streifen größer als die räumliche Auflösung des Spektralstreifens/der Spektralstreifen ist.
  • Sowohl im Beispiel des panchromatischen Blocks als auch im Beispiel des panchromatischen Streifens überlappen sich die erfassten Bilder, sodass aufeinanderfolgende Einzelbilder häufig einen Großteil desselben Bildes erfassen. Der Umfang der Überlappung hängt von der Größe des Erfassungsbereichs des panchromatischen Teils des Sensors, dem Abstand zwischen der Bildgebungsplattform und dem erfassten Ziel und der Geschwindigkeit der Bildgebungsplattform ab.
  • In einigen Ausführungsformen beinhaltet der Sensor einen einzelnen (z. B. monolithischen) zweidimensionalen Sensor mit festem Suchfeld, wobei verschiedene Teile des Sensors verschiedene Daten auf Basis der Spektralfilter und/oder panchromatischen Filter erfassen. Die Verwendung eines einzelnen Sensors mit festem Suchfeld kann die Sensorkosten verringern, die Herstellung des Sensors vereinfachen, es kann einfacher zu implementieren sein und weitere Vorteile über den Lebenszyklus beinhalten. In anderen Ausführungsformen können mehrere Sensoren mit festem Suchfeld verwendet werden. Der/die panchromatischen Streifen kann/können zum Beispiel über einem ersten Fotosensor angeordnet sein und der/die Spektralfilterstreifen kann/können über einem zweiten Fotosensor angeordnet sein. In anderen Implementierungen wird ein anderer Fotosensor für jeden Spektral- oder panchromatischen Streifen verwendet. Die verschiedenen Fotosensoren können in manchen Fällen unterschiedliche Pixelanordnungen haben. In anderen Ausführungsformen kann der Sensor mit festem Suchfeld durch andere Arten von Spektralsensoren ersetzt werden, z. B. Zeilenscanner- (z. B. TDI-), Farbrad- und CFA-Sensoren. In jeder dieser Ausführungsformen umfasst der Sensor einen Spektralsensor (z. B. einen Zeilenscanner) und einen panchromatischen Sensor). Es sind viele Varianten möglich.
  • Der panchromatische Teil des Sensors (oder panchromatische Sensor) kann Bilder mit einer relativ hohen Frame-Rate erfassen. Als Folge können die panchromatischen Bilddaten, die vom panchromatischen Block erfasst werden, als panchromatischer (z. B. Grauskalen-)Video-Feed mit nur wenig oder keiner zusätzlichen Bearbeitung verwendet werden. In einigen Implementierungen kann das Video mit Raten von wenigen (z. B. ca. 5) Bildern pro Sekunde bis zu ca. 30 bis 50 Bildern pro Sekunde bereitgestellt werden. In anderen Implementierungen können die Bilder, die von Spektralkanälen (z. B. R, G, B und IR) bereitgestellt werden, auch als einer oder mehrere Spektral-Video-Feeds bereitgestellt werden. In einigen Implementierungen können Bilder aus einem oder mehreren Spektralkanälen kombiniert werden, um einen Farb-Video-Feed bereitzustellen (z. B. durch Kombinieren der Kanäle R, G und B zur Erzeugung eines Vollfarbvideos). An den panchromatischen Bilddaten kann in Verbindung mit den Multispektralbilddaten vom zweidimensionalen Sensor mit festem Suchfeld eine weitere Bearbeitung durchgeführt werden, um Versionen der Bilder mit Multi-Frame-Verbesserung und/oder panchromatischer Schärfung zu erstellen. Bilder mit Multi-Frame-Verbesserung und/oder Schärfung (panchromatisch, spektral und/oder multispektral) können als Video oder als Videostream bereitgestellt werden. In einigen Implementierungen wird zumindest ein Teil der Nachbearbeitung der Bilder aus den panchromatischen und/oder Spektralkanälen am Boden (statt auf der Overhead-Plattform) durchgeführt, um Videos zu erstellen. Die Bilder und/oder Videos können Benutzern bereitgestellt werden (z. B. über einen Download von einem Netzwerk).
  • Ausführungsformen des hierin beschriebenen Sensors können in einer Reihe von Anwendungen verwendet werden. Der Sensor kann als Teil eines Bildgebungssystems zur Erdbeobachtung verwendet werden, das zum Beispiel an einem Flugzeug oder Satelliten montiert ist. Der Satellit kann ein großer oder kleiner oder ein Mikrosatellit oder ein Nanosatellit sein.
  • Mikrosatellit ist ein breitgefasster Begriff und wird in seiner normalen und üblichen Bedeutung von Fachleuten gegeben (z. B. ist er nicht auf eine spezielle oder individuelle Bedeutung beschränkt), und er beinhaltet u. a. Satelliten mit einer Masse kleiner oder gleich ca. 500 kg und/oder physischen Abmessungen kleiner oder gleich 125 cm × 125 cm × 175 cm oder Satelliten, die als sekundäre Nutzlast an einer Trägerrakete gestartet werden. Mikrosatelliten beziehen sich im Allgemeinen auf Satelliten, die als sekundäre Nutzlast an einer Trägerrakete gestartet werden. Mikrosatelliten können durch die Trägerrakete in der niedrigen Erdumlaufbahn platziert werden (z. B. 1.000 km von der Oberfläche der Erde entfernt). Mikrosatelliten können außerdem durch ihr Gewicht oder ihre Größe von größeren Satelliten unterschieden werden. Mikrosatelliten können zum Beispiel auf Basis ihres Gesamtgewichts eingestuft werden, z. B. etwas weniger als 500 Kilogramm (kg). In einem weiteren Beispiel können Mikrosatelliten auf Basis ihrer Volumengröße eingestuft werden, z. B. einem Volumen von etwas weniger als 125 Zentimeter (cm) mal 125 cm mal 175 cm.
  • Gemäß einigen Konventionen werden Satelliten mit einer Masse von weniger als oder gleich 500 kg als kleine Satelliten eingestuft, wobei weitere Aufteilungen auf Basis ihrer Masse erfolgen. In einem Klassifizierungssystem werden kleine Satelliten beispielsweise als Minisatelliten betrachtet, wenn sie über eine Masse zwischen ungefähr 100 kg und 500 kg, als Mikrosatelliten, wenn sie über eine Masse zwischen 10 kg und 100 kg, als Nanosatelliten, wenn sie über eine Masse zwischen Gefährt 1 kg und 10 kg, als Pikosatelliten, wenn sie über eine Masse zwischen ungefähr 0,1 kg und 1 kg und als Femosatelitten, wenn sie über eine Masse von weniger oder ungefähr genauso hoch wie 100 g verfügen. Jeder Verweis auf Mikrosatellit, Minisatellit, oder kleiner Satellit in dieser Offenbarung sollte bedeutung-bezogen jedoch als die allgemeine Klasse an Satelliten verstanden werden, die über eine Masse von weniger als oder von ungefähr genauso viel wie 500 kg und/oder über physikalische Dimensionen, die weniger als oder ungefähr genauso viel wie 125 cm × 125 cm × 175 cm verfügen; und nicht als eine spezifischere Klassifizierung von hierin identifizierten Satelliten oder ähnlichen Klassifizierungsschemas verstanden werden.
  • Einige Mikrosatelliten können ESPA-Standards entsprechen. ESPA steht für EELV sekundäre Nutzlastadapter, und EELV steht für Evolved Expendable Launch Vehicle, der unter anderem beispielsweise auch Atlas V und Delta IV Startfahrzeuge beinhaltet. ESPA Spezifikationen wurden von mehreren in der Mikrosatelliten-Industrie als Richtlinie für das Ermitteln annehmbarer Mikrosatelliten Massen und/oder Volumina für die Integration in Startfahrzeugen, eingesetzt. Die ESPA-Standards verfügen über eine Masse, die weniger als oder ungefähr genauso viel wie 180 kg und ein Volumen, das weniger als 90 cm × 70 cm × 60 cm beträgt. Ein Mikrosatellit, der diesen Spezifikationen entspricht, würde sich für das Integrieren in ein Startfahrzeug eignen, das einen sekundären EELV-Nutzlastadapter einsetzt. Die ESPA-Standards stellen nicht einschränkende Beispiele von Umhüllungen bereit, die einem Mikrosatelliten entsprechen; Mikrosatelliten, die jedoch gemäß anderen Standards konfiguriert werden, können für sonstige Startfahrzeuge geeignet sein.
  • Ausführungsformen des Sensors können in einem beweglichen Fahrzeug (z. B. in einem beweglichen Automobil) verwendet werden, um Panoramaansichten von verschiedenen Positionen zu erfassen, während sich das Fahrzeug in einem Bereich oder an einem Ort bewegt. Die erfassten Ansichten können mit einer terrestrischen Karten- oder Navigationsanwendung verwendet werden.
  • Ausführungsformen des Sensors können außerdem für die astronomische Beobachtung von einem festen, bodenbasierten Bildgebungssystem aus verwendet werden. Der Sensor kann als Teil eines festen Bildgebungssystems verwendet werden, das sich regelmäßig bewegende Objekt beobachtet, zum Beispiel ein Montagelinien-Inspektionssystem. Der Sensor kann außerdem als Teil eines festen Bildgebungssystems verwendet werden, dass sich unregelmäßig bewegende Objekte beobachtet, z. B. Rennautos auf der Ziellinie eines Rennens (z. B. um Informationen für „Fotofinishes” zu liefern).
  • Beispiele der Bilderfassung und Bearbeitung
  • Die oben unter Bezugnahme auf 34D beschriebenen Sensorausführungsformen können vorteilhaft verwendet werden, um mehrere Bilder einer interessanten Region in spektralen und/oder panchromatischen Bändern zu erfassen. Die Bilder können bearbeitet werden, um ein vollständiges Multispektralbild der Region zu rekonstruieren. Die Bilder können bearbeitet werden, um Videos der interessanten Region bereitzustellen. In verschiedenen Ausführungsformen kann die Bearbeitung einen oder mehrere der folgenden Punkte umfassen: Registrierung der Bilder, Multi-Frame-Verbesserung der Bilder und/oder panchromatische Schärfung der Bilder. Ein möglicher Vorteil bestimmter Ausführungsformen der hierin offenbarten Sensoren ist, dass die Anordnung des Sensors (z. B. mehrere Spektralstreifen und ein größerer panchromatischer Streifen) die Verwendung dieser Bearbeitungstechniken (z. B. Registrierung, Multi-Frame-Verbesserung und/oder Pan-Sharpening) ermöglichen kann, um ein Multispektralbilder mit einer verbesserten Auflösung zu liefern.
  • Sobald Bilder erfasst wurden, kann die Bearbeitung durchgeführt werden, um vollständige Multispektralbilder aus den teilweisen Bildern zu rekonstruieren, die durch jeden Spektralstreifenfilter erfasst wurden, der den Multispektralsensor und den/die panchromatischen Streifen, falls verwendet, abdeckt. Im Allgemeinen haben Teilbilder, die von einem Teil der Multispektralsensoren erfasst wurden, nur eine relativ minimale Überlappung zwischen aufeinanderfolgenden Einzelbildern. Dies ist normalerweise der Fall, wenn die Spektralfilter in der Nähe der Mindesthöhe hmin sind. Die Bearbeitung ermöglicht die Rekonstruktion vollständiger Multispektralbilder trotz einer begrenzten Überlappung zwischen aufeinanderfolgenden Einzelbildern. Die Bearbeitung kann durch jedes geeignete Hardwarebearbeitungssystem durchgeführt werden. In einigen Overhead-Implementierungen werden zum Beispiel die vom Sensor aufgenommenen Bildgebungsdaten an eine Empfangsstation am Boden gesendet. Die Bildgebungsdaten können gespeichert werden (an der Bodenstation oder an einem anderen Ort) und die Bildgebungsdaten können durch ein Hardwarecomputersystem bearbeitet werden, das eine oder mehrere der hierin beschriebenen Methoden implementiert. In anderen Implementierungen kann ein Teil oder die gesamte Bearbeitung der Bilddaten durch ein Hardwarecomputersystem vor Senden der Daten an die Empfangsstation am Boden durchgeführt werden (z. B. durch ein Computersystem auf der Overhead-Plattform).
  • In einer Ausführungsform umfasst jedes Einzelbild eine Reihe von Farbkanal-Teilbildern, die jeweils durch einen anderen Spektralstreifenfilter erfasst wurden. Die Bilddaten sind ein Maß für die Menge des Lichts, das von jedem Pixel in jedem Bild erfasst wurde. Der Vorgang der Registrierung, auch als „Mosaicing” bezeichnet, verknüpft aufeinanderfolgende Einzelbilder, um ein endgültiges rekonstruiertes Bild zu bilden. Die Registrierung kann zumindest teilweise auf der Korrelation der Bilddaten zwischen den Multispektrelteilbildern und/oder der Überlappung zwischen aufeinanderfolgenden Teilbildern basieren.
  • Da jedes Multispektralteilbild Licht von verschiedenen Wellenlängen erfasst, gibt es im Allgemeinen keine genaue Korrelation bei den Bilddaten zwischen Teilbildern verschiedener Farbkanäle. In vielen Anwendungen korrelieren jedoch die Bilddaten zwischen verschiedenen Teilbild-Farbkanälen ausreichend, um eine farbübergreifende Registrierung zwischen aufeinanderfolgenden Einzelbildern verschiedener Farbkanäle zu ermöglichen. Dies kann möglich sein, da Spektralfilter (z. B. Spektralfilter 305a305d, 505a505d, 905a905d, 1005a1005d) normalerweise Licht innerhalb eines ausreichend großen Bandbreitenbereichs (z. B. ca. 50 nm in einigen Implementierungen) aussenden, damit Merkmale in der Bildgebungsregion in einigen oder in allen individuellen Spektralbildern (sowie dem panchromatischen Kanal mit größerer Bandbreite, falls verwendet) erscheinen. Außerdem sind bei Overhead-Bildgebungsanwendungen die Reflexionsspektren der meisten natürlichen und menschengemachten Merkmale stark korreliert und daher können solche Merkmale in einigen oder allen Spektralkanälen (sowie im panchromatischen Kanal, falls verwendet) erkannt werden.
  • Ein Muster in den Bilddaten zwischen Pixeln, das in aufeinanderfolgenden Einzelbildern vorhanden ist, kann zum Beispiel verwendet werden, um zwei Einzelbilder in Bezug zu einander zu registrieren. Das Muster kann in einem ersten Teilbild für einen ersten Farbkanal und in einem zweiten Teilbild eines zweiten Farbkanals vorhanden sein. Das Muster kann außerdem in einem ersten Teilbild für einen ersten Farbkanal und erneut in einem zweiten Teilbild des ersten Farbkanals vorhanden sein, das sich zumindest teilweise mit dem ersten Teilbild in dem Teil des Bilds überlappt, in dem sich das Muster befindet.
  • 5 veranschaulicht ein Beispiel einer Bildgebungssequenz für die Erfassung, Registrierung und Kombination eines Bilds mithilfe eines zweidimensionalen Multispektralsensors mit festem Suchfeld mit Spektralfilterstreifen veranschaulicht. Wie hierin beschrieben, bewegt sich der Sensor 202 die Spurrichtung 101 entlang, und somit in Bezug auf eine abzubildende interessante Region. Der Sensor erfasst Bilder nacheinander mit einer Frame-Rate (Bilder pro Sekunde/frames per second oder fps). Während sich der Sensor bewegt und Einzelbilder aufnimmt, wird jeder Punkt in einer interessanten Region von jedem Spektralfilter (und/oder panchromatischen Filter) mindestens einmal erfasst. Die Sensorbewegung kann mit der Bewegung einer beweglichen Overhead-Plattform ausgerichtet sein oder nicht.
  • In der exemplarischen Ausführungsform von 5 zeigen Bilder 409a409h eine Sequenz aus acht aufeinanderfolgenden Einzelbildern, die von einem Sensor erfasst wurden, der eine interessante Region scannt. In diesem Beispiel ist der für die Bildgebung verwendete Sensor der Sensor mit festem Suchfeld 202, der in 3 dargestellt ist, mit Filterstreifen 305a305d (bezeichnet als Filterstreifen A–D). In diesem Beispiel wird kein panchromatischer Kanal verwendet. Im Beispiel von 5 erfasst der Sensor ein Bild einer interessanten Region nach acht Einzelbilderfassungen, als Erfassungszeiten (CT) 1–8 bezeichnet. Die einzelnen Sensorerfassungen werden durch einen Großbuchstaben für den Filterstreifen (von A bis D) gefolgt von einer Zahl für die Erfassungszeit bezeichnet. Sensorerfassung D3 in Bild CT3 stellt zum Beispiel die Erfassung durch Spektralstreifen D, 305d in der dritten Erfassungszeit dar.
  • Nach der Sammlung können alle Bilder wie oben beschrieben gemeinsam registriert werden. Das gemeinsam registrierte Bild wird als Bild 41 Oi dargestellt. Nach Abschluss der gemeinsamen Registrierung kann ein getrenntes rekonstruiertes Spektralbild für jedes Farbband (Spektralband) erstellt werden. Die rekonstruierten Spektralbilder werden durch Bilder 411j411m dargestellt. Die rekonstruierten Farbbandbilder können kombiniert werden, um ein Multispektralbild zu erstellen, das durch Bild 412n dargestellt wird. In einigen Implementierungen werden Vollfarbbilder nur unter Verwendung der Teilbilder von Spektralbändern B, C und D (z. B. blau, grün und rot) erstellt.
  • In Fällen, in denen der Sensor mit festem Suchfeld neben dem Multispektralsensor auch einen panchromatischen Sensor enthält, können die erfassten panchromatischen Bilddaten verwendet werden, um die Qualität eines Multispektralbilds zu verbessern. 6 veranschaulicht ein Beispiel einer Bildgebungssequenz für die Erfassung eines Bilds mithilfe eines Sensors, der einen Multispektralsensor mit festem Suchfeld und einen panchromatischen Sensor enthält. Die exemplarische Bildsequenz von 6 kann mithilfe des Sensors erfasst werden, der in 4B dargestellt ist, wobei der Sensor vier Spektralstreifen 505a505d und vier panchromatische Streifen 505e505h enthält. Im Beispiel von 6 erfasst der Sensor ein Bild einer interessanten Region nach elf Einzelbilderfassungen, als Erfassungszeiten (CT) 1–11 bezeichnet, mit 609a–k beschriftet. Die einzelnen Sensorerfassungen werden durch einen Großbuchstaben für den Filterstreifen (von A bis H) gefolgt von einer Zahl für die Erfassungszeit bezeichnet. Sensorerfassung A9 in Bild CT9, 609i stellt zum Beispiel die Erfassung durch Spektralstreifen A, 505a in der dritten Erfassungszeit dar. Die Begriffe „Pan” und „Mono” werden in 6 verwendet, um anzugeben, dass ein erster Streifen, der in die interessante Region gelangt, ein panchromatischer bzw. monochromatischer (Farb-)Kanal ist. In einer Ausführungsform kann die Erfassungszeit mit der Rate und Richtung der Fahrt synchronisiert werden.
  • 7 zeigt ein Beispiel dafür, wie erfasste Teilbilder registriert und kombiniert werden können, um Multispektralbilder zu erstellen. Im Beispiel von 7 werden acht Bilder aus den erfassten Teilbildern rekonstruiert. Vier der rekonstruierten Bilder sind Spektralbilder, Rot 711d, Grün 711c, Blau 711b und Infrarot 711a. In diesem Beispiel enthält jedes Spektralbild Bilddaten aus einem anderen Wellenlängenbereich (z. B. rote, grüne, blaue und Infrarot-Wellenlängen). Die anderen vier Bilder sind panchromatische Bilder mit der Beschriftung Pan 711e–Pan 711h. Die panchromatischen Bilder sind im Wesentlichen redundant. In diesem Beispiel erstrecken sich alle Bilder über den Bereich von Bildgebung 712.
  • Die panchromatischen Bilder können anders erzeugt werden als dargestellt in 7. Das panchromatische Bild 711h wird zum Beispiel als aus den Sensorerfassungen H1, H2, H3 und H4 erzeugt dargestellt. In anderen Ausführungsformen könnte ein panchromatisches Bild aus einer anderen Gruppe von Einzelbilderfassungen erzeugt werden, solange die Gruppe die interessante Region abdeckt. Zum Beispiel könnte ein panchromatisches Bild aus Erfassungen E4, F4, G4 und H4 oder aus H1, E5, F5 und G5 erzeugt werden. In anderen Implementierungen kann diese Technik auf redundante Spektralbilder angewendet werden, die eine interessante Region abdecken.
  • Für Implementierungen des Sensors, bei denen panchromatischer Bilder 711e711h) ausgerichtet sind, kann Multi-Frame-Verbesserungsbearbeitung durchgeführt werden, um die Pixel aus den verschiedenen panchromatischen Bildern so zu integrieren, dass sie ein integriertes, ausgerichtetes panchromatisches Bild bilden. Die Integration mehrerer ausgerichteter panchromatischer Bilder kann zu einem besseren Signal-Rausch-Verhältnis der Pixel des integrierten, ausgerichteten panchromatischen Bilds führen.
  • Für Implementierungen des Sensors, bei denen panchromatische Bilder nicht perfekt ausgerichtet sind, kann Multi-Frame-Verbesserung mithilfe der panchromatischen Bilder durchgeführt werden, um das rekonstruierte Bild zu verbessern. Multi-Frame-Verbesserung wird auch als Super-Auflösung bezeichnet. Multi-Frame-Verbesserung nutzt die Tatsache, dass eine leichte Falschausrichtung zwischen Pixeln aus verschiedenen panchromatischen Bildern dazu führt, dass die erhaltenen panchromatischen Bilder leicht voneinander versetzt sind. Diese Falschausrichtung kann eine Subpixel-Falschausrichtung sein, das heißt, Pixel von einem Bild können nicht einfach einem anderen Pixel in einem anderen Bild zugeordnet werden. Stattdessen erfassen, aufgrund der Subpixel-Falschausrichtung, verschiedene Bilder einen Bereich, der etwas anders abgebildet wird, wobei der Unterschied in dem Licht sichtbar ist, das in jedem Pixel durch jedes Bild erfasst wird. Somit liefern mehrere Bilder desselben Bereichs zusätzliche Daten, die in Multi-Frame-Verbesserung verwendet werden können, um die Qualität von Multispektralbildern zu verbessern.
  • 8 veranschaulicht schematisch ein Beispiel einer Subpixel-Falschausrichtung für Pixel, die in mehreren Bildern für einen exemplarischen Bereich erfasst wurden, gemäß einer Ausführungsform. Im Beispiel von 8 werden vier panchromatische Bilder 801e801h in einem Raster ausgerichtet. Die einzelnen Bilder sind gemäß dem Buchstaben des Bilds beschriftet, dem sie entsprechen, z. B. Pixel aus Bild 801e sind mit einem „e” beschriftet. Die Falschausrichtung zwischen Bild-Subpixeln ist in Form des Ortsunterschieds zwischen den Pixeln aus verschiedenen Bildern sichtbar (z. B. liegen die Buchstaben „e”, „f”, „g” und „h” nicht übereinander). Eine Subpixel-Falschausrichtung kann an der Zufälligkeit des Sensors oder einem anderen Teil des Bilderfassungssystems liegen, dessen Teil der Sensor ist. Das Rauschen in einem Bilderfassungssystem, das an einem Flugzeug oder Satelliten montiert ist, führt im Allgemeinen zu Zufälligkeit nicht nur bei der Richtung der relativen Bewegung 101, sondern auch bei der orthogonalen Richtung. Subpixel-Falschausrichtung kann auch an anderen Quellen liegen.
  • Multi-Frame-Verbesserung kann in manchen Fällen sowohl die räumliche als auch die Pixeltreue verbessern. Multi-Frame-Verbesserung verbindet mehrere Bilder, um ein verbessertes Bild mit höherer Auflösung zu produzieren. Multi-Frame-Verbesserung kann auf mehrere panchromatische Bilder angewendet werden, z. B. die panchromatischen Bilder 711e711h, dargestellt in 7. Multi-Frame-Verbesserung nutzt Subpixel-Falschausrichtung in den erfassten panchromatischen Bildern, um ein verbessertes panchromatisches Bild zu erstellen. Das verbesserte panchromatische Bild hat eine höhere Auflösung als die ursprünglichen panchromatischen Bilder und einige oder alle der Aliasing-Effekte, die in den ursprünglichen panchromatischen Bildern vorhanden waren, sind im verbesserten panchromatischen Bild entfernt. In Overhead-Bildgebungsanwendungen ermöglicht Multi-Frame-Verbesserung die Rekonstruktion eines panchromatischen Bild mit auflösbaren Bodenpixelauflösungen (ground sample distances, GSD) bis zur Diffraktionsgrenze des optischen Bildgebungssystems. Die Aufnahme von 5 oder mehr panchromatischen Bildern für die Verwendung in der Multi-Frame-Verbesserung kann zum Beispiel das bis zu Zweifache (2×) der räumlichen Auflösung sowohl bei den horizontalen als auch bei den vertikalen Abmessungen in Bezug auf die räumliche Auflösung der ursprünglich erfassten panchromatischen Bilder ermöglichen. In einigen Overhead-Implementierungen ist die Verwendung von ca. 4, 5 oder 6 panchromatischen Bildern für die Multi-Frame-Verbesserung günstig, da dies eine angemessene Erhöhung bei der Bildauflösung bietet, ohne die Download-Datenübertragung übermäßig zu belasten.
  • In verschiedenen Implementierungen können Ausführungsformen der Verfahren, die in „Advances and Challenges in Super- Resolution", von Sina Farsiu et al., International Journal of Imaging Systems and Technology, S. 47–57, Band 14, 2004 (im Folgenden der „Farsiu-Artikel") beschrieben sind, für die Multi-Frame-Verbesserung verwendet werden. Der Farsiu-Artikel wird durch Bezugnahme in seiner Gesamtheit hierin einbezogen, um Teil dieser Spezifikation zu bilden.
  • Verbesserte panchromatische Bilder können auch verwendet werden, um Multispektralbilder zu verbessern. Zum Beispiel können eines oder mehrere der Spektralbilder (oder ein Multispektralbild) durch Verwendung von Informationen aus dem mit Multi-Frame-Verbesserung bearbeiteten panchromatischen Bild mit höherer Auflösung schärfer gemacht werden. In einigen Implementierungen kann das mit Multi-Frame-Verbesserung bearbeitete panchromatische Bild als Eingabe für den Pan-Sharpening-Vorgang zur Erhöhung der Auflösung des Bilds aus den Spektralfiltern (oder einem Multispektralbild) veranschaulicht werden. Zum Beispiel können Spektralbilder durch Injektion von Details, die aus dem mit Multi-Frame-Verbesserung bearbeiteten panchromatischen Bild mit höherer Auflösung genommen werden, schärfer gemacht werden.
  • In einigen Implementierungen kann Pan-Sharpening mithilfe eines datenzentrierten Farbraums angewendet werden, worin die Farbraumumwandlung der erfassten Multispektraleinzelbilder die beste Übereinstimmung mit dem panchromatischen Einzelbild vor dem Ersatz durch dieses panchromatische Einzelbild findet. In einigen Anwendungen kann der Pan-Sharpening-Vorgang in den Multi-Frame-Verbesserungsvorgang integriert werden, wobei das Verfahren sowohl die mehreren panchromatischen Einzelbilder als auch die Multispektraleinzelbilder kombiniert und ein mit Pan-Sharpening bearbeitetes Bild mit höherer Auflösung und Qualität schätzt.
  • In einer Ausführungsform beinhaltet panchromatische Verbesserung die Umwandlung des Multispektralbilds von seinem ursprünglichen Farbsystem (z. B. RGB) in ein Luminanz-, Farbton- oder Sättigungsfarbsystem, wie zum Beispiel HSV, HSL, YCrCb oder YUV. Alternativ kann das rekonstruierte Spektralbild in ein entgegengesetztes Farbsystem umgewandelt werden, wie zum Beispiel (CIE) XYZ, Lab (CIELAB) oder Luv (CIELUV). Das resultierende umgewandelte Bild kann auf dieselbe Auflösung wie das verbesserte panchromatische Bild hochgerechnet werden (Upsampling). Upsampling kann durch Verfahren wie Replikation, B-Spline oder bikubische Interpolation durchgeführt werden. Nach dem Upsampling können die Luminanzdaten des Bilds (oder seines Äquivalents, je nach Farbsystem, in das das Bild umgewandelt wurde) durch das verbesserte panchromatische Bild ersetzt werden, um ein verbessertes Multispektralbild zu bilden. Nach Verbesserung kann der Farbumwandlungsvorgang umgekehrt werden, um einzelne Spektralbilder aus den verbesserten Multispektralbildern wiederzuerhalten.
  • Multispektralbilder können mithilfe von panchromatischer Schärfung (Pan-Sharpening) bearbeitet werden. Pan-Sharpening kann angewendet werden, wenn das Multispektralbild in einen Farbraum umgewandelt wurde, in dem die Luminanz-(oder eine ähnliche)Komponente des Bilds im Wesentlichen mit einem panchromatischen Bild oder verbesserten panchromatischen Bild korreliert. Pan-Sharpening kann verwendet werden, um die Luminanzkomponente des Multispektralbilds mit den mehreren panchromatischen Bildern zu kombinieren, um ein mit Pan-Sharpening bearbeitetes Bild mit höherer Auflösung zu erstellen.
  • In verschiedenen Implementierungen können die Ausführungsformen der Verfahren, die in „Pan-Sharpening of Multispectral Images: A Critical Review and Comparision", von Andrea Garzelli et al., Proc. of IEEE International Geoscience and Remote Sensing Symposium (IGARSS '04), 2004, (im Folgenden der „Garzelli-Artikel") beschrieben sind, für die panchromatische Schärfung verwendet werden. Der Garzelli-Artikel wird durch Bezugnahme in seiner Gesamtheit hierin einbezogen, um Teil dieser Spezifikation zu bilden.
  • Je nach Design des Sensors können einige Spektralfilterstreifen größer als andere sein, wie zum Beispiel in Bezug auf 4C und 4D oben beschrieben. Die größeren Spektralstreifen können den Vorgang der Multi-Frame-Verbesserung in einigen Implementierungen ändern. Die nicht vergrößerten Teilbilder (z. B. grün, blau und IR in 4C) können auf eine Auflösung des vergrößerten (z. B. rot in 4C) Teilbilds hochgerechnet werden. Die Teilbilder werden registriert, um rekonstruierte Spektralbilder zu erstellen. Ähnlich der Ausführungsform des Sensors, der einen panchromatischen Sensor enthält, können die rekonstruierten Spektralbilder, die dem vergrößerten Spektralfilterstreifen entsprechen, auf mehreren überlappenden Erfassungen der interessanten Region durch den vergrößerten Spektralfilterstreifen basieren. Multi-Frame-Verbesserung kann an diesen mehreren überlappenden Spektralbildern durchgeführt werden, die über den vergrößerten Streifen erfasst wurden, um ein verbessertes Spektralbild zu erstellen. Demgemäß können Multi-Frame-Verbesserungstechniken auf mehrere panchromatische Bilder und/oder mehrere Spektralbilder angewendet werden, die mithilfe eines vergrößerten Spektralstreifens erfasst wurden.
  • Ähnlich wie oben beschrieben, können die rekonstruierten Spektralbilder in ein Multispektralbild umgewandelt werden, das in einen anderen Farbraum umgewandelt wird. In diesem Fall werden jedoch die Luminanzdaten nicht durch das verbesserte panchromatische Bild ersetzt. In einer Ausführungsform werden keine Änderungen an den Luminanzdaten durchgeführt. In einer anderen Ausführungsform werden die Luminanzdaten durch eines aus mehreren überlappenden Spektralbildern ersetzt. In noch einer anderen Ausführungsform werden die Luminanzdaten durch das verbesserte Spektralbild ersetzt. In einer Ausführungsform ist das verbesserte Spektralbild das grüne Spektralbild. Das Ersetzen der Luminanzdaten durch das verbesserte grüne Spektralbild kann vorteilhaft sein, da das grüne Spektralbild dem Kanal im menschlichen Sehsystem mit dem breitesten Frequenzgang entspricht.
  • In einer Ausführungsform wird, statt Multi-Frame-Verbesserung beim kombinierten Multispektralbild durchzuführen, Multi-Frame-Verbesserung an einem einzelnen rekonstruierten Spektralbild durchgeführt. Das blaue Spektralbild kann zum Beispiel mit Multi-Frame-Verbesserung geändert werden, um nicht nur die räumliche Treue (z. B. Auflösung) zu erhöhen, sondern auch mehr Licht in das blaue Spektralbild zu integrieren. Der blaue Kanal ist normalerweise der dunkelste der Farbkanäle, daher kann die Hinzufügung von Licht die Bildqualität verbessern. Multi-Frame-Verbesserung kann an jedem Spektralbild durchgeführt werden, zum Beispiel den roten, grünen oder Infrarot-Bildern.
  • Multi-Frame-Verbesserung und Pan-Sharpening können kombiniert werden, um die gesamte Berechnung, den Speicherzugriff und den Arbeitsplatzspeicher zu verringern, die für die Bearbeitung der Bilder nötig sind. Dies kann zum Beispiel durch getrennte Bearbeitung der panchromatischen und Spektralbilder für jedes Band erreicht werden. Durch Bearbeitung von Bändern statt vollständiger Bilder werden die Verarbeitungs- und Speicheranforderungen der Bearbeitung verringert. In dieser Ausführungsform wird die Registrierung fast am Ende der Bildbearbeitung statt fast zu Beginn durchgeführt. Außerdem können bestimmte mathematische Verfahren kombiniert werden, um die Zahl der erforderlichen Berechnungszyklen zu verringern.
  • Multi-Frame-Verbesserung und/oder Pan-Sharpening kann auf nur einen Teil (z. B. einen Subframe-Bereich) eines Bilds angewendet werden. 9 zeigt ein Beispiel eines Subframe-Bereichs 1102, der mit Multi-Frame- und/oder Pan-Sharpening-Verbesserung bearbeitet wird, während der Rest des Bilds (oder Bereich der Bildgebung) 1101 nicht bearbeitet wird, gemäß einer Ausführungsform. Diese Teilbildbereiche können als interessante Regionen (regions of interest, ROI) bezeichnet werden. Die Entscheidung, eine Verbesserung beim gesamten Bild oder nur einem Teilbildbereich durchzuführen, sowie die Auswahl des Teilbildbereichs können zum Beispiel durch die Anforderungen des Benutzers bestimmt werden.
  • 10 ist ein Ablaufdiagramm, das ein Beispiel eines Verfahrens 1200 für die Verbesserung von Bildern mithilfe von Multi-Frame-Verbesserung und/oder Pan-Sharpening veranschaulicht. Die Bilder können mithilfe einer jeden der Ausführungsformen von Sensor 202 aufgenommen werden, die hierin beschrieben sind. Das Verfahren 1200 kann auf komplette Bilder oder auf einen Subframe-Bereich 1102 des Bilds angewendet werden. Das Verfahren 1200 kann durch ein Computersystem zur Bildbearbeitung, das aus Computerhardware besteht, bei Bildern durchgeführt werden, die tausende (oder mehr) Pixel enthalten. In einigen Implementierungen werden die Bilder durch ein Overhead-Bildgebungssystem aufgenommen und zum Boden gesendet (z. B. über eine Radiofrequenz(RF)-Kommunikationsverbindung) und Verfahren 1200 wird von einem Bildbearbeitungssystem am Boden durchgeführt.
  • Bei Block 1210 des exemplarischen Verfahrens 1200 wird auf mehrere panchromatische Bilder einer ROI zugegriffen (z. B. von einem Datenspeicher aus). In verschiedenen Ausführungsformen wird auf 2, 3, 4, 5, 6 oder mehr panchromatische Bilder zugegriffen. Bei Block 1220 werden Multi-Frame-Verbesserungstechniken (z. B. Super-Auflösung) verwendet, um ein mit Multi-Frame-Verbesserung bearbeitetes panchromatisches Bild zu erzeugen, das zumindest teilweise auf den mehreren panchromatischen Bildern basiert. Das verbesserte panchromatische Bild kann eine Auflösung haben, die größer als die einzelnen panchromatischen Bilder ist. Zum Beispiel wird in einigen Implementierungen auf 4 bis 6 panchromatische Bilder zugegriffen, um ein verbessertes panchromatisches Bild mit einer Auflösung bis zur Diffraktionsgrenze des optischen Bildgebungssystems zu erzeugen, das verwendet wird, um die einzelnen panchromatischen Bilder aufzunehmen. Das verbesserte panchromatische Bild kann in einem geeigneten Datenspeicher gespeichert oder auf andere Weise einem Benutzer bereitgestellt werden. Demgemäß kann in einigen Ausführungsformen ein verbessertes panchromatisches Bild bereitgestellt werden, das eine räumliche Auflösung hat, die größer ist als der panchromatische Kanal von Sensor 202. Auch wenn Verfahren 1200 Multi-Frame-Verbesserung für panchromatische Bilder veranschaulicht, kann Verfahren 1200 auf Spektral- oder Multispektralbilder angewendet werden, um verbesserte (z. B. super-aufgelöste) Spektral- oder Multispektralbilder zu erzeugen.
  • In einigen Ausführungsformen fährt Verfahren 1200 bei Block 1230 und 1240 mit Pan-Sharpening der Spektralbilder (oder Multispektralbilder) fort. Bei Block 1230 wird auf eines oder mehrere Spektralbilder zugegriffen (z. B. von einem Datenspeicher aus). Die Spektralbilder können bestimmten Farbbandbreiten (z. B. R, G, B, IR) entsprechen und sie können von Ausführungsformen von Sensor 202 aufgenommen werden, der hierin beschrieben ist. Wie hierin beschrieben, haben Spektralbilder normalerweise eine räumliche Auflösung (zumindest in eine Richtung), die geringer ist als die räumliche Auflösung des verbesserten panchromatischen Bilds. Bei Block 1240 wird ein mit Pan-Sharpening bearbeitetes Spektralbild (oder Multispektralbild) erzeugt, das zumindest teilweise auf dem mit Multi-Frame-Verbesserung bearbeiteten Bild basiert, das bei Block 1220 erzeugt wurde. Zum Beispiel können Spektralbilder durch Injektion von Details, die aus dem mit Multi-Frame-Verbesserung bearbeiteten panchromatischen Bild mit höherer Auflösung genommen werden, schärfer gemacht werden. Demgemäß kann in einigen Ausführungsformen ein mit Pan-Sharpening bearbeitetes Spektralbild (oder Multispektralbild) bereitgestellt werden, das eine räumliche Auflösung hat, die größer ist als die räumliche Auflösung von Spektralkanälen (und/oder panchromatischen Kanälen) von Sensor 202.
  • 11 ist ein Ablaufdiagramm, das ein Beispiel eines Verfahrens 1300 für panchromatische Schärfung von Multispektralbildern veranschaulicht. Die Bilder können mithilfe einer jeden der Ausführungsformen von Sensor 202 aufgenommen werden, die hierin beschrieben sind. Das Verfahren 1300 kann auf komplette Bilder oder auf einen Subframe-Bereich 1102 des Bilds angewendet werden. Das Verfahren 1300 kann durch ein Computersystem zur Bildbearbeitung, das aus Computerhardware besteht, bei Bildern durchgeführt werden, die tausende (oder mehr) Pixel enthalten. In einigen Implementierungen werden die Bilder durch ein Overhead-Bildgebungssystem aufgenommen und zum Boden gesendet (z. B. über eine Radiofrequenz(RF)-Kommunikationsverbindung) und Verfahren 1300 wird von einem Bildbearbeitungssystem am Boden durchgeführt.
  • Bei Block 1310 des exemplarischen Verfahrens 1300 wird ein Multispektralbild von seinem ursprünglichen Farbraum (z. B. dem Farbraum des Sensors, der die Multispektralbilddaten aufnimmt) in einen Pan-Farbraum umgewandelt, der mit dem panchromatischen Bild verbunden ist, das für Pan-Sharpening verwendet wird. Das panchromatische Bild kann ein Pan-Bild mit höherer Auflösung oder ein mit Multi-Frame-Verbesserung bearbeitetes Pan-Bild sein. Der Pan-Farbraum kann zum Beispiel ein Luminanz-, Farbton- oder Sättigungsfarbsystem wie HSV, HSL, YCrCb oder YUV oder ein CIE-Farbraum wie CIEXYZ, CIELAB oder CIELUV sein. Der Pan-Farbraum kann eine gute Übereinstimmung mit dem Farbraum des panchromatischen Bilds sein, das für die Schärfung verwendet wird. In einigen Ausführungsformen ist der Pan-Farbraum so gestaltet, dass die Luminanzkomponente (oder eine ähnliche Komponente) des Multispektralbilds im Wesentlichen mit dem panchromatischen Bild korreliert, das für das Pan-Sharpening verwendet wird. Block 1310 ist optional und in bestimmten Ausführungsformen wird keine Farbumwandlung verwendet (Block 1340 wird in solchen Ausführungsformen ebenfalls nicht verwendet).
  • Bei Block 1320 wird das mit Farbraumumwandlung bearbeitet Multispektralbild in Bezug auf die räumliche Auflösung hochgerechnet, um der höheren räumlichen Auflösung des panchromatischen Bilds zu entsprechen. Bei Block 1330 kann eine Pan-Sharpening-Technik angewendet werden, um das Multispektralbild schärfer zu machen. Zum Beispiel können, wie hierin beschrieben, Luminanzdaten des Multispektralbilds durch das panchromatische Bild ersetzt werden, um ein verbessertes Multispektralbild zu bilden. Bei Block 1340 kann das verbesserte Multispektralbild wieder in den ursprünglichen Farbraum des Multispektralbilds umgewandelt werden (falls gewünscht).
  • Auch wenn das exemplarische Verfahren 1300 unter Bezugnahme auf Multispektral- und panchromatische Bilder beschrieben wurde, erfolgt dies zum Zweck der Veranschaulichung, nicht der Beschränkung. In anderen Ausführungsformen kann Verfahren 1300 verwendet werden, um Bilder mithilfe eines Spektralbilds mit höherer Auflösung durch Pan-Sharpening zu bearbeiten. Zum Beispiel hat die Ausführungsform von Sensor 202, die in 4C und 4D dargestellt ist, einen Spektralkanal (in diesem Fall: rot), der die doppelte Höhe der anderen Spektralkanäle (blau, grün und IR) hat und der verwendet werden kann, um mehrere Spektralbilder zu erzeugen, die durch Multi-Frame-Verbesserung und Pan-Sharpening der anderen Spektralkanäle bearbeitet wurden.
  • Zusätzliche Überlegungen
  • Alle Prozesse, Verfahren und Algorithmen, die in den vorstehenden Abschnitten beschrieben sind, können durch Codemodule verkörpert oder ganz oder teilweise automatisiert werden, die von einem oder mehreren Computern, Computersystemen, Computerprozessoren, Maschinen oder Hardware ausgeführt werden, die so konfiguriert sind, dass sie Computeranweisungen ausführen. Die Codemodule können auf jeder Art von nicht vorübergehendem, computerlesbarem Medium oder Hardware-Computerspeichergerät gespeichert sein, z. B. Festplatten, Solid-State-Speicher, RAM, ROM, optischen Datenträgern und/oder ähnlichem. Die Systeme und Module können auch als erzeugte Datensignale (z. B. als Teil einer Trägerwelle oder eines anderen analog oder digital verbreiteten Signals) auf einer Vielzahl computerlesbarer Übertragungsmedien übertragen werden, z. B. drahtlose und/oder verkabelte/kabelgebundene Medien, und sie können eine Vielzahl von Formen annehmen (z. B. als Teil eines einzelnen oder gemultiplexten analogen Signals oder als mehrere getrennte digitale Pakete oder Einzelbilder). Die Verfahren, Prozesse und Algorithmen können teilweise oder ganz in anwendungsspezifischen Schaltungen, Hardware für spezielle Zwecke oder Allzweck-Hardwarecomputersystemen implementiert werden, die so programmiert sind, dass sie die Verfahren, Prozesse oder Algorithmen gemäß Anweisungen von Programmsoftware ausführen. Die Ergebnisse der offenbarten Prozesse und Prozessschritte können, persistent oder sonst, auf jeder Art von nicht vorübergehendem, greifbarem Computerspeicher gespeichert werden, z. B. flüchtigem oder nicht flüchtigem Speicher.
  • Die verschiedenen, oben beschriebenen Merkmale und Prozesse können unabhängig voneinander verwendet oder auf verschiedene Weise kombiniert werden. Alle möglichen Kombinationen und Teilkombinationen sollen in den Umfang dieser Offenbarung fallen. Nichts in der vorstehenden Beschreibung soll implizieren, dass ein bestimmtes Merkmal, ein bestimmtes Element, eine bestimmte Eigenschaft, ein bestimmter Schritt, ein bestimmtes Modul, ein bestimmtes Verfahren, ein bestimmter Prozess oder ein bestimmter Block nötig oder unerlässlich ist. Außerdem können bestimmte Merkmale, Elemente, Eigenschaften, Verfahren, Prozesse, Module, Schritte oder Blöcke in einigen Implementierungen ausgelassen werden. Die hierin beschriebenen Verfahren und Prozesse sind außerdem nicht auf eine bestimmte Sequenz beschränkt und die damit verbundenen Blöcke oder Zustände können in anderen geeigneten Sequenzen durchgeführt werden. Die hierin beschriebenen exemplarischen Systeme und Komponenten können anders als beschrieben konfiguriert sein. Zum Beispiel können Elemente im Vergleich zu den offenbarten exemplarischen Ausführungsformen hinzugefügt, entfernt oder neu angeordnet werden.
  • Wie hierin verwendet, bedeuten Verweise auf „eine Ausführungsform” oder „Ausführungsformen”, dass ein bestimmtes Element, Merkmal, eine Struktur oder eine Eigenschaft, das/die in Verbindung mit der Ausführungsform beschrieben wird, zumindest in einer Ausführungsform enthalten ist. Das Erscheinen der Phrase „in einer Ausführungsform” an verschiedenen Orten in der Spezifikation bezieht sich nicht notwendigerweise immer auf dieselbe Ausführungsform.
  • Wie hierin verwendet, sollen die Begriffe „umfasst”, „umfassend”, „beinhaltet”, „enthält”, „hat”, „haben” und andere Varianten davon eine nicht ausschließliche Einbeziehung abdecken. Zum Beispiel ist ein Prozess, ein Verfahren, ein Artikel oder eine Vorrichtung, der/die eine Liste von Elementen umfasst, nicht notwendigerweise nur auf diese Elemente beschränkt, sondern kann andere Elemente beinhalten, die nicht ausdrücklich aufgelistet oder bei einem solchen Prozess, einem solchen Verfahren, einem solchen Artikel oder einer solchen Vorrichtung inhärent sind. Des Weiteren bezieht sich, sofern nichts Gegenteiliges angegeben wird, „oder” auf ein einschließendes und nicht auf ein ausschließendes Oder. Zum Beispiel ist eine Bedingung A oder B durch eines der folgenden erfüllt: A ist wahr (oder vorhanden) und B ist falsch (oder nicht vorhanden), A ist falsch (oder nicht vorhanden) und B ist wahr (oder vorhanden) und sowohl A als auch B sind wahr (oder vorhanden). Außerdem wird „eine”, „einer” oder „eines” verwendet, um Elemente und Komponenten der Ausführungsformen hierin zu beschreiben. Dies erfolgt lediglich aus praktischen Gründen, und um eine allgemeine Vorstellung der Erfindung zu vermitteln. Die Beschreibung sollte so gelesen werden, dass sie eines oder mindestens eines enthält, und der Singular umfasst auch den Plural, außer es ist offensichtlich anders gedacht.
  • Somit sollte, während bestimmte Ausführungsformen und Anwendungen veranschaulicht und beschrieben wurden, es selbstverständlich sein, dass die offenbarten Ausführungsformen nicht auf die genaue Konstruktion und Komponenten beschränkt sind, die hierin offenbart wurden. Verschiedene Modifikationen, Änderungen und Variationen, die für Fachleute auf dem Gebiet ersichtlich werden, können in der Anordnung, dem Betrieb und in den Einzelheiten der Verfahren und der Vorrichtung, die hierin offenbart werden, ohne Abweichung von der Idee und dem Umfang der Offenbarung erfolgen. Die vorstehende Beschreibung wurde zum Zweck der Erklärung unter Bezugnahme auf spezifische Ausführungsformen beschrieben. Die obigen veranschaulichenden Erörterungen sollen jedoch nicht allumfassend sein oder die Erfindungen genau auf die offenbarten Formen beschränken. In Bezug auf die obigen Anleitungen sind viele Modifizierungen und Varianten möglich. Die Ausführungsformen wurden gewählt und beschrieben, um die Prinzipien der Erfindungen und ihre praktischen Anwendungen zu beschreiben, um es dadurch anderen Fachleuten zu ermöglichen, die Erfindungen und verschiedenen Ausführungsformen mit verschiedenen Modifizierungen zu nutzen, die für die besondere, erwägte Nutzung geeignet sind.
  • Die vorliegende Anwendung offenbart die in den folgenden Klauseln definierten Aspekte, die Teil der vorliegenden Beschreibung, aber keine Ansprüche gemäß der Entscheidung J 15/88 der Juristischen Beschwerdekammer des Europäischen Patentamts darstellen.
    • (1) Sensor für die Sammlung von Bilddaten für die Verwendung in einem beweglichen Bildsystem, der Sensor umfassend: einen Spektralsensor, de so konfiguriert ist, dass er Spektralbilddaten erfasst, wobei der Spektralsensor einen Bildgebungsflächenbereich umfasst, der eine Bildgebungsbreite umfasst, und eine Vielzahl von Spektralfiltern, wobei die Spektralfilter zusammen einen Spektralbildgebungsteil des Bildgebungsflächenbereichs des Spektralsensors abdecken, wobei jeder Spektralfilter eine Filterbreite hat, die im Wesentlichen mindestens gleich der Bildgebungsbreite ist, und jeder Spektralfilter eine Spektralfilterhöhe hat, die größer als oder gleich einer Mindestfilterhöhe ist, worin die Mindestfilterhöhe einer Rate entspricht, mit der ein Bild einer interessanten Region sich wegen der relativen Bewegung des beweglichen Bildgebungssystems geteilt durch eine Rate der Einzelbilderfassung des Spektralsensors über den Spektralsensor zu bewegen scheint.
    • (2) Sensor nach Klausel 1, worin der Spektralsensor einen zweidimensionalen Sensor mit festem Suchfeld, einen Zeilensensor, ein Farbrad oder ein Color Filter Array umfasst.
    • (3) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 1 oder Klausel 2, worin ein erster Spektralfilter aus der Vielzahl der Spektralfilter eine größere Spektralfilterhöhe hat als ein zweiter Spektralfilter aus der Vielzahl der Spektralfilter.
    • (4) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 3, worin der erste Spektralfilter ein grüner Spektralfilter ist, der so konfiguriert wird, dass er Licht innerhalb eines Wellenlängenbereichs aussendet, der rund um grüne Wellenlängen zentriert ist.
    • (5) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 3, worin der erste Spektralfilter ein blauer Spektralfilter ist, der so konfiguriert wird, dass er Licht innerhalb eines Wellenlängenbereichs aussendet, der rund um blaue Wellenlängen zentriert ist.
    • (6) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 3, worin die Spektralfilterhöhe des ersten Spektralfilters mindestens das Doppelte der Spektralfilterhöhe des zweiten Spektralfilters ist.
    • (7) Sensor nach einer der vorstehenden Klauseln, worin die Spektralfilterhöhen jeder der Vielzahl von Spektralfiltem zwischen dem Ein- und Vierfachen der Mindestfilterhöhe betragen.
    • (8) Sensor nach einer der vorstehenden Klauseln, worin die Spektralfilter mindestens einen roten Spektralfilter, einen grünen Spektralfilter, einen blauen Spektralfilter und einen Infrarot-Spektralfilter umfassen.
    • (9) Sensor nach einer der vorstehenden Klauseln, des Weiteren umfassend einen panchromatischen Sensor, der so konfiguriert ist, dass er panchromatische Bilddaten der interessanten Region erfasst, wobei der panchromatische Sensor einen panchromatischen Bildgebungsteil des Bildgebungsflächenbereichs des Spektralsensors abdeckt, und der panchromatische Sensor eine panchromatische Breite hat, die im Wesentlichen mindestens dieselbe wie die Bildgebungsbreite ist, und eine panchromatische Höhe, die größer als oder gleich der Mindestfilterhöhe ist.
    • (10) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 9, worin die panchromatische Sensorhöhe größer als jede der Spektralfilterhöhen ist.
    • (11) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 9, worin die panchromatische Sensorhöhe im Wesentlichen gleich einer Summe aller Spektralfilterhöhen ist.
    • (12) Sensor nach einer der vorstehenden Klauseln, insbesondere einer der Klauseln 9 bis 11, worin der panchromatische Sensor einen oder mehrere panchromatische Filter umfasst, die eine panchromatische Filterhöhe haben, die größer als oder gleich der Mindestfilterhöhe ist.
    • (13) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 12, worin jeder der ein oder mehreren panchromatischen Filter eine panchromatische Bandbreite hat, die größer als die spektralen Bandbreiten jedes der Spektralfilter ist.
    • (14) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 13, worin die panchromatische Bandbreite zwischen ca. 450 nm und ca. 900 nm ist.
    • (15) Sensor nach einer der vorstehenden Klauseln, insbesondere einer der Klauseln 9 bis 14, des Weiteren umfassend eine Steuerung, die so konfiguriert ist, dass sie Bilddaten vom panchromatischen Sensor mit einer Video-Frame-Rate erfasst und die Bilddaten einem Echtzeit-Video-Feed bereitstellt.
    • (16) Sensor nach einer der vorstehenden Klauseln, insbesondere Klausel 15, worin Video-Frame-Rate größer als ca. 5 Einzelbilder pro Sekunde ist.
    • (17) Sensor nach einer der vorstehenden Klauseln, insbesondere einer der Klauseln 9 bis 16, worin eine panchromatische räumliche Auflösung des panchromatischen Sensors im Wesentlichen gleich einer räumlichen Auflösung des Spektralsensors ist.
    • (18) Verfahren zur Verbesserung von Bilddaten, das Verfahren umfassend: unter der Kontrolle eines Bildgebungsbearbeitungssystems, das Computerhardware umfasst: Empfang einer Sequenz von Spektralbildstreifen, wobei jeder Spektralbildstreifen ein Bild eines Teils einer interessanten Region umfasst und jeder Spektralbildstreifen, Bilddaten aus einem Spektralwellenlängenbereich des Lichts umfasst; Registrierung der Sequenz der Spektralbildstreifen, um ein Spektralbild der interessanten Region bereitzustellen, Empfang einer Vielzahl panchromatischer Bilder der interessanten Region, wobei jedes panchromatische Bild Bilddaten aus einem panchromatischen Wellenlängenbereich des Lichts umfasst, der breiter als der Spektralwellenlängenbereich des Lichts ist; Durchführung von Multi-Frame-Verbesserung bei der Vielzahl panchromatischer Bilder, um ein verbessertes panchromatisches Bild mit einer höheren Auflösung zu erzeugen als jedes der Vielzahl panchromatischer Bilder; und Erzeugung eines mit panchromatischer Schärfung bearbeiteten Bilds und des Spektralbilds, wobei das mit panchromatischer Schärfung bearbeitete Spektralbild eine höhere Auflösung als das Spektralbild hat.
    • (19) Verfahren nach Klausel 18, worin der Empfang einer Sequenz von Spektralbildstreifen umfasst: Empfang einer ersten Sequenz von Spektralbildstreifen, die Bilddaten aus einem ersten Spektralwellenlängenbereich des Lichts umfassen; Empfang einer zweiten Sequenz von Spektralbildstreifen, die Bilddaten aus einem zweiten Spektralwellenlängenbereich des Lichts umfassen, wobei der zweite Spektralbereich sich vom ersten Spektralbereich unterscheidet; und die Registrierung der Sequenz der Spektralbildstreifen umfasst: Registrierung der ersten Sequenz der Spektralbildstreifen, um ein erstes Spektralbild der interessanten Region bereitzustellen; und Registrierung der zweiten Sequenz von Spektralbildstreifen, um ein zweites Spektralbild der interessanten Region bereitzustellen.
    • (20) Verfahren nach einer der vorstehenden Klauseln, insbesondere Klausel 19, des Weiteren umfassend die Kombination des ersten Spektralbilds und des zweiten Spektralbilds, um ein Multispektralbild der interessanten Region zu erzeugen.
    • (21) Verfahren nach einer der vorstehenden Klauseln, des Weiteren umfassend die Hochrechnung des Spektralbilds auf die Auflösung des verbesserten panchromatischen Bilds.
    • (22) Verfahren nach einer der vorstehenden Klauseln, worin die Vielzahl der panchromatischen Bilder und das Spektralbild eine im Wesentlichen ähnliche Erfassungsauflösung haben.
    • (23) Verfahren nach einer der vorstehenden Klauseln, worin die Erzeugung des mit panchromatischer Schärfung bearbeiteten Spektralbilds umfasst: Umwandlung des Spektralbilds in ein Farbsystem, das eine Luminanzkomponente umfasst, um ein umgewandeltes Spektralbild zu erstellen; und Ersetzen der Luminanzkomponente des umgewandelten Spektralbilds durch das verbesserte panchromatische Bild.
    • (24) Verfahren nach einer der vorstehenden Klauseln, insbesondere Klausel 23, des Weiteren umfassend, die Umwandlung zurück in ein Farbsystem des Spektralbilds, nach Ersetzen der Luminanzkomponente des umgewandelten Spektralbilds durch das verbesserte panchromatische Bild.
    • (25) Verfahren nach einer der vorstehenden Klauseln, worin der Empfang der Vielzahl panchromatischer Bilder den Empfang von mindestens vier panchromatischen Bildern umfasst.
    • (26) Verfahren nach einer der vorstehenden Klauseln, worin die Vielzahl der panchromatischen Bilder von einem Bildgebungssystem mit einer Diffraktionsgrenze erfasst werden, und der Empfang der Vielzahl panchromatischer Bilder den Empfang ausreichender panchromatischer Bilder umfasst, damit das verbesserte panchromatische Bild eine Auflösung hat, die ungefähr der Diffraktionsgrenze des Bildgebungssystems entspricht.
    • (27) Verfahren nach einer der vorstehenden Klauseln, worin die Erzeugung des mit panchromatischer Schärfung bearbeiteten Spektralbilds die Injektion von Details aus dem verbesserten panchromatischen Bild in das Spektralbild umfasst.
    • (28) Verfahren nach einer der vorstehenden Klauseln, worin die Durchführung der Multi-Frame-Verbesserung die Durchführung von Multi-Frame-Verbesserung nur an einem Subframe-Bereich der panchromatischen Bilder umfasst, um ein verbessertes panchromatisches Bild des Subframe-Bereichs zu erzeugen; und die Erzeugung des mit panchromatischer Schärfung bearbeiteten Spektralbilds die Erzeugung des mit panchromatischer Schärfung bearbeiteten Spektralbilds nur des Subframe-Bereichs umfasst.
    • (29) Verfahren für die Verbesserung von Spektralbilddaten, das Verfahren umfassend: unter der Kontrolle eines Bildgebungsbearbeitungssystems, das Computerhardware umfasst: Empfang einer Vielzahl aufeinanderfolgender Spektralbilder von Teilen einer interessanten Region, wobei jedes Spektralbild eine Vielzahl von Spektralbildstreifen umfasst und jeder Spektralbildstreifen Bilddaten aus einem anderen Wellenlängenbereich des Lichts umfasst; Registrierung der Spektralbildstreifen aus jedem Wellenlängenbereich, um eine Vielzahl rekonstruierter Spektralbilder zu erstellen; Kombination der rekonstruierten Spektralbilder, um ein Multispektralbild zu erstellen; Umwandlung des Multispektralbilds in ein Farbsystem, das eine Luminanzkomponente umfasst, um ein umgewandeltes Multispektralbild zu erstellen, und Ersetzen der Luminanzkomponente des umgewandelten Multispektralbilds durch eine Ersatzspektralbild auf Basis der rekonstruierten Spektralbilder, um ein verbessertes Spektralbild zu erzeugen.
    • (30) Verfahren nach einer der vorstehenden Klauseln, insbesondere Klausel 29, worin das Ersatzspektralbild Bilddaten von Licht umfasst, das innerhalb eines Wellenlängenbereichs gesammelt wurden, der rund um grüne Wellenlängen zentriert ist.
    • (31) Verfahren nach einer der vorstehenden Klauseln, insbesondere Klausel 29 oder Klausel 30, worin die Spektralbildstreifen einen vergrößerten Spektralbildstreifen umfassen, der Bilddaten eines größeren Teils der interessanten Region umfasst als die Regionen, die von den anderen Spektralbildstreifen erfasst wurden, und worin die Registrierung die Registrierung einer Vielzahl von vergrößerten Spektralbildstreifen umfasst, um eine Vielzahl überlappender Spektralbilder zu erstellen.
    • (32) Verfahren nach einer der vorstehenden Klauseln, insbesondere Klausel 31, umfassend die Durchführung von Multi-Frame-Verbesserung bei den überlappenden Spektralbildern, um das Ersatz-Spektralbild zu erstellen.
    • (33) Verfahren nach einer der vorstehenden Klauseln, insbesondere Klausel 31, worin das Ersatzspektralbild eines der überlappenden Spektralbilder ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • „Advances and Challenges in Super- Resolution”, von Sina Farsiu et al., International Journal of Imaging Systems and Technology, S. 47–57, Band 14, 2004 (im Folgenden der „Farsiu-Artikel”) [0088]
    • „Pan-Sharpening of Multispectral Images: A Critical Review and Comparision”, von Andrea Garzelli et al., Proc. of IEEE International Geoscience and Remote Sensing Symposium (IGARSS '04), 2004, (im Folgenden der „Garzelli-Artikel”) [0093]
    • Entscheidung J 15/88 der Juristischen Beschwerdekammer des Europäischen Patentamts [0111]

Claims (10)

  1. Sensor (202) für die Sammlung von Bilddaten für die Verwendung in einem beweglichen Bildgebungssystem, wobei der Sensor (202) Folgendes umfasst: einen Spektralsensor, der so konfiguriert ist, dass er Spektralbilddaten erfasst, der Spektralsensor umfassend einen Bildgebungsflächenbereich, der eine Bildgebungsbreite umfasst; eine Vielzahl von Spektralfiltern (305a, 305b, 305c, 305d; 505a, 505b, 505c, 505d; 905a, 905b, 905c, 905d; 1005a, 1005b, 1005c, 1005d), wobei die Spektralfilter zusammen einen Spektralbildgebungsteil des Bildgebungsflächenbereichs des Spektralsensors abdecken, jeder Spektralfilter eine Filterbreite hat, die im Wesentlichen mindestens gleich der Bildgebungsbreite ist, und jeder Spektralfilter eine Spektralfilterhöhe (307; 507; 907; 1007) hat, die größer als oder gleich einer Mindestfilterhöhe ist, worin aufgrund der relativen Bewegung des beweglichen Bildgebungssystems geteilt durch eine Rate der Einzelbilderfassung des Spektralsensors die Mindestfilterhöhe einer Rate entspricht, mit der ein Bild einer interessanten Region sich um den Spektralsensor zu bewegen scheint; und ein panchromatischen Sensor, der so konfiguriert ist, dass er panchromatische Bilddaten der interessanten Region erfasst, wobei der panchromatische Sensor einen panchromatischen Bildgebungsteil des Bildgebungsflächenbereichs des Spektralsensors abdeckt, und der panchromatische Sensor eine panchromatische Breite hat, die im Wesentlichen mindestens dieselbe wie die Bildgebungsbreite ist, und eine panchromatische Höhe, die größer als oder gleich der Mindestfilterhöhe ist.
  2. Sensor nach (202) nach Anspruch 1, worin ein erster Spektralfilter aus der Vielzahl der Spektralfilter eine größere Spektralfilterhöhe hat als ein zweiter Spektralfilter aus der Vielzahl der Spektralfilter.
  3. Sensor nach (202) nach Anspruch 2, worin der erste Spektralfilter ein grüner Spektralfilter ist, der so konfiguriert ist, dass er Licht innerhalb eines Wellenlängenbereichs aussendet, der rund um grüne Wellenlängen zentriert ist, oder der erste Spektralfilter ein blauer Spektralfilter ist, der so konfiguriert ist, dass er Licht innerhalb eines Wellenlängenbereichs aussendet, der rund um blaue Wellenlängen zentriert ist.
  4. Sensor (202) nach irgendeinem der Ansprüche 1 bis 3, worin die Spektralfilterhöhen jeder der Vielzahl von Spektralfiltern zwischen dem Ein- und Vierfachen der Mindestfilterhöhe betragen.
  5. Sensor (202) nach Anspruch 1, worin die panchromatische Sensorhöhe größer als jede der Spektralfilterhöhen ist.
  6. Sensor (202) nach Anspruch 1, worin die panchromatische Sensorhöhe im Wesentlichen gleich einer Summe aller Spektralfilterhöhen ist.
  7. Sensor (202) nach irgendeinem der Ansprüche 1 bis 6, worin der panchromatische Sensor einen oder mehrere panchromatische Filter (505efgh; 505e, 505f, 505g, 505h; 1005e) umfasst, die eine panchromatische Filterhöhe haben, die größer als oder gleich der Mindestfilterhöhe ist.
  8. Sensor (202) nach irgendeinem der Ansprüche 1 bis 7, des Weiteren umfassend eine Steuerung (320), die so konfiguriert ist, dass sie Bilddaten vom panchromatischen Sensor mit einer Video-Frame-Rate erfasst und die Bilddaten einem Echtzeit-Video-Feed bereitstellt.
  9. Sensor (202) nach Anspruch 8, worin Video-Frame-Rate größer als ca. 5 Einzelbilder pro Sekunde ist.
  10. Sensor (202) nach irgendeinem der Ansprüche 1 bis 9, worin eine panchromatische räumliche Auflösung des panchromatischen Sensors im Wesentlichen gleich einer räumlichen Auflösung des Spektralsensors ist.
DE202012013411.6U 2011-04-25 2012-04-24 Systeme für Overhead-Bild- und Videoanzeige Expired - Lifetime DE202012013411U1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161478871P 2011-04-25 2011-04-25
US201161478871P 2011-04-25
US201161565345P 2011-11-30 2011-11-30
US201161565345P 2011-11-30

Publications (1)

Publication Number Publication Date
DE202012013411U1 true DE202012013411U1 (de) 2016-11-15

Family

ID=46025977

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202012013411.6U Expired - Lifetime DE202012013411U1 (de) 2011-04-25 2012-04-24 Systeme für Overhead-Bild- und Videoanzeige

Country Status (4)

Country Link
US (2) US9442012B2 (de)
EP (2) EP2778635B1 (de)
DE (1) DE202012013411U1 (de)
WO (1) WO2012148919A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019211805B3 (de) * 2019-08-06 2020-09-17 Deutsches Zentrum für Luft- und Raumfahrt e.V. Optisches System und TDI-Sensor

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8724928B2 (en) * 2009-08-31 2014-05-13 Intellectual Ventures Fund 83 Llc Using captured high and low resolution images
JP5267396B2 (ja) * 2009-09-16 2013-08-21 ソニー株式会社 画像処理装置および方法、並びにプログラム
DE202012013411U1 (de) 2011-04-25 2016-11-15 Terra Bella Technologies Inc. Systeme für Overhead-Bild- und Videoanzeige
EP2721828B1 (de) 2011-06-15 2015-07-15 Microsoft Technology Licensing, LLC Hochauflösende multispektrale bilderfassung
US9553034B1 (en) * 2012-03-27 2017-01-24 Kla-Tencor Corporation Combined semiconductor metrology system
US8780242B2 (en) * 2012-07-21 2014-07-15 Cmos Sensor Inc. Multi-band sensors
EP2736014A3 (de) * 2012-11-26 2017-08-02 Nokia Technologies Oy Verfahren, Vorrichtung und Computerprogrammprodukt zur Verarbeitung von Einzelbildern
US9521322B2 (en) 2013-03-15 2016-12-13 Forsvarets Forskningsinstitutt Imaging unit
FR3006296B1 (fr) * 2013-05-31 2016-11-11 Airinov Drone comprenant un dispositif imageur multispectral pour la generation de cartes representant un etat vegetal d'une culture
AU2013393870B2 (en) * 2013-07-09 2017-06-29 Halliburton Energy Services, Inc. Integrated computational elements with laterally-distributed spectral filters
US9437016B2 (en) * 2013-08-07 2016-09-06 Toshiba Medical Systems Corporation Image domain pansharpening method and system for spectral CT with large pixel energy discriminating detectors
EP2887655A1 (de) * 2013-12-20 2015-06-24 Swiss Timing Ltd. Adaptiver Farbfilter für digitalen Sensor
FR3017764B1 (fr) 2014-02-14 2017-06-09 Astrium Sas Appareil de saisie d'images multispectrales comprenant une roue a filtres
US9521385B2 (en) * 2014-03-27 2016-12-13 Himax Imaging Limited Image sensor equipped with additional group of selectively transmissive filters for illuminant estimation, and associated illuminant estimation method
US10230925B2 (en) 2014-06-13 2019-03-12 Urthecast Corp. Systems and methods for processing and providing terrestrial and/or space-based earth observation video
FR3024782B1 (fr) * 2014-08-07 2016-09-09 Airbus Defence & Space Sas Systeme et procede d'imagerie infrarouge
US9225889B1 (en) * 2014-08-18 2015-12-29 Entropix, Inc. Photographic image acquisition device and method
WO2016041079A1 (en) * 2014-09-16 2016-03-24 University Of New Brunswick Optical sensor systems and image processing methods for remote sensing
US9540770B2 (en) * 2014-09-25 2017-01-10 Honeywell Limited Modular sensing system for web-based applications
US9678136B2 (en) 2014-10-15 2017-06-13 Spire Global, Inc. Back-plane connector for cubesat
CN105741239B (zh) * 2014-12-11 2018-11-30 合肥美亚光电技术股份有限公司 牙齿全景图像的生成方法、装置及用于拍摄牙齿的全景机
WO2016110952A1 (ja) * 2015-01-07 2016-07-14 オリンパス株式会社 分光画像取得装置
US9919814B2 (en) 2015-02-26 2018-03-20 Spire Global, Inc. System and method for power distribution in a autonomous modular system
US9830297B2 (en) 2015-02-26 2017-11-28 Spire Global, Inc. Processor system for control of modular autonomous system
US10871561B2 (en) 2015-03-25 2020-12-22 Urthecast Corp. Apparatus and methods for synthetic aperture radar with digital beamforming
CN108432049B (zh) 2015-06-16 2020-12-29 阿卜杜拉阿齐兹国王科技城 有效平面相控阵列天线组件
US10458904B2 (en) 2015-09-28 2019-10-29 Ball Aerospace & Technologies Corp. Differential absorption lidar
EP3156773A1 (de) * 2015-10-13 2017-04-19 BAE Systems PLC Multispektrale darstellung einer szene von einem beweglichen blickpunkt
WO2017064466A1 (en) * 2015-10-13 2017-04-20 Bae Systems Plc Multispectral imaging of a scene from a moving viewpoint
US9686478B2 (en) * 2015-11-19 2017-06-20 Google Inc. Generating high-dynamic range images using multiple filters
US9674460B1 (en) 2015-11-19 2017-06-06 Google Inc. Generating high-dynamic range images using varying exposures
WO2017091747A1 (en) 2015-11-25 2017-06-01 Urthecast Corp. Synthetic aperture radar imaging apparatus and methods
US10054686B2 (en) 2015-12-31 2018-08-21 Spire Global, Inc. System and method for remote satellite and ground station constellation management
US10742916B2 (en) * 2016-04-19 2020-08-11 Imec Vzw Imaging sensor and method for reading out image information
CN109416282B (zh) * 2016-07-15 2021-01-05 柯尼卡美能达株式会社 色度计
US10616516B2 (en) 2016-09-30 2020-04-07 Planet Labs Inc. Systems and methods for implementing time delay integration imaging techniques in conjunction with distinct imaging regions on a monolithic charge-coupled device image sensor
DE102017208041A1 (de) 2017-05-12 2018-11-15 Deutsches Zentrum für Luft- und Raumfahrt e.V. TDI-Zeilendetektor
WO2018217770A2 (en) * 2017-05-22 2018-11-29 Washington University Multispectral imaging sensors and systems
EP3646054A4 (de) 2017-05-23 2020-10-28 King Abdulaziz City for Science and Technology Radarabbildungsvorrichtung mit synthetischer apertur und verfahren zum bewegen von zielen
CA3064735C (en) 2017-05-23 2022-06-21 Urthecast Corp. Synthetic aperture radar imaging apparatus and methods
US10327308B2 (en) * 2017-09-13 2019-06-18 Essential Products, Inc. Display and a light sensor operable as an infrared emitter and infrared receiver
KR20190049197A (ko) * 2017-11-01 2019-05-09 한국전자통신연구원 고해상도 영상을 이용한 업샘플링 및 rgb 합성 방법, 및 이를 수행하는 장치
WO2019226194A2 (en) 2017-11-22 2019-11-28 Urthecast Corp. Synthetic aperture radar apparatus and methods
US11067744B2 (en) 2017-11-30 2021-07-20 Corning Incorporated Low bend loss optical fiber with step index core
US10897585B2 (en) 2017-12-07 2021-01-19 Corning Incorporated Hyperspectral imaging system and method for providing a hyperspectral image of an area of a remote object
US10482576B2 (en) * 2018-03-19 2019-11-19 Mitsubishi Electric Research Laboratories, Inc. Systems and methods for multi-spectral image super-resolution
US10921245B2 (en) 2018-06-08 2021-02-16 Ball Aerospace & Technologies Corp. Method and systems for remote emission detection and rate determination
US10962639B2 (en) * 2019-01-11 2021-03-30 Isaac Weissman Smallsat surveillance constellation using MIMO radar
US11076098B2 (en) * 2019-02-12 2021-07-27 VIAVI Solutions he. Panoramic image capture for multispectral sensor
US11366011B2 (en) 2019-02-13 2022-06-21 Viavi Solutions Inc. Optical device
FR3101144B1 (fr) * 2019-09-23 2021-10-15 Odesyo Système et procédé de contrôle de la couleur d’un article en déplacement
IL270565A (en) 2019-11-11 2021-05-31 Israel Aerospace Ind Ltd Image acquisition methods and systems
CN110929427A (zh) * 2019-12-23 2020-03-27 吉林大学 一种遥感卫星视频成像快速仿真方法
FR3107953B1 (fr) * 2020-03-03 2022-03-11 Airbus Defence & Space Sas Procédé d’acquisition d’images d’une zone terrestre par un engin spatial
US11393194B2 (en) * 2020-08-11 2022-07-19 International Business Machines Corporation Selective analysis for field boundary detection
JP2022063720A (ja) * 2020-10-12 2022-04-22 日本電気株式会社 画像補正装置
CN113364933B (zh) * 2021-06-29 2022-05-10 中国科学院长春光学精密机械与物理研究所 高摄像同步性和精细像移补偿的tdicmos成像系统
FR3127298A1 (fr) * 2021-09-23 2023-03-24 Safran Reosc Procédé pour l’acquisition d’images multispectrales et d’imagettes panchromatiques
WO2023149963A1 (en) 2022-02-01 2023-08-10 Landscan Llc Systems and methods for multispectral landscape mapping
FR3135329A1 (fr) 2022-05-03 2023-11-10 Airbus Defence And Space Sas Procédé de génération d’image par un satellite par fusion à bord d’images acquises par ledit satellite
US20230370563A1 (en) * 2022-05-11 2023-11-16 The Boeing Company Multi-spectral and panchromatic imaging apparatus and associated system and method

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3601529A (en) 1968-11-20 1971-08-24 Rca Corp Color television signal-generating apparatus
US3715962A (en) 1970-04-20 1973-02-13 Spectral Data Corp Spectral-zonal color reconnaissance system
GB1413122A (en) 1971-12-18 1975-11-05 Victor Company Of Japan Colour television signal generating apparatus
DE2619027C2 (de) 1976-04-30 1984-10-18 Robert Bosch Gmbh, 7000 Stuttgart Fernsehaufnahmesystem
DE2850309A1 (de) 1978-11-20 1980-07-03 Bosch Gmbh Robert Farbfernsehaufnahmesystem
US4214264A (en) 1979-02-28 1980-07-22 Eastman Kodak Company Hybrid color image sensing array
US4404586A (en) 1981-12-15 1983-09-13 Fuji Photo Film Co., Ltd. Solid-state color imager with stripe or mosaic filters
US4514755A (en) 1983-07-08 1985-04-30 Fuji Photo Film Co., Ltd. Solid-state color imager with two layer three story structure
JPH0820230B2 (ja) 1984-06-08 1996-03-04 オリンパス光学工業株式会社 計測用内視鏡
JPH0619243B2 (ja) 1985-09-19 1994-03-16 株式会社トプコン 座標測定方法及びその装置
JP2849813B2 (ja) 1986-12-19 1999-01-27 富士写真フイルム株式会社 映像信号の形成装置
DE3802219A1 (de) 1988-01-26 1989-08-03 Deutsche Forsch Luft Raumfahrt Verfahren und einrichtung zur fernerkundung der erde
DE4216828C2 (de) 1992-05-21 1994-08-18 Dornier Gmbh Verfahren zur Erdbeobachtung
US5790188A (en) 1995-09-07 1998-08-04 Flight Landata, Inc. Computer controlled, 3-CCD camera, airborne, variable interference filter imaging spectrometer system
US5949914A (en) * 1997-03-17 1999-09-07 Space Imaging Lp Enhancing the resolution of multi-spectral image data with panchromatic image data using super resolution pan-sharpening
US6678048B1 (en) 1998-07-20 2004-01-13 Sandia Corporation Information-efficient spectral imaging sensor with TDI
IL145413A (en) * 1999-03-17 2005-11-20 Univ Virginia Passive remote sensor of chemicals
US7019777B2 (en) 2000-04-21 2006-03-28 Flight Landata, Inc. Multispectral imaging system with spatial resolution enhancement
US7009163B2 (en) * 2001-06-22 2006-03-07 Orbotech Ltd. High-sensitivity optical scanning using memory integration
US7149366B1 (en) 2001-09-12 2006-12-12 Flight Landata, Inc. High-definition hyperspectral imaging system
US7167280B2 (en) 2001-10-29 2007-01-23 Eastman Kodak Company Full content film scanning on a film to data transfer device
US6781707B2 (en) 2002-03-22 2004-08-24 Orasee Corp. Multi-spectral display
US6831688B2 (en) 2002-04-08 2004-12-14 Recon/Optical, Inc. Multispectral or hyperspectral imaging system and method for tactical reconnaissance
US7298922B1 (en) 2004-07-07 2007-11-20 Lockheed Martin Corporation Synthetic panchromatic imagery method and system
US20060291751A1 (en) 2004-12-16 2006-12-28 Peyman Milanfar Robust reconstruction of high resolution grayscale images from a sequence of low-resolution frames (robust gray super-resolution)
US20060291750A1 (en) 2004-12-16 2006-12-28 Peyman Milanfar Dynamic reconstruction of high resolution video from low-resolution color-filtered video (video-to-video super-resolution)
US7412107B2 (en) 2004-12-17 2008-08-12 The Regents Of The University Of California, Santa Cruz System and method for robust multi-frame demosaicing and color super-resolution
US7602997B2 (en) 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
US7733961B2 (en) 2005-04-15 2010-06-08 Mississippi State University Research And Technology Corporation Remote sensing imagery accuracy analysis method and apparatus
US7385705B1 (en) 2005-06-03 2008-06-10 Lockheed Martin Corporation Imaging spectroscopy based on multiple pan-chromatic images obtained from an imaging system with an adjustable point spread function
US7830430B2 (en) 2005-07-28 2010-11-09 Eastman Kodak Company Interpolation of panchromatic and color pixels
US8274715B2 (en) * 2005-07-28 2012-09-25 Omnivision Technologies, Inc. Processing color and panchromatic pixels
US8116576B2 (en) 2006-03-03 2012-02-14 Panasonic Corporation Image processing method and image processing device for reconstructing a high-resolution picture from a captured low-resolution picture
US7468504B2 (en) * 2006-03-09 2008-12-23 Northrop Grumman Corporation Spectral filter for optical sensor
US7916362B2 (en) 2006-05-22 2011-03-29 Eastman Kodak Company Image sensor with improved light sensitivity
US7417210B2 (en) 2006-06-30 2008-08-26 Northrop Grumman Corporation Multi-spectral sensor system and methods
US7855752B2 (en) 2006-07-31 2010-12-21 Hewlett-Packard Development Company, L.P. Method and system for producing seamless composite images having non-uniform resolution from a multi-imager system
US8031258B2 (en) 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
US20080123997A1 (en) 2006-11-29 2008-05-29 Adams James E Providing a desired resolution color image
US7769229B2 (en) 2006-11-30 2010-08-03 Eastman Kodak Company Processing images having color and panchromatic pixels
US7936949B2 (en) 2006-12-01 2011-05-03 Harris Corporation Panchromatic modulation of multispectral imagery
US7769241B2 (en) 2007-01-09 2010-08-03 Eastman Kodak Company Method of sharpening using panchromatic pixels
US8594451B2 (en) 2007-03-30 2013-11-26 Omnivision Technologies, Inc. Edge mapping incorporating panchromatic pixels
US7844127B2 (en) 2007-03-30 2010-11-30 Eastman Kodak Company Edge mapping using panchromatic pixels
US7855740B2 (en) 2007-07-20 2010-12-21 Eastman Kodak Company Multiple component readout of image sensor
US8743963B2 (en) * 2007-08-13 2014-06-03 Ntt Docomo, Inc. Image/video quality enhancement and super-resolution using sparse transformations
US20090046182A1 (en) 2007-08-14 2009-02-19 Adams Jr James E Pixel aspect ratio correction using panchromatic pixels
US20090051984A1 (en) 2007-08-23 2009-02-26 O'brien Michele Image sensor having checkerboard pattern
FR2920869B1 (fr) * 2007-09-07 2009-11-27 Thales Sa Procede d'augmentation de resolution d'images multi-spectrales
US8452082B2 (en) 2007-09-27 2013-05-28 Eastman Kodak Company Pattern conversion for interpolation
US7991226B2 (en) 2007-10-12 2011-08-02 Pictometry International Corporation System and process for color-balancing a series of oblique images
US8259203B2 (en) 2007-12-05 2012-09-04 Electro Scientific Industries, Inc. Method and apparatus for achieving panchromatic response from a color-mosaic imager
EP2238745A4 (de) 2007-12-27 2012-02-22 Google Inc Bildgebungsvorrichtung mit hoher auflösung und veränderlicher fokustiefe
KR100944462B1 (ko) 2008-03-07 2010-03-03 한국항공우주연구원 위성 영상 융합 방법 및 시스템
US7781716B2 (en) 2008-03-17 2010-08-24 Eastman Kodak Company Stacked image sensor with shared diffusion regions in respective dropped pixel positions of a pixel array
US8675068B2 (en) 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8094960B2 (en) 2008-07-07 2012-01-10 Harris Corporation Spectral calibration of image pairs using atmospheric characterization
US8078009B2 (en) 2008-07-08 2011-12-13 Harris Corporation Optical flow registration of panchromatic/multi-spectral image pairs
US8111307B2 (en) 2008-10-25 2012-02-07 Omnivision Technologies, Inc. Defective color and panchromatic CFA image
US8073246B2 (en) 2008-11-07 2011-12-06 Omnivision Technologies, Inc. Modifying color and panchromatic channel CFA image
US8587681B2 (en) 2008-11-21 2013-11-19 Omnivision Technologies, Inc. Extended depth of field for image sensor
US20100149396A1 (en) 2008-12-16 2010-06-17 Summa Joseph R Image sensor with inlaid color pixels in etched panchromatic array
US8300108B2 (en) * 2009-02-02 2012-10-30 L-3 Communications Cincinnati Electronics Corporation Multi-channel imaging devices comprising unit cells
US8224082B2 (en) 2009-03-10 2012-07-17 Omnivision Technologies, Inc. CFA image with synthetic panchromatic image
DE202009003286U1 (de) 2009-03-11 2009-05-28 Sensovation Ag Vorrichtung zum Aufnehmen eines Bilds eines Gegenstands
US8068153B2 (en) 2009-03-27 2011-11-29 Omnivision Technologies, Inc. Producing full-color image using CFA image
US8045024B2 (en) 2009-04-15 2011-10-25 Omnivision Technologies, Inc. Producing full-color image with reduced motion blur
US20100265313A1 (en) 2009-04-17 2010-10-21 Sony Corporation In-camera generation of high quality composite panoramic images
US8203633B2 (en) 2009-05-27 2012-06-19 Omnivision Technologies, Inc. Four-channel color filter array pattern
US8237831B2 (en) 2009-05-28 2012-08-07 Omnivision Technologies, Inc. Four-channel color filter array interpolation
US8125546B2 (en) 2009-06-05 2012-02-28 Omnivision Technologies, Inc. Color filter array pattern having four-channels
US8253832B2 (en) 2009-06-09 2012-08-28 Omnivision Technologies, Inc. Interpolation for four-channel color filter array
US8462209B2 (en) 2009-06-26 2013-06-11 Keyw Corporation Dual-swath imaging system
US8724928B2 (en) 2009-08-31 2014-05-13 Intellectual Ventures Fund 83 Llc Using captured high and low resolution images
US8203615B2 (en) 2009-10-16 2012-06-19 Eastman Kodak Company Image deblurring using panchromatic pixels
US8558899B2 (en) 2009-11-16 2013-10-15 The Aerospace Corporation System and method for super-resolution digital time delay and integrate (TDI) image processing
US20110115954A1 (en) 2009-11-19 2011-05-19 Eastman Kodak Company Sparse color pixel array with pixel substitutes
SI2513599T1 (sl) 2009-12-18 2015-08-31 Vito Nv (Vlaamse Instelling Voor Technologisch Onderzoek Nv) Georeferenciranje multispektralnih podatkov
US8345130B2 (en) 2010-01-29 2013-01-01 Eastman Kodak Company Denoising CFA images using weighted pixel differences
US8179445B2 (en) 2010-03-03 2012-05-15 Eastman Kodak Company Providing improved high resolution image
FR2959903B1 (fr) 2010-05-04 2012-07-27 Astrium Sas Procede d'imagerie polychrome
US20110279702A1 (en) 2010-05-17 2011-11-17 David Plowman Method and System for Providing a Programmable and Flexible Image Sensor Pipeline for Multiple Input Patterns
US8497897B2 (en) 2010-08-17 2013-07-30 Apple Inc. Image capture using luminance and chrominance sensors
US8368774B2 (en) 2010-11-22 2013-02-05 The Aerospace Corporation Imaging geometries for scanning optical detectors with overlapping fields of regard and methods for providing and utilizing same
US9576349B2 (en) * 2010-12-20 2017-02-21 Microsoft Technology Licensing, Llc Techniques for atmospheric and solar correction of aerial images
DE202012013411U1 (de) 2011-04-25 2016-11-15 Terra Bella Technologies Inc. Systeme für Overhead-Bild- und Videoanzeige

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
„Pan-Sharpening of Multispectral Images: A Critical Review and Comparision", von Andrea Garzelli et al., Proc. of IEEE International Geoscience and Remote Sensing Symposium (IGARSS '04), 2004, (im Folgenden der „Garzelli-Artikel")
Entscheidung J 15/88 der Juristischen Beschwerdekammer des Europäischen Patentamts

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019211805B3 (de) * 2019-08-06 2020-09-17 Deutsches Zentrum für Luft- und Raumfahrt e.V. Optisches System und TDI-Sensor

Also Published As

Publication number Publication date
EP2702375A2 (de) 2014-03-05
WO2012148919A2 (en) 2012-11-01
EP2778635A1 (de) 2014-09-17
EP2778635B1 (de) 2023-11-29
US8487996B2 (en) 2013-07-16
US9442012B2 (en) 2016-09-13
WO2012148919A3 (en) 2013-03-14
US20120300064A1 (en) 2012-11-29
US20120293669A1 (en) 2012-11-22

Similar Documents

Publication Publication Date Title
DE202012013411U1 (de) Systeme für Overhead-Bild- und Videoanzeige
DE69627487T2 (de) Direktes digitales panorama-luftbildsystem und -verfahren
US7019777B2 (en) Multispectral imaging system with spatial resolution enhancement
CA3005736C (en) Generating high-dynamic range images using multiple filters
WO2012019875A1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen eines bildes
US10249024B2 (en) Systems and methods for enhancing object visibility for overhead imaging
CN109348126B (zh) 一种用于空间相机的面阵数字tdi连续推扫成像方法
King et al. Development of a multispectral video system and its application in forestry
CA3005747C (en) Generating high-dynamic range images using varying exposures
EP2907105A2 (de) Verfahren zur bildaufbereitung und verfahren zur bahnverfolgung von raketen
DE19919487C2 (de) Aufnahmeverfahren und photogrammetrische Kamera dafür
CN113281282B (zh) 一种图像采集与重构方法、设备及存储介质
Fricker et al. Progress in the development of a high performance airborne digital sensor
Fricker et al. Digital photogrammetric cameras: a new forward looking approach
Herkenhoff et al. The Imager for Mars Pathfinder Insurance Pan
Kubik et al. Pushing the limits of SPOT HRV resolution with steered viewing modes

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R081 Change of applicant/patentee

Owner name: PLANET LABS, INC., SAN FRANCISCO, US

Free format text: FORMER OWNER: TERRA BELLA TECHNOLOGIES INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right