DE602004005984T2 - Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten - Google Patents

Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten Download PDF

Info

Publication number
DE602004005984T2
DE602004005984T2 DE602004005984T DE602004005984T DE602004005984T2 DE 602004005984 T2 DE602004005984 T2 DE 602004005984T2 DE 602004005984 T DE602004005984 T DE 602004005984T DE 602004005984 T DE602004005984 T DE 602004005984T DE 602004005984 T2 DE602004005984 T2 DE 602004005984T2
Authority
DE
Germany
Prior art keywords
image
view
face
features
profile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602004005984T
Other languages
English (en)
Other versions
DE602004005984D1 (de
Inventor
Rida M. Maple Grove HAMZA
Murray J. Minneapolis COOPER
Michael E. Bloomington BAZAKOS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of DE602004005984D1 publication Critical patent/DE602004005984D1/de
Application granted granted Critical
Publication of DE602004005984T2 publication Critical patent/DE602004005984T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft Gesichtsidentifikationsverifikation und insbesondere Gesichtsidentifikationsverifikation unter Verwendung mehrerer Bilder eines zu verifizierenden Gesichts.
  • Allgemeiner Stand der Technik
  • Sicherheitskontrollpunkte sind in zunehmendem Maße weit verbreitet. In vielen Fällen wird eine manuelle Überprüfung vorgenommen, um zu verifizieren, dass eine Person, die einen Identifikationsausweis oder eine andere Form von ID vorweist, tatsächlich die darin identifizierte Person ist. Gegenwärtig wird eine Vielzahl von auf Biometrie basierenden Systemen verwendet. In einigen Situationen, wie beispielsweise beim Bereitstellen von Zugang zu Gebäuden während geschäftiger Zeiten und in Flughäfen, müssen große Menschenmengen in einem Minimum von Zeit korrekt abgeglichen werden.
  • US4975969A und US6608914B beschreiben beide auf Biometrie basierende Identifikationssysteme. Diese Identifikationssysteme verarbeiten ein Bild eines Gesichtes einer Einzelperson, um Daten zu erhalten, die für die Gesichtsmerkmale, die im Bild identifiziert werden, charakteristisch sind. Die Daten werden dann mit vorhergehend erhaltenen und gespeicherten charakteristischen Daten für diese Einzelperson verglichen. In US4975969 werden Ansichten eines Gesichts einer Einzelperson aus mehreren Winkeln erhalten. In US6608914 werden die gespeicherten charakteristischen Daten aktualisiert, wenn die Merkmale der Einzelperson sich mit dem Alter auf natürliche Weise verändern.
  • US6181805 offenbart ein Verfahren zur Winkelnormalisierung von Gesichtsbildern basierend auf einer Af fintransformation einer Vorderansicht des Gesichtes, wobei die Transformation bestimmte Merkmalpunkte in ein vorbestimmtes Positionsverhältnis bringt. EP1134691 offenbart ein Verfahren zum Normalisieren eines Teils eines Gesichtes in ein Nicht-Vorderansichtsbild basierend auf der Lokalisierung der Augen und der Nasenlöcher.
  • Kurzdarstellung der Erfindung
  • In einem ersten Gesichtspunkt besteht die Erfindung in einem Verfahren zum Abgleichen von Gesichtern, wobei das Verfahren Folgendes umfasst:
    Erhalten eines Bildes einer Vorderansicht von einem abzugleichenden Gesicht;
    Erhalten eines Bildes einer Ansicht des abzugleichenden Gesichts aus einem Winkel weg von der Vorderansicht;
    Erzeugen von Bildmerkmalen von jedem der Ansichtsbilder;
    Vergleichen von Bildmerkmalen von jedem Ansichtsbild mit einem Profil; und
    Bestimmen einer Übereinstimmung basierend auf den verglichenen Bildmerkmalen;
    dadurch gekennzeichnet, dass vor dem Erzeugen der Bildmerkmale vom Vorderansichtsbild, das Vorderansichtsbild zuerst unter Verwendung der erzeugten Bildmerkmale vom Ansichtsbild, das aus einem Winkel erhalten wurde, normalisiert wird, um der Dejustierung des Gesichts im Vorderansichtsbild Rechnung zu tragen.
  • In einem weiteren Gesichtspunkt besteht die Erfindung in einem System zum Abgleichen von Gesichtern, wobei das System Folgendes umfasst:
    Mittel zum Erhalten eines Vorderansichtsbildes von einem abzugleichenden Gesicht;
    Mittel zum Erhalten eines Ansichtsbildes des abzugleichenden Gesichts aus einem Winkel weg von der Vorderansicht;
    Mittel zum Erzeugen von Bildmerkmalen von jedem der Ansichtsbilder;
    Mittel zum Vergleichen von Bildmerkmalen von jedem Ansichtsbild mit einem Profil; und
    Mittel zum Bestimmen einer Übereinstimmung basierend auf den verglichenen Bildmerkmalen;
    dadurch gekennzeichnet, dass Mittel zum Normalisieren des Vorderansichtsbildes unter Verwendung der erzeugten Bildmerkmale vom Ansichtsbild, das aus einem Winkel erhalten wurde, bereitgestellt werden, um der Dejustierung des Gesichts im Vorderansichtsbild Rechnung zu tragen, und dass das normalisierte Vorderansichtsbild den Mitteln zum Erzeugen von Bildmerkmalen bereitgestellt wird.
  • Ein Kontrollpunkt-Überprüfungssystem verwendet eine Vielzahl von Kameras, um Bilder von einer zu überprüfenden Person aus unterschiedlichen Winkeln bereitzustellen. Unterschiedliche Merkmale, die aus den Bildern bei unterschiedlichen Winkeln gewonnen werden, werden mit einem der zu überprüfenden Person zugehörigen Profil verglichen. In einer Ausführungsform stellt die Person zuerst eine ID, wie beispielsweise einen Führerschein oder eine andere Identifikation bereit, und das Profil wird abgerufen. Wenn eine Übereinstimmung ermittelt wird, kann die Person den Kontrollpunkt passieren. Wenn keine Übereinstimmung ermittelt wird, kann die Person in einen anderen Weg durch den Kontrollpunkt zur weiteren Überprüfung ihrer Identität geleitet werden.
  • Ein Registrierungsverfahren wird verwendet, um Mitglieder zu registrieren und ein Mitgliedsprofil zu erhalten. Es werden drei Kamerawinkel verwendet, um ein auf drei Dimensionen basierendes Modell bereitzustellen (d.h. Merkmale, die aus einem 3D-Raum gewonnen werden). Nachdem eine 3D-Darstellung der Person ausgewählt wurde, wird jedes Bild der 3D-Darstellung unabhängig mit dem Profil verglichen und die Entscheidungen aus solchen Vergleichen werden gewichtet. In einer Ausführungsform wird das Profil regressiv aktualisiert, wenn eine Übereinstimmung ermittelt wird.
  • Merkmale, die neueren übereinstimmenden Bildern im Profil entsprechen, werden für den Vergleich schwerer gewichtet.
  • In weiteren Ausführungsformen können registrierte Mitglieder in einen abgelaufenen Mitgliedsstatus versetzt werden und in den unterschiedlichen Weg geleitet werden. Dies kann erfolgen, wenn ein registriertes Mitglied das System während eines Zeitraums nicht verwendet hat oder Änderungen am Profil, wie beispielsweise Änderungen der Adresse oder anderer Kontaktinformationen, vorgenommen wurden. Der unterschiedliche Weg verwendet manuelle Kontrollpunktverfahren.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm eines Beispiels eines Sicherheitskontrollpunktsystems, das ein Bewegungserkennungssystem verwendet.
  • 2 ist ein Blockdiagramm eines Beispiels eines Bewegungserkennungssystems mit mehreren Kameras von 1.
  • 3 ist ein Blockablaufdiagramm eines Beispiels eines Verfahrens, das an einem Sicherheitskontrollpunkt verwendet wird.
  • 4 ist ein weiteres Blockdiagramm des Betriebs des Bewegungserkennungssystems mit mehreren Kameras.
  • 5 ist ein Blockdiagramm eines Beispiels eines Computersystems zur Ausführung ausgewählter Teile des Sicherheitskontrollpunktsystems.
  • Ausführliche Beschreibung der Erfindung
  • In der folgenden Beschreibung wird Bezug auf die begleitenden Zeichnungen genommen, die einen Teil davon bilden, und in denen zur Veranschaulichung spezifische Ausführungsformen gezeigt werden, in denen die Erfindung in der Praxis angewandt werden kann. Diese Ausführungsformen werden in einer Ausführlichkeit beschrieben, die ausreicht, um es Fachleuten zu ermöglichen, die Erfindung in der Praxis anzuwenden, und es versteht sich, dass andere Ausführungsformen verwendet werden können, und dass strukturelle, logische und elektrische Änderungen vorgenommen werden können, ohne den Umfang der vorliegenden Erfindung zu verlassen. Die folgende Beschreibung ist aus diesem Grund nicht in einem einschränkenden Sinne aufzufassen und der Umfang der vorliegenden Erfindung ist durch die beigefügten Ansprüche bestimmt.
  • Die Funktionen oder Algorithmen, die hierin beschrieben werden, werden in Software oder in einer Ausführungsform in einer Kombination von Software und durch Menschen ausgeführten Verfahren ausgeführt. Die Software umfasst computerausführbare Befehle, die auf einem computerlesbaren Medium, wie beispielsweise ein Speicher oder ein anderer Typ von Speichervorrichtungen, gespeichert sind. Der Begriff „computerlesbares Medium" wird auch verwendet, um Trägerwellen darzustel len, auf denen die Software übermittelt wird. Ferner entsprechen solche Funktionen, die Software, Hardware, Firmware oder irgendeine Kombination davon aufweisen, Modulen. Viele Funktionen werden wie erwünscht in einem oder mehreren Modulen ausgeführt und die beschriebenen Ausführungsformen sind lediglich Beispiele. Die Software wird auf einem digitalen Signalprozessor, ASIC, Mikroprozessor oder einen anderen Typ von Prozessor ausgeführt, der auf einem Computersystem arbeitet, wie beispielsweise ein Personalcomputer, Server oder ein anderes Computersystem.
  • Ein Schnellzugangskontroll-Überprüfungssystem, wie in 1 bei 100 allgemein gezeigt, wird verwendet, um registrierte Mitglieder zu bedienen. Das System verarbeitet in kurzer Zeit eine große Menschenmenge mit minimaler erforderlicher Kooperation und einem Minimum an Unannehmlichkeiten. Gesichtsüberprüfungsmechanismen werden verwendet, um Mitglieder durch das Vergleichen von Bildern aus unterschiedlichen Winkeln mit gespeicherten Informationen über das Mitglied zu identifizieren. Eine Mitglieder-ID wird während der Verwendung des Systems durch das Mitglied vorgewiesen. Die ID wird verwendet, um die gespeicherten Informationen abzurufen, die ein Profil umfassen.
  • Zum Eintreten der Personen in das System 100 werden zwei Zugangspunkte bereitgestellt. Ein automatisierter Zugangspunkt 110 und ein manueller Zugangspunkt 115 werden bereitgestellt. Der automatisierte Zugangspunkt 110 führt zu einer automatisierten Gesichtsverifikationsstation 120. Eine ID-Karte oder eine andere Form von Identität kann an diesem Punkt gescannt werden und Informationen werden zur Verwendung beim Vergleichen von Bildern, die an der Verifikationsstation 120 gemacht werden, mit den abgerufenen Informationen abgerufen. Wenn eine Übereinstimmung gefunden wird, wird die Person bestätigt und durch den Durchgang 130 zu einem Tor, Gebäude oder einem anderen Bereich mit Zugangskontrolle geleitet.
  • Falls keine Übereinstimmung gefunden wird oder aus anderen Gründen, kann die Person über den Durchgang 140 zurück in einen manuellen Abfertigungsdurchgang zum manuellen Abfertigungsdurchgang 150 geleitet werden. Auch der Zugangspunkt 115 führt zum manuellen Abfertigungsdurchgang 150. Manuelle Überprüfungen werden dann bei 160 ausgeführt.
  • Zum Registrieren weisen Mitglieder einem Bediener eine Foto-ID und andere erforderliche Dokumente vor. Der Bediener gleicht ihre Identität mit einer Kontoaufzeichnung ab und registriert sie in einer sicheren Datenbank. Während des Betriebs können registrierte Einzelpersonen dann die Zugangspunkte passieren, während das System ihre Bilder erfasst, ein vereinigtes 3D-Modell der Person konstruiert und es mit dem aufgezeichneten Konto vergleicht. Nachdem die Einzelpersonen bestätigt wurden, können sie direkt den Zugang zur Einrichtung, zum Standort/Gebäude/Tor passieren, ohne bei der Abfertigung in langen Schlangen mit dem Rest der Besucher/Kunden stehen zu müssen.
  • Die Verifikationsstation 120 fotografiert die Person aus mehreren Ausrichtungen wie in 2 gezeigt unter Verwendung von einzelnen oder mehreren Bändern (d.h. sichtbare oder IR-Sensoren wie zweckmäßig), um ein 3D-Modell der Person zu konstruieren. Das Modell wird dann mit dem Passagierprofil verglichen, das einen vorher bestehenden Merkmalssatz aufweist, um ihre/seine Identität unter Verwendung von text- und bildbasiertem Vergleich zu verifizieren. Die persönlichen Informationen können von der Identifikation kommen, die die Passagiere bei der Abfertigung vorweisen/scannen müssen. Zum Passieren der Kontrollpunkte würde die Registrierungskarte mit einem Kartenscanner oder einer anderen Eingabevorrichtung gelesen. Das Foto, die Identität und die Zugangsinformationen des Passagiers werden gegen die abgerufenen Informationen von der Systemdatenbank abgeglichen, um zu bestätigen oder bei einer Nichtübereinstimmung abzulehnen. Wenn eine Nichtübereinstimmung vorliegt, würde das Mitglied auf die Verwendung eines unterschiedlichen Durchgangs 150 verwiesen, wo ein Bediener/Beamter den Vorfall untersuchen und Korrekturmaßnahmen ergreifen würde, falls der Bedarf einer Aktualisierung des Fotos, eine Änderung der Adresse oder, im Falle eines Bedrohungsmusters, einer Alarmmeldung an die Behörden bestünde.
  • In 2 wird bei 200 eine Person 210 durch drei Kameras fotografiert. In verschiedenen Ausführungsformen können die Kameras Sensoren unterschiedlicher Wellenlängentypen sein, d.h. Nah-IR-, IR-Sensoren und es können zwei oder mehr solcher Kameras/Sensoren verwendet werden. Eine Vorderkamera 220 wird verwendet, um eine Vordergesichtslandschaft zu erfassen. Die Vorderlandschaft oder Ansicht wird unter Verwendung einer ausgereiften 2D-Gesichts-ID-Technologie analysiert, die bis zu 20 Grad an Kopfausrichtung zulassen kann. Das System wird mit einer oder mehreren anderen Außenkameras aufgestockt, um den übrigen Bereich, d.h. 20 bis 90 Grad, abzudecken, um die Profilansichten zu erfassen. Eine erste Außenkamera 225 wird in einem Winkel von ungefähr 20 Grad von der Vorderkamera, wie bei 250 angegeben, gezeigt. Die erste Kamera wird bei 230 auch in einer zweiten Position bei ungefähr 90 Grad von der Vorderkamera gezeigt. In ähnlicher Weise werden auf einer gegenüberliegenden Seite von der ersten Außenkamera 225 eine zweite Außenkamera 240 bei 20 Grad und 245 bei 90 Grad gezeigt. Die Außenwinkel können je nach Wunsch variiert werden, um optimale Ergebnisse zu erhalten.
  • Die Anordnung der Kameras und die Eigenschaften von jeder Kamera können basierend auf heuristischen geometrischen Beobachtungen variieren, um diejenigen zu erhalten, die für diese Anwendung die zweckmäßigsten sind. Die Winkel können ausgewählt werden, um die zuverlässigste geometrische Triangulation der Gesichtsinformationen bereitzustellen. Die Höhe der Kamera und ihre Position in Bezug auf den Kartenleser können auch basierend auf der Gestaltung des Kontrollpunkts variieren.
  • Als Auswahlmöglichkeit kann das System ausgeführt werden, um automatisiertes Passenger Profiling zu umfassen, sowie, um einen systemintegrierten Ansatz zur Begegnung irgendwelcher Gefahren bereitzustellen. Alle abgefertigten nicht übereinstimmenden Passagiere, die das automatisierte Abfertigungssystem verwenden, können einem Profiltest unterzogen werden. Der Profiltest kann ausgelöst werden, wenn keine perfekte Übereinstimmung mit der Person in der Datenbank vorlag. Die nicht übereinstimmenden Passagiere werden in eine andere Kategorie getrennt, die ein Sicherheitsrisiko darstellen und weitere Untersuchungen rechtfertigen kann.
  • Die Verifikationsstation 120 wird in 3 ausführlicher gezeigt. Die Anordnung besteht aus einem Kartenscannersystem 304 (Steuergerät, digitaler Kartenleser und Proximity-Karten), einem Netz von Kameras 305, einem Satz von Lichtern 306, Kabeln zum Verbinden der Kameras und des PC-Hosts mit dem Netz, einem Videostreamer, einem lokalen Netz und einem Verifikationsserver, die alle bei 304 dargestellt werden. In einer anderen Ausführungsform kann der Satz von Lichtern verwendet werden, um falls notwendig reichlich Licht bereitzustellen, damit die Kameras Bilder der Person von guter Qualität erfassen können. Alle Videokameras können von einem Typ mit festem Sehfeld sein. Die Ausgänge der Kameras werden in den Videostreamer eingegeben, der die Videobilder digitalisiert und komprimiert. Der Videostreamer ist mit dem lokalen Netz verbunden und stellt so dem Verifikationsserver digitalisierte Videoströme bereit. Der Videoserver speichert die Videoströme und weist die Fähigkeit auf, Video basierend auf Zeitstempeln abzurufen und anzuzeigen. Der Verifikationsserver 304 ermittelt die Gesichts-ID der Person und führt einen Abgleich gegen eine sichere Datenbank von registrierten Einzelpersonen durch. Die Video- und Verifikationsserver werden als einer kombiniert. Ein Hostrechner 308 ist in der Nähe des Kontrollpunkts positioniert.
  • Es sind Regeln bestimmt, von denen die Versuchsstandarchitektur zu konstruieren ist.
    • Kategorie 1: ein „registriertes Mitglied": ist ein Passagier, der sich in der Vergangenheit mit einem aktualisierten Profil im System registriert hat.
    • Kategorie 2: ein „neues Mitglied": ist ein Passagier, der sich zum ersten Mal in dem Programm registriert.
    • Kategorie 3: ein „abgelaufenes Mitglied": ist ein vorheriges „registriertes Mitglied", dessen Registrierung abgelaufen ist, da er/sie das System während eines Zeitraums nicht verwendet hat oder Änderungen an seinem/ihrem Profil, z.B. eine Änderung der Adresse oder der Telefonnummer, vorgenommen wurden.
  • Zur Durchsetzung der Sicherheitsregeln werden Kategorie 2 und 3 durch unser FACS-5-System in gleicher Weise als „Nichtmitglieder" behandelt und werden an einen manuellen Kontrollpunkt weitergeleitet. Von Nichtmitgliedern wird der Besuch in einem Registrierungsbüro verlangt, um sich zum ersten Mal zu registrieren, ihre Mitgliedschaft zu reaktivieren oder ihr Profil zu aktualisieren.
  • Basierend auf den vorhergehenden Definitionen wird ein sechsstufiges Verfahren für die Authentifizierung der automatisierten Kontrollpunkt-Passagierüberprüfung verwendet. Das Verfahren wird wie folgt ausgeführt:
    Abfertigung: Der/die Benutzerin beginnt bei 304 mit dem Scannen seiner/ihrer Identifikation (z.B. Vielfliegerkarte).
    Bilderfassung: Nachdem die Anwesenheit der Einzelperson durch die Aktivierung des Kartenlesers festgestellt wurde, löst das System die Erfassung mehrerer Bilder 320 des Passagiers durch die Kamera zur Gesichts-ID-Verarbeitung aus.
    Profilabruf: Das FACS-5 ruft bei 310 das Profil der Person von einer Serverdatenbank mit spezifischen Informationen ab, z.B. Name, Adresse, Telefon, Foto, und übergibt diese Informationen an die Verifikationssoftware des FACS-5-Rechners zur ID-Verifikation weiter.
    Gesichts-ID: Der Bildverarbeitungs-Bestandteil des Systems konstruiert bei 325 ein 3D-Modell der Person und bereitet bei 330 eine 3D-Gesichts-ID (z.B. bildbasierte Merkmalvektoren) zur Eingabe in die Gesichtsverifikationssoftware vor.
    Mitgliedschaftsverifikation: Wenn bei 335 die Mitgliedschaft des Passagiers bestätigt wird, dann wird die Gesichts-ID des Passagiers an den Gesichtsverifikationsmechanismus 340 gesendet. Andernfalls wird dem Passagier die Abfertigung unter Verwendung eines Gesichtsverifikationsmechanismus 340 verweigert und er wird zum Passieren an einen manuellen Kontrollpunkt 345 weitergeleitet.
    Gesichts-ID-Verifikation: Nur die Gesichts-ID-Verifikation der Passagiere mit gültiger Mitgliedschaft wird verarbeitet. Nach dem Abgleich bei 350 wird die Einzelperson authentifiziert und zum Passieren durch den Zugangspunkt 355 geleitet. Bei einer Nichtübereinstimmung wird die Einzelperson abgelehnt und zum Passieren an den manuellen Kontrollpunkt 345 verwiesen.
  • Der Gesichtsverifikationsmechanismus 340 wird in 4 mit mehr Ausführlichkeit gezeigt. Er berücksichtigt Informationen von sowohl Vorderansichten als auch Profilansichten der Personen, die erhalten werden, wie bei 405 angezeigt. Mehrere Bilder werden für die Vorder- und Profilansicht erhalten und bei 410 wird der beste Bildsatz von jedem (zu unterschiedlichen Zeitpunkten erfassten) aufeinander folgenden Rahmen ausgewählt. Die unterschiedlichen Ansichten stellen die Fähigkeit bereit, unterschiedliche Bänder zu fusionieren, um die Gesichtserkennung bei 415 zu optimieren.
  • In einer Ausführungsform wird Hauterkennung verwendet, um tatsächliche Merkmale von Gesichtern zu gewinnen und versteckte Teile (z.B. Teile von Gesichtern mit viel Schminke, Haar, usw.) zu beseitigen. Schwere Rechenverfahren sind nicht erforderlich und so ist der Verifikationsmechanismus gut für die kontrollpunktüberprüfungs- und authentifizierungsartige Anwendung geeignet.
  • Ein 3D-Gesichtsmerkmalvektor, wie in 420, 425 und 430 dargestellt, wird von den drei unabhängigen Sensorausgängen konstruiert. Eine Kamera wird an der Vorderlandschaft der Gesichtsansicht positioniert und die anderen zwei Kameras sind in zwei optimalen Winkeln positioniert, um sowohl die rechten als auch die linken Profile der Person zu erfassen, wie vorhergehend beschrieben. Die geometrischen Informationen des Profils, das durch die zwei Kameras auf den Seiten erfasst wird, werden zum Normalisieren des Ausgangs der Vorderkamera unter Verwendung einer Musterabgleichtechnik verwendet. Der normalisierte Merkmalvektor, der vom Vordergesicht gewonnen wird, verbessert die Leistung des 2D-Gesichts-ID-Verifikationstools.
  • In einer Ausführungsform wird jede der Ansich ten durch einen separaten Verifikationsmechanismus unter Verwendung von Daten, die von einer Datenbank 450 erhalten werden, ausgeführt, die die Registrierungsinformationen enthält, wie in 435, 440 und 445 angezeigt. Profilbasierende Merkmalsätze werden zur Analyse von Merkmalen verwendet, die von Bildern der Sensoren oder Kameras erhalten werden, die Profilbilder bereitstellen. Solche Merkmalsätze können einige unterschiedliche Merkmale aufweisen, die bei einem Vorderbild nicht verfügbar sind, wie beispielsweise die Entfernung von der Nase zum Ohr und Gesichtshaarmerkmale, die von der Vorderansicht nicht festgestellt werden können. Weitere Details für ein Beispiel eines Verifikationsmechanismus für einen profilbasierten Merkmalssatz werden unten dargelegt.
  • In einer Ausführungsform wird Local Feature Analysis (LFA) verwendet, um das Vorderbild zu analysieren. Diese Technik gewinnt und analysiert lokale Gesichtsmerkmale wie Augen, Nase, Wangen, Mund, Kinn und die Art und Weise, in der sie das Gesicht bilden. Die LFA-Technik kann durch Normalisieren der erfassten Vorderansicht unter Verwendung der geometrischen Informationen von den erfassten Profilen ausgebaut werden. Diese einzigartige LFA-Technologie stellt zusätzliche Zuverlässigkeit bereit, wenn sie auf normalisierte Gesichtstemplates angewandt wird. Viele LFA-Tools, wie beispielsweise FaceIt von Identix, sind im Handel erhältlich (in einer anderen Ausführungsform wird die FaceVacs-Lösung von Cognitec System verwendet). Geometrische Informationen können verwendet werden, um den Merkmalssatz auszubauen, der in einem Eins-Zu-Eins-Abgleichverfahren verwendet wird; dies verringert die Quellen von Fehlern aufgrund von Abweichungen in der Vorderansicht.
  • Bei einer steigenden Anzahl von Bestandteilen im Merkmalssatz vergrößert sich die Distanz zwischen einer Person und anderen Templates, wodurch eine Über einstimmung des Paares offensichtlicher wird. Ein Verfahren 455 des gewichteten Mittelns wird verwendet, um die Ergebnisse des Drei-Zu-Eins-Verfahrens zu kombinieren, das auf die drei Ansichten angewandt wird. Zusätzlich werden lokale Merkmale oder Knotenpunkte, die von den Profilansichten gewonnen werden, weniger durch Gesichtausdrücke beeinträchtigt. Ein Beispiel für einen Knotenpunkt ist das Kinn.
  • In einer Ausführungsform umfasst die Gesichtserkennung Gesichts-Kopf-Bewegungserkennung. Die Kopfbewegung, die nicht auf die Kopfsilhouette beschränkt ist (Kopfbewegung reicht nicht aus, um ein tatsächliches Gesicht von einem maskierten Gesicht zu unterscheiden), umfasst stattdessen die Ermittlung von relativ geringen Bewegungen der Orientierungspunkte des Gesichts in Bezug auf die Gesichtslandschaft, als Ergebnis von Augenblinzeln, lokalen Kinnbewegungen und unterschiedlichen Gesichtausdrücken.
  • In einer Ausführungsform wird zur Anpassung an Gesichtsveränderungen über die Zeit Autoregression verwendet. Wenn eine Übereinstimmung gefunden wird, werden ältere Informationen im Profil durch neue Informationen ersetzt, die während des Kontrollpunktverfahrens erhalten werden. Diese neuen Informationen können auch schwerer gewichtet werden als die älteren Informationen, was auch als zeitliche Gewichtung bezeichnet wird. Die Informationen können für Merkmale charakteristisch sein wie vorhergehend beschrieben. Weitere Informationen können während des Registrierungsverfahrens für mehrere Bilder gespeichert werden und ein gewichtetes Mittel kann verwendet werden, um die Übereinstimmung von gegenwärtigen Kontrollpunktansichten zu bestimmen. Wenn das Mitglied den Dienst über die Zeit verwendet, können ältere Merkmale durch neuere Sätze ersetzt werden, die während der Verwendung des Kontrollpunktverfahrens gemessen werden. Die Gewichtungen können wie gewünscht angepasst werden, um die Leistung zu optimieren. Eine zu drastische Veränderung ergibt eine Nichtübereinstimmung und das Leiten an eine manuelle Kontrollpunktstation. Eine solche Autoregressionsmodellierung sorgt für die Kompensation von langsamen Veränderungen in der Erscheinung aufgrund von Alterung, Gewichtsverlust/Zunahme und anderen allmählichen physischen Veränderungen.
  • In 5 wird ein Blockdiagramm eines Computersystems gezeigt, das die Programmierung für die Durchführung des vorhergehenden Algorithmus ausführt. Eine allgemeine Rechnervorrichtung in der Form eines Computers 510 kann eine Verarbeitungseinheit 502, einen Speicher 504, einen Wechselspeicher 512, und einen Nichtwechselspeicher 514 umfassen. Der Speicher 504 kann einen flüchtigen Speicher 506 und einen nichtflüchtigen Speicher 508 umfassen. Der Computer 510 kann eine Vielzahl von computerlesbaren Medien, wie beispielsweise einen flüchtigen Speicher 506 und einen nichtflüchtigen Speicher 508, einen Wechselspeicher 512 und einen Nichtwechselspeicher 514 aufweisen oder Zugang zu einer Rechnerumgebung haben, die dies umfasst. Der Computerspeicher umfasst RAM, ROM, EPROM & EEPROM, Flash-Speicher oder andere Speichertechnologien, CD-ROM, digitale vielseitige Platten (Digital Versatile Disks – DVD) oder andere optische Plattenspeicher, Magnetkassetten, Magnetbänder, Magnetplattenspeicher oder andere magnetische Speicher, oder irgendein anderes Medium, das in der Lage ist, computerlesbare Befehle zu speichern. Der Computer 510 kann eine Rechnerumgebung umfassen, die einen Eingang 516, Ausgang 518 und eine Kommunikationsverbindung 520 umfasst, oder Zugang dazu haben. Der Computer kann unter Verwendung einer Kommunikationsverbindung zur Verbindung mit einem oder mehreren entfernt gelegenen Computern in einer Netzumgebung arbeiten. Der entfernt gelegene Computer kann einen Personalcomputer, Server, Router, Netz-PC, eine Peervorrichtung oder einen anderen gewöhnlichen Netzknoten oder dergleichen umfassen. Die Kommunikationsverbindung kann ein lokales Netz (Local Area Network – LAN), ein Weitbereichsnetz (Wide Area Network – WAN) oder andere Netze umfassen.
  • Computerlesbare Befehle, die auf einem computerlesbaren Medium gespeichert sind, können durch die Verarbeitungseinheit 502 des Computers 510 ausgeführt werden. Eine Festplatte, CD-ROM und RAM sind Beispiele von Gegenständen, die ein computerlesbares Medium umfassen. Zum Beispiel kann ein Computerprogramm 525, das in der Lage ist, eine generische Technik zum Ausführen von Zugangskontrollüberprüfungen für Datenzugriff und/oder zum Ausführen einer Operation auf einem der Server in einem COM-basierten System gemäß den Lehren der vorliegenden Erfindung auf einer CD-ROM enthalten sein und von der CD-ROM auf eine Festplatte geladen werden. Die computerlesbaren Befehle ermöglichen es dem Computersystem 500, generische Zugangskontrollen in einem COM-basierten Computernetz bereitzustellen, das viele Benutzer und Server aufweist.
  • Beispiel eines Verifikationsmechanismus für profilbasierten Merkmalssatz
  • Ein 3D-Objekt kann eine von einer Vielzahl von Erscheinungen annehmen, wenn es in einen 2D-Bildbereich projiziert wird. Dies macht das Problem der Gesichtsverifikation in einem 2D-Bereich unter verschiedenen Beleuchtungsbedingungen und Haltungen zu einem schwierigen Problem. Es kann sein, dass die perspektivische Ansicht der Vordergesichtsgeometrie, wie in den Rahmen erfasst, nicht mit der durch den 2D-basierten Gesichts-ID-Mechanismus erwarteten Geometrie übereinstimmt. Im Gegensatz zur Registrierung werden bei der Laufzeit schräge, geneigte und ausgerichtete Ansichten der Vorderansichtspunkte erwartet. Die Schätzung der Ausrichtung der ebenen Gesichtsfläche ist ein wesentlicher Bestandteil dieses Problems. Zum Beispiel werden die Verfahren der Segmentierung, des Gewinnens der Merkmale und der Klassifizierung beträchtlich vereinfacht, wenn die Auswirkungen der perspektivischen Projektion zuerst beseitigt werden, wodurch der Krümmungseffekt der tatsächlichen lokalen Gesichtsmerkmale verringert wird. Der Stand der Technik für Gesichtsidentifikationen beruht hauptsächlich auf einer solchen Analyse der lokalen Merkmale, die leicht durch diese Ausrichtungen beeinträchtigt werden. Es steht außer Frage, dass diese Winkelabweichungen das Scheitern der meisten bestehenden zuverlässigen 2D-Gesichts-ID-Systeme verursachen und das Problem wird in der Literatur gut erkannt. Es ist erwünscht, eine Gesichts-ID bereitzustellen, die weniger beeinträchtigt wird, wenn sie mit diesen Winkelabweichungen vom normalen Vordergesicht konfrontiert wird. Das System und der technische Ansatz hierin führen eine Rückgewinnung der tatsächlichen Vordergesichtsebene von der Abbildungsebene (d.h. Bildebene, wie durch ein 2D-Kamerasystem erfasst) durch.
  • Ein modellbasierter Ansatz wird bereitgestellt, um ein geometrisches Modell zu gewinnen, ohne eine tatsächliche 3D-CAD-Darstellung des Gesichts zu konstruieren. Das System korrigiert etwaige Dejustierungen unter Verwendung perspektivischer Projektionen und Triangulationsmechanismen unter Verwendung von drei Vorder- und Profilansichten eines Kamerasystems. Zusätzlich zur den Ausrichtungen der 2D-Darstellung der Vorderlandschaft, sorgt die Erweiterung der Gesichtsmerkmalvektoren für einen besseren Abgleich von Identitäten.
  • Gesichtserkennung: Viele Systeme funktionieren zum Identifizieren von Gesichtern in überladenen Szenen durch Verwendung eines Erkennungs-Vorverarbeitungsalgorithmus vor der Gesichtsidentifikation. In einer Ausführungsform der vorliegenden Erfindung wird das Erfordernis eines Gesichtserkennungsalgorithmus vermieden, indem die Gesichtsbilder vor einem einheitlichen Hintergrund in einer Anordnung, in der das Gesicht den größten Teil des Bildrahmens einnimmt, aufgenommen werden. Da dieses System auf einer kontrollierten Szene mit einem vereinfachten nicht komplexen Hintergrund basiert, wird davon ausgegangen, dass die Gesichtserkennung ein einfaches Verfahren ist und dass sie unter Verwendung der 2D-Gesichts-ID-Lösung durch Zuordnen der Augen gelöst wird.
  • Kontrollierte Beleuchtungsbedingungen: Das System ist auf ein Gesichts-ID-Verifikationsschema fokussiert, um die variierende Erscheinung der Gesichts-ID zu handhaben, die hauptsächlich auf Haltungen und Gesichtsausdruck und Okklusion beruht. Beleuchtung ist kein Problem, da dies eine kontrollierte Szene ist und das Portal einem kontrollierten entschärften Licht ausgesetzt ist.
  • Haltungsauswahl: Die erste Stufe der Verarbeitung in der Gesichtsverifikationsarchitektur ist unabhängig vom Gesichts-ID-Verifikationsmechanismus und ist auf die Haltung (d.h. Translation und Ausrichtung des Kopfes) beschränkt. Die Orte der Knotenpunkte innerhalb der drei erfassten Bilder werden verwendet, um Eingangsgesichter in eine grobe geometrische Ausrichtung mit der Gesichts-ID-Ansicht der Datenbank zu bringen, wie unten beschrieben. Haltungsschätzung wird als ein Filter auf die Datenbankansichten verwendet, indem nur diejenigen Ansichten ausgewählt werden, deren Haltung ähnlich ist wie diejenige der Eingangshaltung. Haltungsschätzung sollte als ein Optimierungsfilter zur Verbesserung gegenüber dem Angebot des 2D-Systems betrachtet werden.
  • Normalisierungsverfahren: Normalisierung wird auf zwei Fronten durchgeführt: 1) Schätzung der Kopfausrichtung, die eine bestimmte Haltungsansicht in Bezug auf die Vorderkamera bestimmt, 2) zusätzlich zur Ausrichtung und Normalisierung, die am Bildort durchgeführt wird, um die Kopfausrichtung zu korrigieren, wird die Gesichtsmerkmalerweiterung für dejustierten Abtastungen der Person betrachtet, die in Bezug auf die 2D-Vorderansicht unter einer beträchtlichen Fehlausrichtung leiden. Eine weitere Skalierung und Positionierung wird innerhalb des 2D-Gesichts-ID-Mechanismus ausgeführt.
  • 2D-Lösung: 2D-Gesichts-ID ist ein Ansatz mit einem parameterisierten Modell unter Verwendung der Analyse lokaler Merkmale, d.h. Identix oder Cognitec. Irgendeine andere zuverlässige 2D-LFA-Analysesituation könnte als Teil der 3D-Lösung verwendet werden.
  • Speicheranforderung: Die 2D-Lösungen können konfiguriert werden, um viele unterschiedliche Muster-2D-Ansichten der Einzelperson zu speichern. Dies wird allgemein als ansichtsbasierter Ansatz bezeichnet. Der ansichtsbasierte Ansatz handhabt die Veränderung in der Erscheinung, indem einfach viele 2D-Ansichten der Einzelperson gespeichert werden. Wenn versucht wird, eine neue Eingangsansicht zu erkennen, versucht der Erkenner einfach den Eingang gegen eine Beispielansicht abzugleichen, die in Haltung und Beleuchtung ausreichend nahe liegt. Da Haltungs-Beleuchtungs-Parameterraum mehrdimensional ist, könnte die ausreichend dichte Bevölkerung dieses Raumes mit Beispielsansichten eine große Liste von erfassten Bildern erfordern. Zusätzlich steigt das Rechenverfahren, das erforderlich ist, um alle diese Ansichten zu bestätigen, exponentiell.
  • In verschiedenen Ausführungsformen des 3D-Systems basiert der Erfassungsmechanismus auf drei Kameras, die derart angeordnet sind, dass eine Kamera die Vorderansicht des Gesichtes abbildet, und zwei in einem Winkel angeordnet sind, der in Bezug auf die Normale des Gesichts symmetrisch ist, um die Ansichtspunkte des rechten und linken Profils abzudecken. Es wurde bereits bewiesen, dass eine einzige Kamera, die den Vorderansichtspunkt erfasst, zur Gesichtsidentifi kation nicht ausreichend sein kann, wenn das Gesicht nicht gut in der Feldansicht angeordnet ist. Das Hinzufügen von zwei Seitenkameras verbessert die Leistung wenn die Vorderkamera keine genaue Darstellung des Vorderansichtspunktes bereitstellen kann.
  • In einer Ausführungsform der vorliegenden Erfindung wird eine Folge von Rahmen bei einer Sequenz aufgegriffen und die beste 3D-Darstellung der Einzelperson wird von der Folge ausgewählt. Eine 3D-Darstellung wird durch das rechte und linke Profil und die Vorderbilder der zu einem Zeitpunkt (d.h. einer Zeit t entsprechend) erfassten Einzelperson bestimmt. Die beste Auswahl der 3D-Darstellung basiert darauf, welche Kombination eine genauere 2D-Darstellung der Vorderlandschaft mit dem geringsten Kopfausrichtungseffekt ergeben würde.
  • Um eine solche Auswahl auszuführen, werden zwei Parameter definiert, w(i, t) Breite zwischen den Augen, und H(i, t) ist der relative Ort des Mittelpunkts der Augen in Bezug auf den Mund im Gesicht. (i kennzeichnet Rahmenindizes und t kennzeichnet die Zeit).
  • Die 3D-Haltung wird derart ausgewählt, dass t0 = arg max{w(i, t), H(i, t)} über t, für i = 2oder,
    Figure 00200001
  • Der erste Parameter w(.,.) bestimmt Rahmen mit dem kleinsten Kopfausrichtungswinkel, und H(.,.) bestimmt Rahmen mit dem kleinsten Elevationswinkel (Neigungswinkel).
  • Nachdem eine 3D-Haltung der Einzelperson erfasst wurde, weist ein darauf folgendes Verfahren eine zweifache Lösung auf:
    Normalisierte 2D-Lösung: Die geometrischen Informationen des Profils, das durch die zwei Kameras auf den Seiten erfasst wurde, wird verwendet, um den Ausgang der Vorderkamera unter Verwendung eines Musterabgleichs (d.h. Teilbildregistrierung) und einer Krümmungstechnik zu normalisieren. Der normalisierte Merkmalvektor, der vom Vordergesicht gewonnen wird, wird die Leistung des 2D-Gesichts-ID-Verifikationtools in hohem Maße verbessern.
  • Der Ansatz besteht darin, den Gesichtsausrichtungswinkel unter Verwendung von Triangulation in Bezug auf die Vorderebene zu bestimmen, und erforderliche Korrekturen/Krümmungen vorzunehmen, um eine genauere Darstellung der Vorderlandschaft zu erzeugen. Diese korrigierte normalisierte Vorderlandschaft wird dann in den 2D-Gesichts-ID-Mechanismus eingegeben.
  • Erweiterte Merkmale: Geometrische Informationen werden verwendet, um den Merkmalssatz zu erweitern, der in einem Eins-Zu-Eins-Abgleichverfahren verwendet wird; dies wird die Quellen von Fehlern aufgrund von Veränderungen in der Vorderansicht verringern. Bei steigender Anzahl von Bestandteilen im Merkmalssatz nimmt die Distanz zwischen einer Person und anderen Templates zu, wodurch eine Paarübereinstimmung offensichtlicher wird. Ein Verfahren mit einem gewichteten Mittel wird verwendet, um die Ergebnisse in den Eins-Zu-Eins-Verfahren zu kombinieren, die auf die drei Ansichten angewandt werden.
  • 2D-Normalisierungslösung
  • Falls das Erfassen einer vernünftigen Vorderhaltung des Gesichtes in jeder der Kameras misslingt, wird die Triangulation beträchtliche Ausrichtun gen, Schrägen und Neigungen nicht ausgleichen. Es kann auch ein anderer technischer Ansatz, der auf den perspektivischen Ebenenausrichtungen basiert, verwendet werden. Unter der Annahme, dass das Registrierungsbild die tatsächliche Vorderansicht ist (da es in einer sehr kontrollierten Umgebung aufgenommen wurde), wird geschätzt, dass die Ausrichtung im Raum der ebenen Gesichtsfläche (2D-Raum, der durch das Registrierungsbild dargestellt wird) von einem einzigen Vorderabbildungs-Ansichtspunkt während der Laufzeit erfasst wurde. (Dieses einzige Vorderbild mit etwas Ausrichtung des Kopfes wurde als der beste verfügbare Vorderrahmen dargestellt, der die vorhergehend bestimmten maximalen Breiten- und Höhenparameter bereitstellt). Ein genaueres Modell des erfassten Vorderbildes und seiner entsprechenden Projektion in der Abbildungsebene werden abgeleitet. Die Ausrichtung im Raum der ebenen Gesichtsfläche von einer einzigen Vorderperspektive der Kamera wird geschätzt.
  • Zum Lösen der perspektivischen Transformation beinhaltet die Analyse eine Teildifferentialgleichung hoher Ordnung. Nachfolgend wird ein perspektivisches Pinhole-Projektionsmodell verwendet, um eine Schätzung der geometrischen Ansicht eines tatsächlichen Messgeräts von der Kameraperspektive bereitzustellen.
  • Ein Kameraebenen-Koordinatensystem x →c = (xc, yc) (Koordinaten der Abbildungsebene) und die tatsächliche Ebenenkoordinate x →0 = (x0, y0) des Gesichts der Einzelperson werden zugeordnet. Der Elevationswinkel des Vektors der Gesichtsnormalen wird verwendet, um die vertikale Ausrichtung des Gesichts darzustellen. Der Elevationswinkel α ist der Winkel zwischen der Gesichtsnormalen und der Achse des Kamerasystems.
  • Der Neigungswinkel β wird verwendet, um den Winkel zwischen der X-Achse und der Projektion der Gesichtsnormalen auf die Abbildungsebene anzuzeigen. θ wird angezeigt, um dem Winkel zwischen dem Mittelpunkt der Augen und der Rückprojektion des Bildneigungsvektors (cos β, sin β) auf der Gesichtsebene zu entsprechen. Der Neigungsvektor wird mit dem Elevationswinkel verbunden und zeigt an, in welchem Ausmaß die Fläche des Gesichts von der Perspektive der Abbildungsebene geneigt ist. So ist die Koordinatentransformation vom tatsächlichen Messgerät zur Abbildungsebene gegeben durch
    Figure 00230001
  • Zum Gewinnen der tatsächlichen Koordinaten eines Punktes P(x, y), der in der Abbildungsebene erfasst wird, werden die ursprünglichen Koordinaten als eine inverse Transformation eines Punktes auf der Bildebene zu einem Punkt auf der Messgerätoberflächenebene aufgrund der Perspektivenrückprojektion wie folgt ausgedrückt:
    Figure 00230002
  • Es werden mehr als nur drei Gleichungen erforderlich sein, um die drei Winkel aufzulösen. Nachfolgend werden zwei vereinfachte Analysen durch das Aufstellen zusätzlicher Annahmen dargestellt.
  • Es wird angenommen, dass die Rückprojektion auf die Gesichtsebene des Abbildungsneigungsvektors auf dem Mittelpunkt der Augen überlagert ist, d.h. θ = 0; unter dieser Bedingung besteht die Lösung des Problems aus zwei Schritten:
    Zuerst wird der Neigungswinkel unter Verwendung des folgenden Polynoms aufgelöst sin2(β)(x2 + y2) + 2xy0sin(β) + (y20 – y2) = 0;
  • Nachdem β berechnet wurde, wird sein Wert in der Gleichung (2) ersetzt, um den Elevationswinkel zu berechnen
    Figure 00240001
  • In den meisten Fällen in der Praxis werden anstelle der Auflösung dieser unbekannten Winkel unter Verwendung der vorhergehenden Gleichungen und Ansichtstriangulationen die Kerntransformationen unter Verwendung von empirischem Datenmapping geschätzt. Zum Beispiel wird eine LUT für alle möglichen Ausrichtungen der Augen unter Berücksichtigung der Tatsache, dass die Kameras in Bezug auf die Vordergesichtslandschaft symmetrisch sind, definiert.
  • Zum Schätzen der Haltung des Gesichts in den Profilbildern (die unter Verwendung der rechten und linken Kameras erfasst werden) werden die relativen Lagen der Augen im Gesicht verwendet. Wenn ein menschlicher Kopf gegeben ist, der von oben angesehen wird, kann die Distanz d zwischen den Projektionen des Mittelpunktes der Augen (d.h. entspricht auch der Lage der Nase) und die Normale der Bildebene für sowohl die rechten als auch die linken Profilkameras berechnet werden. Mit null Ausrichtungen sollte die Distanz für beide Kameras identisch sein und sie ist wie folgt definiert:
    Figure 00250001
    wo r der Kopfradius ist. Irgendeine Abweichung zwischen θ1 und θ3 deutet darauf hin, dass der Kopf nicht auf die Abbildungsebene ausgerichtet ist (in Bezug auf die Vorderkamera). Zum Beispiel wird angenommen, dass der Kopf mit einem Winkel δ ausgerichtet ist: dann
    Figure 00250002
  • Der Kopf ist nach links geneigt; daher sind die Profilbilder nicht mehr symmetrisch. Die Asymmetrie zwischen diesen zwei Bildern ist proportional zum Winkel der Kopfausrichtung. Die Winkelmessungen werden als Teil des Normalisierungsverfahrens des Vorderbildes verwendet.
  • Das Verhältnis zwischen den zwei Distanzen kann verwendet werden, um die unbekannte Variable r zu beseitigen. Dann wird eine Nachschlagetabelle erzeugt, um unterschiedliche nichtlineare Transformationen basierend auf den vorhergehenden Messungen zu bestimmen.
  • Diese nichtlineare Transformation trägt nicht nur der Kopfausrichtung sondern auch seiner Positionierung (Versatz) in Bezug auf die Normale der mittleren Vorderkamera Rechnung.
  • Nachdem die Transformation gemessen wurde, kann das erforderliche Verfahren zum Korrigieren der Krümmungsoperationen hinzugefügt werden, wenn das erfasste Bild etwas Winkelneigung oder Ausrichtung aufgrund von unkontrollierten Abtastbedingungen erfährt. Krümmungstechnologien lösen diese Art von Problemen. In diesem Rahmenwerk besteht mehr Steuerung der Abtastbedingungen während des Registrierens und beschränkte Steuerung während der Laufzeit.
  • 2D-Gesichts-ID-Mechanismus: Nachdem es normalisiert wurde, wird das Bild an einen 2D-Gesichts-ID-Mechanismus weitergeleitet. Local Feature Analysis (LFA) wird verwendet, um das Vorderbild zu analysieren. Diese Technik gewinnt und analysiert lokale Gesichtsmerkmale, wie beispielsweise die Augen, Nase, Wangen, den Mund, das Kinn und die Art und Weise, in der sie das Gesicht bilden. Die LFA-Technik wird durch Normalisieren der erfassten Vorderansicht unter Verwendung der geometrischen Informationen von den erfassten Profilen erweitert, wie vorhergehend beschrieben. Diese außergewöhnliche LFA-Technologie stellt zusätzliche Sicherheit bereit, wenn sie auf normalisierte Bildtemplates angewandt wird. Viele LFA-Tools, wie beispielsweise Facelt von Identix oder FaceVacs von Cognitec, sind im Handel erhältlich.
  • Merkmalerweiterung
  • Dieser Abschnitt stellt ein außergewöhnliches Gesichtserkennungssystem bereit, das sowohl Vorder- als auch Profilansichtsbilder berücksichtigt. Dieser Ansatz stellt den ersten Schritt zur Entwicklung einer Gesichtserkennungslösung dar, die auf einem tatsächlichen 3D-Modellansatz basiert. Ein Stereoabbildungsansatz verwendet geometrische Informationen zur Ansichtsnormalisierung und Krümmung und die Bildregistrierung basiert auf allgemeinen Musterabgleichtechniken.
  • In dieser Ausführungsform wird ein 2D-Gesichtsmerkmalvektor auf einen 3D-Gesichtsmerkmalvektor erweitert. Geometrische Informationen werden verwendet, um die Referenzdatenbank zu indizieren, um einige Übereinstimmungen schnell tabellarisch anzuordnen und die Authentifizierung von Einzelpersonen zu bestätigen, für die der 2D-Gesichts-ID-Mechanismus schlechte Ergebnisse geliefert hat (d.h. ungeeignet für Flughafensicherheits-Überprüfungsniveaus).
  • Das Verifikationsverfahren beginnt mit der Berechnung eines 3D-Merkmalvektors oder Modells für die Galeriebilder und die Abtastbilder. Die Modelle, die vom Galeriebild konstruiert werden, bilden die referenzindizierte Datenbank. Ein Index, der die Modelle basierend auf grundlegenden geometrischen Messungen gruppiert, die von den drei Rahmen gewonnen werden, wird für die Referenzdatenbank erzeugt. Dieser Index ermöglicht schnelle Zuordnungen der Personen in der Datenbank und ob die Abtastung zum passenden Datensatz gehört. Falls keine Profilübereinstimmung gefunden wird, wird die Profilähnlichkeits-Punktzahl von diesem spezifischen Merkmalvektor nullgesetzt. Wenn die Abtastung zur gleichen Galeriefamilie gehört, wird eine hohe Punktzahl verliehen, um eine perfekte Übereinstimmung widerzuspiegeln. Der letzte Schritt besteht darin, den 2D-Vorderpunktzahlvergleich mit dem Abfragemodell abzuwägen. Die Grundlagen der Profilpunktzahlen sind normalisierte Bildmerkmale, die aus den Profilbildern gewonnen werden. Es könnte irgendein stabiler Musterabgleichalgorithmus verwendet werden. In einer Ausführungsform wird eine Kreuzkorrelationstechnik verwendet. Das 2D-Vorderbild stellt basierend auf dem 2D-Gesichts-ID-Mechanismus separat eine Ähnlichkeitspunktzahl bereit, wie vorhergehend beschrieben.
  • Die Profilmerkmale umfassen die Lage von Schlüsselknotenpunkten auf dem Gesicht in einem 3D-Koordinatensystem. Die Profilansicht ist ähnlich wie die Verarbeitung der Vorderansicht, außer, dass im Vergleich zur Vorderlandschaft nur beschränkte Punkte verfügbar sind. Einige der Knotenpunkte sind abhängig von der relativen Lage der Spitze der Nase, des Kinns, der Augen und Ohren (wie erfasst) mit Bezug auf einen Bezugspunkt. In einer Ausführungsform wurde das Kinn als der Ursprungspunkt verwendet. Merkmalpunkte werden unter Verwendung von morphologischen Standardoperatoren, Musterabgleich und Low-Level-Bildanalysealgorithmen gewonnen. Alle Messungen werden dann mit Bezug auf die Silhouette der Kopfgröße normalisiert und die entsprechenden Messungen werden zum Datenbankpruning gewonnen. Musterabgleich wird verwendet, um Profilmerkmale zu gewinnen. Es kann irgendeiner von anderen typischen Ansätzen verwendet werden, um Profilmerkmale zu gewinnen. Es kann irgendeiner von anderen typischen Ansätzen verwendet werden, um die Knotenpunktspitzen unter Verwendung der Standardberechnung von lokalen Krümmungsextrema und geometrischen Tangenzbeschränkungen zu gewinnen.
  • In einer Ausführungsform weist eine Fusionsanalyse zwei Fusionsebenen auf. Profilmerkmale werden verwendet, um die Vorderlandschaft zu normalisieren. Dann wird der 2D-Merkmalvektor unter Verwendung einer Summe eines gewichteten Mittels der Ähnlichkeitspunktzahl mit zusätzlichen Profilmerkmalen erweitert, wie unten beschrieben.
  • Die letzte Stufe des vorgeschlagenen Verfahrens besteht in der Kombination aller Ergebnisse und der Einstufung der Simulation zur Authentifizierung. Die Entscheidung ist kombinatorisch und basiert sowohl auf der Vorder- als auch auf der Profilanalyse. Ein Ansatz mit einer Mittelgewichtung wird verwendet, um beide Ergebnisse unter Verwendung vorbestimmter Gewichtungen zu kombinieren. Die Endähnlichkeitspunktzahl ist wie folgt definiert:
    Figure 00280001
  • Wo σf die Ähnlichkeitspunktzahl der vorderbasierten Analyse ist. Die vorbestimmten Gewichtungen werden vor der Laufzeit empirisch berechnet.
  • Die Hinzufügung von 3D-Daten sollte die Leistung des Systems durch die vereindeutigenden Auswirkungen von dejustierten Ansichten verbessern. Diese Verbesserung wird in zwei Stufen ausgeführt. Zuerst die Normalisierung und Korrektur der Vorderlandschaft unter Verwendung der geometrischen Informationen, die im aus drei Kameras bestehenden System erfasst wurden. Zweitens die Erweiterung des Merkmalvektors durch Profilmessungen. Die Seitenkameras Stellen die 3D-Dimension bereit, z.B. Relief oder Tiefe des Gesichts, was in der 2D-Vorderansicht nicht verfügbar ist.
  • Schlussfolgerung
  • Ein automatisiertes System stellt Schnellüberprüfung von Besuchern durch sensible Zugangskontrollpunkte, z.B. Flughafenkontrollpunkte und Zugangskontrollpunkte an wichtigen Gebäuden, bereit. Das System setzt eine Investition in Technologie und ausgebildete Personen wirksam ein. Durch die Verwendung dieses Systems können Bediener/Wächter/Patrouillen ihre Ressourcen und Aufmerksamkeit auf unbekannte Profile konzentrieren. Ergebnis dieser Anstrengung ist, dass viele legitime Besucher/Reisende nie einen Agenten zu Gesicht bekommen, während sie diese Kontrollpunkte passieren. Das System wendet sich dem Erfordernis eines höchst zuverlässigen automatischen Kontrollpunkt-Schnellüberprüfungssystem zu, das die Aufgabe der positiven Identifikation von Mitgliedern und ihr Abgleichen mit ihren Fotos unter Verwendung einer Gesichts-ID-Technologie beschleunigt, um sie durch Zugangskontrollpunkte abzufertigen.
  • Die Mitgliedschaft kann nach einem Zeitraum ablaufen, um Änderungen im Gesicht mit der Zeit Rechnung zu tragen. Gesichtserkennung verwendet normalisierte Vorderanalyse während eines sechsstufigen Ver fahrens für Bestätigungen. Kopfbewegungsermittlung ist nicht auf Kopfsilhouettenbewegungen beschränkt (Kopfbewegung reicht nicht aus, um ein tatsächliches Gesicht von einem maskierten Gesicht zu unterscheiden), sondern sie umfasst die Ermittlung von relativ geringen Bewegungen von Orientierungspunkten im Gesicht als Ergebnis von Augenzwinkern oder unterschiedlichen Gesichtsausdrücken.
  • Sensorenfusion wird eingesetzt, um tatsächliche Merkmale des Gesichts zu gewinnen. In einer Ausführungsform wird zum Beispiel Hauterkennung verwendet, um tatsächliche Merkmale von Gesichtern zu gewinnen und versteckte Teile (z.B. Teile von Gesichtern mit viel Schminke, Haar, usw.) zu beseitigen.

Claims (10)

  1. Verfahren zum Abgleichen von Gesichtern, wobei das Verfahren Folgendes umfasst: Erhalten eines Bildes einer Vorderansicht (220) von einem abzugleichenden Gesicht; Erhalten eines Bildes einer Ansicht (230, 225, 240, 245) des abzugleichenden Gesichts aus einem Winkel weg von der Vorderansicht; Erzeugen von Bildmerkmalen (325, 330) von jedem der Ansichtsbilder; Vergleichen (340) von Bildmerkmalen von jedem Ansichtsbild mit einem Profil (310); und Bestimmen einer Übereinstimung (350) basierend auf den verglichenen Bildmerkmalen; dadurch gekennzeichnet, dass, vor dem Erzeugen der Bildmerkmale vom Vorderansichtsbild, das Vorderansichtsbild zuerst unter Verwendung der erzeugten Bildmerkmale vom Ansichtsbild, das aus einem Winkel erhalten wurde, normalisiert wird, um der Dejustierung des Gesichts im Vorderansichtsbild Rechnung zu tragen.
  2. Verfahren nach Anspruch 1, wobei das Vorderansichtsbild (220) und das Bild aus einem Winkel (230, 225, 240, 245) weg von der Vorderansicht (220) unterschiedliche Merkmale umfassen.
  3. Verfahren nach Anspruch 1, wobei das Profil (310) aktualisiert wird, wenn eine Übereinstimmung bestimmt wird, und wobei das Profil einen Satz von Merkmalen (330) umfasst, und wobei solche Merkmale basierend auf in den Ansichtsbildern identifizierten Merkmalen aktualisiert werden.
  4. Verfahren nach Anspruch 3, wobei ein Merkmal mehrere gewichtete Datenpunkte (415) umfasst.
  5. Verfahren nach Anspruch 4, wobei die neuesten Datenpunkte schwerer gewichtet werden.
  6. Verfahren nach Anspruch 2, wobei ein Merkmal des Bildes aus einem Winkel Distanzmessungen von der Nase, dem Ohr und anderen Orientierungspunkten zu einem relativen Knotenpunkt in der Gesichtslandschaft umfasst.
  7. Verfahren nach Anspruch 1, das ferner das Erhalten eines Bildes einer weiteren Ansicht (430) des Gesichts umfasst, das aus einem Winkel weg von der Vorderansicht (425) in der anderen Richtung von der anderen Winkelansicht (420) abzugleichen ist.
  8. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Lesen einer ID (304) für eine Person, die einen Sicherheitskontrollpunkt passieren möchte; wobei das abzugleichende Gesicht von der Person ist, die den Sicherheitskontrollpunkt (100) passieren möchte, und wobei das Profil (310) vorhergehend bestehende Merkmalssätze umfasst, die Informationen auf der ID entsprechen.
  9. Verfahren nach Anspruch 8, das ferner das Führen (115) der Person zu einer manuellen Sicherheitsstation (160) umfasst, wenn keine Übereinstimmung (350) besteht.
  10. System zum Abgleichen von Gesichtern, wobei das System Folgendes umfasst: Mittel (305) zum Erhalten eines Vorderansichtsbildes von einem abzugleichenden Gesicht; Mittel (305) zum Erhalten eines Ansichtsbildes des abzugleichenden Gesichts aus einem Winkel weg von der Vorderansicht; Mittel zum Erzeugen von Bildmerkmalen (330) von jedem der Ansichtsbilder; Mittel zum Vergleichen (340) von Bildmerkmalen von jedem Ansichtsbild mit einem Profil; und Mittel zum Bestimmen (350) einer Übereinstimmung basierend auf den verglichenen Bildmerkmalen; dadurch gekennzeichnet, dass Mittel zum Normalisieren des Vorderansichtsbildes unter Verwendung der erzeugten Bildmerkmale vom Ansichtsbild, das aus einem Winkel erhalten wurde, bereitgestellt werden, um der Dejustierung des Gesichts im Vorderansichtsbild Rechnung zu tragen, und dass das normalisierte Vorderansichtsbild den Mitteln zum Erzeugen von Bildmerkmalen (330) bereitgestellt wird.
DE602004005984T 2003-05-27 2004-05-26 Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten Active DE602004005984T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US446521 2003-05-27
US10/446,521 US7421097B2 (en) 2003-05-27 2003-05-27 Face identification verification using 3 dimensional modeling
PCT/US2004/016486 WO2005008570A2 (en) 2003-05-27 2004-05-26 Face identification verification using frontal and side views

Publications (2)

Publication Number Publication Date
DE602004005984D1 DE602004005984D1 (de) 2007-05-31
DE602004005984T2 true DE602004005984T2 (de) 2008-01-17

Family

ID=33451054

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602004005984T Active DE602004005984T2 (de) 2003-05-27 2004-05-26 Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten

Country Status (5)

Country Link
US (1) US7421097B2 (de)
EP (1) EP1629415B1 (de)
JP (1) JP2007516503A (de)
DE (1) DE602004005984T2 (de)
WO (1) WO2005008570A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020127880A1 (de) 2020-10-22 2022-04-28 Bundesdruckerei Gmbh Verfahren und anordnung zur optischen erfassung eines kopfes einer zu überprüfenden person an einer zutrittskontrollstation

Families Citing this family (194)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7343351B1 (en) 1999-08-31 2008-03-11 American Express Travel Related Services Company, Inc. Methods and apparatus for conducting electronic transactions
US7953671B2 (en) 1999-08-31 2011-05-31 American Express Travel Related Services Company, Inc. Methods and apparatus for conducting electronic transactions
US7889052B2 (en) 2001-07-10 2011-02-15 Xatra Fund Mx, Llc Authorizing payment subsequent to RF transactions
US8049597B1 (en) 2000-01-10 2011-11-01 Ensign Holdings, Llc Systems and methods for securely monitoring an individual
US7725427B2 (en) 2001-05-25 2010-05-25 Fred Bishop Recurrent billing maintenance with radio frequency payment devices
US9024719B1 (en) 2001-07-10 2015-05-05 Xatra Fund Mx, Llc RF transaction system and method for storing user personal data
US8001054B1 (en) 2001-07-10 2011-08-16 American Express Travel Related Services Company, Inc. System and method for generating an unpredictable number using a seeded algorithm
US9454752B2 (en) 2001-07-10 2016-09-27 Chartoleaux Kg Limited Liability Company Reload protocol at a transaction processing entity
US9031880B2 (en) 2001-07-10 2015-05-12 Iii Holdings 1, Llc Systems and methods for non-traditional payment using biometric data
US20040236699A1 (en) 2001-07-10 2004-11-25 American Express Travel Related Services Company, Inc. Method and system for hand geometry recognition biometrics on a fob
US8548927B2 (en) 2001-07-10 2013-10-01 Xatra Fund Mx, Llc Biometric registration for facilitating an RF transaction
US7668750B2 (en) 2001-07-10 2010-02-23 David S Bonalle Securing RF transactions using a transactions counter
US7735725B1 (en) 2001-07-10 2010-06-15 Fred Bishop Processing an RF transaction using a routing number
US7249112B2 (en) 2002-07-09 2007-07-24 American Express Travel Related Services Company, Inc. System and method for assigning a funding source for a radio frequency identification device
US8284025B2 (en) 2001-07-10 2012-10-09 Xatra Fund Mx, Llc Method and system for auditory recognition biometrics on a FOB
US8294552B2 (en) 2001-07-10 2012-10-23 Xatra Fund Mx, Llc Facial scan biometrics on a payment device
US7303120B2 (en) 2001-07-10 2007-12-04 American Express Travel Related Services Company, Inc. System for biometric security using a FOB
US7360689B2 (en) 2001-07-10 2008-04-22 American Express Travel Related Services Company, Inc. Method and system for proffering multiple biometrics for use with a FOB
US7705732B2 (en) 2001-07-10 2010-04-27 Fred Bishop Authenticating an RF transaction using a transaction counter
US6805287B2 (en) 2002-09-12 2004-10-19 American Express Travel Related Services Company, Inc. System and method for converting a stored value card to a credit card
US8049812B2 (en) * 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US8705808B2 (en) * 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8085993B2 (en) * 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
US8064647B2 (en) * 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US7933507B2 (en) 2006-03-03 2011-04-26 Honeywell International Inc. Single lens splitter camera
US8045764B2 (en) 2005-01-26 2011-10-25 Honeywell International Inc. Expedient encoding system
US20050054352A1 (en) * 2003-09-08 2005-03-10 Gyora Karaizman Introduction system and method utilizing mobile communicators
GB0326186D0 (en) * 2003-11-10 2003-12-17 Omniperception Ltd 2d face authentication system
IL159828A0 (en) * 2004-01-12 2005-11-20 Elbit Systems Ltd System and method for identifying a threat associated person among a crowd
US7697026B2 (en) * 2004-03-16 2010-04-13 3Vr Security, Inc. Pipeline architecture for analyzing multiple video streams
US7693308B2 (en) * 2004-03-24 2010-04-06 Fujifilm Corporation Authentication system, authentication method, machine readable medium storing thereon authentication program, certificate photograph taking apparatus, and certificate photograph taking method
US20050220326A1 (en) * 2004-04-06 2005-10-06 Rf Intelligent Systems, Inc. Mobile identification system and method
EP1741048A2 (de) * 2004-04-06 2007-01-10 RF Intelligent Systems, Inc. Tragbarer computer mit erfassung von biometrischen 2d-/3d-bilddaten
US20060000895A1 (en) * 2004-07-01 2006-01-05 American Express Travel Related Services Company, Inc. Method and system for facial recognition biometrics on a smartcard
US7318550B2 (en) 2004-07-01 2008-01-15 American Express Travel Related Services Company, Inc. Biometric safeguard method for use with a smartcard
IL162921A0 (en) * 2004-07-08 2005-11-20 Hi Tech Solutions Ltd Character recognition system and method
SE528068C2 (sv) 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
US20060056667A1 (en) * 2004-09-16 2006-03-16 Waters Richard C Identifying faces from multiple images acquired from widely separated viewpoints
US7315368B2 (en) * 2004-09-22 2008-01-01 Honeywell International Inc. Spectra generator for test and calibration
EP1647918A1 (de) * 2004-10-13 2006-04-19 SkiData AG Zugangskontrollsystem
US7602942B2 (en) * 2004-11-12 2009-10-13 Honeywell International Inc. Infrared and visible fusion face recognition system
US7469060B2 (en) 2004-11-12 2008-12-23 Honeywell International Inc. Infrared face detection and recognition system
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
US20060120571A1 (en) * 2004-12-03 2006-06-08 Tu Peter H System and method for passive face recognition
US20060136734A1 (en) * 2004-12-21 2006-06-22 Eastman Kodak Company Identification display device
JP4508898B2 (ja) * 2005-02-15 2010-07-21 株式会社熊平製作所 入室管理システム
JP2006248364A (ja) * 2005-03-10 2006-09-21 Omron Corp 移動体のドライバー認証装置
US8130285B2 (en) * 2005-04-05 2012-03-06 3Vr Security, Inc. Automated searching for probable matches in a video surveillance system
US8948461B1 (en) * 2005-04-29 2015-02-03 Hewlett-Packard Development Company, L.P. Method and system for estimating the three dimensional position of an object in a three dimensional physical space
US7720257B2 (en) * 2005-06-16 2010-05-18 Honeywell International Inc. Object tracking system
US8369570B2 (en) 2005-09-28 2013-02-05 Facedouble, Inc. Method and system for tagging an image of an individual in a plurality of photos
US8311294B2 (en) * 2009-09-08 2012-11-13 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US7450740B2 (en) 2005-09-28 2008-11-11 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US7806604B2 (en) * 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
US20070098229A1 (en) * 2005-10-27 2007-05-03 Quen-Zong Wu Method and device for human face detection and recognition used in a preset environment
JP4645411B2 (ja) * 2005-10-28 2011-03-09 コニカミノルタホールディングス株式会社 認証システム、登録システム及びプログラム
GB2432064B (en) * 2005-10-31 2011-01-19 Hewlett Packard Development Co Method of triggering a detector to detect a moving feature within a video stream
US7764167B2 (en) * 2006-01-18 2010-07-27 British Telecommunications Plc Monitoring movement of an entity in an environment
WO2007103834A1 (en) 2006-03-03 2007-09-13 Honeywell International, Inc. Indexing and database search system
KR101308368B1 (ko) 2006-03-03 2013-09-16 허니웰 인터내셔널 인코포레이티드 홍채 품질 측정을 갖는 홍채 인식 시스템
US8121356B2 (en) * 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
US8965063B2 (en) * 2006-09-22 2015-02-24 Eyelock, Inc. Compact biometric acquisition system and method
JP4305672B2 (ja) * 2006-11-21 2009-07-29 ソニー株式会社 個人識別装置、個人識別方法、識別用辞書データの更新方法および識別用辞書データの更新プログラム
KR100825756B1 (ko) * 2006-12-05 2008-04-29 한국전자통신연구원 얼굴 특징 추출 방법 및 그 장치
US8694792B2 (en) * 2007-02-16 2014-04-08 Honeywell International Inc. Biometric based repeat visitor recognition system and method
US20080247606A1 (en) * 2007-04-03 2008-10-09 Honeywell International Inc. Agile illumination for biometric authentication
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US7568802B2 (en) * 2007-05-09 2009-08-04 Honeywell International Inc. Eye-safe near infra-red imaging illumination method and system
US8174555B2 (en) * 2007-05-30 2012-05-08 Eastman Kodak Company Portable video communication system
US8315441B2 (en) * 2007-06-29 2012-11-20 Nec Corporation Masquerade detection system, masquerade detection method and masquerade detection program
US20090080707A1 (en) * 2007-09-20 2009-03-26 Mr. GORAN DJURIC Biometric camera authentication
US20090092283A1 (en) * 2007-10-09 2009-04-09 Honeywell International Inc. Surveillance and monitoring system
US8269600B2 (en) * 2007-11-20 2012-09-18 Arinc Incorporated Method and apparatus for automated control of a secured area
US8886952B1 (en) * 2007-12-06 2014-11-11 The United States Of America As Represented By The Director Of The National Security Agency Method of controlling a transaction
US7961908B2 (en) * 2007-12-21 2011-06-14 Zoran Corporation Detecting objects in an image being acquired by a digital camera or other electronic image acquisition device
JP5432532B2 (ja) * 2008-01-22 2014-03-05 株式会社 資生堂 化粧方法、化粧シミュレーション装置、及び化粧シミュレーションプログラム
JP5239396B2 (ja) * 2008-02-28 2013-07-17 セイコーエプソン株式会社 画像出力方法、画像出力装置および画像出力プログラム
US8150108B2 (en) 2008-03-17 2012-04-03 Ensign Holdings, Llc Systems and methods of identification based on biometric parameters
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8213782B2 (en) * 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
JP2010074628A (ja) * 2008-09-19 2010-04-02 Brother Ind Ltd インターホンシステム
DE102008055884A1 (de) 2008-11-03 2010-05-06 Cross Match Technologies Gmbh Verfahren und Vorrichtung zur Detektion einer zweidimensionalen Darstellung des Gesichtes einer Person
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
JP2010157119A (ja) * 2008-12-26 2010-07-15 Fujitsu Ltd 監視装置、監視方法、及び監視プログラム
KR100933175B1 (ko) * 2009-02-05 2009-12-21 이영범 보안문서 관제시스템 및 관제방법
US8572109B1 (en) 2009-05-15 2013-10-29 Google Inc. Query translation quality confidence
US8577909B1 (en) 2009-05-15 2013-11-05 Google Inc. Query translation using bilingual search refinements
US8577910B1 (en) 2009-05-15 2013-11-05 Google Inc. Selecting relevant languages for query translation
US8538957B1 (en) * 2009-06-03 2013-09-17 Google Inc. Validating translations using visual similarity between visual media search results
US8630464B2 (en) * 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8472681B2 (en) * 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
KR101325292B1 (ko) * 2009-06-16 2013-11-08 인텔 코오퍼레이션 핸드헬드 디바이스의 카메라 응용
ES2353099B1 (es) 2009-07-30 2012-01-02 Fundacion Para Progreso Soft Computing Método y sistema de identificación forense por superposición craneofacial basado en soft computing.
DE102010013580A1 (de) * 2010-03-31 2011-10-06 Rohde & Schwarz Gmbh & Co. Kg Vorrichtung und Verfahren zur Identifikation von Personen
US8675926B2 (en) 2010-06-08 2014-03-18 Microsoft Corporation Distinguishing live faces from flat surfaces
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
US8582829B2 (en) 2010-11-03 2013-11-12 Gary S. Shuster Online identity verification
US8600192B2 (en) * 2010-12-08 2013-12-03 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
US9124873B2 (en) 2010-12-08 2015-09-01 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
US20120259638A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Apparatus and method for determining relevance of input speech
US9124798B2 (en) * 2011-05-17 2015-09-01 Eyelock Inc. Systems and methods for illuminating an iris with visible light for biometric acquisition
US9020207B2 (en) 2011-06-07 2015-04-28 Accenture Global Services Limited Biometric authentication technology
CN102254154B (zh) * 2011-07-05 2013-06-12 南京大学 一种基于三维模型重建的人脸身份认证方法
US9789977B2 (en) * 2011-07-29 2017-10-17 Ncr Corporation Security kiosk
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
AU2013200450B2 (en) * 2012-01-30 2014-10-02 Accenture Global Services Limited System and method for face capture and matching
TWI479435B (zh) * 2012-04-03 2015-04-01 Univ Chung Hua 人臉辨識方法
US8948465B2 (en) 2012-04-09 2015-02-03 Accenture Global Services Limited Biometric matching technology
US20130339242A1 (en) * 2012-05-09 2013-12-19 Ganart Technologies, Inc. System and method for formless, self-service registration for access to financial services
US9311746B2 (en) 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US8929596B2 (en) 2012-06-04 2015-01-06 International Business Machines Corporation Surveillance including a modified video data stream
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8411909B1 (en) 2012-06-26 2013-04-02 Google Inc. Facial recognition
US8542879B1 (en) 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8396265B1 (en) * 2012-06-26 2013-03-12 Google Inc. Facial recognition
US20140071121A1 (en) * 2012-09-11 2014-03-13 Digital Signal Corporation System and Method for Off Angle Three-Dimensional Face Standardization for Robust Performance
US10083554B2 (en) * 2012-09-17 2018-09-25 Jeremy Keith MATTERN Method for controlling a gate using an automated installation entrance (AIE) system
US9928406B2 (en) * 2012-10-01 2018-03-27 The Regents Of The University Of California Unified face representation for individual recognition in surveillance videos and vehicle logo super-resolution system
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
RU2518939C1 (ru) * 2013-03-05 2014-06-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Самарский государственный университет путей сообщения" (СамГУПС) Способ и устройство распознавания рельефности изображения лица
US20140341443A1 (en) * 2013-05-16 2014-11-20 Microsoft Corporation Joint modeling for facial recognition
US9123172B2 (en) 2013-05-20 2015-09-01 Steven Sebring Systems and methods for producing visual representations of objects
CN103268653A (zh) * 2013-05-30 2013-08-28 苏州福丰科技有限公司 用于门禁系统的人脸识别方法
CN104299219A (zh) * 2013-07-19 2015-01-21 株式会社理光 物体检测方法和装置
US9135646B2 (en) * 2013-10-09 2015-09-15 Ricoh Company, Ltd. Associating advertising content with a channel
KR102180475B1 (ko) * 2013-11-26 2020-11-18 삼성전자주식회사 얼굴인식에 기초하여 서비스를 제공하는 방법 및 그에 따른 전자 기기
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9639742B2 (en) 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
JP6448223B2 (ja) 2014-06-12 2019-01-09 キヤノン株式会社 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9460493B2 (en) 2014-06-14 2016-10-04 Microsoft Technology Licensing, Llc Automatic video quality enhancement with temporal smoothing and user override
CN104091149B (zh) * 2014-06-20 2018-01-26 中国船舶重工集团公司第七二六研究所 人脸的采集建模训练系统及其采集建模训练方法
US9373179B2 (en) 2014-06-23 2016-06-21 Microsoft Technology Licensing, Llc Saliency-preserving distinctive low-footprint photograph aging effect
EP3183689A4 (de) * 2014-08-22 2017-08-23 Microsoft Technology Licensing, LLC Gesichtsausrichtung mit formregression
AU2015224526B2 (en) * 2014-09-11 2020-04-30 Iomniscient Pty Ltd An image management system
US9875608B1 (en) * 2014-09-16 2018-01-23 American Wagering, Inc. Sports-wagering kiosk and method of using and operating the same
CN104392216A (zh) * 2014-11-20 2015-03-04 苏州福丰科技有限公司 一种用于门锁的三维人脸识别方法
CN104392220A (zh) * 2014-11-27 2015-03-04 苏州福丰科技有限公司 基于云服务器的三维人脸识别机场安检方法
JP2016126510A (ja) * 2014-12-26 2016-07-11 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
EP3274986A4 (de) 2015-03-21 2019-04-17 Mine One GmbH Virtuelle 3d-verfahren, -systeme und -software
US10853625B2 (en) 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
EP3295372A4 (de) * 2015-05-12 2019-06-12 Mine One GmbH Verfahren, systeme und software für gesichtssignatur
US10146797B2 (en) 2015-05-29 2018-12-04 Accenture Global Services Limited Face recognition image data cache
US20170024603A1 (en) * 2015-07-22 2017-01-26 Anthony Ray Misslin Biometric image optimization using light fields
JP6503079B2 (ja) * 2015-09-14 2019-04-17 株式会社日立国際電気 特定人物検知システム、特定人物検知方法および検知装置
USD812671S1 (en) 2015-12-03 2018-03-13 Durst Sebring Revolution, Llc 3D imaging system
USD782559S1 (en) 2015-12-03 2017-03-28 Durst Sebring Revolution, Llc Photo booth
USD781948S1 (en) 2015-12-03 2017-03-21 Durst Sebring Revolution, Llc Photographic imaging system
USD798936S1 (en) 2015-12-03 2017-10-03 Durst Sebring Revolution, Llc Photo booth
USD822746S1 (en) 2016-02-05 2018-07-10 Durst Sebring Revolution, Llc Photo booth
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10043058B2 (en) * 2016-03-09 2018-08-07 International Business Machines Corporation Face detection, representation, and recognition
EP3432065B1 (de) * 2016-03-17 2022-05-18 Panasonic Intellectual Property Management Co., Ltd. Vergleichsvorrichtung
US9948479B2 (en) * 2016-04-05 2018-04-17 Vivint, Inc. Identification graph theory
CN106097506A (zh) * 2016-06-14 2016-11-09 大有天地(天津)科技发展有限公司 公交堵漏识别系统及识别方法
US9875398B1 (en) * 2016-06-30 2018-01-23 The United States Of America As Represented By The Secretary Of The Army System and method for face recognition with two-dimensional sensing modality
US10210320B2 (en) * 2016-09-21 2019-02-19 Lextron Systems, Inc. System and method for secure 5-D user identification
US10621419B2 (en) * 2016-12-06 2020-04-14 Robert William Kocher Method and system for increasing biometric acceptance rates and reducing false accept rates and false rates
CN106778856A (zh) * 2016-12-08 2017-05-31 深圳大学 一种物体识别方法及装置
MX2019006981A (es) * 2016-12-14 2020-09-07 Novetechnologies Llc Sistema de bioseguridad de ganado y metodo de uso.
CN106845368A (zh) * 2016-12-30 2017-06-13 中国民航信息网络股份有限公司 基于人脸识别的机场登机安检再确认系统和方法
JP6960738B2 (ja) * 2017-01-23 2021-11-05 グローリー株式会社 顔認証システム、顔認証方法および顔認証プログラム
US10173643B2 (en) * 2017-02-20 2019-01-08 Ford Global Technologies, Llc Object detection for vehicles
CN110998619B (zh) * 2017-07-28 2023-10-24 纽诺有限公司 用于增销自主载具上的产品的系统与机构
CN109726613B (zh) * 2017-10-27 2021-09-10 虹软科技股份有限公司 一种用于检测的方法和装置
KR102042902B1 (ko) 2017-12-18 2019-11-08 한국 한의학 연구원 3차원 안면 진단 장치의 동작 방법
CN109993856A (zh) * 2017-12-29 2019-07-09 同方威视技术股份有限公司 基于多生物特征的安检设备和方法
CN108399665A (zh) * 2018-01-03 2018-08-14 平安科技(深圳)有限公司 基于人脸识别的安全监控方法、装置及存储介质
JP7028675B2 (ja) * 2018-02-28 2022-03-02 パナソニックi-PROセンシングソリューションズ株式会社 施設内監視システムおよび施設内監視方法
US20200410210A1 (en) * 2018-03-12 2020-12-31 Carnegie Mellon University Pose invariant face recognition
US11087121B2 (en) 2018-04-05 2021-08-10 West Virginia University High accuracy and volume facial recognition on mobile platforms
GB2574669A (en) * 2018-06-15 2019-12-18 The Face Recognition Company Ltd Recognition of 3D objects
CN110826367A (zh) * 2018-08-10 2020-02-21 北京魔门塔科技有限公司 一种用于数据分析的人脸图像采集系统
CN111368608B (zh) * 2018-12-26 2023-10-13 杭州海康威视数字技术股份有限公司 一种人脸识别方法、装置及系统
CN110633677B (zh) * 2019-09-18 2023-05-26 威盛电子股份有限公司 人脸识别的方法及装置
KR102618306B1 (ko) * 2019-09-30 2023-12-27 주식회사 라씨엔블루 얼굴인식용 인공지능학습을 위한 빅 데이터 수집 방법
EP4056790A4 (de) * 2019-11-05 2022-11-16 Nec Corporation Torsystem
CN112801015B (zh) * 2021-02-08 2023-03-24 华南理工大学 一种基于注意力机制的多模态人脸识别方法
SG10202102048QA (en) * 2021-03-01 2021-08-30 Alipay Labs Singapore Pte Ltd A User Authentication Method and System
CN114241590B (zh) * 2022-02-28 2022-07-22 深圳前海清正科技有限公司 一种自学习式人脸识别终端

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
GB9125540D0 (en) 1991-11-30 1992-01-29 Davies John H E Access control systems
US5659625A (en) * 1992-06-04 1997-08-19 Marquardt; Stephen R. Method and apparatus for analyzing facial configurations and components
WO1994023390A1 (en) 1993-03-29 1994-10-13 Matsushita Electric Industrial Co., Ltd. Apparatus for identifying person
JPH11502344A (ja) * 1995-03-20 1999-02-23 ロー テクノロジーズ 画像を識別するための装置及び方法
JP3735893B2 (ja) 1995-06-22 2006-01-18 セイコーエプソン株式会社 顔画像処理方法および顔画像処理装置
JP3490559B2 (ja) * 1995-11-14 2004-01-26 富士写真フイルム株式会社 画像の主要部判定方法及び複写条件決定方法
US6430307B1 (en) 1996-06-18 2002-08-06 Matsushita Electric Industrial Co., Ltd. Feature extraction system and face image recognition system
US6160799A (en) 1996-09-06 2000-12-12 Motorola, Inc. Method of and apparatus for pilot set maintenance
US6111517A (en) 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
ATE203607T1 (de) 1997-05-07 2001-08-15 Siemens Ag Verfahren zur anpassung eines referenzdatensatzes anhand mindestens eines eingabedatensatzes durch einen rechner
US6026188A (en) * 1997-10-10 2000-02-15 Unisys Corporation System and method for recognizing a 3-D object by generating a rotated 2-D image of the object from a set of 2-D enrollment images
US6072894A (en) 1997-10-17 2000-06-06 Payne; John H. Biometric face recognition for applicant screening
US6002782A (en) * 1997-11-12 1999-12-14 Unisys Corporation System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model
AU1613599A (en) 1997-12-01 1999-06-16 Arsev H. Eraslan Three-dimensional face identification system
JP3621245B2 (ja) 1997-12-12 2005-02-16 株式会社東芝 人物認識装置、人物認識方法、および、人物認識プログラムの記録媒体
JP3688879B2 (ja) 1998-01-30 2005-08-31 株式会社東芝 画像認識装置、画像認識方法及びその記録媒体
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6606398B2 (en) 1998-09-30 2003-08-12 Intel Corporation Automatic cataloging of people in digital photographs
IT1315446B1 (it) 1998-10-02 2003-02-11 Cselt Centro Studi Lab Telecom Procedimento per la creazione di modelli facciali tridimensionali apartire da immagini di volti.
US6496594B1 (en) 1998-10-22 2002-12-17 Francine J. Prokoski Method and apparatus for aligning and comparing images of the face and body from different imagers
JP2000165648A (ja) * 1998-11-27 2000-06-16 Fuji Photo Film Co Ltd 画像処理方法および装置並びに記録媒体
US6463163B1 (en) 1999-01-11 2002-10-08 Hewlett-Packard Company System and method for face detection using candidate image region selection
US7039221B1 (en) * 1999-04-09 2006-05-02 Tumey David M Facial image verification utilizing smart-card with integrated video camera
US20030059124A1 (en) * 1999-04-16 2003-03-27 Viisage Technology, Inc. Real-time facial recognition and verification system
JP3768735B2 (ja) 1999-07-07 2006-04-19 三菱電機株式会社 顔画像処理装置
US6526161B1 (en) 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
US6775397B1 (en) * 2000-02-24 2004-08-10 Nokia Corporation Method and apparatus for user recognition using CCD cameras
JP2001331799A (ja) 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
US6496595B1 (en) 2000-05-19 2002-12-17 Nextgenid, Ltd. Distributed biometric access control apparatus and method
GB0018161D0 (en) 2000-07-25 2000-09-13 Bio4 Limited Identity systems
WO2002019137A1 (en) 2000-08-29 2002-03-07 Imageid Ltd. Indexing, storage & retrieval of digital images
US6963659B2 (en) * 2000-09-15 2005-11-08 Facekey Corp. Fingerprint verification system utilizing a facial image-based heuristic search method
KR20020031630A (ko) 2000-10-20 2002-05-03 구자홍 칼라 왜곡 정보를 이용한 얼굴 영역 추출 방법
US6947578B2 (en) * 2000-11-02 2005-09-20 Seung Yop Lee Integrated identification data capture system
US6498970B2 (en) 2001-04-17 2002-12-24 Koninklijke Phillips Electronics N.V. Automatic access to an automobile via biometrics
US6842460B1 (en) 2001-06-27 2005-01-11 Nokia Corporation Ad hoc network discovery menu
US20030053662A1 (en) 2001-09-19 2003-03-20 Koninklijke Philips Electronics N.V. Method and apparatus for digital encoding and operator identification using stored user image
JP3888676B2 (ja) * 2002-02-25 2007-03-07 株式会社東芝 3次元物体認識装置及びその方法
GB0222113D0 (en) * 2002-09-24 2002-10-30 Koninkl Philips Electronics Nv Image recognition
US7218760B2 (en) * 2003-06-30 2007-05-15 Microsoft Corporation Stereo-coupled face shape registration

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020127880A1 (de) 2020-10-22 2022-04-28 Bundesdruckerei Gmbh Verfahren und anordnung zur optischen erfassung eines kopfes einer zu überprüfenden person an einer zutrittskontrollstation

Also Published As

Publication number Publication date
WO2005008570A2 (en) 2005-01-27
US20040240711A1 (en) 2004-12-02
JP2007516503A (ja) 2007-06-21
US7421097B2 (en) 2008-09-02
EP1629415A2 (de) 2006-03-01
DE602004005984D1 (de) 2007-05-31
EP1629415B1 (de) 2007-04-18
WO2005008570A3 (en) 2005-05-06

Similar Documents

Publication Publication Date Title
DE602004005984T2 (de) Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten
EP1413972B1 (de) Prüfung von Bildaufnahmen von Personen
DE60215743T2 (de) Verfahren und Rechnerprogrammprodukt zur Lagebestimmung von Gesichtsmerkmalen
DE60312427T2 (de) Verfahren zum Überprüfen eines Benutzers und zum Aktualisieren einer Datenbank, und dieses Verfahren benutzendes Gesichtsprüfungssystem
DE60133788T2 (de) Bildverarbeitungsgerät und Verfahren zum Ermitteln von Merkmalen von Gesichtern
DE69833999T2 (de) Verfahren zur automatischen erkennung menschlicher augen in digitalbildern
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE60213032T2 (de) Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte
US20050063569A1 (en) Method and apparatus for face recognition
DE102012216191A1 (de) Authentifizierungssystem
DE112011101927T5 (de) Semantisches Parsen von Objekten in Videos
DE112019000334T5 (de) Validieren der identität eines fernen benutzers durch vergleichen auf der grundlage von schwellenwerten
EP3047424A2 (de) Vorrichtung, system und verfahren zum identifizieren einer person
DE19634769A1 (de) Neurales Netzwerk zur Lokalisierung und Erkennung eines verformbaren Objekts
DE102016122649B3 (de) Biometrisches Verfahren
CN114463828B (zh) 基于人证统一的监考方法及系统、电子设备和存储介质
DE102022100559A1 (de) Materialspektroskopie
DE112020005223T5 (de) Objektverfolgungseinrichtung und Objektverfolgungsverfahren
DE112019007947T5 (de) Verbesserte Erkennung der Face-Liveness mit Hilfe der Analyse von Hintergrund-/Vordergrundbewegungen
EP0886833B1 (de) Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen
DE102022100551A1 (de) Materialspektroskopie
DE102016104487A1 (de) Mobiles elektronisches Gerät mit Gesichtserkennung
DE102019102051B4 (de) Verfahren und system zur überwachung eines raumbereichs in einer personenschleuse
DE102022119726A1 (de) Gesichtsauthentifizierungssystem, fahrzeug mit diesem system und verfahren zur gesichtsauthentifizierung
DE102022111231A1 (de) Erkennung von gefälschten bildern

Legal Events

Date Code Title Description
8364 No opposition during term of opposition