DE60116442T2 - System zur Zuordnung von Schlüsselwörtern zu Dokumenten - Google Patents

System zur Zuordnung von Schlüsselwörtern zu Dokumenten Download PDF

Info

Publication number
DE60116442T2
DE60116442T2 DE60116442T DE60116442T DE60116442T2 DE 60116442 T2 DE60116442 T2 DE 60116442T2 DE 60116442 T DE60116442 T DE 60116442T DE 60116442 T DE60116442 T DE 60116442T DE 60116442 T2 DE60116442 T2 DE 60116442T2
Authority
DE
Germany
Prior art keywords
keyword
user
keywords
list
circled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60116442T
Other languages
English (en)
Other versions
DE60116442D1 (de
Inventor
Junichi East Windsor Kanai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE60116442D1 publication Critical patent/DE60116442D1/de
Publication of DE60116442T2 publication Critical patent/DE60116442T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99936Pattern matching access

Description

  • Die vorliegende Erfindung betrifft allgemein Systeme für die Verarbeitung gescannter Bilder. Insbesondere betrifft die Erfindung ein System zum Verknüpfen von Schlüsselwörtern mit digitalisierten Bildern.
  • Mit der zunehmenden Verbreitung des elektronischen Handels hat eine entsprechende Zunahme der elektronischen Kopiertechnik stattgefunden. Digitale Bildaufbereitungsverfahren, die elektronische Bildaufbereitungsvorrichtungen wie Scanner, vernetzte digitale Kopierer und Faxmaschinen nutzen, sind mittlerweile überall erhältlich. Diese elektronischen Bildaufbereitungsvorrichtungen ermöglichen es Benutzern, Papierdokumente in Bilddateien umzuwandeln. Herkömmliche Kopiervorrichtungen umfassen jedoch allgemein nicht die Fähigkeit, den Bilddateien Schlüsselwörter zuzuordnen. Daher müssen Benutzer andere Mittel zum Zuordnen von Schlüsselwörtern verwenden, beispielsweise einen Personal-Computer mit entsprechender Software.
  • Das vorliegende Schlüsselwort-Zuordnungssystem bietet ein Verfahren und eine Vorrichtung zum Zuordnen von Schlüsselwörtern, wenn das digitalisierte Bild eines Dokuments erstellt wird. Das Schlüsselwort-Zuordnungssystem umfasst einen Analog/Digital-Wandler zum Generieren des digitalisierten Bilds vom eingegebenen Dokument. Ein Schlüsselwort-Eingabesystem bestimmt ein mit dem digitalisierten Bild zu assoziierendes Schlüsselwort. Eine Verknüpfungseinrichtung führt dann das Schlüsselwort mit der Bilddatei zusammen oder generiert alternativ Verknüpfungsinformationen, die das Schlüsselwort mit dem digitalisierten Bild assoziieren. Es wird eine Datenbank bereitgestellt, um das digitalisierte Bild und die Verknüpfungsinformationen zu speichern.
  • US 5625810 (Kurosu) offenbart eine Erfindung, die eine Datendateivorrichtung betrifft, in der eingegebenen Datendateien Attributinformationen zugeordnet werden, die ein Hinweis zum Abrufen der Datendateien sind. In diesem System werden die Attributinformationen in einer einzigen Liste geführt, die von allen Benutzern des Systems benutzt wird.
  • US 5821929 (Canon) offenbart eine Bildverarbeitungsvorrichtung, die dazu konfiguriert ist, eine Dokumentabbildung zu lesen und eine bestimmte Zeichenregion der gelesenen Dokumentabbildung zu erfassen. Eine ausgezogene Zeichenfolge wird dann als Index der gelesenen Dokumentabbildung eingetragen.
  • US 6058398 (Daewoo) offenbart ein Verfahren zum automatischen Verknüpfen von Indexdaten mit Bilddaten. Wie der Zusammenfassung zu entnehmen ist, hat ein erstes Aufzeichnungsmedium eine Indexdatenbank und darauf aufgezeichnete erste Verknüpfungsdaten und ein zweites Aufzeichnungsmedium hat eine Bilddatenbank und darauf aufgezeichnete zweite Verknüpfungsdaten. Die zweiten Verknüpfungsdaten sind ein Etikett, das mit den ersten Verknüpfungsdaten wirksam verknüpft ist. Dieser Literaturverweis richtet sich daher speziell auf das Verknüpfen von Daten.
  • US 5428778 (Office Express) offenbart ein Datenbanksystem zum automatischen Verbreiten von Informationen an mehrere Benutzer des Systems. Schlüsselwörter dienen zum Identifizieren von Informationspositionen, die für bestimmte Benutzer von Interesse sind, wobei sie eines oder mehrere Schlüsselwörter angegeben haben, nach denen in den durchsuchten Informationen gesucht werden soll.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine perspektivische Ansicht einer Bildaufbereitungsvorrichtung, z.B. ein Digitalkopierer, in die das Schlüsselworteingabesystem integriert ist;
  • 2 ist eine Blockdiagrammabbildung der ersten und zweiten Ausführungsform eines Schlüsselwort-Zuordnungssystems, das die Grundsätze der vorliegenden Erfindung einschließt;
  • 3 ist eine Blockdiagrammabbildung einer dritten Ausführungsform eines Schlüsselwort-Zuordnungssystems, das die Grundsätze der vorliegenden Erfindung einschließt;
  • 4 ist ein Ablaufdiagramm, das zeigt, wie die Auszugstechnik für eingekreiste Regionen realisiert werden kann.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Die Verfahren der Erfindung können in verschiedenen elektronischen Bildaufbereitungsvorrichtungen angewandt werden, einschließlich Fotokopiergeräten, Faxgeräten, Multifunktions-Peripheriegeräten (die Scannen, Faxen und Drucken unterstützen), Scannern, Dokumenten-Bildaufbereitungssystemen und Dokumentenverwaltungssystemen. Zu Veranschaulichungszwecken ist die in 1 gezeigte beispielhafte elektronische Bildaufbereitungsvorrichtung 10 ein digitales Fotokopiergerät. Das digitale Fotokopiergerät 10 kann eine geeignete Netzwerkschnittstelle zum Anschließen des Geräts an ein Computernetzwerk umfassen. Dieser Anschluss, allgemein unter 12 dargestellt, lässt zu, dass durch Verarbeitung durch das Fotokopiergerät erhaltene Dokumentabbildungen an eine entfernte Speichervorrichtung 13 übertragen werden, beispielsweise ein zu einem Computernetzwerk 15 gehörendes Festplattensystem. Mit einer solchen Konfiguration können elektronische Kopien fotokopierter Dokumente zum späteren Abrufen auf einem Computernetzwerk gespeichert werden.
  • Die Erfindung bietet ein bequemes, benutzerfreundliches Mittel zum Anbringen oder Assoziieren von Schlüsselwörtern mit den Dokumentabbildungen. Die Schlüsselwörter sind beispielsweise beim Ausführen anschließender Such- und Abrufabläufe nützlich. Obwohl es verschiedene Möglichkeiten gibt, die Vorrichtung und das Verfahren der Erfindung zu realisieren, bettet ein derzeit bevorzugtes Vorgehen die Schlüsselwort-Zuordnungsfunktionalität innerhalb der elektronischen Bildaufbereitungsvorrichtung selbst ein. Hier werden mehrere verschiedene Ausführungsformen beschrieben. Der Fachmann wird einsehen, dass außerdem andere Ausführungsformen möglich sind.
  • Die elektronische Bildaufbereitungsvorrichtung 10, eine derzeit bevorzugte Ausführungsform, umfasst eine Berührungsbildschirmanzeige 14, über die der Benutzer mit dem Schlüsselwort-Zuordnungssystem interagiert. Wie noch ausführlicher beschrieben wird, kann der Benutzer über diesen Berührungsbildschirm Benutzeridentifikationsinformationen eingeben, Schlüsselwort-Menüauswahlen treffen und neue Schlüsselwörter eingeben. Wie ausführlicher beschrieben wird, kann der Benutzer Schlüsselwörter auch unter Verwendung anderer Eingabeverfahren eingeben, einschließlich Spracherkennung, Online-Handschriftenerkennung, Electronic Ink-Abgleich. Beim Electronic Ink-Abgleich wird eine vom Benutzer gezeichnete Annotation, bei der es sich um eine beliebige von Hand gezeichnete Markierung handeln kann, abgeglichen, ohne dass die Annotation einer Erkennung unterzogen wird. So könnte selbst ein Kind dem Dokument ein von Hand gezeichnetes "Schlüsselwort" zuordnen und das System würde zulassen, dass es später durch Electronic Ink-Suche nach einer entsprechenden Annotation abgerufen wird. Die Fähigkeit zur Electronic Ink-Suche ist außerdem ideal zum Assoziieren von Kanji-Zeichen, chinesischen Schriftzeichen und anderen Arten von Symbolen, die sonst nicht vom landesspezifischen Computerbetriebssystem unterstützt werden.
  • Wie noch ausführlicher beschrieben wird, ermöglicht es eine weitere bevorzugte Ausführungsform dem Benutzer, Schlüsselwörter anzugeben, indem er sie auf einer zum gescannten Dokument gehörenden ersten Seite oder einem zugehörigen Deckblatt in Druckschrift schreibt oder einkreist. Das System identifiziert automatisch die vom Benutzer angegebenen Schlüsselwörter auf der gescannten Seite und verbindet oder assoziiert das Schlüsselwort mit dem Dokument, das gescannt wird.
  • 2 zeigt eine erste Ausführungsform und eine zweite oder alternative Ausführungsform einer Vorrichtung zum Zuordnen von Schlüsselwörtern zu Dokumenten gemäß der Erfindung. 3 zeigt noch eine weitere Ausführungsform, die Schlüsselwortauszugsverfahren wie das Auszugsverfahren für eingekreiste Regionen nutzt. Die abgebildeten Ausführungsformen sind jeweils so konzipiert, dass sie eine einfache und bequeme Benutzeroberfläche bieten, um Schlüsselwörter zu Dokumentabbildungen zuzuordnen. Da die Benutzeroberfläche in der Bildaufbereitungsvorrichtung integriert ist, können Benutzer entsprechende Schlüsselwörter eingeben, wenn sie Dokumente digitalisieren, ohne dass zusätzliche Vorrichtungen benötigt werden.
  • In 2 sind die Komponenten und Unterprozesse für die erste Ausführungsform und außerdem die zweite oder alternative Ausführungsform abgebildet. Der grundlegende Unterschied zwischen den beiden Ausführungsformen besteht darin, dass die erste Ausführungsform eine Schlüsselwortliste verwendet und daher ein Untersystem zum Abrufen von Schlüsselwörtern nutzt. Die alternative Ausführungsform nutzt keine Schlüsselwortliste und benötigt daher das Schlüsselwortabruf-Untersystem nicht. Die übrigen Untersysteme dieser beiden Ausführungsformen sind gleich und werden daher zusammen beschrieben.
  • Die Grundkomponenten einer elektronischen Bildaufbereitungsvorrichtung sind unter 50 gezeigt und umfassen ein Scan-Modul oder eine Scan-Vorrichtung 100 und einen geeigneten Speicher 102 zum Speichern des gescannten Bilds. In diesen Ausführungsformen interagiert der Benutzer mit der elektronischen Bildaufbereitungsvorrichtung über einen geeigneten Benutzeridentifikationsmechanismus 104. Der Benutzeridentifikationsmechanismus kann verschiedene Formen annehmen: Magnetkarte, Passwort, Unterschriftserkennung, Spracherkennung, Chipkarte, Daumenabdruckerkennung und ähnliches. Das Benutzeridentifikationsmodul kann eine Benutzer-ID mit jedem Benutzer assoziieren. Die ID dient als Schlüssel zum Identifizieren dieses Benutzers in anschließenden Datenbankprozessen.
  • Wie oben angemerkt, nutzt eine erste bevorzugte Ausführungsform eine gespeicherte Schlüsselwortliste. Daher umfasst die Ausführungsform ein Schlüsselwortabruf-Untersystem 106, das auf eine Liste von Schlüsselwörtern zugreift, die im Speicher 120 gespeichert ist. Die Liste von Schlüsselwörtern kann eine Menge vordefinierter und/oder individuell angepasster Schlüsselwörter umfassen, die in einer Beziehung zu einer Benutzer-ID gespeichert sind. Beim Speicher 120 kann es sich um eine lokale Speichervorrichtung handeln, die zur elektronischen Bildaufbereitungsvorrichtung 50 gehört ist oder um ein eine entfernte Datenquelle, auf die über eine geeignete Netzwerkverbindung zugegriffen werden kann. Bei Bedarf kann es sich beim Speicher 120 um eine lokale Speichervorrichtung handeln, die Schlüsselwortdaten durch Herunterladen von einer entfernten Datenquelle im Netzwerk erhält. Alternativ kann es sich beim Speicher 120 um eine zu einer Benutzer-ID-Karte, wie beispielsweise einer Chipkarte, gehörende Speichervorrichtung handeln, die in einem geeigneten, zur elektronischen Bildaufbereitungsvorrichtung gehörenden Kartenleser installiert wird. Wenn eine Chipkarte oder eine andere tragbare Speichervorrichtung verwendet wird, kann jeder Benutzer eine Kopie seiner bzw. ihrer Schlüsselwortliste auf der ID-Karte selbst mit sich führen.
  • Das Schlüsselwortabruf-Untersystem 106 arbeitet zusammen mit einem Schlüsselworteingabe-Untersystem 108. Das Schlüsselworteingabe-Untersystem 108 bietet verschiedene, allgemein unter 109 gezeigte Benutzeroberflächenoptionen. Vom Benutzer eingegebene Schlüsselwörter werden zur sofortigen oder späteren Verwendung im Speicher 120 gespeichert. In 2 ist das Schlüsselwort-Abrufsystem so dargestellt, dass es mit dem Schlüsselworteingabe-Untersystem 108 in Kommunikation steht; und das Schlüsselworteingabe-Untersystem 108 wurde so dargestellt, dass es mit dem Speicher 120 in Kommunikation steht. Daher interagiert in der abgebildeten Ausführungsform das Schlüsselworteingabe-Untersystem 108 mit dem Speicher 120 und das Schlüsselwortabruf-Untersystem 106 interagiert über das Untersystem 108 mit dem Speicher 120. Es ist selbstverständlich möglich, eine alternative Ausführungsform zu konfigurieren, in der das Schlüsselwort-Abruf-Untersystem 106 direkt mit dem Speicher 120 kommuniziert.
  • Das Schlüsselworteingabe-Untersystem 108 der bevorzugten Ausführungsform besteht aus einem Touchpad, einem Speicher und einer CPU. Die zum Touchpad gehörende grafische Benutzeroberfläche kann als Web-Browser realisiert werden, der XML (Extensible Mark-up Language) sowie andere Auszeichnungssprachen unterstützt. Bei Bedarf kann das System so konfiguriert werden, dass wenn ein Benutzer seine bzw. ihre Benutzeridentifikation eingibt, das Layout der Benutzeroberfläche automatisch an die Präferenzen dieses Benutzers angepasst wird. Benutzerpräferenzen werden im Profildatenspeicher 122 gespeichert, einem optionalen Merkmal der bevorzugten Ausführungsformen. Außerdem ruft das Schlüsselwortabruf-Untersystem 106, wenn der Benutzer seinen bzw. seine Benutzeridentifikation eingibt, die zuvor gespeicherten Schlüsselwörter des Benutzers aus dem Speicher 120 ab und zeigt sie gemäß dem bevorzugten Layout des Benutzers auf dem Berührungsbildschirm an.
  • Schlüsselwörter werden im Speicher 120 zusammen mit Benutzer-IDs gespeichert, so dass die Eingabe einer Benutzer-ID die Schlüsselwörter abruft, die dem Benutzer zur Verfügung stehen, einschließlich möglicherweise vorhandenen individuell angepassten Schlüsselwörtern, die der Benutzer möglicherweise eingegeben hat. Die Schlüsselwörter werden vorzugsweise in einer logischen Datenstruktur gespeichert, damit es für den Benutzer bequemer ist, das geeignete Schlüsselwort für ein gegebenes Dokument zu wählen. In der bevorzugten Ausführungsform wird eine hierarchisch angeordnete Datenstruktur verwendet. Vorzugsweise wird eine Auszeichnungssprache verwendet, um die Schlüsselwörter mit selbstbeschreibenden Datenstrukturen zu kennzeichnen. Diesbezüglich kann XML verwendet werden. Idealerweise sollten die Schlüsselwörter so angeordnet sein, dass der Benutzer schnell eine geeignete Liste identifizieren und das Schlüsselwort oder die Schlüsselwörter, die am besten auf das gescannte Bild zutreffen, wählen kann.
  • Zur Veranschaulichung könnte die folgende hierarchisch angeordnete Datenstruktur im Zusammenhang mit der Benutzer-ID "Sekretärin A" verwendet werden:
    Figure 00080001
  • Man nehme im obigen Beispiel an, dass Sekretärin A ihre Identifikation "Sekretärin A" über ein geeignetes Mittel, beispielsweise durch Verwendung einer in einen Kartenleser an der Bildaufbereitungsvorrichtung eingeführte Magnetkarte, eingibt. Das Schlüsselwortabruf-Untersystem 106 und das zugehörige Schlüsselworteingabesystem 108 rufen die im Speicher 120 gespeicherten Informationen, die mit dieser Benutzer-ID assoziiert sind, ab. Der gesamte oder ein Teil des Inhalts des Speichers 120 würde dann auf dem Berührungsbildschirm oder einem anderen geeigneten Anzeigeschirm angezeigt.
  • Obwohl die derzeitig bevorzugte Ausführungsform einen preisgünstigen Berührungsbildschirm zum Anzeigen der Schlüsselwortauswahl und zum Entgegennehmen der Benutzereingaben nutzt, könnte ein größeres System einen CRT- oder flachen LCD-Anzeigebildschirm nutzen. Ein solcher Anzeigebildschirm kann ein zugehöriges Computeruntersystem zum Ausführen einer Client-Anwendung oder eines Browsers zur Anzeige der im Speicher 120 gespeicherten Informationen einschließen. In einer solchen Konfiguration würden der Speicher 120 und die zugehörigen Untermodule 106 und 108 als Informationsserver dienen, der Informationen zum Anzeigen für den Benutzer an die Client-Anwendung des Browsers liefert.
  • Je nach Menge der anzuzeigenden Informationen werden möglicherweise nur die Datenelemente der obersten Ebene angezeigt: "Spesenaufstellung" und "Bestellung". Wenn eine größere Anzeige verfügbar ist, können alternativ auch Wahlmöglichkeiten unterer Ebenen angezeigt werden: "Zweck" "Angefordert von (oder Projekt)". Die Benutzeroberfläche kann zusätzlich oder als Ersatz für den Berührungsbildschirm einen geeigneten Auswahlmechanismus einschließen. Bei einem solchen Auswahlmechanismus kann es sich um eine Zeigevorrichtung (Trackball, Touchpad, Maus, Joystick) oder Tastatur handeln, um Schlüsselwörter aus der angezeigten Liste zu wählen und Datenstrukturen unterer Ebenen basierend auf einem angezeigten Datenelement zu wählen.
  • In manchen Anwendungen kann es möglich sein, den Benutzeridentifikationsprozess wegzulassen. Daher ist das Benutzeridentifikations-Untersystem 104 in diesen Anwendungen optional. Statt dass der Benutzer sich identifizieren muss, würde eine alternative Ausführungsform zulassen, dass der Benutzer einfach direkt aus einer geeigneten Liste von Schlüsselwörtern wählt. Dazu würde eine Auswahl von Schlüsselwörtern, aus denen der Benutzer wählen kann, in hierarchischer Weise angezeigt. Alternativ kann der Benutzer das Schlüsselwort unter Verwendung des Schlüsselworteingabe-Untersystems 108 direkt eingeben.
  • Wie zuvor angemerkt, hat das Schlüsselworteingabe-Untersystem 108 verschiedene Benutzeroberflächenoptionen. Diese umfassen numerische Tasten 110 und Buchstabentasten 112, die unter Verwendung einer physikalischen Tastatur oder einer auf einem Computer-Berührungsbildschirm angezeigten virtuellen Tastatur bereitgestellt werden können. Ein Online-Handschriftenerkennungsmodul 114 lässt den Benutzer durch von Hand geschriebene Nachrichten mit dem System interagieren und ein Spracherkennungssystem 116 lässt den Benutzer unter Verwendung von Sprache mit dem System interagieren. Als Alternative zur Online-Handschriftenerkennung, kann ein Electronic Ink-Abgleichsystem 118 verwendet werden. Das Electronic Ink-Abgleichsystem kann gemäß der Beschreibung in U.S. Patent 5,832,474, Lopresti, et. al. realisiert werden, um Informationen durch Durchführen einer Suche nach teilweisen Übereinstimmungen von vom Benutzer gezeichneten Annotationen abzurufen.
  • Zum Schlüsselworteingabemodul 108 gehört das Schlüsselwort-Zusammenführungs-/Verknüpfungsmodul 124. Das Modul 124 ist für das Zusammenführen bzw. Verknüpfen der vom Benutzer gewählten Schlüsselwörter mit den im Speicher 102 gespeicherten Bilddaten zuständig. Die Schlüsselwörter können mit der Datenstruktur der Bilddatendatei zusammengeführt werden, beispielsweise mit dem Kennzeichen einer TIFF-Datei. Alternativ können die Schlüsselwörter unter Verwendung geeigneter Datenbanksoftware mit der Bilddatendatei verknüpft werden oder als Dateiname mit der Datei verknüpft werden (z.B. PO100.tif, generiert aus dem Schlüsselwort "Purchase Order 100") oder sie können verwendet werden, um ein zum Speichern eines Bilds verwendetes Verzeichnis anzugeben, beispielsweise, um ein mit "Projekt-A" zusammenhängendes Bild im Verzeichnis mit dem Namen "Projekt-A" zu speichern. Die resultierenden zusammengeführten/verknüpften Bilddaten und Schlüsselwörter werden dann an eine Speichervorrichtung 126 geliefert, bei der es sich entweder um eine lokal angebrachte Vorrichtung oder eine entfernte Speichervorrichtung, auf die über eine geeignete Netzwerkverbindung zugegriffen wird, handeln kann.
  • Die zweite alternative Ausführungsform der Erfindung verzichtet auf die Schlüsselwortliste. Daher wird das Untersystem 106 nicht benötigt. Das Schlüsselworteingabe-Untersystem 108 wird jedoch weiterhin benutzt. Der Benutzer ruft einen der Schlüsselwort-Eingabemechanismen 109 auf, um Schlüsselwörter direkt in das Modul 108 einzugeben. Das Modul 108 wiederum liefert die vom Benutzer ausgewählten Schlüsselwörter an das Zusammenführungs- und Verknüpfungsmodul 124. Bei Bedarf können die einen hohen Rechenaufwand beanspruchenden Komponenten wie die Handschriften- und Spracherkennungskomponenten und/oder die Kreisauszugs- und/oder Electronic Ink-Verarbeitungskomponenten auf einem entfernten Server realisiert werden, beispielsweise dem zum Bildspeichersystem gehörenden Server.
  • Eine dritte Ausführungsform der Erfindung ist in 3 dargestellt. Diese Ausführungsform nutzt ein Schlüsselwortauszugsverfahren, mit dem die Notwendigkeit für die Tastatur, Handschriften-, Sprach- und Electronic Ink-Eingabemechanismen eliminiert werden kann. Statt dessen verwendet die Ausführungsform das Scan-Untersystem 100 und dessen zugehörigen Speicher, um die gewünschten Schlüsselwörter einzugeben. Der Benutzer schreibt von Hand Schlüsselwörter auf die erste Seite eines Dokuments oder auf ein Deckblatt und diese handgeschriebenen Schlüsselwörter werden gescannt und als Bilder im Speicher 102 gespeichert.
  • Das Schlüsselwortauszugsmodul 134 und das Schlüsselworterkennungsmodul 136 analysieren dann die vom Benutzer handgeschriebenen Schlüsselwörter, um sie auszuziehen und in geeigneten alphanumerischen Text umzuwandeln, der dann durch das Modul 124 mit den restlichen Bilddaten zusammengeführt oder verknüpft werden kann.
  • Als Alternative zur handschriftlichen Eingabe von Schlüsselwörtern kann ein Auszugsverfahren für eingekreiste Regionen angewandt werden. Die Einzelheiten des derzeit bevorzugten Auszugsverfahren sind nachfolgend beschrieben. Statt die Schlüsselwörter zu schreiben, zeichnet der Benutzer einfach Kreise um Schlüsselwörter, die im Text des zu scannenden Dokuments bereits vorkommen. Das Auszugsverfahren für eingekreiste Regionen identifiziert die vom Benutzer gezeichneten Kreise und zieht dann die Schlüsselwörter aus diesen identifizierten Kreisen aus. Vorzugsweise werden die ausgezogenen Schlüsselwörter dann erkannt.
  • In manchen Fällen kann es nützlich sein, eine Form von Benutzeridentifikation an den zu speichernden Bildern anzubringen. Das Benutzeridentifikationsmodul 104 liefert diese Informationen, wie abgebildet, direkt an das Zusammenführungs-/Verknüpfungsmodul 124. Das Benutzeridentifikationsmodul 104 kann auf eine der oben in Zusammenhang mit 2 beschriebenen Arten realisiert werden. In allen Ausführungsformen kann es außerdem von Vorteil sein, Angaben zu Datum und Uhrzeit zu den gespeicherten Bildern hinzuzufügen. Solche Informationen können vom Benutzeridentifikationsmodul 104 eingegeben werden. Selbstverständlich können die Angaben zu Datum und Uhrzeit auch unter Verwendung anderer Module hinzugefügt werden. Diesbezüglich könnte beispielsweise das Zusammenführungs- und Verknüpfungsmodul 124 mit der Datums- und Zeitstempelfähigkeit ausgestattet werden.
  • Ausziehen eingekreister Regionen
  • Das derzeit bevorzugte Verfahren zum Ausziehen von vom Benutzer eingekreisten Regionen verwendet ein Konturanalyseverfahren. Das Verfahren basiert auf dem Identifizieren der Kontur eines Kandidatenobjekts. Das Kandidatenobjekt kann vom Benutzer gezeichnete Kreise, maschinell gedruckte Rahmen oder anderes Nicht-Text-Material auf der Seite umfassen. Durch Analyse der Kontur mit einem Merkmalauszugsmodul zieht der Algorithmus den vom Benutzer gezeichneten Kreis aus. Die Kontur wird durch eine Folge von Punkten mit verschiedenen Krümmungswerten dargestellt. So kann durch ein Nachverarbeitungs-Analyseverfahren ein vom Benutzer gezeichneter Kreis von einem maschinell gedruckten Rahmen unterschieden werden.
  • In 4 besteht der erste Schritt (Schritt 250) darin, die zusammenhängenden Komponenten innerhalb einer gegebenen Seite zu finden. In diesem Schritt wird das Bild zeilenweise gescannt und jeder Pixel wird gekennzeichnet, wenn er mit seinen benachbarten Pixeln zusammenhängt. Nach dem Kennzeichnen der Pixel hinsichtlich des Zusammenhängens wird für jede zusammenhängende Komponente eine Bounding Box berechnet. Diese Bounding Boxes werden zum Ausziehen des Kandidatengebiets im Bild verwendet.
  • Dann (in Schritt 252) werden Text repräsentierende zusammenhängende Komponenten eliminiert.
  • Dazu wird die Größe der Bounding Box analysiert und es werden diejenigen zusammenhängenden Komponenten eliminiert, deren Bounding Boxes unter einer vorbestimmte Größe sind.
  • Als nächstes werden in Schritt 254 Halbtonbilder eliminiert. Halbtonbilder bilden große zusammenhängende Komponenten. Der Algorithmus erkennt Halbtonbilder, indem er das Verhältnis schwarzer zu weißer Pixel in der zur betreffenden zusammenhängenden Komponente gehörenden Bounding Box abschätzt. Halbtonbilder haben tendenziell mehr schwarze Pixel als Text enthaltende Gebiete.
  • Um den Algorithmus zu beschleunigen, kann bei 256 ein optionaler Vorverarbeitungsschritt durchgeführt werden. Das Konturanalyseverfahren generiert möglicherweise mehr Merkmalpunkte als tatsächlich benötigt werden, wenn irrelevante Zeichen die betreffende Kontur berühren. Dies kann beispielsweise dann vorkommen, wenn der Benutzer einen Kreis zeichnet, der zufällig andere Zeichen auf der Seite schneidet.
  • Der optionale Vorverarbeitungsschritt eliminiert diese berührenden Zeichen, durch Ausführen eines morphologischen Ablaufs, um die Form der Kontur in der Region, in der sich der vom Benutzer gezeichnete Kreis und das irrelevante Zeichen schneiden, zu vereinfachen.
  • Als nächstes wird der vom Benutzer gezeichnete Kreis identifiziert, indem verschiedene Kandidatengebiete auf der Seite untersucht werden. Im ersten Schritt in diesem Verfahren, dargestellt unter 258, wird die Kontur des Kandidatenobjekts generiert. Dazu wird der Umriss des Objekts nachgezogen. Die Kontur wird im Computerspeicher als geordnete Menge von Punkten dargestellt (Koordinaten der Grenzpixel). Das Nachziehschema scannt zuerst nach dem Anfangspunkt (einem Grenzpixel, der noch nicht nachgezogen wurde). Dann beginnt die Nachziehspur im Uhrzeigersinn entlang dem konvexen Umriss des Objekts. Wenn die Nachziehspur zum Anfangspunkt zurückkehrt oder an einen Punkt gelangt, an dem um den aktuellen Pixel herum keine weiteren schwarzen Pixel gefunden werden können, hört das Nachziehen auf und der Scanprozess zum Auffinden des nächsten Anfangspunkts fährt fort.
  • Als nächstes werden die im Schritt 258 erhaltenen Konturen analysiert, indem zu jeder Kontur gehörende Merkmalpunkte berechnet werden (Schritt 260). Bei den in Schritt 258 erhaltenen Konturen kann es sich aufgrund von Rauschen im Bild um geschlossene Kurven oder um unterbrochene Kurven handeln. Merkmalpunkte sind als Punkte mit starker Krümmung definiert, einschließlich Schnittpunkte von Kreisen mit anderen Objekten. Die Krümmung kann mittels Resampling-Verfahren berechnet werden, dies ist jedoch möglicherweise nicht zuverlässig, wenn während des Digitalisierungsprozesses Rauschen generiert wird. Durch Beobachtung können die Merkmalpunkte ungefähr entweder an den lokalen Maxima oder lokalen Minima in x- und y-Richtung erfasst werden, obwohl nicht alle Maxima und Minima Merkmalpunkte sind. In der bevorzugten Realisierung werden der Anfangspunkt und der Endpunkt jeder Kontur als Merkmalpunkte behandelt.
  • Nachdem die Merkmalpunkte identifiziert wurden, wird die eingekreiste Region unter Verwendung der Merkmalpunkte rekonstruiert. Dies ist in Schritt 262 dargestellt. Im Wesentlichen wird jede in Schritt 258 generierte Kontur an den Merkmalpunkten in Segmente unterteilt. Diese Segmente werden untersucht und wieder zusammengefügt, so dass zu verschiedenen Objekten gehörende Segmente getrennt und zum selben Objekt gehörende zusammengefügt werden.
  • Das Hauptkriterium zum wieder Zusammenfügen der Kontursegmente besteht darin, beim Herstellen des Übergangs zwischen benachbarten Segmenten die Glattheit zu prüfen. Für jedes Kontursegment wird jeweils ein kleines Gebiet um seinen Anfangs- und Endpunkt untersucht. Die Punkte an den beide Enden werden in Linien eingepasst, so dass die Steigung (Eintritts- und Austrittswinkel aus dem Segment) abgeschätzt werden kann. Diese geschätzten Winkel werden verwendet, um abzuschätzen, ob sich zwei Liniensegmente so einander nähern, dass sie als zur selben Kontur gehörend zusammengefügt werden sollten oder ob sie sich so überkreuzen, dass sie zu nicht verwandten Konturen gehören.
  • Unter Verwendung der in Schritt 262 rekonstruierten Kreise werden die vom Benutzer gezeichneten Kreise in Schritt 264 unter Verwendung einer Reihe von Tests identifiziert. Der erste Test basiert auf der Größe der Kontur sowie der Fläche, die die Kontur abdeckt. Wenn die Länge der Kontur einen vorbestimmten Schwellenwert übersteigt und die Bounding Box der Kontur eine vorbestimmte Fläche abdeckt, betrachtet der Algorithmus die Kontur als vom Benutzer gezeichneten Kreis.
  • Um zwischen vom Benutzer gezeichneten Kreisen und maschinell gedruckten Rahmen, beispielsweise rechteckigen Rahmen, maschinell gedruckten Kreisen oder Tabellen zu unterscheiden, wird jedoch die Glattheit der zusammenhängenden Kontur untersucht. Eine Möglichkeit zum Messen der Glattheit besteht darin, die durchschnittliche Krümmung entlang der zusammenhängenden Kontur zu berechnen. Wenn die Glattheit einen vorbestimmten Schwellenwert übersteigt, wird die Kontur als maschinell gedruckt betrachtet.
  • Da der Algorithmus eingekreiste Regionen aus den berechneten Merkmalpunkten rekonstruiert, kann er vom Benutzer gezeichnete Kreise selbst dann identifizieren, wenn sie kleine Lücken oder Unterbrechungen beinhalten. Bei Bedarf können die vom Benutzer gezeichneten Kreiskandidaten weiter evaluiert werden, um festzustellen, ob ggf. vorhandene Lücken groß genug sind, um die Zurückweisung als vom Benutzer gezeichnete Kreise zu rechtfertigen. Bei der Analyse (dargestellt in Schritt 266) wird der Abstand zwischen Anfangs- und Endpunkt einer Kontur abgeschätzt. Es gibt verschiedene Möglichkeit zum Abschätzen des Abstands.
  • Ein Verfahren zum Abschätzen des Abstands besteht darin, festzustellen, ob ein Endpunkt innerhalb eines vorbestimmten radialen Abstands vom anderen Endpunkt liegt. Wir bezeichnen dies als eine Kreis-Abstandsfunktion. Ein weiteres Verfahren besteht darin, eine quadratische Bounding Box vorbestimmter Größe um einen Endpunkt zu definieren und festzustellen, ob der andere Endpunkt innerhalb dieser Bounding Box liegt. Wir bezeichnen dies als die Quadrat-Abstandsfunktion. Ein drittes Verfahren besteht darin, eine quadratische Bounding Box vorbestimmter Größe um einen Endpunkt zu definieren und dann die Bounding Box um diesen Endpunkt zu drehen, um festzustellen, ob bei irgend einem Drehwinkel der zweite Endpunkt in die Bounding Box fällt. Dies geschieht, wenn überhaupt, wenn eine Ecke der Bounding Box auf einer Linie zwischen den beiden Endpunkten liegt. Wir nennen dies die Manhattan-Abstandsfunktion.
  • Falls die Kontur einen der obigen Tests nicht besteht, wird sie statt als vom Benutzer gezeichneter Kreis als offener Bogen betrachtet. Nachdem der vom Benutzer gezeichnete Kreis, wie oben beschrieben, identifiziert wurde, wird die Bounding Box um seine Kontur dazu verwendet, die Region einzugrenzen, die für die anschließende optische Zeichenerkennungsanalyse ausgezogen wird. Dies ist in Schritt 268 dargestellt. Das Bild in der Bounding Box der Kontur wird ausgezogen und das ausgezogene Bild wird einer optischen Zeichenerkennung unterzogen, um das Schlüsselwort bzw. die Schlüsselwörter für die Datenbanksuche zu bestimmen. Wenn kein guter Kreis identifiziert wird, kann das System dazu konfiguriert werden, zu versuchen, eine Faxnummer aus einem zuvor als offener Bogen oder schlecht gezeichneter Kreis zurückgewiesenen "Kreis" auszuziehen. Die ausgezogene Nummer wird dem Benutzer, wie oben beschrieben, zur Bestätigung bzw. Korrektur vorgelegt.
  • Betrieb
  • Schlüsselwörter können vom Benutzer unter verschiedenen Umständen eingegeben werden. Schlüsselwörter können als Teil einer Aufgabenspezifikation eingegeben werden, beispielsweise wie beim Angeben der Anzahl von Kopien, die ein Kopierer machen soll, bevor das gescannte Dokument digitalisiert wird. Wenn die elektronische Bildaufbereitungsvorrichtung den Multitasking-Betrieb unterstützt, kann der Benutzer Schlüsselwörter eingeben, während die Vorrichtung das Dokument scannt. Der Scan-Mechanismus 100 hat möglicherweise eine automatische Seitenzufuhreinrichtung und der Benutzer kann Schlüsselwörter eingeben, während der Zufuhrmechanismus in Betrieb ist. Schlüsselwörter können außerdem als Teil einer Aufgabenspezifikation eingegeben werden, beispielsweise der Identifikation der von der Bildaufbereitungsvorrichtung auszuführenden Bildverarbeitung und/oder Bildlenkung. Diesbezüglich kann die Bildaufbereitungsvorrichtung zusätzliche Prozesse mit dem gescannten Bild durchführen, nachdem es in den Speicher 102 geladen wurde. Außerdem kann die Bildaufbereitungsvorrichtung eine zugehörige Telekommunikationskomponente (nicht abgebildet) haben, um das Bild zu faxen oder es über ein Computernetzwerk an einen entfernten Ort zu schicken. Darüber hinaus kann die Bildaufbereitungsvorrichtung einen zugehörigen Druckmechanismus haben, um zuzulassen, dass Ausdrucke des Bilds im Speicher 102 gedruckt werden können.
  • Wie zuvor angemerkt, kann das System benutzt werden, ohne dass zuerst die Benutzeridentifikation bereitgestellt wird. Dies erfolgt durch Wechseln in einen Schlüsselwortmodus, der durch Wählen einer geeigneten Touchpad-"Taste" auf dem Anzeigebildschirm gewählt werden kann. Wenn der Benutzer den Schlüsselwortmodus wählt, wird eine vorbestimmte Menge von Schlüsselwörtern auf dem Berührungsbildschirm angezeigt. Die Schlüsselwörter können hierarchisch organisiert sein. Der Benutzer wählt einfach geeignete Schlüsselwörter (es können eines oder mehrere Schlüsselwörter gewählt werden). Wenn als Teil des Schlüsselworts eine Zahl eingegeben werden muss, beispielweise eine Auftragsnummer, wird die numerische Tastatur 110 verwendet. Alle gewählten Schlüsselwörter werden im Speicher 120 gespeichert, so dass die selben Schlüsselwörter für eine Folge ähnlicher Dokumente wiederverwendet werden können. Gespeicherte Schlüsselwörter können vom Benutzer abgerufen und geändert werden. So kann ein Schlüsselwort, das eine zugehörige Auftragsnummer enthält, geändert werden, indem ein zuvor gespeichertes Schlüsselwort mit Zahlen abgerufen wird und dann die Zahlen mit der numerischen Tastatur bearbeitet werden.
  • Wenn Schlüsselwörter nicht in der Schlüsselwortliste gefunden werden, kann der Benutzer sie hinzufügen. Die derzeit bevorzugte Ausführungsform nutzt einen weiteren Betriebsmodus, der hierin als "anderer Modus" bezeichnet wird. Wenn der Benutzer den anderen Modus wählt, können zur Eingabe des hinzuzufügenden Schlüsselworts die numerische Tastatur 110, die Buchstabentastatur 112, das Handschriftenerkennungsmodul 114, das Spracherkennungsmodul 116 und das Electronic Ink-Modul 118 verwendet werden.
  • Es ist zu beachten, dass bei Verwendung des Electronic Ink-Moduls 118 die vom Benutzer eingegebene Annotation nicht unbedingt ein Schlüsselwort im herkömmlichen Sinn darstellt. Statt dessen kann es sich bei der vom Benutzer gezeichneten Annotation um eine beliebige Kombination von vom Benutzer gezeichneten Strichen handeln, die der Benutzer als ein Schlüsselwort speichern möchte, das mit den gescannten Bilddaten verknüpft werden soll. Beispielsweise könnte der Benutzer ein einfaches Bild zeichnen und dieses Bild würde dann als Schlüsselwort zum späteren Abrufen des Dokuments dienen. Der Electronic Ink-Abgleich wäre daher also nützlich, wenn Zeichen in einer Sprache eingegeben werden, die vom landespezifischen System nicht unterstützt wird. Beispielsweise könnte der Benutzer Kanji-Zeichen oder Chinesische Schriftzeichen zeichnen, um Wörter in einer asiatischen Sprache wie Japanisch oder Chinesisch darzustellen, ohne dass das System diese Zeichen erkennen können muss.
  • Wenn der Benutzer neue Schlüsselwörter in das System einträgt, kann der Benutzer optional außerdem die logische Bedeutung dieser Schlüsselwörter speichern. So könnte der Benutzer angeben, dass ein gewisses Verkäuferschlüsselwort mit dem Auftragsschlüsselwort assoziiert ist. Das Schlüsselwort und seine logische Bedeutung könnten daher beispielsweise unter Verwendung von XML gespeichert werden.
  • Aus dem Obenstehenden ist zu sehen, dass die Erfindung ein System zum herkömmlichen Zuordnen eines Schlüsselworts zu einem digitalisierten Bild bereitstellt. Der Benutzer gibt einfach die Schlüsselwortinformationen an der Digitalisierungsausrüstung ein. Das System formatiert die Schlüsselwortinformationen und ordnet die formatierten Informationen dem digitalisierten Bild zu. Da es Benutzern erlaubt ist, geeignete Schlüsselwörter Dokumenten zuzuordnen, wenn sie sie digitalisieren, müssen sie sich nicht mit den zusätzlichen Schritten abgeben, die von herkömmlichen Software- oder Hardware-Dokumentenverwaltungssystemen benötigt werden.
  • Obwohl die Erfindung in ihrer derzeit bevorzugten Ausführungsform beschrieben wurde, um für ein besseres Verständnis der Erfindung zu sorgen und ihre Grundsätze zu beschreiben, ist zu beachten, dass die Erfindung auf verschiedene Weisen realisiert werden kann, ohne vom Umfang der Erfindung, wie er in den angehängten Patentansprüchen dargelegt ist, abzuweichen.

Claims (11)

  1. System zum Zuordnen eines ausgewählten Schlüsselworts zu einem digitalisierten Bild, das Folgendes umfasst: einen Analog/Digital-Wandler (100) zum Generieren des digitalisierten Bilds von einem eingegebenen Dokument; ein Schlüsselworteingabesystem (108), das dazu angepasst ist, eine Benutzerkennung und mindestens ein von einem Benutzer bereitgestelltes Schlüsselwort zu empfangen und das wirksam ist, verknüpfende Informationen zu generieren (124), die das Schlüsselwort mit dem digitalisierten Bild assoziieren; eine Datenbank (126) zum Speichern des digitalisierten Bilds und der verknüpfenden Informationen; einen Schlüsselwortmanager, der in Datenkommunikation mit dem Schlüsselworteingabesystem steht und der wirksam ist, das Schlüsselwort in einer Schlüsselwortliste zu speichern; ein Schlüsselwortabruf-Untersystem (106), das in Datenkommunikation mit dem Schlüsselworteingabesystem (108) steht und wirksam ist, die Schlüsselwortliste abzurufen; und eine mit dem Schlüsselworteingabesystem assoziierte Benutzeroberfläche; wobei das System zum Zuordnen dadurch gekennzeichnet ist, dass: die Schlüsselwortliste so mit der Benutzerkennung für den Benutzer assoziiert ist, dass für jeden unterschiedlichen Benutzer eine Schlüsselwortliste geführt (120) wird; das Schlüsselwortabruf-Untersystem (106) wirksam ist, die mit dem Benutzer assoziierte Schlüsselwortliste bei Erhalt der Benutzerkennung für den Benutzer abzurufen, so dass das Schlüsselworteingabesystem es dem Benutzer ermöglicht, ein Schlüsselwort aus der Schlüsselwortliste auszuwählen; und wobei: wenn der Benutzer die Benutzerkennung eingibt, die Benutzeroberfläche gemäß in einem Profildatenspeicher (122) gespeicherten Präferenzen individuell angepasst wird.
  2. System nach Anspruch 1, wobei das Schlüsselwort mit dem digitalisierten Bild in der Datenbank gespeichert wird.
  3. System nach Anspruch 2, wobei das Schlüsselwort in einem Kennzeichen einer das digitalisierte Bild enthaltenden TIFF-Datei enthalten ist.
  4. System nach Anspruch 1, wobei die Schlüsselwortliste hierarchisch organisiert ist.
  5. System nach Anspruch 1, wobei die Schlüsselwortliste in einem XML-kompatiblen Format organisiert ist.
  6. System nach Anspruch 1, wobei das Schlüsselworteingabesystem eine Schlüsselworteingabevorrichtung zum Eingeben des Schlüsselworts umfasst.
  7. System nach Anspruch 6, wobei die Schlüsselworteingabevorrichtung aus folgender Gruppe ausgewählt wird: eine echte Tastatur und eine virtuelle Tastatur.
  8. System nach Anspruch 6, wobei das Schlüsselworteingabesystem eine von einem Benutzer bereitgestellte Benutzerkennung umfasst, die mit einer Benutzerschlüsselwortliste assoziiert ist.
  9. System nach Anspruch 8, wobei die Benutzerkennung aus folgender Gruppe ausgewählt wird: eine Benutzer-ID, ein Passwort, Unterschriftenerkennung, eine Magnetkarte, ein Zeitstempel und eine Maschinen-ID.
  10. System nach Anspruch 1, das weiter einen Detektor für eingekreiste Regionen umfasst, um ein auf dem Dokument geschriebenes eingekreistes Wort zu erfassen, so dass das eingekreiste Wort als das Schlüsselwort verwendet wird.
  11. System nach Anspruch 1, das weiter einen Detektor für eingekreiste Regionen umfasst, um ein auf dem Dokument geschriebenes eingekreistes Wort zu erfassen, so dass das eingekreiste Wort erkannt und als das Schlüsselwort verwendet wird.
DE60116442T 2000-05-11 2001-05-09 System zur Zuordnung von Schlüsselwörtern zu Dokumenten Expired - Fee Related DE60116442T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/568,409 US6625335B1 (en) 2000-05-11 2000-05-11 Method and apparatus for assigning keywords to documents
US568409 2000-05-11

Publications (2)

Publication Number Publication Date
DE60116442D1 DE60116442D1 (de) 2006-03-30
DE60116442T2 true DE60116442T2 (de) 2006-08-10

Family

ID=24271167

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60116442T Expired - Fee Related DE60116442T2 (de) 2000-05-11 2001-05-09 System zur Zuordnung von Schlüsselwörtern zu Dokumenten

Country Status (4)

Country Link
US (1) US6625335B1 (de)
EP (1) EP1158429B1 (de)
JP (1) JP2001357046A (de)
DE (1) DE60116442T2 (de)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US20020143804A1 (en) * 2001-04-02 2002-10-03 Dowdy Jacklyn M. Electronic filer
US7013029B2 (en) * 2001-06-29 2006-03-14 Intel Corporation Incorporating handwritten notations into an electronic document
US20030004991A1 (en) * 2001-06-29 2003-01-02 Keskar Dhananjay V. Correlating handwritten annotations to a document
US7594172B2 (en) * 2001-10-10 2009-09-22 Fish Robert D Data storage using spreadsheet and metatags
EP1310862B1 (de) * 2001-11-09 2018-09-26 Brother Kogyo Kabushiki Kaisha Druckersystem
US7120299B2 (en) 2001-12-28 2006-10-10 Intel Corporation Recognizing commands written onto a medium
US7058652B2 (en) * 2002-08-15 2006-06-06 General Electric Capital Corporation Method and system for event phrase identification
US7236653B2 (en) * 2003-03-27 2007-06-26 Sharp Laboratories Of America, Inc. System and method for locating document areas using markup symbols
US20050162399A1 (en) * 2004-01-23 2005-07-28 Kabushiki Kaisha Toshiba Displaying and inputting apparatus
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US20060104515A1 (en) * 2004-07-19 2006-05-18 King Martin T Automatic modification of WEB pages
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7000602B2 (en) * 2004-03-05 2006-02-21 Ford Global Technologies, Llc Engine system and fuel vapor purging system with cylinder deactivation
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
JP2005309727A (ja) * 2004-04-21 2005-11-04 Hitachi Ltd ファイルシステム
JP2005345616A (ja) * 2004-06-01 2005-12-15 Canon Inc 情報処理装置及び情報処理方法
JP4478513B2 (ja) * 2004-06-10 2010-06-09 キヤノン株式会社 デジタルカメラ、デジタルカメラの制御方法、プログラムおよびそれを格納した記録媒体
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
JP2006072614A (ja) * 2004-09-01 2006-03-16 Matsushita Electric Ind Co Ltd 画像ファイルの保存方法およびその関連技術
JP4612834B2 (ja) * 2004-12-17 2011-01-12 キヤノン株式会社 文書管理システム、文書検索方法、コンピュータプログラム、文書検索装置
JP2007199826A (ja) * 2006-01-24 2007-08-09 Canon Inc 画像処理装置および文書管理サーバおよび文書管理システムおよびその文書管理制御方法
US8396331B2 (en) * 2007-02-26 2013-03-12 Microsoft Corporation Generating a multi-use vocabulary based on image data
US8347206B2 (en) 2007-03-15 2013-01-01 Microsoft Corporation Interactive image tagging
US8094939B2 (en) * 2007-06-26 2012-01-10 Microsoft Corporation Digital ink-based search
US8315482B2 (en) * 2007-06-26 2012-11-20 Microsoft Corporation Integrated platform for user input of digital ink
CN102016837B (zh) * 2007-11-26 2014-08-20 沃伦·丹尼尔·蔡尔德 中文型文字及文字偏旁的分类及检索的系统与方法
JP4525785B2 (ja) * 2008-03-31 2010-08-18 ブラザー工業株式会社 情報処理装置及びコンピュータプログラム
JP4645731B2 (ja) * 2008-12-10 2011-03-09 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置、画像データ管理方法、およびコンピュータプログラム
CN105930311B (zh) 2009-02-18 2018-10-09 谷歌有限责任公司 执行与再现文档关联的动作的方法、移动设备和可读介质
WO2010105245A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Automatically providing content associated with captured information, such as information captured in real-time
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
TWI459228B (zh) * 2011-11-04 2014-11-01 Inventec Corp 生活提醒方法
WO2015047297A1 (en) * 2013-09-27 2015-04-02 Hewlett-Packard Development Company, L.P. Device for identifying digital content
JP6364786B2 (ja) * 2014-01-24 2018-08-01 富士通株式会社 設計書管理プログラム、設計書管理方法および設計書管理装置
JP6600203B2 (ja) * 2015-09-15 2019-10-30 キヤノン株式会社 情報処理装置、情報処理方法、コンテンツ管理システム、およびプログラム

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3995389A (en) 1975-06-06 1976-12-07 Mathis Tracy L Reference index system
US5146600A (en) 1988-04-30 1992-09-08 Minolta Camera Kabushiki Kaisha Document image filing system for furnishing additional managerial information for management of documents filed in the system
US6247031B1 (en) * 1988-04-30 2001-06-12 Minolta Co., Ltd. Image filing system for memorizing images read from a given document together with small characterizing image
US5404514A (en) 1989-12-26 1995-04-04 Kageneck; Karl-Erbo G. Method of indexing and retrieval of electronically-stored documents
US5088026A (en) 1990-02-09 1992-02-11 International Business Machines Corporation Method for managing a data cache using virtual external storage addresses as arguments
US5172281A (en) 1990-12-17 1992-12-15 Ardis Patrick M Video transcript retriever
JPH04311275A (ja) * 1991-04-09 1992-11-04 Canon Inc 画像形成装置および画像形成装置の制御方法
US5428778A (en) 1992-02-13 1995-06-27 Office Express Pty. Ltd. Selective dissemination of information
JPH05307499A (ja) * 1992-04-30 1993-11-19 Matsushita Electric Ind Co Ltd 情報検索装置
US5473744A (en) 1992-09-28 1995-12-05 Optical Magnetic Imaging Corporation Computer-assisted interactive method and apparatus for making a multi-media presentation
US5410663A (en) 1992-10-15 1995-04-25 International Business Machines Corporation Method and system for cache memory congruence class management in a data processing system
US5825919A (en) * 1992-12-17 1998-10-20 Xerox Corporation Technique for generating bounding boxes for word spotting in bitmap images
JP3083676B2 (ja) 1993-05-21 2000-09-04 株式会社日立製作所 デ−タファイル装置
JP3337798B2 (ja) * 1993-12-24 2002-10-21 キヤノン株式会社 画像データ及び音声データを処理する装置、データ処理装置並びにデータ処理方法
US5913222A (en) 1994-04-15 1999-06-15 Gmd-Forschungszentrum Informationstechnik Gmbh Color correction method in a virtually addressed and physically indexed cache memory in the event of no cache hit
US5610812A (en) 1994-06-24 1997-03-11 Mitsubishi Electric Information Technology Center America, Inc. Contextual tagger utilizing deterministic finite state transducer
US5758257A (en) * 1994-11-29 1998-05-26 Herz; Frederick System and method for scheduling broadcast of and access to video programs and other data using customer profiles
US5821929A (en) * 1994-11-30 1998-10-13 Canon Kabushiki Kaisha Image processing method and apparatus
US5757959A (en) * 1995-04-05 1998-05-26 Panasonic Technologies, Inc. System and method for handwriting matching using edit distance computation in a systolic array processor
US6311214B1 (en) * 1995-07-27 2001-10-30 Digimarc Corporation Linking of computers based on optical sensing of digital data
DE69525531T2 (de) 1995-09-04 2002-07-04 Hewlett Packard Co Dataverarbeitungssystem mit ringförmiger Warteschlange in einem Seitenspeicher
US5832474A (en) 1996-02-26 1998-11-03 Matsushita Electric Industrial Co., Ltd. Document search and retrieval system with partial match searching of user-drawn annotations
US5848202A (en) * 1996-02-26 1998-12-08 Document Handling Technologies, Inc. System and method for imaging and coding documents
JP3952518B2 (ja) 1996-03-29 2007-08-01 株式会社日立製作所 多次元データ処理方法
US5784699A (en) 1996-05-24 1998-07-21 Oracle Corporation Dynamic memory allocation in a computer using a bit map index
US5809561A (en) 1996-10-07 1998-09-15 International Business Machines Corp. Method and apparatus for real memory page handling for cache optimization
US5930802A (en) 1996-11-29 1999-07-27 Daewoo Electronics Co., Ltd. Method for automatically linking index data with image data in a search system
US6012069A (en) * 1997-01-28 2000-01-04 Dainippon Screen Mfg. Co., Ltd. Method and apparatus for retrieving a desired image from an image database using keywords
JP3001460B2 (ja) * 1997-05-21 2000-01-24 株式会社エヌイーシー情報システムズ 文書分類装置
US5964857A (en) 1997-05-30 1999-10-12 Quality Semiconductor, Inc. Priority encoder for a content addressable memory system
US5953700A (en) * 1997-06-11 1999-09-14 International Business Machines Corporation Portable acoustic interface for remote access to automatic speech/speaker recognition server
US6424429B1 (en) * 1997-11-14 2002-07-23 Ricoh Company, Ltd. File system and a recording medium with a program used in the system stored therein
US6336124B1 (en) * 1998-10-01 2002-01-01 Bcl Computers, Inc. Conversion data representing a document to other formats for manipulation and display
US6317740B1 (en) * 1998-10-19 2001-11-13 Nec Usa, Inc. Method and apparatus for assigning keywords to media objects
US6542295B2 (en) * 2000-01-26 2003-04-01 Donald R. M. Boys Trinocular field glasses with digital photograph capability and integrated focus function

Also Published As

Publication number Publication date
EP1158429B1 (de) 2006-01-04
JP2001357046A (ja) 2001-12-26
EP1158429A2 (de) 2001-11-28
US6625335B1 (en) 2003-09-23
EP1158429A3 (de) 2002-02-27
DE60116442D1 (de) 2006-03-30

Similar Documents

Publication Publication Date Title
DE60116442T2 (de) System zur Zuordnung von Schlüsselwörtern zu Dokumenten
DE10308014B4 (de) System und Verfahren zum Lokalisieren eines nichttextlichen Bereichs eines elektronischen Dokumentes oder Bildes, der mit einer benutzerdefinierten Beschreibung des Bereichs übereinstimmt
DE69731418T2 (de) Such- und Wiederauffindungssystem für Dokumente mit Suchverfahren von teilweise passenden, benutzergezeichneten Anmerkungen
DE69434620T2 (de) Verfahren und Gerät zum Herstellen, Indexieren und Anschauen von zusammengefassten Dokumenten
Yanikoglu et al. Pink Panther: a complete environment for ground-truthing and benchmarking document page segmentation
DE19708265B4 (de) Verfahren zum Durchsuchen einer Dokument-Bilddatenbank und Dokumentbild-Durchstöberungssystem sowie Verfahren zum Extrahieren eines Merkmalsvektors aus einem elektronisch gespeicherten Bild
US6400845B1 (en) System and method for data extraction from digital images
Shahab et al. An open approach towards the benchmarking of table structure recognition systems
DE69637073T2 (de) Prozessor und verarbeitungsverfahren für dokumente
JP4533273B2 (ja) 画像処理装置及び画像処理方法、プログラム
JP4118349B2 (ja) 文書選択等の方法及び文書サーバ
DE60312572T2 (de) Verfahren und Gerät zum Konvertieren digitaler Bilder von Handzeichnungen zur weiteren Verwendung in einem strukturierten Text/Graphik Editor.
JP4895340B2 (ja) 情報処理装置およびその方法
US6446099B1 (en) Document matching using structural information
US9710524B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
CN100397864C (zh) 图像处理系统及图像处理方法
US20060085442A1 (en) Document image information management apparatus and document image information management program
DE10322725A1 (de) System und Verfahren zum Erzeugen von Bildkommentarinformationen
DE112007001792T5 (de) Verfahren und Vorrichtung zum Vergleichen von Dokumentmerkmalen mittels einer Mustererkennung
DE10105941A1 (de) System und Verfahren zum automatischen Zuweisen eines Dateinamens zu einem gescannten Dokument
US20100321714A1 (en) Method of scanning
CN101178725A (zh) 用于信息检索的设备、方法和计算机程序产品
DE19705757A1 (de) Verfahren und Gerät für das Design eines hoch-zuverlässigen Mustererkennungs-Systems
DE60118399T2 (de) System und verfahren zur automatischen aufbereitung und suche von abgetasteten dokumenten
US8605297B2 (en) Method of scanning to a field that covers a delimited area of a document repeatedly

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee