DE69731418T2 - Such- und Wiederauffindungssystem für Dokumente mit Suchverfahren von teilweise passenden, benutzergezeichneten Anmerkungen - Google Patents

Such- und Wiederauffindungssystem für Dokumente mit Suchverfahren von teilweise passenden, benutzergezeichneten Anmerkungen Download PDF

Info

Publication number
DE69731418T2
DE69731418T2 DE69731418T DE69731418T DE69731418T2 DE 69731418 T2 DE69731418 T2 DE 69731418T2 DE 69731418 T DE69731418 T DE 69731418T DE 69731418 T DE69731418 T DE 69731418T DE 69731418 T2 DE69731418 T2 DE 69731418T2
Authority
DE
Germany
Prior art keywords
user
drawn
data
search
document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69731418T
Other languages
English (en)
Other versions
DE69731418D1 (de
Inventor
Daniel P. Hopewell Lopresti
Yue Plainsboro Ma
Jian Plainsboro Zhou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69731418D1 publication Critical patent/DE69731418D1/de
Publication of DE69731418T2 publication Critical patent/DE69731418T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99932Access augmentation or optimizing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching
    • Y10S707/99936Pattern matching access

Description

  • Die vorliegende Erfindung betrifft allgemein Such- und Abfragesysteme für Datenbanken. Insbesondere betrifft die Erfindung ein Such- und Abfragesystem für Dokumentanmerkungen, welches suchbare, von einem Benutzer gezeichnete Anmerkungen unterstützt.
  • Traditionelle Dokumentenspeicher-Datenbanken vertrauen auf verschiedene Indiziersysteme, um es dem Benutzer zu ermöglichen, ein interessierendes Dokument zu speichern und anschließend später ausfindig zu machen. Herkömmlicherweise können Dokumente in der Gestalt eines alphanumerischen Textes direkt unter Verwendung von Schlüsselwort-Suchtechniken gesucht werden. Herkömmlicherweise müssen bitweise abgebildete Bilder, gescannte Bilder und Grafiken zuerst durch Hinzufügen alphanumerischer Zahlen oder Schlüsselwörter indiziert werden, bevor nach diesen Dokumenten gesucht werden kann und diese Dokumente abgefragt werden können. Normalerweise werden diese Indexzahlen und -schlüsselwörter mittels einer Tastatureingabe als alphanumerischer Text hinzugefügt. Alternativ könnten optische Zeichenerkennungs-(„optical character recognition, OCR"-)Techniken verwendet werden, um bitweise abgebildete Textbilder in eine Form umzuwandeln, die direkt unter Verwendung von Schlüsselwort-Suchtechniken gesucht werden kann.
  • Obwohl die Verwendung von alphanumerischem Text bei Such- und Abfragesystemen bei vielen Datenbank-Anwendungen zuverlässig arbeitet, gibt es viele Anwendungen, die für eine Dokumentindizierung und -anmerkung mittels einer Tastatureingabe nicht gut geeignet sind. Das unternehmensweite Verwaltungssystem für Dokumente und Bilder ist ein gutes Beispiel.
  • Heute besteht ein beachtliches Interesse an Verwaltungssystemen für Dokumente und Bilder, die durch Vernetzung eines gesamten Unternehmens entwickelt werden können. Eine Flexibilität und Einfachheit der Verwendung stellen wesentliche Überlegungen dar. Eine Verwendung eines existierenden Büroautomatisierungsgeräts ist ebenfalls, wo es möglich ist, höchst wünschenswert. Somit könnten Faxgeräte, Fotokopierer und Flachbettscanner als Dokumenteneingabevorrichtungen in einem vernetzten Dokumentenspeicher- und -abfragesystem verwendet werden. Bspw. könnte eine elektronische Bildkopie eines Dokuments eingefangen bzw. erfasst und in einer Dokumentendatenbank gespeichert werden, wenn eine Fotokopie des Dokuments gemacht wird. Einmal in der Datenbank gespeichert, kann ein Benutzer, der bspw. über ein Netzwerk mit der Datenbank verbunden ist, das Dokument am Bildschirm betrachten und kann eine Hardcopy des Dokuments unter Verwendung eines angeschlossenen Druckers drucken. Ein solches Dokumentenspeicher- und -abfragesystem hat die Kapazität, hunderttausende Dokumente zu erfassen, die später mit anderen in dem Netzwerk geteilt werden könnten. Obwohl diese neuen Systeme ein „papierloses" Büro der Zukunft verspre chen, gibt es dennoch ein beachtliches Moment hinter der altmodischen Papierkopie.
  • Ehemals war die altmodische Papierkopie eines Dokuments für viele nützlicher, da sie beschrieben werden konnte, um persönliche handgeschriebene Notizen, Unterstreichungen und andere solche, von einem Benutzer gezeichneten Anmerkungen hinzuzufügen. Die Schwierigkeit bei der altmodischen Papierkopie ist, dass diese von dem Benutzer gezeichneten Anmerkungen keinen aktiven Teil der Dokumentendatenbank bilden. Obwohl es möglich ist, die Dokumente erneut zu scannen, wenn Anmerkungen hinzugefügt wurden, vergrößert dies unnötigerweise die Größe der Dokumentendatenbank, und die Anmerkungen selbst bilden keinen Teil des Computer-suchbaren Indiziersystems.
  • Aus der EP-A1-0 649 107 ist ein Verfahren zum rechentechnischen Identifizieren von bedeutenden Verhältnissen zwischen Datenobjekten in einem graphischen Eingabesystem bekannt. Gemäß diesem bekannten Verfahren kann ein Benutzer Schlüsselobjekte in der Gestalt rechentechnisch erkannter Bildsegmente bezeichnen, denen ein einzigartiges Kennzeichen („identifyer") zugewiesen ist. Dieses Kennzeichen ist rechentechnisch von anderen Schlüsselobjekt-Kennzeichen unterscheidbar. Die Schlüsselobjekte sind mit anderen Datenobjekten verknüpft, in denen das Schlüsselobjektkennzeichen diesen anderen Datenobjekten angehängt wird.
  • Aus der EP-A2-0 686 931 ist ein Verfahren zum Suchen einer nicht erkannten Handschrift bekannt. Zieldaten, die als Messwertpunkte von räumlichen Koordinaten über die Zeit gesammelt sind, werden in einer einzigen Zielgestiksequenz von Messwert punkten verkettet. Ein Suchen nach und eine Gleichheitsprüfung von Gestik-basierten Daten wird basierend auf diesen Zieldaten durchgeführt.
  • Es ist die Aufgabe der vorliegenden Erfindung, ein verbessertes Dokumentensuch- und -abfragesystem zu schaffen, das keine Verdoppelung des Dokuments erfordert.
  • Gemäß der Erfindung kann der Benutzer, der einen Digitalisierstift oder ein anderes, geeignetes Zeichengerät verwendet, elektronisch Anmerkungen zeichnen, die elektronisch angezeigt und mit einem ausgewählten Dokument innerhalb einer Datenbank gespeichert werden. Eine Suchmaschine kann das mit einer Anmerkung versehene Dokument in Reaktion auf eine von dem Benutzer gezeichnete Abfrage mittels einer Teilübereinstimmungssuchtechnik ausfindig machen. Die Teilübereinstimmungssuchtechnik vergleicht zeitliche und räumliche Komponenten der von dem Benutzer gezeichneten Anmerkungen, ohne eine Übersetzung in alphanumerische Zeichen zu benötigen. Somit arbeitet die Suchmaschine mit allen Formen von von dem Benutzer gezeichneten Zeichen, Symbolen, Bildern und dergleichen.
  • Somit erlaubt es die Erfindung, von dem Benutzer gezeichnete Anmerkungen auf eine einfache Weise in das gespeicherte Dokument einzufügen oder sie mit dem gespeicherten Dokument derart zu verknüpfen, dass die Benutzeranmerkungen als Teil einer Dokumentenabfrage gesucht werden können. Die Teilübereinstimmungssuchtechnik arbeitet auf zwei Niveaus. In dem Bereich eines „Tinte"-Datentyps (zeitliche und räumliche Komponenten der von dem Benutzer gezeichneten Anmerkung) erlaubt es eine Unschärfeübereinstimmung zwischen der Abfragetinte und der Datenbanktinte erstens, von dem Benutzer gezeichnete Anmerkungen in der Datenbank ausfindig zu machen, selbst wenn der Benutzer die Anmerkung nicht auf die gleiche präzise Weise beim Eingeben einer Abfrage zeichnet. Zweitens kann die Teilübereinstimmungs-(Worterkennungs-)Technik einen Abschnitt einer von einem Benutzer gezeichneten Anmerkung identifizieren, selbst wenn die gesamte Anmerkung nicht als Abfrage eingegeben wird. Die bevorzugte Teilübereinstimmungssuchtechnik handhabt beide Niveaus einer ungefähren Übereinstimmung.
  • Insbesondere macht der Benutzer auf elektronische Weise eine oder mehrere Anmerkungen auf dem angezeigten Bild eines gespeicherten Dokuments unter Verwendung einer Stiftschnittstelle. Diese Anmerkungen werden mit dem gespeicherten Dokument verknüpft und können gesucht werden, um das Dokument später abzurufen. Das System erfasst von einem Benutzer gezeichnete Anmerkungen als Sequenz oder Kette von „Tinten"-Strichen, wobei die präzise (X, Y)-Position der Stiftspitze über die Zeit erfasst wird, wenn der Benutzer eine Anmerkung schreibt oder zeichnet. Somit erfasst der Tintendatentyp nicht nur die räumliche Position der Tinte, sondern auch die zeitliche Sequenz, über die die Tinte angewendet wird, wenn der Benutzer die Anmerkung zeichnet.
  • Durch Vereinfachung der Suche und Abfrage von handgezeichneten Anmerkungen wird die vorliegende Erfindung bei multilingualen Anwendungen extrem leistungsstark. Der Benutzer könnte z. B. einfach handgezeichnete Kanji- (Chinesisch oder Japanisch) und/oder arabische Anmerkungen eingeben, ohne eine geeignet programmierte Tastatur zu brauchen. Dies ist ein bedeutender Vorteil gegenüber jedem System, das allein auf einer Tastatureingabe basiert.
  • Die elektronischen „Tinten"-Striche werden zusammen mit bzw. in Zuordnung zu dem Dokumentbild gespeichert, was es der von einem Benutzer gezeichneten Anmerkung ermöglicht, auf dem Anzeigebildschirm bei der ursprünglich gezeichneten Stelle angezeigt zu werden, wenn das Dokument aus der Datenbank zum Betrachten abgerufen wird. Der Dokumentenbrowser umfasst für den Benutzer ein Dokumentenabfragewerkzeug, um Anmerkungs-Suchabfragen einzugeben. Das Abfragewerkzeug stellt ein Fenster dar, in das der Benutzer eine Abfrageaufforderung unter Verwendung des Stifts zeichnet. Der Benutzer kann z. B. das Wort „Important!" in das Abfragefenster schreiben, und die Suchmaschine wird dann die Dokumentendatenbank nach allen Erscheinungen durchsuchen, die mit der handgezeichneten Eingabe „Important!" des Benutzers übereinstimmen. Die Suchmaschine verlangt keine exakte Übereinstimmung, sondern hat die Flexibilität, mehrfache Abwandlungen der handgezeichneten Eingabe zu identifizieren (unscharfe Gleichheitsprüfung). Des Weiteren kann die Suchmaschine nach einem Teil der in Frage stehenden Anmerkung suchen. Somit könnte der Benutzer „Important" schreiben und alle Erscheinungen der Anmerkung „Important information" finden.
  • Die Suchmaschine führt eine „Tinten"-Strich-Musterübereinstimmung durch, die eine Übersetzung des „Tinten"-Strichs in ein alphanumerisches Zeichen nicht erfordert. Tatsächlich arbeitet das System mit von einem Benutzer gezeichneten Symbolen eines beliebigen Designs sehr gut. Somit besteht kein Bedürfnis, auf unzuverlässige Handschrifterkennungsalgorithmen zu vertrauen. Jedoch können, falls gewünscht, Handschrifterken nungsalgorithmen im Hintergrund durchgeführt werden, um die Suchfähigkeiten des Systems zu erhöhen. Eine Verwendung einer Handschrifterkennung, um eine Systemleistung zu erhöhen, ist auf Anmerkungen anwendbar, die aus Text bestehen.
  • Dementsprechend ermöglicht ein Aspekt der Erfindung ein Dokumentensuch- und -abfragesystem, das einen Speicher verwendet, der eine erste Datenstruktur zum Speichern von Dokumentdaten und eine zweite Datenstruktur zum Speichern von Anmerkungsdaten aufweist. Das System umfasst auch eine Benutzerschnittstelle mit einem Zeichenwerkzeug für eine Benutzereingabe von Strichdaten, die einer von einem Benutzer gezeichneten Anmerkung entsprechen. Die Strichdaten weisen räumliche und zeitliche Komponenten auf. Die Benutzerschnittstelle steht mit der zweiten Datenstruktur in Verbindung, um die räumlichen und zeitlichen Komponenten der Strichdaten zusammen mit einem von einem Benutzer ausgewählten Teil der Dokumentdaten zu speichern. Praktisch könnten die Strichdaten, die einer von einem Benutzer gezeichneten Anmerkung entsprechen, mit einem Bereich auf einer Seite eines Dokuments verknüpft werden.
  • Das System umfasst des Weiteren eine Suchmaschine, die mit der Benutzerschnittstelle in Verbindung steht, um eine von einem Benutzer gezeichnete Suchabfrage zu empfangen, die Strichdaten aufweist. Die Suchmaschine steht mit der zweiten Datenstruktur in Verbindung, um Muster hinsichtlich der räumlichen und zeitlichen Komponenten der Suchabfrage mit Mustern hinsichtlich der räumlichen und zeitlichen Komponenten der von einem Benutzer gezeichneten Anmerkung auf Gleichheit zu prüfen. Die Suchmaschine ordnet zumindest einen Teil der Anmerkungen in der Datenbank basierend auf den Suchergebnissen und präsentiert sie dem Benutzer in der Gestalt einer oder mehrerer Hypothesen. Vorzugsweise wird das System die Suchergebnisse an den Benutzer in einer abfallenden „Güte"-Reihenfolge zurückgeben.
  • Die Suchmaschine greift dann auf die erste Datenstruktur zu, um einen Teil der Dokumentdaten auszuwählen, der der von einem Benutzer ausgewählten Übereinstimmungshypothese entspricht. Auf diese Weise wird die Seite oder der andere Teil der Dokumentdaten, die mit der von einem Benutzer gezeichneten Anmerkung verknüpft sind, zur Betrachtung durch den Benutzer abgerufen.
  • Für ein vollständigeres Verständnis der Erfindung, ihrer Aufgaben und Vorteile wird auf die nachfolgende Beschreibung und die beigefügten Zeichnungen Bezug genommen.
  • 1 stellt ein Blockdiagramm dar, das eine exemplarische Ausführungsform der Erfindung veranschaulicht.
  • 2 veranschaulicht eine mögliche Maske eines Dokumentbrowsers, was für ein Verständnis der Anmerkungsfähigkeiten der Erfindung nützlich ist.
  • 3 stellt eine detaillierte Ansicht dar, die die Operation einer Editierschieberleiste für Anmerkungen veranschaulicht.
  • 4 veranschaulicht eine mögliche Benutzerschnittstellen-Maske zum Eingeben einer Anmerkungsabfrage unter Verwendung der Erfindung.
  • 5 stellt ein Software-Blockdiagramm des Such- und Abfragesystems der Erfindung dar.
  • 6 stellt ein Funktionsdiagramm dar, das die grundlegende Editier-Entfernungstechnik veranschaulicht, die von der bevorzugten Ausführungsform verwendet wird.
  • 7 stellt ein weiteres Funktionsdiagramm dar, das veranschaulicht, wie eine Teilübereinstimung mit der Editier-Entfernungstechnik durchgeführt werden könnte.
  • 8 veranschaulicht die Weise, wie eine von einem Benutzer eingegebene Abfrage mehrere Kandidaten auswählen wird, die basierend auf einer Bewertung sortiert sind.
  • 9 stellt ein Diagramm dar, das die Teilübereinstimmungs- oder eine Worterkennungs-Funktionalität der Erfindung durch englische, Kanji- und bildliche Beispiele veranschaulicht.
  • 10 veranschaulicht, dass Linienunterbrechungen keinen Einfluss auf die Tintensuchstrategie der vorliegenden bevorzugten Ausführungsform haben.
  • 11 stellt ein Flussdiagramm dar, das die Stiftstrich-Klassifizierung unter Verwendung einer Vektorquantifizierung gemäß der vorliegenden bevorzugten Ausführungsform veranschaulicht.
  • Bezug nehmend auf 1 ist ein Netzwerk-basiertes Dokumentensuch- und -Abfragesystem allgemein mit 10 veranschau licht. Das veranschaulichte System stellt lediglich eine mögliche Konfiguration dar. In 1 ist die Dokumentendatenbank schematisch bei 12 veranschaulicht. Es versteht sich, dass die Dokumentdatenbank viele Formen annehmen kann. Die Dokumentdatenbank könnte z. B. als Dateiserver 13 implementiert sein, wobei digitale Dokumente auf einem geeigneten Lese/Schreib-Speichermedium gespeichert werden, wie z. B. einer Festplatte 15. Der Dateiserver und seine verbundenen Speichermedien könnten einen Teil eines Computernetzwerks bilden, das über einen geeigneten Kommunikationsübertragungslink verbunden ist, wie er allgemein bei 14 veranschaulicht ist.
  • Das Netzwerk könnte auch einen oder mehrere Computerarbeitsplätze umfassen, wie z. B. einen Arbeitsplatzrechner 16, der einen Monitor 18 aufweist und auf dem eine Client-Dokumentenbrowser-Anwendung 20 läuft. In 2 ist die Dokumentenbrowser-Anwendung gezeigt, wie ihre Anzeige auf dem Monitor 18 erscheinen würde. Es versteht sich, dass die Browsersoftware-Anwendung tatsächlich auf dem Arbeitsplatzrechner 16 läuft und dass die Anzeige, die auf dem Monitor 18 erscheint, durch die laufende Browser-Anwendung erzeugt wird.
  • Der Arbeitsplatzrechner 16 ist mit einem Zeichenwerkzeug versehen, wie z. B. einem Stift 22 und einem Digitalisierungstablett 24. Der Stift und das Digitalisierungstablett sind durch die Benutzerschnittstelle der Browser-Anwendung 20 angekoppelt, was es dem Benutzer ermöglicht, mit dem Stift auf dem Tablett zu zeichnen und die Ergebnisse als Anmerkungen auf der Dokumenten-Browser-Anzeigemaske erscheinen zu sehen.
  • Hinsichtlich des Zeichenwerkzeugs sind alternative Ausführungsformen möglich, obwohl hier ein Digitalisierungstablett und ein Stift veranschaulicht sind. Ein Lichtstift könnte z. B. verwendet werden, um direkt auf dem Monitorschirm anstatt mit dem Digitalisierungstablett und dem Stift zu zeichnen. Alternativ könnte ein geeignet programmierter Stiftcomputer oder ein persönlicher digitaler Assistent („personal digital assistant, PDA"), wie z. B. der Newton (Marke der Firma Apple Computer) verwendet werden.
  • Die Browser-Anwendung 20, die auf dem Arbeitsplatzrechner 16 läuft, kommuniziert über das Netzwerk 14, um in der Datenbank 12 gespeicherte Dokumente abzurufen und anzuzeigen. Wie beschrieben werden wird, könnte der Benutzer unter Verwendung der Zeichenwerkzeuge mit diesen Dokumenten interagieren, die bei dem Arbeitsplatzrechner vorgesehen sind.
  • Es gibt mehrere Wege, Dokumente in die Dokumentendatenbank einzugeben. Verschiedene Optionen sind in 1 veranschaulicht. Digitalisierte Bilder von Dokumenten können aus einer Anzahl von Quellen eingegeben werden, einschließlich einem Faxgerät 26, einem Fotokopierer 28 und einem Scanner 30. In 1 wird eine Hardcopy-Seite 32 durch einen Scanner 30 eingegeben und ihr digitales Bild erscheint in dem Anzeigefenster des Dokumenten-Browsers 20.
  • Die gescannten Bilder der Eingabevorrichtungen, wie z. B. dem Faxgerät 26, dem Fotokopierer 28 und dem Scanner 30, könnten als bitweise abgebildete Bilder in einer Vielzahl von kommerziell erhältlichen Formaten gespeichert werden. Die Bilddaten könnten komprimiert werden, falls gewünscht. Alternativ könnten die Bilddaten zu Vektorgrafikdaten umgewandelt werden und in dieser Form gespeichert werden.
  • Zusätzlich zu den gescannten Dokumentbildern kann die Dokumentendatenbank auch Dokumente speichern, die durch Software-Anwendungen erzeugt sind, wie z. B. Textprozessoren, Multimedia-Autorenanwendungen, grafische Abbildungsanwendungen, computergestützte Entwurfanwendungen, Tabellenkalkulationsanwendungen, Online-Anwendungen und netzwerkbasierte Anwendungen (wie z. B. jene, die Dokumente für das World Wide Web in HTML oder dergleichen erzeugen). Diese Anwendungen könnten auf einem oder mehreren Arbeitsplatzrechnern laufen, die mit dem Netzwerk 14 verbunden sind. Die Dokumentendatenbank könnte über eine Anzahl von Maschinen oder über ein lokales Netz oder ein Weitverkehrsnetz verteilt sein. Es ist nicht erforderlich, dass alle Vorrichtungen während der gesamten Zeit mit dem Netzwerk verbunden sind. Dokumentdaten könnten der Datenbank in Echtzeit oder im Stapelbetrieb mittels einer direkten Verbindung mit dem Netzwerk oder über eine geeignete Telekommunikationsverbindung hinzugefügt werden.
  • Bei einer typischen Büroeinstellung könnte der Digitalausgang eines geeignet ausgerüsteten Fotokopierers mit dem Datenverarbeitungsnetzwerk zusammen mit einer geeigneten Anzahl von Arbeitsplatzrechnern, Faxgeräten und Scannern verbunden sein, die überall in dem Arbeitsraum verteilt sind. Die Dokumentendatenbank könnte in einem Dateiserver ansässig sein, der optional für andere Zwecke verwendet werden könnte, wie z. B. zum Unterstützen anderer Büroautomatisierungsfunktionen. Hardcopys von Dokumenten könnten unter Verwendung eines beliebigen Netzwerkdruckers oder eines Arbeitsplatzdruckers gedruckt werden.
  • Zum besseren Verständnis der Fähigkeiten der Erfindung wird Bezug auf 2 genommen, die die Browser-Anwendung 20 detaillierter zeigt. In dieser Hinsicht repräsentieren die besondere Konfiguration und das Layout der verschiedenen Fenster und Benutzersteuerungen eine von vielen möglichen Konfigurationen.
  • In 2 wird das Bild eines ausgewählten Dokuments in einem Anzeigefenster 25 angezeigt. Zu Veranschaulichungszwecken wird hier ein Bild eines Dokuments 32 angezeigt. In dem oberen rechten Segment des Bildschirms 36 gibt es eine Reine von kleinen Skizzen („thumbnail sketches") verschiedener Dokumentseiten, die von der Suchmaschine ausfindig gemacht wurden, um durch den Benutzer ausgewählt zu werden. Die kleine Skizze des aktuell ausgewählten Dokumentbilds wird hell hervorgehoben, wie mit einem hellen Hervorhebungskasten 38. Um ein anderes Bild zur Betrachtung auszuwählen, wählt der Benutzer einfach eine andere kleine Skizze mit dem Zeigercursor oder einem Anmerkungsstiftcursor aus. In dieser Hinsicht könnte der Cursor 40 durch Bewegen der Maus oder durch Positionieren des Stifts bei einer vorausgewählten Stelle auf dem Tablett gesteuert werden. Die kleinen Skizzen werden an eine Scrollleiste 42 angebunden, die der Benutzer manipulieren kann, um durch verschiedene kleine Skizzen in dem Anzeigebereich für kleine Skizzen 36 zu scrollen und diese anzuzeigen.
  • Mehrere von einem Benutzer auswählbare Drucktastensteuerungen werden in dem unteren rechten Teil der Anzeige vorgesehen. Diese umfassen eine Cursortaste 44 und eine Stifttaste 46, die alternativ auswählbar sind. Wenn die Cursortaste ausgewählt wird, wie hier veranschaulicht, wird der normale Zeigercursor 40 angezeigt. Wenn die Stifttaste 46 ausgewählt wird, wird der Anmerkungsstiftcursor anstatt dem Zeigercursor angezeigt. Der Anmerkungsstiftcursor (der später veranschaulicht und ausführlicher beschrieben werden wird) identifiziert den Ort, bei dem von einem Benutzer gezeichnete Anmerkungen auf dem digitalen Bild des Dokuments platziert werden.
  • Zusätzlich zu diesen zwei Tasten sieht die vorliegende bevorzugte Ausführungsform auch eine Notizlöschtaste 50 zum Löschen einer Anmerkung, eine Notizwiederherstellungstaste 52 zum Wiederherstellen einer gelöschten Anmerkung und eine Notizverstecktaste 54 zum Verstecken aller Anmerkungen, ohne sie zu löschen, vor. Die Tasten sind modal; ihre Funktionen ändern sich abhängig davon, ob eine Anmerkung ausgewählt wurde oder nicht. Falls ein Dokument (nicht eine Anmerkung) ausgewählt wird, dann werden die Lösch- und Wiederherstellungsoperationen an dem Dokument durchgeführt (die entsprechenden Bezeichnungen auf den Tasten werden geändert, um dies anzuzeigen). Falls eine Anmerkung ausgewählt wird, funktionieren die Tasten anschließend, wie oben beschrieben, um die ausgewählte Anmerkung zu löschen und wieder herzustellen. Die Notizverstecktaste 54 ist ebenfalls modal. Sie ändert sich zu „Notizen zeigen", wann immer die Notizen versteckt werden.
  • In 2 wurden mehrere separate Anmerkungen veranschaulicht. Insbesondere erscheint eine erste Anmerkung bei 60, eine zweite Anmerkung bei 62 und eine dritte Anmerkung bei 64. Man beachte, dass die dritte Anmerkung eine Reihe nichttextualer Symbole oder Bilder darstellt.
  • Bei der vorliegenden bevorzugten Ausführungsform zeigt die Browser-Anwendung von einem Benutzer gezeichnete Anmerkungen in einer anderen Farbe an, wie z. B. in roter Tinte, was die Anmerkungen einfach aus dem Rest des angezeigten Dokuments hervorstehen lässt.
  • Ein Hinzufügen von Anmerkungen zu einem Dokument ist einfach. Bezug nehmend auf 3 aktiviert der Benutzer einfach die Stifttaste 46, um den Stiftcursor 48 anzuzeigen. Dann positioniert der Benutzer den Stiftcursor einfach unter Verwendung des Stifts 22 und des Digitalisierungstabletts 24 (oder eines anderen bereitgestellten, geeigneten Zeichenwerkzeugs) über der Fläche, welches er oder sie mit Anmerkungen versehen will, und beginnt dann zu schreiben oder zu zeichnen. Beliebige Fehler während der Schaffung der Anmerkung könnten unter Verwendung der Tinteneditier-Schieberleiste 66 korrigiert werden.
  • Wie es nachfolgend ausführlicher erklärt werden wird, werden Anmerkungen als sequenzielle Raum/Zeit-Daten gespeichert. Jeder Strich des Stifts des Benutzers wird auf eine zu einem Digitalfilm analoge Weise aufgezeichnet. Die Tinteneditier-Schieberleiste löscht die Stiftstrichdaten, wobei in der Zeit rückwärts von dem Ende des endgültigen Strichs in Richtung des Anfangs des ersten Strichs fortgeschritten wird. Beliebige Striche, die unter Verwendung der Schieberleiste gelöscht sind, könnten durch Schieben der Schieberleiste in entgegengesetzter Richtung wieder hergestellt werden. Eine permanente Löschung wird lediglich wirksam, wenn eine neue Anmerkung begonnen wird.
  • 3 veranschaulicht die Operation der Tinteneditier-Schieberleiste. In 3 ist bei A eine nichttextuale Benut zeranmerkung in ihrer Gesamtheit veranschaulicht. Bei B werden die letzten gezeichneten „Tinten"-Striche aus der Anmerkung durch Aktivieren der Tintenschieberleistentaste mit dem Zeigercursor 40 gelöscht. Man beachte, dass sich der Schieberleisten-Positionsanzeiger 66a nach links bewegt hat, da die linke Schieberleistentaste betätigt wird. Man beachte, dass dies das „Gesicht" aus der ovalen Anmerkung gelöscht hat. Wie weiter bei C angegeben, löscht eine fortgesetzte Aktivierung der linken Schieberleistentaste durch den Zeigercursor 40 noch mehr von der von einem Benutzer gezeichneten Anmerkung, und zwar in umgekehrter Reihenfolge verglichen mit der Art und Weise, wie sie gezeichnet wurde. Wiederum ist zu beachten, dass sich der Positionsanzeiger 66a noch weiter nach links bewegt hat. Wie bei D veranschaulicht, kann die Löschung durch Aktivieren der rechten Schieberleistentaste durch den Zeigercursor 40 umgekehrt werden. In diesem Fall bewegt sich der Schieberleistenanzeiger 66a nach rechts und ein Teil der von dem Benutzer gezeichneten Anmerkung wird wieder hergestellt. Die Schieberleiste ist somit betrieblich, um die von einem Benutzer gezeichnete Anmerkung vollständig zu löschen und vollständig wieder herzustellen, indem einfach die linke oder rechte Schieberleistentaste betätigt wird.
  • Die Tinteneditier-Schieberleiste ermöglicht es dem Benutzer, den Stift aufzuheben und mehr zu schreiben, nachdem etwas der Tinte unter Verwendung des Schiebers gelöscht wurde.
  • Die Tinteneditier-Schiebeleiste kann auf alternative Weisen implementiert sein. Sie könnte als Strich-basierte Prozedur implementiert sein, wobei in diesem Fall Stiftstriche auf einmal gelöscht und wieder hergestellt werden. Alternativ könnte die Tinteneditier-Schieberleiste als Punkt-basierte Prozedur implementiert sein, wobei in diesem Fall Löschungs- und Wiederherstellungsoperationen auf einer Punkt-um-Punkt- oder Pixel-um-Pixel-Basis durchgeführt werden. Die Anmeldung würde im Wesentlichen auf die gleiche Weise arbeiten, soweit der Benutzer betroffen ist, obwohl die Punkt-basierte Prozedur eine feinkörnigere Steuerung über eine Anmerkungseditierung ermöglichen würde.
  • Die vorliegende bevorzugte Ausführungsform zeigt die von einem Benutzer gezeichneten Anmerkungen direkt auf der Fläche des Dokuments an. Falls gewünscht, kann die Benutzeranmerkung derart angezeigt werden, als ob sie auf einer undurchsichtigen Klebenotiz gezeichnet ist, um die Erscheinung einer Notiz zu simulieren, die auf die Fläche des Dokuments geklebt ist. In diesem Fall wird eine rechtwinklige Fläche um die von einem Benutzer gezeichnete Anmerkung definiert und die rechtwinklige Fläche wird mit einer von einem Benutzer ausgewählten Hintergrundsfarbe ausgefüllt, die den Teil der Dokumentenseite hinter der rechtwinkligen Fläche undurchsichtig bedeckt.
  • Einer der Vorteile der bevorzugten Ausführungsform ist die Fähigkeit, mehrere Anmerkungen auf einer einzelnen Seite aufzuzeichnen. Das System behandelt diese Stiftstriche automatisch als separate Anmerkungen, die (a) sich bei räumlichen Orten befinden, die um mehr als eine vorbestimmte Entfernung getrennt sind; die (b) zu verschiedenen Zeiten gezeichnet sind, (d. h. mit einem zeitlichen Abstand oberhalb eines vorbestimmten Zeitlimits); oder (c), wenn es eine Benutzerschnittstellen-Aktivität zwischen zwei Anmerkungen gibt (wie z. B. eine Betätigung von einer der Benutzerschnittstellen-Tasten).
  • Alle von einem Benutzer gezeichneten Anmerkungen, die auf diese Weise eingegeben sind, werden zusammen mit einer gegebenen Dokumentenseite gespeichert. Unter Verwendung des Druckers des Arbeitsplatzrechners oder eines Druckers, der an das Netzwerk angeschlossen ist, kann die Dokumentenseite entweder mit den oder ohne die Anmerkungen durch einfaches Auswählen oder Abwählen der Notizverstecktaste gedruckt werden.
  • Die wahre Leistung der Erfindung wird vollständig durch die Anmerkungssuchfähigkeit realisiert. Durch Drücken der Anmerkungssuchtaste 67 wird ein Abfragedialogkasten 68 präsentiert, wie in 4 veranschaulicht. Um nach einem Dokument zu suchen, das eine beliebige, von einem Benutzer gezeichnete Anmerkung beinhaltet, zeichnet der Benutzer einfach alle, oder nur einen Teil, der gewünschten Anmerkung in den Abfragedialogkasten und schaltet dann die Suchmaschine durch Betätigen der Auffindtaste 70 ein. Der Abfragekasten umfasst auch die Tinteneditier-Schieberleiste, die wie zuvor beschrieben funktioniert, und auch eine Verwerftaste 72, die verwendet wird, um eine Abfragesuchanforderung rückgängig zu machen und zum Hauptansichtsfenster zurückzukehren. Da das System ereignisgesteuert ist, kann der Abfragekasten so gemacht werden, dass es durch einfaches Auswählen eines anderen Fensters auf dem Anzeigeschirm verschwindet.
  • Eine Betätigung der Auffindtaste veranlasst die Suchmaschine, die gespeicherten Anmerkungen nach diesen Anmerkungen zu durchsuchen, die eine mögliche Übereinstimmung mit der Abfrage repräsentieren. Eine Teilübereinstimmungs-Suchprozedur wird verwendet, die Anmerkungsdaten ordnet, je nach dem, wie nahe oder schlecht jede Anmerkungsübereinstimmung der Abfrage ist. Die n besten Übereinstimmungen werden in einer „Güte"-Reihenfolge in den kleinen Skizzen der Hauptbrowser-Maske dargestellt. Zusätzlich wird auch die „beste" Übereinstimmung in dem Hauptanzeigefenster angezeigt, wie in 4 veranschaulicht. Bei der vorliegenden bevorzugten Ausführungsform werden alle Dokumente, die Anmerkungen beinhalten, geordnet und in der geeigneten Reihenfolge angezeigt. Somit würden die n besten Übereinstimmungen alle Übereinstimmungen repräsentieren.
  • Da eine vorgegebene Seite mehrere Anmerkungen beinhalten könnte, hebt die bevorzugte Ausführungsform die spezifische Anmerkung hell hervor, die der in Frage stehenden Übereinstimmung entspricht. Die vorliegende bevorzugte Ausführungsform hebt die spezifische Anmerkung durch Zeichnen eines Grenzkastens 39 um diese herum hell hervor. Natürlich könnten andere Formen einer hellen Bildhervorhebung ebenfalls verwendet werden, wie z. B. ein Ändern der Farbe oder der Intensität der Anmerkung, ein Blinken der Anmerkung usw.
  • Durch wiederholtes Betätigen der Auffindtaste 70 kann der Benutzer die geordnete Liste durchlaufen, wobei die zugeordneten Dokumente in dem Hauptbrowser-Fenster angezeigt werden. Um dem Benutzerschnittstellenaufruf dieser Funktionalität zu unterstützen, ändert sich das Zeichen der Auffindtaste 70 zu „Nächste" bei einem Anzeigen der geordneten Liste, die einer bestimmten Abfrage entspricht.
  • Dank der Teilübereinstimmungs-(Worterkennungs-)Prozedur kann die Suchmaschine nach Subketten innerhalb vollständiger Anmerkungen suchen. Dies ist in 4 veranschaulicht. In 4 wird eine Subkettenübereinstimmung durchgeführt, um das Wort „Important" innerhalb der ganzen Kette „This is very important!" ausfindig zu machen. Dies ist ein wichtiges Merkmal, da es dem Benutzer ermöglicht wird, eine relevante Anmerkung zu finden, selbst wenn er oder sie sich nicht an den präzisen Wortlaut der vollständigen Anmerkung erinnern kann. Obwohl sich hier auf die Teilübereinstimmungsprozedur als Worterkennungsprozedur bezogen wird, ist die Prozedur nicht auf Text beschränkt. Die Teilübereinstimmungsprozedur oder Worterkennungsprozedur arbeitet gleich gut mit nicht-textualen, von einem Benutzer gezeichneten Anmerkungen.
  • Wie es ausführlicher nachfolgend erläutert werden wird, stellt die Teilübereinstimmungsprozedur eine unscharfe Suchprozedur dar, die mögliche Subketten-Übereinstimmungskandidaten basierend auf einer Bewertung und einer Einordnungsentfernung zwischen der Abfrage und dem Kandidaten identifiziert und einordnet. Die Prozedur erzeugt eine Bewertung für jeden Kandidaten, was es den Kandidaten ermöglicht, in einer „Güte"-Reihenfolge geordnet zu werden. Dies ist in 8 veranschaulicht, wobei die Abfrage nach allen Erscheinungen der von einem Benutzer gezeichneten Abfrage „important" sucht. In 8 erscheint der Kandidat, der die höchste Bewertung empfängt (in diesem Fall eine Bewertung von 26) an der Spitze der sortierten Liste. Das erste Klicken der Auffindtaste wird die beste Übereinstimmung zurückgeben, die am höchsten bei der Tintensuche eingeordnet ist. Wiederholte Benutzung der Auffindtaste wird ein Auffinden der nächstbesten Übereinstimmung fortsetzen, wobei die sortierte Liste von der Spitze zum Boden abgearbeitet wird.
  • 9 zeigt die Worterkennungsfähigkeit der Subketten-Übereinstimmungsprozedur. In 9 sind mehrere Beispielabfragen und entsprechende Anmerkungen gezeigt. Auf jeden Fall kann die Übereinstimmungsprozedur eine Übereinstimmungssubkette innerhalb der vollständigen Anmerkung identifizieren.
  • Ein weiterer Nutzen der Teilübereinstimmungs-Prozedur ist, dass Linienunterbrechungen in den von einem Benutzer gezeichneten Anmerkungen oder in einer Abfrage keinen Einfluss auf die Tintensuche haben. Dies ist in 10 veranschaulicht, in der die von einem Benutzer gezeichnete Anmerkung in Form von zwei Linien erscheint, wohingegen die Abfrage als eine Linie eingegeben ist. Die Linienunterbrechung beim Schreiben der Anmerkung wird derart ignoriert, dass der Benutzer sich nicht erinnern muss, wo die Linienunterbrechungen in der ursprünglichen Anmerkung aufgetreten sein könnten.
  • Die unscharfe Suchtechnik der bevorzugten Ausführungsform verwendet eine vektorquantifizierte (VQ-)Repräsentation der von einem Benutzer gezeichneten Anmerkungen, um Stiftstriche des Tintendatentyps zu erfassen und zu vergleichen. 11 gibt einen Überblick über die Weise, wie eine Stiftstrichklassifizierung unter Verwendung einer Vektorquantifizierung durchgeführt wird. Der Tintendatentyp zeichnet die Bewegung der Stiftspitze über die Oberfläche des Digitalisierungstabletts als Kette von (X, Y)-Tintenpunkten auf. Die individuellen (X, Y)-Tintenpunkte werden sequenziell erfasst, wodurch die zeitliche oder zeitbasierte Komponente der Daten bewahrt wird. Somit könnte der Tintendatentyp als (X, Y, T)-Vektoren aufweisend angesehen werden.
  • Wie in 11 veranschaulicht, werden die eingehenden Tintendaten 200 wie bei 202 zu Strichen getrennt. Ein Segmentieren der Tintendaten zu Strichen ermöglicht es jedem Strich, getrennt analysiert zu werden. Im Wege einer Veranschaulichung zeigt 11, dass das Pluszeichen (+) in den eingehenden Daten 200 von dem Benutzer zuerst durch Bilden einer horizontalen Linie und anschließend durch Bilden einer vertikalen Linie gezeichnet wurde. Dies ist bei 202 veranschaulicht, indem die segmentierten Daten bei 202 von links nach rechts gelesen werden.
  • Nach einer Strichsegmentierung werden die individuellen Striche anschließend analysiert, um Kennzeichenvektoren zu extrahieren. Dies ist schematisch bei 204 gezeigt. In 11 werden die extrahierten Kennzeichenvektoren grafisch gezeigt, um die Darstellung zu vereinfachen. Bei der tatsächlichen Ausführungsform werden die extrahierten Kennzeichenvektoren als numerische Daten repräsentiert, die in dem Computer gespeichert sind. Wie bei 206 angegeben, wird jeder extrahierte Kennzeichenvektor gemäß einem vorbestimmten Codebuch 210 klassifiziert. Die vorliegende bevorzugte Ausführungsform speichert 64 Cluster von Strichtypen, wobei jedes Cluster durch seinen Schwerpunkt oder einen gemittelten Strich diesen Typs repräsentiert wird. Wie in dem Fall der extrahierten Kennzeichenvektoren (Block 204) werden die Kennzeichenvektor-Cluster als numerische Computerdaten gespeichert. In 11 sind die Daten, die ein Codebuch 210 aufweisen, grafisch (anstatt numerisch) gezeigt, um die Darstellung zu vereinfachen. In 11 sei erwähnt, dass das horizontale Liniensegment des Blocks 206 am nächsten mit dem Schwerpunkt 212 des Typ-2-Strichclusters 214 übereinstimmt. Somit wird in der Ausgangskette (Block 216) der VQ-Code 2 verwendet, um die horizontale Linie in Block 206 zu repräsentieren. In einem Block 216 entspricht die am weitesten links angeordnete Ziffer 2 dem am weitesten links angeordneten Linienstrich. Die restlichen Codes repräsentieren die restlichen Tintenstriche, die die ursprünglich eingehenden Tintendaten aufweisen.
  • Durch die oben beschriebene Prozedur werden die eingehenden Tintendaten Stiftstrich um Stiftstrich zu einem Kennzeichenvektor gewandelt, der dann in der Computerdatenbank als die von einem Benutzer gezeichnete Anmerkung gespeichert wird. Dies ist bei 218 dargestellt.
  • Zur weiteren Veranschaulichung ist in 5 ein Software-Blockdiagramm der vorliegenden bevorzugten Ausführungsform gezeigt. Das Anmerkungssystem arbeitet mit digitalisierten Striftstrichdaten, die ultimativ als ein „Tinten"datentyp repräsentiert werden. Wie veranschaulicht werden wird, ist es nicht nötig, den Tintendatentyp in einen ASCII-Zeichendatentyp umzuwandeln, um die Such- und Abfrageprozeduren durchzuführen. Tatsächlich hätte im Fall von grafischen (nicht-textualen) Anmerkungen eine Umwandlung zu ASCII keine Bedeutung.
  • Wie in 5 veranschaulicht, wird die von einem Benutzer gezeichnete Abfrage 100 als Kette von (X, Y)-Tintenpunkten entsprechend der Bewegung der Stiftspitze über die Oberfläche des Digitalisierungstabletts oder -pads erfassst, wenn der Benutzer eine Abfrage 100 zeichnet. Die vorliegende bevorzugte Ausführungsform digitalisiert diese Information durch Abtasten des Ausgangs des Digitalisierungspads mit einer vorbestimmten Abtastrate. Obwohl hier eine feste Abtastrate bevorzugt wird, kann die Erfindung unter Verwendung einer variablen Abtastrate genau so gut implementiert werden. Vermöge der digitalisierten Erfassung der X, Y-Positionsdaten werden sowohl räumliche als auch zeitliche Komponenten der von einem Benutzer gezeichneten Stiftstriche erfasst.
  • Bei der vorliegenden bevorzugten Ausführungsform, die eine feste Abtastrate anwendet, wird jeder X, Y-Datenpunkt mit einer anderen Abtastzeit verknüpft. Da die Abtastrate fest ist, ist es nicht notwendig, die Abtastzeit zu speichern, um die mit dem Stiftstrich verbundenen, zeitlichen Daten zu speichern. Ein einfaches Aufzeichnen der X, Y-Positionsdaten als Sequenz speichert automatisch die zeitlichen Daten, da man von jedem Punkt in der Sequenz weiß, dass er bei der nächstnachfolgenden Abtastzeit auftritt.
  • Bei der Alternative, falls ein variables Abtastratensystem implementiert ist, werden (X, Y, T)-Daten erfasst und gespeichert. Diese Daten stellen die (X, Y)-Tintenpunkte und die entsprechende Zeit T dar, bei der jeder Tintenpunkt erfasst ist.
  • Die Rohtintenpunktdaten werden in einem Datenspeicher 102 gespeichert. Als nächstes wird ein Segmentierungsvorgang 104 an den gespeicherten Tintenpunktdaten 102 durchgeführt. Der vorliegende bevorzugte Segmentierungsvorgang durchsucht die Tintenpunktdaten 102 nach Y-Minima. Dies bedeutet, der Segmentierungsvorgang 104 erfasst solche lokalen Punkte, bei denen die Y-Wert-Koordinate sich bei einem lokalen Minimum befindet. Beim Handzeichnen des Buchstaben „V" als einzelner kontinuierlicher Strich würde der niedrigste Punkt des Buchstabens „V" einen Y-Minima-Wert repräsentieren.
  • Eine Segmentierung wird durchgeführt, um die Rohtintenpunktdaten in besser verwaltbare Teilmengen zu unterteilen. Diese Segmentteilmengen könnten unter Verwendung geeigneter Zeiger bezeichnet werden, um die Speicherstellen anzugeben, bei denen die Y-Minima auftreten. In diesem Fall könnten diese Segmentierungszeiger bei 106 gespeichert werden, um mit den Tintenpunktdaten 102 verknüpft zu werden, die zuvor erfasst sind. Bei der Alternative könnten, falls gewünscht, die segmentierten Daten separat in einem oder mehreren Speicherpuffern, anstatt unter Verwendung von Zeigern, gespeichert werden.
  • Sobald die Rohdaten segmentiert wurden, werden die individuellen Segmente oder Stiftstriche weiterbearbeitet von einem Satz von Extrahierungsfunktionen 108. Die vorliegende bevorzugte Ausführungsform bearbeitet die Stiftstrich-(Segment-)Daten unter Verwendung von 13 verschiedenen Extrahierungsfunktionen, und diese Extrahierungsfunktionen extrahieren jeweils ein anderes Merkmal der Stiftstrichdaten, das dann verwendet wird, um einen Kennzeichenvektor zu konstruieren. Eine Tabelle I listet die vorliegenden bevorzugten Merkmale, die durch die Extrahierungsfunktion 108 extrahiert werden. Zur weiteren Hintergrundsinformation zu diesen Extrahierungsfunktionen siehe Rubine, Dean „Specifying Gestures by Example" Computer Graphics, vol. 25, Nr. 4, Juli 1991. Die Kennzeichen-Vektoren eines gegebenen Strichs sind schematisch in 5 bei 110 repräsentiert.
  • Tabelle I
    Figure 00260001
  • Es gilt ΔxP = xP+1 – xP und ΔyP = YP+1 – YP und ΔtP = tP+1 – tP
    Figure 00260002
    wobei P die Gesamtanzahl der Punkte repräsentiert.
  • Die extrahierten Kennzeichenvektoren, die bei 110 repräsentiert sind, werden dann kodiert oder quantisiert durch Vergleich mit einem vorgegebenen Satz aus Clustern von Strichdatentypen. Die Kennzeichenvektordaten 110 werden durch einen Vektorquantisierungsvorgang 112 quantisiert, um jedem Cluster den nächsten vorbestimmten Strichtyp zuzuweisen. In dieser Hinsicht definiert die vorliegende bevorzugte Ausführungsform 64 verschiedene Strichtypen, die jeweils durch einen anderen Namen oder eine andere Zahl repräsentiert werden. Obwohl das vorliegende bevorzugte System 64 verschiedene Strichtypen verwendet, können die Grundsätze der Erfindung mit einer größeren oder geringeren Anzahl von Strichtypen angewandt werden.
  • Die vorbestimmten Strichtypen werden während einer Trainingsprozedur 113 erhalten. Die Trainingsprozedur könnte verwendet werden, um einen Vektorquantisierungs-(Vg-)Codebuch 114 vorzubestimmen, das dann für mehrere Benutzer verwendet wird. Alternativ kann die Trainingsprozedur vor einer Verwendung durch einen individuellen Benutzer verwendet werden. Beide Anwendungen arbeiten gut. In beiden Fällen ist das System dennoch benutzerabhängig, da es eine große Variationsmenge bei der Art geben kann, wie zwei verschiedene Personen die gleiche Anmerkung zeichnen. Somit ist die bevorzugte Ausführungsform bestens geeignet, eigene Anmerkungen von jemand zu suchen.
  • Falls die Dokumentendatenbank von mehreren Benutzern gemeinsam benutzt wird, ist es für jeden Benutzer möglich, seinen oder ihren eigenen persönlichen Anmerkungssatz zu haben, der durchsucht werden kann und der nichtsdestotrotz „unsichtbar" für alle anderen ist. Alternativ könnten die Anmerkungen auch gemeinsam genutzt werden. Wie oben erwähnt, sind geteilte An merkungen schwieriger auf Grund der potenziellen Abwandlungen in Bezug auf die Art zu implementieren, wie verschiedene Personen die gleiche Anmerkung zeichnen.
  • Ein Training bringt ein Verarbeiten eines kleinen Teils von Trainingsdaten mit sich, die der Benutzer von Hand unter Verwendung des Digitalisierungstabletts und des Stifts eingibt. Die Trainingsdaten werden durch Segmentierung und Kennzeichenextrahierung verarbeitet, wie oben erwähnt. Die resultierenden Kennzeichenvektoren der Trainingsdaten werden dann unter Verwendung von herkömmlichen Cluster-Techniken verarbeitet, die die 64 ungleichartigsten Cluster identifizieren, um die 64 Strichtypen für diese Trainingssequenz zu repräsentieren. Numerische Werte oder andere geeignete Benennungskonventionen werden verwendet, um jeden der identifizierten Strichtypen in dem Trainingssatz zu benennen. Diese Daten werden dann als Codebuch der benutzerabhängigen Strichtypen 114 gespeichert. Diese gespeicherten Trainingsdatenwerte werden beim Durchführen des Vektorquantifizierungsvorgangs 112 verwendet.
  • Im Wesentlichen könnten die Strichdaten für eine vorgegebene, von einem Benutzer gezeichnete Anmerkung als Kette aus Symbolen angesehen werden. Als ursprüngliche Eingabe in der Form von rohen (X, Y, T)-Daten entspricht die Kette aus Symbolen tatsächlichen räumlichen und zeitlichen Komponenten des Stiftstrichs über das Digitalisierungstablett. Durch die Reihe oben beschriebener Verarbeitungsschritten wird diese Symbolkette zu einer Symbolkette des Strichdatentyps umgewandelt, d. h. eine Kette aus vektorquantifizierten Symbolen wird bei 115 gespeichert.
  • Man erkennt, dass in den meisten Fällen der Benutzer die gleiche Anmerkung nicht auf die gleiche, präzise Weise jedes Mal und zu jeder Zeit zeichnen wird. Dies bedeutet, dass die (X, Y, T)-Koordinaten und zeitlichen Eigenschaften einer vorgegebenen Anmerkung etwas variieren könnten, und zwar jedes Mal, wenn der Benutzer diese Anmerkung zeichnet. Das vorliegende bevorzugte System passt sich dieser Variation zuerst auf die Weise an, auf die die Vektorquantisierung durchgeführt wird. Insbesondere weist der Vektorquantifizierungsvorgang 112 jedem Eingangsstrich den vorbestimmten Vektor aus den benutzerabhängigen Strichtypen 114 zu, der die nächste Übereinstimmung repräsentiert.
  • Nachdem jeder der die Abfrage repräsentierenden Striche auf diese Weise verarbeitet wurde, wird ein Vergleich zwischen diesen Strichen und den von einem Benutzer gezeichneten Anmerkungen gezogen, die zusammen mit den Dokumenten in der Datenbank 120 gespeichert wurden. Somit könnte z. B. die Abfrage „important" mit der gespeicherten Anmerkung „This is very important!" verglichen werden. Eine Editier-Entfernungsanalyse wird durchgeführt, um diesen Vergleich zu bilden.
  • Als Editier-Entfernungsanalysevorgang 118 gezeigt, wird die Abfrage-Strichtypkette mit jeder der gespeicherten Anmerkungsstrichtypketten 121 der Datenbank 120 verglichen. Die Editier-Entfernungsanalyse vergleicht jeden Strichtypwert in der Abfragekette mit jedem Strichtypwert in jeder Anmerkungskette der Anmerkungsketten. Eine Editier-Entfernungsberechnung wird durch diesen Vergleich durchgeführt, was die „Kosten" eines Transformierens (oder Editierens) einer Kette in eine andere ausgibt. Die individuellen Kette/Kette-Vergleiche werden dann gemäß den Kosten geordnet, wobei die Ergebnisse mit den geringsten Kosten zuerst präsentiert werden. Auf diese Weise wird eine sortierte Liste, die alle oder die n besten Übereinstimmungen aufweist, in den kleinen Skizzen der Hauptbrowser-Maske angezeigt.
  • 6 zeigt die grundlegende Editier-Entfernungstechnik. In diesem Fall wird die gespeicherte Anmerkung „compress" mit der Abfragekette „compass" verglichen. Es ist verständlich, dass 6 den Vergleich der zwei Ketten als einen Vergleich individueller Buchstaben in zwei unterschiedlich geschriebenen Wörtern darstellt. Diese Darstellung ist primär dazu gedacht, das Verständnis der Editier-Entfernungsberechnungstechnik zu unterstützen, und nicht notwendigerweise als Veranschaulichung dessen gedacht, wie zwei Strichtypketten tatsächlich aussehen könnten. In dieser Hinsicht könnte jeder der 64 unterschiedlichen Strichtypen auf beliebige Weise unterschiedlichen numerischen Kennzeichen zugewiesen werden. Somit würde die Editier-Entfernungsberechnung die jeweiligen numerischen Kennzeichen der gespeicherten Anmerkung und die Eingabeabfrage direkt miteinander vergleichen. Es besteht kein Bedürfnis, die individuellen Ketten zu ASCII-Zeichen umzuwandeln, und 6 ist nicht gedacht zu implizieren, dass eine solche Umwandlung nötig ist.
  • Bezug nehmend auf 6 werden jedes Mal, wenn der Anmerkungskette-Strichwert mit dem Abfragekette-Strichwert übereinstimmt, Kosten von Null zugeordnet. Somit werden in 6 null Kosten für den Vergleich der ersten vier Kettenwerte „comp" eingegeben. Um sich der Möglichkeit anzupassen, dass ein Kette/Kette-Vergleich eine Einfügung, eine Löschung oder eine Substitution von Werten mit sich bringen könnte, werden Kosten jedes Mal zugewiesen, wenn eine Einfügung, eine Löschung oder eine Substitution während der Vergleichssequenz gemacht werden muss. In dem Beispiel der 6 erfordert die Abfragekette „compass" eine Einfügung eines zusätzlichen Werts „r" nach dem Wert „p". Kosten von eins werden zugewiesen (wie bei dem mit 122 bezeichneten Eintrag angegeben). Fortfahrend mit dem Vergleich tritt eine Substitution zwischen dem Wert „e" der gespeicherten Anmerkungskette und dem Wert „a" der Abfragekette auf. Dies resultiert in einer zusätzlichen Kostenzuweisung von Eins, die der vorherigen Kostenzuweisung hinzugefügt wird, was in Gesamtkosten von Zwei resultiert, die in 6 bei 124 repräsentiert sind. Neben diesen Einfügungs- und Substituierungsoperationen stimmt der Rest des Vergleichs Wert für Wert überein. Somit betragen die endgültigen „Kosten" beim Vergleichen der Anmerkungskette mit der Abfragekette Zwei, was in 6 bei 126 repräsentiert ist.
  • Bei der vorhergehenden Diskussion wurde der erste minimale Kostenweg beschrieben, bei dem „compass" in „compress" durch Einfügen eines „r" und durch Substituieren eines „e" für ein „a" editiert wird. Eine alternative Editierung wäre es, ein „r" für ein „a" zu substituieren und ein „e" einzufügen. Beide dieser Wege haben die gleichen Kosten, nämlich Zwei.
  • 7 gibt ein weiteres Beispiel der Editier-Entfernungstechnik. Wie zuvor werden Ketten alphabetischer Zeichen zu Demonstrationszwecken verglichen. Wie zuvor erwähnt, wird dies für den Nutzen getan, die Veranschaulichung zu vereinfachen, und sollte nicht so interpretiert werden, dass impliziert wird, dass die Ketten zuerst zu einem alphanumerischen Text umgewandelt werden müssten, bevor die Vergleiche gemacht werden. Die in 6 und 7 veranschaulichte Prozedur wird vielmehr an den jeweiligen Strichdaten (vektorquantifizierten Symbolen) der jeweils gespeicherten Anmerkung und den Eingabe-Abfrageketten durchgeführt.
  • 7 veranschaulicht insbesondere die Technik, die verwendet werden könnte, um eine Teilübereinstimmung (eine Worterkennung) durchzuführen. In 7 wird die gespeicherte Anmerkung „This is compression" mit der Abfragekette „compass" verglichen. Man beachte, wie der auf Gleichheit überprüfte Bereich 130 aus der vollständigen Kette der gespeicherten Anmerkung durch Scannen der letzten Zeile der Tabelle extrahiert wird, um die Indizes zu finden, die den geringsten Wert repräsentieren. Man beachte, dass die erste (initialisierende) Reihe in 7 vollständig aus 0en besteht – dies ermöglicht es der Teilgleichheitsprüfung, irgendwo entlang der Datenbankkette zu starten.
  • Die vorliegende bevorzugte Editier-Entfernungsprozedur ist gegenüber den herkömmlichen, in der Literatur beschriebenen Prozeduren verbessert. Insbesondere haben wir festgestellt, dass es zusätzlich zu den drei Basiseditieroperationen (Lösche ein Zeichen, Füge ein Zeichen ein, und Tausche ein Zeichen gegen anderes aus) nützlich ist, zwei neue Operationen hinzuzufügen, wenn Stiftstrichsequenzen verglichen werden. Diese neuen Operationen sind „Spalten" (tausche zwei Zeichen für ein Zeichen aus) und „Zusammenfügen" (tausche ein Zeichen gegen zwei Zeichen aus). Diese zusätzlichen Operationen ermöglichen Fehler, die bei einer Strichsegmentierung gemacht werden, und führen im Allgemeinen zu akkurateren Ergebnissen.
  • Die Verwendung unserer verbesserten Editier-Entfernungsprozedur ist in 7 veranschaulicht. In 7 wird die Spalt-Operation verwendet, um die Buchstaben „re" in „compress" gegen den Buchstaben „a" in „compass" auszutauschen. Man beachte, dass der Rückverfolgungspfeil in 7 sich über eine Zeile aber zwei Spalten spannt, wodurch die Vielzeichen-(Zusammenfügung-)Substituierung angedeutet wird. Somit ist die Editier-Entfernung in diesem Fall Eins und nicht Zwei. Im Wege eines Vergleichs veranschaulicht 6 den Basiseditier-Entfernungsalgorithmus ohne die zwei neuen Mehrfachzeichenoperationen zu verwenden. Somit betragen die Kosten (wie in 6 dargestellt) eines Editierens von „compass" zu „compress" Zwei.
  • Die oben beschriebene Prozedur funktioniert gut bei den meisten von einem Benutzer gezeichneten Anmerkungsanwendungen. Die kombinierte Verwendung einer Vektorquantisierung und einer Editier-Entfernungsberechnung ergibt ein System, das bemerkenswert robust in seiner Fähigkeit ist, übereinstimmende Ketten und Unterketten zu finden, selbst wenn sie nicht präzise auf die gleiche Weise durch den Benutzer gezeichnet sind. Obwohl die vorliegende bevorzugte Ausführungsform hier veranschaulicht wurde, sind eine Vielzahl von Abwandlungen möglich, ohne den Schutzbereich der Erfindung zu verlassen, wie er durch die beigefügten Ansprüche definiert ist. Falls z. B. eine schnellere Übereinstimmung gewünscht ist, könnte das System eine anfängliche „Zuerst Durchlassen"-Übereinstimmung durch einfaches Auffinden aller Striche durchführen, die eine ähnliche Anzahl von Datenpunkten aufweisen. Dies könnte durch Speichern der Anzahl von Datenpunkten als Teil der Kennzeichendaten und dann einfaches Auswählen oder Ausschließen solcher Striche geschehen, die nicht innerhalb eines vorbestimmten Datenpunktzählers liegen. Dieser Typ einer Zuerst-Durchlassen-Suche kann relativ schnell durchgeführt werden, da einfache numerische Übereinstimmungsalgorithmen alles sind, was benötigt wird. Die auf einem Datenpunktzähler basierende Zuerst-Durchlassen-Technik, würde es jedoch nicht ermöglichen, Übereinstimmungsunterketten zu extrahieren, wie es die Editier-Entfernungsberechnung zulässt. Wenn eine höhere Übereinstimmungsgenauigkeit gewünscht ist, könnte eine rechnerisch aufwändigere Übereinstimmungstechnik, wie z. B. die Hidden-Markov-Modelltechnik, als ein Abschlussdurchlauf für die n besten Hypothesen verwendet werden, die durch die Editier-Entfernungsberechnung bestimmt sind. Ein Hinzufügen einer höchst genauen, jedoch rechnerisch aufwändigen Verarbeitungsstufe zu der Schlussausgabe könnte in Systemen verwendet werden, bei denen es notwendig ist, zwischen einer großen Anzahl von höchst ähnlichen Ketten zu unterscheiden.
  • Zusammenfassend kann man sagen, dass ein Dokumentbrowser für elektronische Archivierungssysteme offenbart wird, der Stift-basierte Markierungen und Anmerkungen unterstützt. Der Benutzer könnte elektronisch Notizen 60, 62, 64 überall auf einer Seite 32, 38 schreiben und dann später nach diesen Notizen unter Verwendung der ungefähren Tintenübereinstimmungstechnik („approximate ink matching, AIM") suchen. Die Technik 104 segmentiert die von einem Benutzer gezeichneten Striche, extrahiert 108 und vektorquantifiziert 112 Merkmale, die in diesen Strichen enthalten sind. Eine Editierentfernungstechnik 118 wird verwendet, um die Datenbank 120 abzufragen, was es dem System ermöglicht, ungefähre oder Teilübereinstimmungen durchzuführen, um eine unscharfe Suchfähigkeit zu erzielen.

Claims (11)

  1. Such- und Abfragesystem (10) für Dokumente mit: einem Speicher (12, 120) mit einer ersten Datenstruktur zum Speichern von Dokumentdaten (32, 38) und einer zweiten Datenstruktur zum Speichern von Anmerkungsdaten (6064); einer Benutzerschnittstelle (16, 18, 22) mit einem Zeichenwerkzeug (22) für eine Benutzereingabe von von einem Benutzer gezeichneten Stiftstrichen (102, 200), die einem von dem Benutzer gezeichneten Suchsymbol (100) entsprechen, wobei die von dem Benutzer gezeichneten Stiftstriche (102, 200) eine räumliche Komponente X, Y und eine zeitliche Komponente T aufweisen; wobei die Benutzerschnittstelle (16, 18, 22) mit der zweiten Datenstruktur in Verbindung steht, um die räumliche Komponente X, Y und die zeitliche Komponente T der von dem Benutzer gezeichneten Stiftstriche (102, 200) in Zuordnung zu einem von dem Benutzer ausgewählten Teil der Dokumentdaten (32, 38) zu speichern; einem gespeicherten Regelsatz, der der Benutzerschnittstelle (16, 18, 22) und dem Speicher zugeordnet ist, zum Speichern einer Vielzahl von getrennten, von dem Benutzer gezeichneten Stiftstrichen, die getrennten, von dem Benutzer gezeichneten Suchsymbolen entsprechen, in Zuordnung zu dem gleichen, von dem Benutzer ausgewählten Teil der Dokumentdaten (32, 38), wobei der Regelsatz (114) getrennte individuelle Striche durch Erfassen einer zwischen einem ersten Strich und einem zweiten Strich abgelaufenen Zeit T unterscheidet; einer Suchmaschine (13, 16, 20), die mit der Benutzerschnittstelle (16, 18, 22) zum Empfangen des von dem Benutzer gezeichneten Suchsymbols (100) in Verbindung steht; wobei die Suchmaschine (13, 16, 20) in Verbindung mit der zweiten Datenstruktur steht, um Muster hinsichtlich der räumlichen Komponente X, Y und der zeitlichen Komponente T individueller Striche des von dem Benutzer gezeichneten Suchsymbols (100) mit Mustern hinsichtlich der räumlichen Komponente X, Y und der zeitlichen Komponente T individueller Striche von dem Benutzer gezeichneter Stiftstriche (102, 200), die in der zweiten Datenstruktur gespeichert sind, auf Gleichheit zu prüfen (118), um eine Übereinstimmungshypothese zu lokalisieren; wobei die Suchmaschine (13, 16, 20) auf die erste Datenstruktur zugreift, um einen Teil der Dokumentdaten (32, 38) entsprechend der Übereinstimmungshypothese auszuwählen und um dadurch einen Teil der Dokumentdaten (32, 38) abzufragen, der ein zugeordnetes, von dem Benutzer gezeichnetes Symbol aufweist, das im Wesentlichen dem nachträglich von dem Benutzer gezeichneten Suchsymbol (100) entspricht.
  2. System gemäß Anspruch 1, gekennzeichnet durch einen Dokumentleser (36), der mit dem Speicher (12, 120) und mit der Benutzerschnittstelle (16, 18, 22) in Verbindung steht, um eine Abbildung eines ausgewählten Teils der Dokumentdaten (32, 38) anzuzeigen und um von dem Benutzer gezeichnete Symbole anzuzeigen, die dem ausgewählten Teil zugeordnet sind.
  3. System gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, dass zumindest ein Teil des von dem Benutzer gezeichneten Symbols und/oder zumindest ein Teil des Suchsymbols (100) ein Symbol aufweist, das kein Text ist.
  4. System gemäß einem der vorangegangenen Ansprüche, das dadurch gekennzeichnet ist, dass der Regelsatz getrennte, indi viduelle Striche durch Erfassen einer räumlichen Trennung zwischen einem ersten Strich und einem zweiten Strich unterscheidet.
  5. System gemäß einem der vorangegangenen Ansprüche, das dadurch gekennzeichnet ist, dass der Regelsatz getrennte, individuelle Striche durch Erfassen einer Durchführung einer Benutzerschnittstellen-Steueroperation zwischen einem ersten Strich und einem zweiten Strich unterscheidet.
  6. System gemäß einem der vorangegangenen Ansprüche, das dadurch gekennzeichnet ist, dass die räumliche Komponente X, Y Daten X, Y aufweist, die den relativen Ort des Zeichenwerkzeugs (22) angeben.
  7. System gemäß einem der vorangegangenen Ansprüche, das dadurch gekennzeichnet ist, dass die zeitliche Komponente T Daten aufweist, die die relative Zeit angeben, während der sich das Zeichenwerkzeug (22) an einem gegebenen Ort befindet.
  8. System gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass das Zeichenwerkzeug (22) einen Stift und ein digitalisierendes Tablett aufweist.
  9. System gemäß einem der vorangegangenen Ansprüche, gekennzeichnet durch bildscannende Mittel (26, 28, 30) zum Speichern von Dokumentdaten (32, 38) in der ersten Datenstruktur.
  10. System gemäß Anspruch 9, dadurch gekennzeichnet, dass die bildscannenden Mittel (26, 28, 30) eine Fotokopiereinrichtung (28) aufweisen.
  11. System gemäß Anspruch 10, dadurch gekennzeichnet, dass der Speicher (12, 120) eine Komponente eines Computernetzwerksystems (14) aufweist, das an die Fotokopiereinrichtung (28) gekoppelt ist.
DE69731418T 1996-02-26 1997-01-25 Such- und Wiederauffindungssystem für Dokumente mit Suchverfahren von teilweise passenden, benutzergezeichneten Anmerkungen Expired - Fee Related DE69731418T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US606575 1996-02-26
US08/606,575 US5832474A (en) 1996-02-26 1996-02-26 Document search and retrieval system with partial match searching of user-drawn annotations

Publications (2)

Publication Number Publication Date
DE69731418D1 DE69731418D1 (de) 2004-12-09
DE69731418T2 true DE69731418T2 (de) 2005-11-10

Family

ID=24428527

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69731418T Expired - Fee Related DE69731418T2 (de) 1996-02-26 1997-01-25 Such- und Wiederauffindungssystem für Dokumente mit Suchverfahren von teilweise passenden, benutzergezeichneten Anmerkungen

Country Status (5)

Country Link
US (1) US5832474A (de)
EP (1) EP0791883B1 (de)
JP (1) JPH1055371A (de)
CA (1) CA2195178A1 (de)
DE (1) DE69731418T2 (de)

Families Citing this family (298)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ131399A0 (en) * 1999-06-30 1999-07-22 Silverbrook Research Pty Ltd A method and apparatus (NPAGE02)
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5625711A (en) 1994-08-31 1997-04-29 Adobe Systems Incorporated Method and apparatus for producing a hybrid data structure for displaying a raster image
US5729637A (en) 1994-08-31 1998-03-17 Adobe Systems, Inc. Method and apparatus for producing a hybrid data structure for displaying a raster image
JP3535624B2 (ja) * 1995-09-21 2004-06-07 キヤノン株式会社 検索装置及び方法
US6295524B1 (en) * 1996-10-29 2001-09-25 Nec Research Institute, Inc. Learning edit distance costs
US7170629B2 (en) * 1998-11-13 2007-01-30 Ricoh Company, Ltd. Automatic and transparent document archiving
US7602518B2 (en) * 1996-11-21 2009-10-13 Ricoh Company, Ltd. Automatic and transparent document archiving
US6704118B1 (en) 1996-11-21 2004-03-09 Ricoh Company, Ltd. Method and system for automatically and transparently archiving documents and document meta data
US5978477A (en) * 1996-11-21 1999-11-02 Ricoh Company Limited Automatic and transparent document archiving
US6199073B1 (en) * 1997-04-21 2001-03-06 Ricoh Company, Ltd. Automatic archiving of documents during their transfer between a peripheral device and a processing device
US6366956B1 (en) * 1997-01-29 2002-04-02 Microsoft Corporation Relevance access of Internet information services
JP3195752B2 (ja) * 1997-02-28 2001-08-06 シャープ株式会社 検索装置
US6332148B1 (en) * 1997-03-31 2001-12-18 Adobe Systems Incorporated Appearance and positioning annotation text string and base text string specifying a rule that relates the formatting annotation, base text characters
JPH1186014A (ja) * 1997-09-08 1999-03-30 Fujitsu Ltd 文書画像表示方法および表示装置
US6279014B1 (en) * 1997-09-15 2001-08-21 Xerox Corporation Method and system for organizing documents based upon annotations in context
US6613100B2 (en) * 1997-11-26 2003-09-02 Intel Corporation Method and apparatus for displaying miniaturized graphical representations of documents for alternative viewing selection
US6138129A (en) * 1997-12-16 2000-10-24 World One Telecom, Ltd. Method and apparatus for providing automated searching and linking of electronic documents
US6269362B1 (en) * 1997-12-19 2001-07-31 Alta Vista Company System and method for monitoring web pages by comparing generated abstracts
US7263659B2 (en) 1998-09-09 2007-08-28 Ricoh Company, Ltd. Paper-based interface for multimedia information
US7124093B1 (en) 1997-12-22 2006-10-17 Ricoh Company, Ltd. Method, system and computer code for content based web advertising
JP4183311B2 (ja) 1997-12-22 2008-11-19 株式会社リコー 文書の注釈方法、注釈装置および記録媒体
US6804659B1 (en) 2000-01-14 2004-10-12 Ricoh Company Ltd. Content based web advertising
US7257589B1 (en) 1997-12-22 2007-08-14 Ricoh Company, Ltd. Techniques for targeting information to users
US7954056B2 (en) 1997-12-22 2011-05-31 Ricoh Company, Ltd. Television-based visualization and navigation interface
US7596755B2 (en) 1997-12-22 2009-09-29 Ricoh Company, Ltd. Multimedia visualization and integration environment
JP3692764B2 (ja) * 1998-02-25 2005-09-07 株式会社日立製作所 構造化文書登録方法、検索方法、およびそれに用いられる可搬型媒体
US6799298B2 (en) * 1998-03-11 2004-09-28 Overture Services, Inc. Technique for locating an item of interest within a stored representation of data
US6173287B1 (en) * 1998-03-11 2001-01-09 Digital Equipment Corporation Technique for ranking multimedia annotations of interest
US6598045B2 (en) * 1998-04-07 2003-07-22 Intel Corporation System and method for piecemeal relevance evaluation
US6370551B1 (en) * 1998-04-14 2002-04-09 Fuji Xerox Co., Ltd. Method and apparatus for displaying references to a user's document browsing history within the context of a new document
US6272484B1 (en) * 1998-05-27 2001-08-07 Scansoft, Inc. Electronic document manager
US6766494B1 (en) * 1998-06-15 2004-07-20 Fuji Xerox Co., Ltd. Method and system for creating ad-hoc links from free-form ink
US6369811B1 (en) 1998-09-09 2002-04-09 Ricoh Company Limited Automatic adaptive document help for paper documents
US7215436B2 (en) 1998-09-09 2007-05-08 Ricoh Company, Ltd. Device for generating a multimedia paper document
US6582475B2 (en) 1998-09-09 2003-06-24 Ricoh Company Limited Automatic adaptive document printing help system
US7266782B2 (en) * 1998-09-09 2007-09-04 Ricoh Company, Ltd. Techniques for generating a coversheet for a paper-based interface for multimedia information
US7263671B2 (en) * 1998-09-09 2007-08-28 Ricoh Company, Ltd. Techniques for annotating multimedia information
US6871220B1 (en) 1998-10-28 2005-03-22 Yodlee, Inc. System and method for distributed storage and retrieval of personal information
ATE273538T1 (de) 1998-10-28 2004-08-15 Verticalone Corp Gerät und verfahren für automatische aggregation und abgabe von elektronischer persönlicher information oder daten
US6845370B2 (en) * 1998-11-12 2005-01-18 Accenture Llp Advanced information gathering for targeted activities
US6684368B1 (en) 1998-11-13 2004-01-27 Ricoh Company, Ltd. Method for specifying delivery information for electronic documents
US8069407B1 (en) 1998-12-08 2011-11-29 Yodlee.Com, Inc. Method and apparatus for detecting changes in websites and reporting results to web developers for navigation template repair purposes
US7672879B1 (en) 1998-12-08 2010-03-02 Yodlee.Com, Inc. Interactive activity interface for managing personal data and performing transactions over a data packet network
US6725425B1 (en) * 1998-12-08 2004-04-20 Yodlee.Com Method and apparatus for retrieving information from semi-structured, web-based data sources
US7085997B1 (en) 1998-12-08 2006-08-01 Yodlee.Com Network-based bookmark management and web-summary system
US6687876B1 (en) * 1998-12-30 2004-02-03 Fuji Xerox Co., Ltd. Method and system for maintaining freeform ink annotations on changing views
US6941321B2 (en) * 1999-01-26 2005-09-06 Xerox Corporation System and method for identifying similarities among objects in a collection
US6922699B2 (en) * 1999-01-26 2005-07-26 Xerox Corporation System and method for quantitatively representing data objects in vector space
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6687878B1 (en) * 1999-03-15 2004-02-03 Real Time Image Ltd. Synchronizing/updating local client notes with annotations previously made by other clients in a notes database
US7760969B2 (en) * 1999-05-25 2010-07-20 Silverbrook Research Pty Ltd Method of providing information via context searching from a printed substrate
US6549935B1 (en) * 1999-05-25 2003-04-15 Silverbrook Research Pty Ltd Method of distributing documents having common components to a plurality of destinations
US7752535B2 (en) 1999-06-01 2010-07-06 Yodlec.com, Inc. Categorization of summarized information
US6647534B1 (en) 1999-06-30 2003-11-11 Ricoh Company Limited Method and system for organizing document information in a non-directed arrangement of documents
US7228492B1 (en) * 1999-07-06 2007-06-05 Ricoh Company, Ltd. 2D graph displaying document locations of user-specified concept of interest
JP2001052116A (ja) * 1999-08-06 2001-02-23 Toshiba Corp パターン列マッチング装置とパターン列マッチング方法と文字列マッチング装置と文字列マッチング方法
US6519050B1 (en) 1999-08-18 2003-02-11 Rtimage Ltd. Client/server based color density measurement system
GB2354099B (en) * 1999-09-09 2003-09-10 Sony Uk Ltd Image identification apparatus and method of identifying images
US6519603B1 (en) * 1999-10-28 2003-02-11 International Business Machine Corporation Method and system for organizing an annotation structure and for querying data and annotations
US7337389B1 (en) * 1999-12-07 2008-02-26 Microsoft Corporation System and method for annotating an electronic document independently of its content
JP2001209659A (ja) * 1999-12-15 2001-08-03 Xerox Corp 注釈装置がビューイング装置と異なっている場合に対象物に注釈を付けるシステム及び方法
US6766069B1 (en) * 1999-12-21 2004-07-20 Xerox Corporation Text selection from images of documents using auto-completion
US6859909B1 (en) * 2000-03-07 2005-02-22 Microsoft Corporation System and method for annotating web-based documents
US6681044B1 (en) 2000-03-29 2004-01-20 Matsushita Electric Industrial Co., Ltd. Retrieval of cursive Chinese handwritten annotations based on radical model
KR20000037200A (ko) * 2000-04-11 2000-07-05 김병철 가상 레이어 기반의 인터넷 월드와이드웹문서(에이치티엠엘) 주석(註釋) 및 저장 방법
US20050177574A1 (en) * 2000-05-08 2005-08-11 James Riley Electronic course generation systems and methods
US6625335B1 (en) 2000-05-11 2003-09-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for assigning keywords to documents
US7039864B1 (en) * 2000-05-15 2006-05-02 Ricoh Co., Ltd. Method and apparatuses for management of unconsciously captured documents
US20010053252A1 (en) * 2000-06-13 2001-12-20 Stuart Creque Method of knowledge management and information retrieval utilizing natural characteristics of published documents as an index method to a digital content store
US6671684B1 (en) * 2000-09-01 2003-12-30 Ricoh Co., Ltd. Method and apparatus for simultaneous highlighting of a physical version of a document and an electronic version of a document
FR2814829B1 (fr) * 2000-09-29 2003-08-15 Vivendi Net Procede et systeme d'optimisation de consultations d'ensembles de donnees par une pluralite de clients
US7912752B2 (en) * 2000-10-31 2011-03-22 Context Web, Inc. Internet contextual communication system
US7069545B2 (en) * 2000-12-29 2006-06-27 Intel Corporation Quantization and compression for computation reuse
US7056161B2 (en) * 2001-02-20 2006-06-06 Newfrey Llc Grounding stud
US7392287B2 (en) 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
JP2002324037A (ja) * 2001-04-24 2002-11-08 Fujitsu Ltd 連携表示プログラム
US20030004991A1 (en) * 2001-06-29 2003-01-02 Keskar Dhananjay V. Correlating handwritten annotations to a document
KR20030003787A (ko) * 2001-07-02 2003-01-14 조미경 전자잉크데이터의 부분매칭을 이용한 개인정보검색시스템
US7885987B1 (en) * 2001-08-28 2011-02-08 Lee Eugene M Computer-implemented method and system for managing attributes of intellectual property documents, optionally including organization thereof
AUPR824301A0 (en) * 2001-10-15 2001-11-08 Silverbrook Research Pty. Ltd. Methods and systems (npw001)
US8635531B2 (en) 2002-02-21 2014-01-21 Ricoh Company, Ltd. Techniques for displaying information stored in multiple multimedia documents
US7703044B2 (en) 2001-11-19 2010-04-20 Ricoh Company, Ltd. Techniques for generating a static representation for time-based media information
US8539344B2 (en) 2001-11-19 2013-09-17 Ricoh Company, Ltd. Paper-based interface for multimedia information stored by multiple multimedia documents
US7747655B2 (en) 2001-11-19 2010-06-29 Ricoh Co. Ltd. Printable representations for time-based media
US7861169B2 (en) 2001-11-19 2010-12-28 Ricoh Co. Ltd. Multimedia print driver dialog interfaces
US7788080B2 (en) 2001-11-19 2010-08-31 Ricoh Company, Ltd. Paper interface for simulation environments
US7495795B2 (en) 2002-02-21 2009-02-24 Ricoh Company, Ltd. Interface for printing multimedia information
US7743347B2 (en) 2001-11-19 2010-06-22 Ricoh Company, Ltd. Paper-based interface for specifying ranges
US7149957B2 (en) 2001-11-19 2006-12-12 Ricoh Company, Ltd. Techniques for retrieving multimedia information using a paper-based interface
US7573598B2 (en) * 2002-01-16 2009-08-11 Infoprint Solutions Company, Llc Method and apparatus for selectively copying documents with handwritten notations
AUPS020302A0 (en) * 2002-01-31 2002-02-21 Silverbrook Research Pty. Ltd. Methods and systems (npw007)
CA2375355A1 (en) * 2002-03-11 2003-09-11 Neo Systems Inc. Character recognition system and method
US7120872B2 (en) * 2002-03-25 2006-10-10 Microsoft Corporation Organizing, editing, and rendering digital ink
US7844610B2 (en) * 2003-12-12 2010-11-30 Google Inc. Delegated authority evaluation system
US8069175B2 (en) 2002-04-10 2011-11-29 Google Inc. Delegating authority to evaluate content
US7453472B2 (en) * 2002-05-31 2008-11-18 University Of Utah Research Foundation System and method for visual annotation and knowledge representation
US7137077B2 (en) * 2002-07-30 2006-11-14 Microsoft Corporation Freeform encounter selection tool
CN100437549C (zh) * 2002-09-04 2008-11-26 珠海市零壹网络标准数据有限责任公司 一种计算机多元供需信息适配处理系统及方法
US7428711B2 (en) * 2002-10-31 2008-09-23 Microsoft Corporation Glow highlighting as an ink attribute
US7092567B2 (en) * 2002-11-04 2006-08-15 Matsushita Electric Industrial Co., Ltd. Post-processing system and method for correcting machine recognized text
US7634729B2 (en) * 2002-11-10 2009-12-15 Microsoft Corporation Handwritten file names
US7284200B2 (en) * 2002-11-10 2007-10-16 Microsoft Corporation Organization of handwritten notes using handwritten titles
US7107520B2 (en) * 2002-11-18 2006-09-12 Hewlett-Packard Development Company, L.P. Automated propagation of document metadata
US7765206B2 (en) * 2002-12-13 2010-07-27 Metaweb Technologies, Inc. Meta-Web
US7310769B1 (en) 2003-03-12 2007-12-18 Adobe Systems Incorporated Text encoding using dummy font
US7536638B2 (en) 2003-03-31 2009-05-19 Ricoh Co., Ltd. Action stickers for identifying and processing stored documents
US7739583B2 (en) 2003-03-31 2010-06-15 Ricoh Company, Ltd. Multimedia document sharing method and apparatus
US20070050696A1 (en) * 2003-03-31 2007-03-01 Piersol Kurt W Physical key for accessing a securely stored digital document
US7552381B2 (en) * 2003-03-31 2009-06-23 Ricoh Co., Ltd. Check boxes for identifying and processing stored documents
US7509569B2 (en) 2003-03-31 2009-03-24 Ricoh Co., Ltd. Action stickers for nested collections
US7757162B2 (en) 2003-03-31 2010-07-13 Ricoh Co. Ltd. Document collection manipulation
US7703002B2 (en) 2003-03-31 2010-04-20 Ricoh Company, Ltd. Method and apparatus for composing multimedia documents
US20040196306A1 (en) * 2003-04-04 2004-10-07 Microsoft Corporation Method and system for flagging digital ink note content
US20040205547A1 (en) * 2003-04-12 2004-10-14 Feldt Kenneth Charles Annotation process for message enabled digital content
US20040243665A1 (en) * 2003-05-27 2004-12-02 Outi Markki System and method for services provision in a peer-to-peer environment
US20040243672A1 (en) * 2003-05-27 2004-12-02 Outi Markki System and method for user interaction in a peer-to-peer environment
US7218783B2 (en) * 2003-06-13 2007-05-15 Microsoft Corporation Digital ink annotation process and system for recognizing, anchoring and reflowing digital ink annotations
US7519901B2 (en) * 2003-06-16 2009-04-14 Fuji Xerox Co., Ltd. Methods and systems for selecting objects by grouping annotations on the objects
US9026901B2 (en) * 2003-06-20 2015-05-05 International Business Machines Corporation Viewing annotations across multiple applications
US8321470B2 (en) * 2003-06-20 2012-11-27 International Business Machines Corporation Heterogeneous multi-level extendable indexing for general purpose annotation systems
US7275159B2 (en) 2003-08-11 2007-09-25 Ricoh Company, Ltd. Multimedia output device having embedded encryption functionality
CA2529037A1 (en) * 2003-08-15 2005-02-24 Silverbrook Research Pty Ltd Natural language recognition using distributed processing
US7418442B1 (en) * 2003-09-30 2008-08-26 Microsoft Corporation Ink alternates and plain text search
US7870152B2 (en) * 2003-10-22 2011-01-11 International Business Machines Corporation Attaching and displaying annotations to changing data views
US7900133B2 (en) 2003-12-09 2011-03-01 International Business Machines Corporation Annotation structure type determination
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
KR100587540B1 (ko) * 2004-02-14 2006-06-08 삼성전자주식회사 디지털 잉크 질의 검색 장치 및 방법
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US20050210038A1 (en) * 2004-03-18 2005-09-22 International Business Machines Corporation Method for providing workflow functionality and tracking in an annotation subsystem
US7779355B1 (en) 2004-03-30 2010-08-17 Ricoh Company, Ltd. Techniques for using paper documents as media templates
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
JP2005346495A (ja) * 2004-06-03 2005-12-15 Oki Electric Ind Co Ltd 情報処理システム、情報処理方法、および情報処理プログラム
US8316088B2 (en) * 2004-07-06 2012-11-20 Nokia Corporation Peer-to-peer engine for object sharing in communication devices
EP1774508A2 (de) * 2004-07-09 2007-04-18 Gesturerad, Inc. Auf gestik basierendes meldeverfahren und -system
US8335694B2 (en) * 2004-07-09 2012-12-18 Bruce Reiner Gesture-based communication and reporting system
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US7729538B2 (en) * 2004-08-26 2010-06-01 Microsoft Corporation Spatial recognition and grouping of text and graphics
US7574048B2 (en) * 2004-09-03 2009-08-11 Microsoft Corporation Freeform digital ink annotation recognition
US20070118794A1 (en) * 2004-09-08 2007-05-24 Josef Hollander Shared annotation system and method
US9384619B2 (en) 2006-07-31 2016-07-05 Ricoh Co., Ltd. Searching media content for objects specified using identifiers
US8276088B2 (en) 2007-07-11 2012-09-25 Ricoh Co., Ltd. User interface for three-dimensional navigation
US8156116B2 (en) * 2006-07-31 2012-04-10 Ricoh Co., Ltd Dynamic presentation of targeted information in a mixed media reality recognition system
US9405751B2 (en) 2005-08-23 2016-08-02 Ricoh Co., Ltd. Database for mixed media document system
US8856108B2 (en) 2006-07-31 2014-10-07 Ricoh Co., Ltd. Combining results of image retrieval processes
US7920759B2 (en) 2005-08-23 2011-04-05 Ricoh Co. Ltd. Triggering applications for distributed action execution and use of mixed media recognition as a control input
US8838591B2 (en) 2005-08-23 2014-09-16 Ricoh Co., Ltd. Embedding hot spots in electronic documents
US8949287B2 (en) 2005-08-23 2015-02-03 Ricoh Co., Ltd. Embedding hot spots in imaged documents
US8195659B2 (en) * 2005-08-23 2012-06-05 Ricoh Co. Ltd. Integration and use of mixed media documents
US9530050B1 (en) 2007-07-11 2016-12-27 Ricoh Co., Ltd. Document annotation sharing
US8156115B1 (en) 2007-07-11 2012-04-10 Ricoh Co. Ltd. Document-based networking with mixed media reality
US7970171B2 (en) 2007-01-18 2011-06-28 Ricoh Co., Ltd. Synthetic image and video generation from ground truth data
US7991778B2 (en) 2005-08-23 2011-08-02 Ricoh Co., Ltd. Triggering actions with captured input in a mixed media environment
US8385589B2 (en) 2008-05-15 2013-02-26 Berna Erol Web-based content detection in images, extraction and recognition
US8332401B2 (en) 2004-10-01 2012-12-11 Ricoh Co., Ltd Method and system for position-based image matching in a mixed media environment
US8600989B2 (en) * 2004-10-01 2013-12-03 Ricoh Co., Ltd. Method and system for image matching in a mixed media environment
US8868555B2 (en) 2006-07-31 2014-10-21 Ricoh Co., Ltd. Computation of a recongnizability score (quality predictor) for image retrieval
US7702673B2 (en) 2004-10-01 2010-04-20 Ricoh Co., Ltd. System and methods for creation and use of a mixed media environment
US8086038B2 (en) 2007-07-11 2011-12-27 Ricoh Co., Ltd. Invisible junction features for patch recognition
US7812986B2 (en) 2005-08-23 2010-10-12 Ricoh Co. Ltd. System and methods for use of voice mail and email in a mixed media environment
US8156427B2 (en) 2005-08-23 2012-04-10 Ricoh Co. Ltd. User interface for mixed media reality
US8510283B2 (en) 2006-07-31 2013-08-13 Ricoh Co., Ltd. Automatic adaption of an image recognition system to image capture devices
US8335789B2 (en) 2004-10-01 2012-12-18 Ricoh Co., Ltd. Method and system for document fingerprint matching in a mixed media environment
US8369655B2 (en) 2006-07-31 2013-02-05 Ricoh Co., Ltd. Mixed media reality recognition using multiple specialized indexes
US7669148B2 (en) 2005-08-23 2010-02-23 Ricoh Co., Ltd. System and methods for portable device for mixed media system
US8005831B2 (en) 2005-08-23 2011-08-23 Ricoh Co., Ltd. System and methods for creation and use of a mixed media environment with geographic location information
US8144921B2 (en) 2007-07-11 2012-03-27 Ricoh Co., Ltd. Information retrieval using invisible junctions and geometric constraints
US9373029B2 (en) 2007-07-11 2016-06-21 Ricoh Co., Ltd. Invisible junction feature recognition for document security or annotation
US7917554B2 (en) 2005-08-23 2011-03-29 Ricoh Co. Ltd. Visibly-perceptible hot spots in documents
US7885955B2 (en) * 2005-08-23 2011-02-08 Ricoh Co. Ltd. Shared document annotation
US8521737B2 (en) * 2004-10-01 2013-08-27 Ricoh Co., Ltd. Method and system for multi-tier image matching in a mixed media environment
US8184155B2 (en) 2007-07-11 2012-05-22 Ricoh Co. Ltd. Recognition and tracking using invisible junctions
US8176054B2 (en) * 2007-07-12 2012-05-08 Ricoh Co. Ltd Retrieving electronic documents by converting them to synthetic text
US9171202B2 (en) 2005-08-23 2015-10-27 Ricoh Co., Ltd. Data organization and access for mixed media document system
US8825682B2 (en) 2006-07-31 2014-09-02 Ricoh Co., Ltd. Architecture for mixed media reality retrieval of locations and registration of images
JP4471812B2 (ja) * 2004-10-27 2010-06-02 株式会社リコー 画像形成装置及び印刷システム
US20060218185A1 (en) * 2005-03-22 2006-09-28 Data Builder, Inc. Construction document management system
US8601397B2 (en) * 2005-03-31 2013-12-03 Barclays Capital Inc. System and method for grouping a collection of documents using document series
US7570816B2 (en) * 2005-03-31 2009-08-04 Microsoft Corporation Systems and methods for detecting text
US7526129B2 (en) * 2005-06-23 2009-04-28 Microsoft Corporation Lifting ink annotations from paper
US7607079B2 (en) * 2005-07-08 2009-10-20 Bruce Reiner Multi-input reporting and editing tool
US7831913B2 (en) * 2005-07-29 2010-11-09 Microsoft Corporation Selection-based item tagging
WO2007022137A2 (en) * 2005-08-11 2007-02-22 Contextweb, Inc. Method and system for placement and pricing of internet-based advertisements or services
US7769772B2 (en) 2005-08-23 2010-08-03 Ricoh Co., Ltd. Mixed media reality brokerage network with layout-independent recognition
JP4802672B2 (ja) * 2005-11-14 2011-10-26 株式会社日立製作所 電子文書管理装置、電子文書管理プログラム、電子文書管理システム
US20070150802A1 (en) * 2005-12-12 2007-06-28 Canon Information Systems Research Australia Pty. Ltd. Document annotation and interface
US8181103B2 (en) * 2005-12-29 2012-05-15 Microsoft Corporation Annotation detection and anchoring on ink notes
US7836390B2 (en) * 2006-01-26 2010-11-16 Microsoft Corporation Strategies for processing annotations
US20090012903A1 (en) * 2006-01-26 2009-01-08 Contextweb, Inc. Online exchange for internet ad media
US7970763B2 (en) * 2006-02-21 2011-06-28 Microsoft Corporation Searching and indexing of photos based on ink annotations
US20070212507A1 (en) * 2006-03-13 2007-09-13 Arst Kevin M Document Flagging And Indexing System
JP4728860B2 (ja) 2006-03-29 2011-07-20 株式会社東芝 情報検索装置
US7646940B2 (en) * 2006-04-04 2010-01-12 Microsoft Corporation Robust indexing and retrieval of electronic ink
GB0607294D0 (en) * 2006-04-11 2006-05-24 Nokia Corp A node
US7869657B2 (en) * 2006-06-12 2011-01-11 D & S Consultants, Inc. System and method for comparing images using an edit distance
US8027549B2 (en) * 2006-06-12 2011-09-27 D&S Consultants, Inc. System and method for searching a multimedia database using a pictorial language
US7870140B2 (en) * 2006-06-12 2011-01-11 D&S Consultants, Inc. System and method of incorporating user preferences in image searches
US9176984B2 (en) 2006-07-31 2015-11-03 Ricoh Co., Ltd Mixed media reality retrieval of differentially-weighted links
US9063952B2 (en) 2006-07-31 2015-06-23 Ricoh Co., Ltd. Mixed media reality recognition with image tracking
US8201076B2 (en) 2006-07-31 2012-06-12 Ricoh Co., Ltd. Capturing symbolic information from documents upon printing
US9020966B2 (en) 2006-07-31 2015-04-28 Ricoh Co., Ltd. Client device for interacting with a mixed media reality recognition system
US8073263B2 (en) 2006-07-31 2011-12-06 Ricoh Co., Ltd. Multi-classifier selection and monitoring for MMR-based image recognition
US8676810B2 (en) 2006-07-31 2014-03-18 Ricoh Co., Ltd. Multiple index mixed media reality recognition using unequal priority indexes
US8489987B2 (en) 2006-07-31 2013-07-16 Ricoh Co., Ltd. Monitoring and analyzing creation and usage of visual content using image and hotspot interaction
US7606752B2 (en) 2006-09-07 2009-10-20 Yodlee Inc. Host exchange in bill paying services
EP2067119A2 (de) 2006-09-08 2009-06-10 Exbiblio B.V. Optische scanner, zum beispiel tragbare optische scanner
WO2008041173A2 (en) * 2006-10-02 2008-04-10 Nokia Corporation Method system and devices for network sharing or searching of resources
US8798988B1 (en) * 2006-10-24 2014-08-05 Google Inc. Identifying related terms in different languages
US8041730B1 (en) 2006-10-24 2011-10-18 Google Inc. Using geographic data to identify correlated geographic synonyms
US8654973B2 (en) * 2006-11-22 2014-02-18 International Business Machines Corporation Method, system, and program product for encrypting portions of a document using selective annotation
US8311341B1 (en) 2006-11-29 2012-11-13 D & S Consultants, Inc. Enhanced method for comparing images using a pictorial edit distance
US8504546B2 (en) * 2006-11-29 2013-08-06 D&S Consultants, Inc. Method and system for searching multimedia content
US20080123901A1 (en) * 2006-11-29 2008-05-29 D&S Consultants, Inc. Method and System for Comparing Images Using a Pictorial Edit Distance
US7921120B2 (en) 2006-11-30 2011-04-05 D&S Consultants Method and system for image recognition using a similarity inverse matrix
US7773811B2 (en) * 2006-12-06 2010-08-10 D & S Consultants, Inc. Method and system for searching a database of graphical data
US8661012B1 (en) 2006-12-29 2014-02-25 Google Inc. Ensuring that a synonym for a query phrase does not drop information present in the query phrase
US7925498B1 (en) 2006-12-29 2011-04-12 Google Inc. Identifying a synonym with N-gram agreement for a query phrase
US20080172380A1 (en) * 2007-01-17 2008-07-17 Wojciech Czyz Information retrieval based on information location in the information space.
US7890521B1 (en) 2007-02-07 2011-02-15 Google Inc. Document-based synonym generation
US8347206B2 (en) 2007-03-15 2013-01-01 Microsoft Corporation Interactive image tagging
US20080235597A1 (en) * 2007-03-19 2008-09-25 Mor Schlesinger Systems and methods of data integration for creating custom books
US7895518B2 (en) * 2007-04-27 2011-02-22 Shapewriter Inc. System and method for preview and selection of words
CN101601050B (zh) * 2007-04-27 2019-09-20 神形互联有限公司 对字进行预览和选择的系统及方法
US8315482B2 (en) * 2007-06-26 2012-11-20 Microsoft Corporation Integrated platform for user input of digital ink
US8094939B2 (en) * 2007-06-26 2012-01-10 Microsoft Corporation Digital ink-based search
US8041120B2 (en) * 2007-06-26 2011-10-18 Microsoft Corporation Unified digital ink recognition
US8190627B2 (en) * 2007-06-28 2012-05-29 Microsoft Corporation Machine assisted query formulation
US20090013044A1 (en) * 2007-07-05 2009-01-08 Microsoft Corporation Techniques for managing annotation transformations for context changes
US8001136B1 (en) 2007-07-10 2011-08-16 Google Inc. Longest-common-subsequence detection for common synonyms
US8037086B1 (en) 2007-07-10 2011-10-11 Google Inc. Identifying common co-occurring elements in lists
US20090018994A1 (en) * 2007-07-12 2009-01-15 Honeywell International, Inc. Time series data complex query visualization
US8122022B1 (en) 2007-08-10 2012-02-21 Google Inc. Abbreviation detection for common synonym generation
US10698886B2 (en) * 2007-08-14 2020-06-30 John Nicholas And Kristin Gross Trust U/A/D Temporal based online search and advertising
US8165404B2 (en) * 2007-09-19 2012-04-24 Ricoh Company, Ltd. Method and apparatus for creating document data, and computer program product
US7814054B2 (en) * 2008-04-03 2010-10-12 Laurion James E System and method for providing common operators across multiple applications
US8261334B2 (en) 2008-04-25 2012-09-04 Yodlee Inc. System for performing web authentication of a user by proxy
US9209975B2 (en) * 2008-10-15 2015-12-08 Ricoh Company, Ltd. Secure access of electronic documents and data from client terminal
EP2329444A4 (de) * 2008-07-22 2011-11-09 Contextweb Inc Neues offeneinfügungs-bestellsystem zur anschaltung mit einer vermittlungsstelle für internet-wärmemedien
US9275684B2 (en) * 2008-09-12 2016-03-01 At&T Intellectual Property I, L.P. Providing sketch annotations with multimedia programs
CN105930311B (zh) 2009-02-18 2018-10-09 谷歌有限责任公司 执行与再现文档关联的动作的方法、移动设备和可读介质
US8555359B2 (en) 2009-02-26 2013-10-08 Yodlee, Inc. System and methods for automatically accessing a web site on behalf of a client
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
WO2010105245A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Automatically providing content associated with captured information, such as information captured in real-time
US20100325557A1 (en) * 2009-06-17 2010-12-23 Agostino Sibillo Annotation of aggregated content, systems and methods
US8385660B2 (en) 2009-06-24 2013-02-26 Ricoh Co., Ltd. Mixed media reality indexing and retrieval for repeated content
US8306329B2 (en) * 2009-08-17 2012-11-06 Indian Institute Of Science System and method for searching handwritten texts
KR101660271B1 (ko) 2009-08-21 2016-10-11 삼성전자주식회사 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법
US8186436B2 (en) * 2009-09-10 2012-05-29 Warren Carlos Thermal insulating packer fluid
TW201118619A (en) * 2009-11-30 2011-06-01 Inst Information Industry An opinion term mining method and apparatus thereof
JP5617233B2 (ja) * 2009-11-30 2014-11-05 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
JP5589466B2 (ja) * 2010-03-17 2014-09-17 ソニー株式会社 情報処理装置、プログラム、記録媒体および情報処理システム
US20120005183A1 (en) * 2010-06-30 2012-01-05 Emergency24, Inc. System and method for aggregating and interactive ranking of search engine results
US8918734B2 (en) 2010-07-28 2014-12-23 Nuance Communications, Inc. Reduced keyboard with prediction solutions when input is a partial sliding trajectory
JP5672830B2 (ja) * 2010-08-06 2015-02-18 株式会社リコー 画像表示制御装置、画像表示システム、画像表示方法、プログラムおよび記録媒体
JP5012981B2 (ja) * 2010-09-09 2012-08-29 カシオ計算機株式会社 電子辞書装置およびプログラム
US8718375B2 (en) 2010-12-03 2014-05-06 Massachusetts Institute Of Technology Sketch recognition system
JP5742378B2 (ja) * 2011-03-30 2015-07-01 ソニー株式会社 情報処理装置、プレイリスト生成方法及びプレイリスト生成プログラム
US9058331B2 (en) 2011-07-27 2015-06-16 Ricoh Co., Ltd. Generating a conversation in a social network based on visual search results
EP2836927B1 (de) 2012-04-11 2019-10-16 BlackBerry Limited Systeme und verfahren zum suchen nach analogen notizen und anmerkungen
JP5717691B2 (ja) * 2012-05-28 2015-05-13 株式会社東芝 手書き文字検索装置、方法及びプログラム
JP2013246732A (ja) 2012-05-28 2013-12-09 Toshiba Corp 手書き文書検索装置、方法及びプログラム
US8487895B1 (en) * 2012-06-26 2013-07-16 Google Inc. Systems and methods for enhancing touch event processing performance
EP2920743A4 (de) * 2012-11-19 2017-01-04 IMDS America Inc. Verfahren und system zum auffinden von beliebigen wörtern in handgeschriebenen dokumenten
US11270058B2 (en) * 2012-11-29 2022-03-08 Red Hat, Inc. Referencing a portion of a document
US9558400B2 (en) * 2013-03-07 2017-01-31 Ricoh Company, Ltd. Search by stroke
JP5735126B2 (ja) * 2013-04-26 2015-06-17 株式会社東芝 システムおよび筆跡検索方法
CN104346388B (zh) * 2013-07-31 2018-03-09 株式会社理光 云端服务器以及图像存储检索系统
US9418281B2 (en) * 2013-12-30 2016-08-16 Google Inc. Segmentation of overwritten online handwriting input
WO2015136645A1 (ja) * 2014-03-12 2015-09-17 株式会社 東芝 電子機器、方法及びプログラム
JP2016110389A (ja) * 2014-12-05 2016-06-20 株式会社東芝 検索装置、方法及びプログラム
US10635413B1 (en) 2018-12-05 2020-04-28 Bank Of America Corporation System for transforming using interface image segments and constructing user interface objects
US10678521B1 (en) 2018-12-05 2020-06-09 Bank Of America Corporation System for image segmentation, transformation and user interface component construction
US11328796B1 (en) 2020-02-25 2022-05-10 Vignet Incorporated Techniques for selecting cohorts for decentralized clinical trials for pharmaceutical research
US11461216B1 (en) 2020-05-18 2022-10-04 Vignet Incorporated Monitoring and improving data collection using digital health technology
US11605038B1 (en) 2020-05-18 2023-03-14 Vignet Incorporated Selecting digital health technology to achieve data collection compliance in clinical trials
US11527329B2 (en) 2020-07-28 2022-12-13 Xifin, Inc. Automatically determining a medical recommendation for a patient based on multiple medical images from multiple different medical imaging modalities
US11789837B1 (en) 2021-02-03 2023-10-17 Vignet Incorporated Adaptive data collection in clinical trials to increase the likelihood of on-time completion of a trial
US11361846B1 (en) 2021-02-03 2022-06-14 Vignet Incorporated Systems and methods for customizing monitoring programs involving remote devices
US11196656B1 (en) 2021-02-03 2021-12-07 Vignet Incorporated Improving diversity in cohorts for health research
US11316941B1 (en) 2021-02-03 2022-04-26 Vignet Incorporated Remotely managing and adapting monitoring programs using machine learning predictions
US11521714B1 (en) 2021-02-03 2022-12-06 Vignet Incorporated Increasing diversity of participants in health research using adaptive methods
US11296971B1 (en) 2021-02-03 2022-04-05 Vignet Incorporated Managing and adapting monitoring programs

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0750483B2 (ja) * 1985-05-22 1995-05-31 株式会社日立製作所 文書画像追加情報の蓄積方法
US4972496A (en) * 1986-07-25 1990-11-20 Grid Systems Corporation Handwritten keyboardless entry computer system
US5194852A (en) * 1986-12-01 1993-03-16 More Edward S Electro-optic slate for direct entry and display and/or storage of hand-entered textual and graphic information
JP2735187B2 (ja) * 1987-03-17 1998-04-02 株式会社東芝 情報検索方法
JPS63233427A (ja) * 1987-03-20 1988-09-29 Hitachi Ltd 近似パタ−ン検出方法および装置
JP2945692B2 (ja) * 1988-05-27 1999-09-06 コダック・リミテッド 注釈可能なイメージを処理するデータ処理システム
US5038382A (en) * 1989-10-13 1991-08-06 International Business Machines Corporation Multi-scale recognizer for hand drawn strokes
US5220649A (en) * 1991-03-20 1993-06-15 Forcier Mitchell D Script/binary-encoded-character processing method and system with moving space insertion mode
US5313527A (en) * 1991-06-07 1994-05-17 Paragraph International Method and apparatus for recognizing cursive writing from sequential input information
US5455901A (en) * 1991-11-12 1995-10-03 Compaq Computer Corporation Input device with deferred translation
US5463696A (en) * 1992-05-27 1995-10-31 Apple Computer, Inc. Recognition system and method for user inputs to a computer system
US5434777A (en) * 1992-05-27 1995-07-18 Apple Computer, Inc. Method and apparatus for processing natural language
US5325475A (en) * 1992-09-09 1994-06-28 Massachusetts Institute Of Technology Computer method and apparatus for matching between line drawings
US5583950A (en) * 1992-09-16 1996-12-10 Mikos, Ltd. Method and apparatus for flash correlation
TW401567B (en) * 1992-10-09 2000-08-11 Matsushita Electric Ind Co Ltd Certifiable optical character recognition
US5666139A (en) * 1992-10-15 1997-09-09 Advanced Pen Technologies, Inc. Pen-based computer copy editing apparatus and method for manuscripts
US5579471A (en) * 1992-11-09 1996-11-26 International Business Machines Corporation Image query system and method
JPH06231171A (ja) * 1993-02-03 1994-08-19 Hitachi Ltd 文書検索装置およびペンベースコンピューティングシステム
JPH0773190A (ja) * 1993-04-29 1995-03-17 Matsushita Electric Ind Co Ltd ペンベースコンピューターシステム用絵文字ネーミング
US5613019A (en) * 1993-05-20 1997-03-18 Microsoft Corporation System and methods for spacing, storing and recognizing electronic representations of handwriting, printing and drawings
US5592608A (en) * 1993-10-15 1997-01-07 Xerox Corporation Interactively producing indices into image and gesture-based data using unrecognized graphical objects
JPH07319924A (ja) * 1994-05-24 1995-12-08 Matsushita Electric Ind Co Ltd 手書き電子文書のインデックス付けおよび探索方法
US5687254A (en) * 1994-06-06 1997-11-11 Xerox Corporation Searching and Matching unrecognized handwriting
DE69428527T2 (de) * 1994-07-04 2002-05-08 Hewlett Packard Co Kritzlervergleich
US5600775A (en) * 1994-08-26 1997-02-04 Emotion, Inc. Method and apparatus for annotating full motion video and other indexed data structures
JP3535624B2 (ja) * 1995-09-21 2004-06-07 キヤノン株式会社 検索装置及び方法

Also Published As

Publication number Publication date
EP0791883A3 (de) 1999-01-07
JPH1055371A (ja) 1998-02-24
EP0791883B1 (de) 2004-11-03
EP0791883A2 (de) 1997-08-27
DE69731418D1 (de) 2004-12-09
US5832474A (en) 1998-11-03
CA2195178A1 (en) 1997-08-27

Similar Documents

Publication Publication Date Title
DE69731418T2 (de) Such- und Wiederauffindungssystem für Dokumente mit Suchverfahren von teilweise passenden, benutzergezeichneten Anmerkungen
DE60116442T2 (de) System zur Zuordnung von Schlüsselwörtern zu Dokumenten
US6903751B2 (en) System and method for editing electronic images
DE19708265B4 (de) Verfahren zum Durchsuchen einer Dokument-Bilddatenbank und Dokumentbild-Durchstöberungssystem sowie Verfahren zum Extrahieren eines Merkmalsvektors aus einem elektronisch gespeicherten Bild
DE69637073T2 (de) Prozessor und verarbeitungsverfahren für dokumente
DE60312572T2 (de) Verfahren und Gerät zum Konvertieren digitaler Bilder von Handzeichnungen zur weiteren Verwendung in einem strukturierten Text/Graphik Editor.
DE69434434T2 (de) Verfahren und gerät um text- und bilddaten zu synchronisieren, anzeigen und manipulieren
DE69724755T2 (de) Auffinden von Titeln und Photos in abgetasteten Dokumentbildern
DE10308014B4 (de) System und Verfahren zum Lokalisieren eines nichttextlichen Bereichs eines elektronischen Dokumentes oder Bildes, der mit einer benutzerdefinierten Beschreibung des Bereichs übereinstimmt
DE69533479T2 (de) Zeichensatz mit zeichen aus mehreren strichen und handschrifterkennungssystem
US6731826B1 (en) Image search apparatus and method, and computer readable memory
DE60314563T2 (de) Überlagerung mit elektronischer Tinte
DE69434620T2 (de) Verfahren und Gerät zum Herstellen, Indexieren und Anschauen von zusammengefassten Dokumenten
US6563959B1 (en) Perceptual similarity image retrieval method
DE60314977T2 (de) Tintensegmentierer und zugehöriges Programm
US8532384B2 (en) Method of retrieving information from a digital image
DE602004005216T2 (de) Dokumentenscanner
JP2816241B2 (ja) 画像情報検索装置
DE19751570A1 (de) Dokumentmanagementsystem, Verfahren zum Betreiben eines solchen Systems und Digitalkopierer
DE102012202558A1 (de) Erzeugung einer Abfrage aus dargestellten Textdokumenten unter Anwendung virtueller Magnete
DE10105941A1 (de) System und Verfahren zum automatischen Zuweisen eines Dateinamens zu einem gescannten Dokument
DE19843445A1 (de) Navigationssystem für eine Dokumentbilder-Datenbank
DE10162156A1 (de) Die Benutzernavigation durch Multimedia-Dateiinhalte unterstützendes System und Benutzerschnittstelle
DE19705757A1 (de) Verfahren und Gerät für das Design eines hoch-zuverlässigen Mustererkennungs-Systems
WO2001053974A1 (en) Unique architecture for handheld computers

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee