DE69839068T2 - System und Verfahren zur automatischen Verarbeitung von Anruf und Datenübertragung - Google Patents

System und Verfahren zur automatischen Verarbeitung von Anruf und Datenübertragung Download PDF

Info

Publication number
DE69839068T2
DE69839068T2 DE69839068T DE69839068T DE69839068T2 DE 69839068 T2 DE69839068 T2 DE 69839068T2 DE 69839068 T DE69839068 T DE 69839068T DE 69839068 T DE69839068 T DE 69839068T DE 69839068 T2 DE69839068 T2 DE 69839068T2
Authority
DE
Germany
Prior art keywords
call
caller
message
identity
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69839068T
Other languages
English (en)
Other versions
DE69839068D1 (de
Inventor
Mark Edward Katonah Epstein
Dimitri Ossining Kanevsky
Stephan Herman Danbury Maes
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nuance Communications Inc
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE69839068D1 publication Critical patent/DE69839068D1/de
Application granted granted Critical
Publication of DE69839068T2 publication Critical patent/DE69839068T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/436Arrangements for screening incoming calls, i.e. evaluating the characteristics of a call before deciding whether to answer it
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/40Applications of speech amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/663Preventing unauthorised calls to a telephone set
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/5307Centralised arrangements for recording incoming messages, i.e. mailbox systems for recording messages comprising any combination of audio and non-audio components

Description

  • Die vorliegende Erfindung betrifft ein System und Verfahren zum automatischen Verarbeiten von Anrufen und Datenübertragungen und insbesondere ein System und Verfahren zum automatischen Verarbeiten von Anrufen und Datenübertragungen nach einer vorprogrammierten Prozedur auf der Grundlage der Identität eines Anrufers oder eines Verfassers, des Themas und Inhalts eines Anrufs oder einer Nachricht und/oder der Uhrzeit eines solchen Anrufs oder einer solchen Nachricht.
  • Früher wurden Anrufe im Allgemeinen manuell entweder von einem Geschäftsinhaber, einer Sekretärin oder einer örtlichen Telefonzentrale verarbeitet. Es gibt einige herkömmliche Einrichtungen zur teilweisen Ausführung bestimmter Telefonverarbeitungsfunktionen. Zum Beispiel zeichnen herkömmliche Anrufbeantworter und Voicemail-Dienste (Sprachpost) ankommende Telefonnachrichten auf, die vom Benutzer solcher Einrichtungen oder Dienste wiedergegeben werden. Außerdem bieten die Software von Telefonapparaten oder örtliche Nebenstellenanlagen (Private Branch Exchange, PBX) Vermittlungsfunktionen für Telefonnetze. Diese herkömmlichen Anrufbeantworter, Voicemail-Dienste und Vermittlungssysteme sind jedoch nicht in der Lage, automatisch bestimmte Verarbeitungsprozeduren auszuführen, die auf die Identität des Anrufers reagieren oder den Inhalt oder das Thema des Anrufs oder der Nachricht bewerten und einen solchen Anruf oder eine solche Nachricht dann entsprechend zu verarbeiten. Stattdessen muss der Benutzer zuerst seine Telefonanrufe manuell beantworten oder solche Anrufe vom Anrufbeantworter oder vom Voicemail-Dienst abrufen und dann für jeden einzelnen Anruf entscheiden, wie mit diesem zu verfahren ist. Die vorliegende Erfindung erübrigt oder erleichtert eine solche aufwändige manuelle Verarbeitung.
  • Obwohl Anrufbeantworter und Voicemail-Dienste durch die Tasteneingabe im Mehrfrequenzwahlverfahren (Dual Tone Multi-Frequency, DTMF) geschützt sind, können sie die Identität des Anrufers nicht prüfen, wenn der Anrufer von außen anruft oder sie von ihm durch eine gültige persönliche Kennnummer (Personal Identification Number, PIN) umprogrammiert werden, die durch Tasten nach dem Mehrfrequenzwahlverfahren eingegeben wird. Ferner erfordern Telefonkonferenzzentralen für den Zugriff DTMF-PINs, jedoch können sie die Identität des Sprechers während einer Telefonkonferenz nicht prüfen. Solche Anrufbeantworter, Voicemail-Dienste und Telefonkonferenzzentralen können deshalb von unberechtigten Personen abgehört werden, die Zugriff auf eine ansonsten gültige PIN erlangen können.
  • In der US-Patentschrift 5 327 486 werden ein Verfahren und ein System zur Verwaltung beispielsweise von Telefongesprächen beschrieben und kurz die Anwendung der Stimm- und Spracherkennung erwähnt. Diese Veröffentlichung beschreibt jedoch nicht die Vorteile und neue Lösungen zur Verwaltung eines Telefongesprächs unter Verwendung der Stimm- und Spracherkennung.
  • Deshalb besteht eine Aufgabe der vorliegenden Erfindung darin, ein System und Verfahren zur automatischen Verarbeitung von Anrufen und Datenübertragungen nach einer vorher programmierten Prozedur auf der Grundlage der Identität des Anrufers oder Verfassers, des Themas des Anrufs oder der Nachricht und/oder der Uhrzeit bereitzustellen.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, ein Anrufverarbeitungssystem bereitzustellen, das zuerst durch ein Telefon empfangene Nachrichten, Fax-Mitteilungen und eMail-Nachrichten sowie andere durch das System elektronisch empfangene Daten umsetzen, dann die Identität des Anrufers (oder Teilnehmers einer Telefonkonferenz) oder des Urhebers solcher eMail-Nachrichten oder Fax-Mitteilungen kennzeichnen und dann solche Anrufe, Gespräche und Nachrichten nach ihrem Ursprung oder ihrem Thema indexieren kann, sodass ein berechtigter Benutzer dann entweder an Ort und Stelle oder von einem fernen Standort auf das System zugreifen kann, um solche Telefongespräche oder -nachrichten wiederzugeben oder solche eMail- oder Fax-Nachrichten in Form synthetisierter Sprache abzurufen.
  • Noch eine weitere Aufgabe der vorliegenden Erfindung besteht darin, ein System bereitzustellen, das auf sprachaktivierte Befehle von einem berechtigten Benutzer reagiert (d. h. den zugriff erlaubt oder programmiert werden kann), wobei das System den Benutzer erkennen und prüfen kann, bevor dieser auf Anrufe oder Nachricht zugreifen oder das System programmieren kann.
  • Gemäß einem Aspekt der vorliegenden Erfindung wird ein automatisches System zur Verarbeitung von Anrufen und Datenübertragungen bereitgestellt, das Folgendes umfasst: ein Server-Mittel zum Empfangen eines ankommenden Anrufs; ein Sprechererkennungsmodul, das funktionell mit dem Server-Mittel verbunden ist, zum Erkennen eines Anrufers dieses Anrufs; ein Spracherkennungsmittel, das funktionell mit dem Server-Mittel verbunden ist, zum Ermitteln des Themas des Anrufs; ein Vermittlungsmittel, das als Reaktion auf das Sprechererkennungsmodul und das Spracherkennungsmittel den Anruf entsprechend der Erkennung des Anrufers und dem ermittelten Thema verarbeitet; ein Programmiermittel, das mit dem Server-Mittel, dem Sprechererkennungsmodul, dem Spracherkennungsmittel und dem Vermittlungsmittel funktionell verbunden ist, mit dem ein Benutzer das System programmieren kann; wobei das System durch Folgendes gekennzeichnet ist: ein Identitätsmarkierungsmittel, das als Reaktion auf das Sprechererkennungsmodul die Identität des Anrufers markiert; ein Umsetzungsmittel, das als Reaktion auf das Spracherkennungsmittel ein Telefongespräch oder eine Telefonnachricht des Anrufers umsetzt; und ein Audioindexierungsmittel, das funktionell mit dem Identitätsmarkierungsmittel und dem Umsetzungsmittel verbunden ist, zum Indexieren der Nachrichten und der Gespräche des Anrufers entsprechend dem Thema des Gesprächs und der Nachricht sowie der Identität des Anrufers.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Verfahren zur Verarbeitung von Anrufen bereitgestellt, das folgende Schritte umfasst: Empfangen eines ankommenden Anrufs; Erkennen eines Anrufers des Anrufs und Ermitteln des Themas des Anrufs, wenn ein ankommender Anruf empfangen wird; Verarbeiten des Anrufs und der Nachricht entsprechend der Identität des Anrufers und des Verfassers und dem Thema des Anrufs und der Nachricht; wobei das System durch die folgenden Schritte gekennzeichnet ist: Markieren der ermittelten Identität eines Anrufers; Umsetzen des ermittelten Themas des Anrufs; Indexieren der sich aus der Markierung und der Umsetzung ergebenden Informationen gemäß einem ermittelten Thema und der ermittelten Identität.
  • Gemäß noch einem weiteren Aspekt der vorliegenden Erfindung ist das Verfahren der vorliegenden Erfindung zur Verarbeitung von Anrufen in der Lage, die Identität eines Anrufers oder der Teilnehmer eines Telefonkonferenz zu markieren, während die Nachricht oder die Gespräche solcher Anrufer und Teilnehmer umgesetzt werden. Folglich kann das System automatisch Telefonnachrichten und -gespräche sowie Voicemail-, eMail- und Fax-Nachrichten verarbeiten, indem es solche Anrufe und Nachrichten nach ihrem Thema oder der Identität des Anrufers oder des Verfassers oder beider speichert. Genauer gesagt, die vorliegende Erfindung kann in Verbindung mit einer solchen Erkennung und Umsetzung automatisch die empfangenen Telefonanrufe und eMail- und Fax-Nachrichten nach ihrem Ursprung und/oder ihrem Thema indexieren oder ihnen Prioritäten zuweisen, sodass ein berechtigter Benutzer bestimmte Nachrichten, z. B. von einer bestimmten Quelle stammende Nachrichten oder Nachrichten mit einem ähnlichen oder einem bestimmten Thema, abrufen kann.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung beinhaltet das System Text-Sprache-Umsetzungsfähigkeiten, damit das System den Benutzer oder Anrufer in Form synthetisierter Sprache auffordern (d. h. abfragen), Antworten auf Fragen oder Anforderungen des Benutzers in Form synthetisierter Sprache geben und eMail- und Fax-Nachrichten in Form synthetisierter Sprache wiedergeben kann. Das System beinhaltet auch Wiedergabefähigkeiten zum Wiedergeben aufgezeichneter Telefonnachrichten und anderer aufgezeichneter Audiodaten.
  • Diese sowie weitere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden detaillierten Beschreibung deren anschaulicher Ausführungsarten in Verbindung mit den beiliegenden Zeichnungen klar.
  • 1 ist ein Blockschaltbild, das die allgemeinen Funktionen eines Systems gemäß der vorliegenden Erfindung zur automatischen Verarbeitung von Anrufen und Datenübertragungen veranschaulicht;
  • 2 ist ein Blockschaltbild sowie ein Ablaufplan, der die funktionelle Verknüpfung zwischen den Modulen für ein System gemäß einer Ausführungsart der vorliegenden Erfindung zur Verarbeitung von Anrufen und Datenübertragungen veranschaulicht; und
  • 3a und 3b sind Ablaufpläne, die ein Verfahren gemäß der vorliegenden Erfindung zur Verarbeitung von Anrufen und Datenübertragungen veranschaulichen.
  • 1 ist ein Blockschaltbild, das die allgemeinen Funktionen eines Systems gemäß der vorliegenden Erfindung zur automatischen Verarbeitung von Anrufen und Datenübertragungen zeigt. Bei der vorliegende Erfindung handelt es sich um eine Maschine zur automatischen Verarbeitung von Anrufen und Datenübertragungen, die von einem berechtigten Benutzer (Kasten 12) so programmiert werden kann, dass ankommende Telefonanrufe in einer von einem solchen Benutzer vorgegebenen Weise verarbeitet werden. Obwohl die vorliegende Erfindung zur Verarbeitung beliebiger Sprachdaten, die über digitale oder analoge Kanäle empfangen werden können, sowie von Daten genutzt werden kann, die elektronisch empfangen und (gemäß den folgenden Erläuterungen) anderweitig in lesbaren Text umgesetzt werden können, betrifft eine Ausführungsart der vorliegenden Erfindung die Verarbeitung von Telefongesprächen. Insbesondere beantwortet das System 10 automatisch einen ankommenden Telefonanruf von einem Anrufer (Kasten 14) und kann in Abhängigkeit davon, wie der Benutzer (Kasten 12) das System 10 programmiert hat, den Telefonanruf verarbeiten, indem es den Anruf zum Beispiel an ein anderes Telefonsystem oder einen Anrufbeantworter (Kasten 18) weiterleitet oder indem es den Anruf direkt verarbeitet, z. B. den Anrufer durchstellt, trennt oder in die Warteschleife versetzt (Kasten 16). Außerdem kann das System 10 so programmiert werden, dass es einen ankommenden Telefonanruf in einer bestimmten Reihenfolge an verschiedene Telefonsysteme (z. B. durch Weiterleiten des Anrufs an verschiedene vorgegebene Rufnummern, bis der Anruf beantwortet wird) oder gleichzeitig an alle solche Systeme weiterleitet. Es ist klar, dass die in Kasten 18 aufgeführten Telefonsysteme sowie die in Kasten 16 von 1 gezeigten Optionen nur zur Veranschaulichung dienen und keine Beschränkung der Verarbeitungsprozeduren darstellen, für deren Ausführung das System 10 programmiert werden kann.
  • Gemäß einer weiteren Ausführungsart der vorliegenden Erfindung kann das System 10 so programmiert werden, dass es ankommende Fax- und eMail-Nachrichten verarbeiten oder Nachrichten von eMail- oder Voicemail-Systemen automatisch abrufen kann. Somit sollte klar sein, dass die bidirektionalen Leitungen von 1 zum Verbinden des Systems 10 mit den Telefonsystemen in Kasten 18 (z. B. eMail, Voicemail, Fax/Modem und Anrufbeantworter) anzeigen, dass das System 10 zum Senden von Daten (z. B. Anrufen oder Nachrichten) an solche Systeme sowie zum Abrufen und Verarbeiten der in solchen Systemen gespeicherten oder aufgezeichneten Daten eingerichtet ist. Zum Beispiel kann das System 10 so programmiert werden, dass es einen bestimmten Anruf dadurch verarbeitet, dass es den Anruf zum Aufzeichnen an einen Anrufbeantworter (Kasten 18) weiterleitet. Das System 10 kann anschließend die aufgezeichnete Nachricht vom Anrufbeantworter abrufen, codieren und in einer bestimmten Weise verarbeiten. Ferner kann das System 10 so programmiert werden, dass es einen ankommenden Telefonanruf oder Nachrichten in eine Textseite umsetzt, die dann an den Personenrufempfänger, ein Mobiltelefon oder an ein eMail-System des Benutzers übertragen werden kann.
  • Die Funktionsmodule des Systems 10 und deren Zusammenwirken gemäß einer Ausführungsart der vorliegenden Erfindung wird im Folgenden unter Bezug auf 2 erläutert. Es sollte klar sein, dass gleiche oder ähnliche in den Figuren dargestellte Komponenten mit derselben Bezugsnummer bezeichnet werden. Ferner sollte klar sein, dass die hier beschriebenen Funktionsmodule gemäß der vorliegenden Erfindung in Form von Hardware, Software oder einer Kombination beider realisiert werden können. Zum Beispiel werden die Hauptmodule zur Sprach- und Sprechererkennung, zur Sprachenerkennung und zum Indexieren vorzugsweise in Form von Software auf einem oder mehreren in geeigneter Weise programmierten digitalen Universalcomputern realisiert, die jeweils einen Prozessor, einen zugehörigen Speicher und Eingabe-/Ausgabe-Schnittstellen zum Ausführen der Elemente der vorliegenden Erfindung aufweisen. Es sollte klar sein, dass die Funktionselemente von 2, obwohl die Erfindung vorzugsweise auf einem in geeigneter Weise programmierten Universalcomputer realisiert wird, eine geeignete und bevorzugte Prozessorarchitektur zum Ausführen der Erfindung enthalten können und Beispiele für Funktionselemente darstellen, die durch Programmierung in einem solchen Computer realisiert werden können. Ferner können die Funktionselemente von 2 durch Programmieren eines oder mehrerer Universal-Mikroprozessoren realisiert werden. Zum Realisieren der Erfindung können natürlich auch Spezial-Mikroprozessoren verwendet werden. Ausgehend von den hier dargelegten Lehren der Erfindung kann sich ein Fachmann diese und ähnliche Realisierungsformen der Elemente der Erfindung vorstellen.
  • Gemäß 2 beinhaltet das System 10 einen Server 20, der vorzugsweise mit verschiedenen Telefonsystemen verbunden ist, darunter, aber nicht darauf beschränkt, eine oder mehrere Telefonleitungen (Kasten 14) und eine oder mehrere Faxleitungen und eine Modemleitung (1 und 2, Kasten 18) zum Empfangen und Senden von Telefonanrufen bzw. Nachrichtendaten. Der Server 20 ist so programmiert, dass er automatisch ankommende Telefonanrufe beantwortet und ankommende Fax-Sendungen empfängt. Das System 10 kann auch eine Internet-/Intranet-Standleitung zum Zugreifen auf einen örtlichen Mail-Server beinhalten, wobei der Server 20 so programmiert sein kann, dass er (über das TCP/IP-Protokoll) periodisch eine Verbindung zu diesem örtlichen Mail-Server herstellt, um sowohl ankommende eMails zu empfangen und zu verarbeiten als auch eMail-Nachrichten zu senden. Wenn das System 10 nicht ständig mit einem lokalen Netz-Server verbunden ist, kann der System-Server 20 alternativ so programmiert werden, dass er periodisch eine Zugangsnummer zu einem Internetanbieter anwählt, um eMail-Nachrichten abzurufen oder zu senden. Solche Prozeduren können (im Gegensatz zur automatischen Überwachung solcher eMail-Konten) auch auf Wunsch des Benutzers ausgeführt werden, wenn der Benutzer auf das System 10 zugreift.
  • Gemäß den 1 und 2 (Kasten 18) kann der Server 20 auch direkt mit Voicemail-Systemen und Anrufbeantwortern verbunden werden, damit der Benutzer Nachrichten, die auf solchen Voicemail-System und Anrufbeantwortern aufgezeichnet wurden, abrufen und verarbeiten kann. Wenn das System 10 mit einem lokalen Netz verbunden ist, kann der Server 20 so programmiert werden, dass er periodisch Nachrichten von anderen Voicemail-Systemen oder Anrufbeantwortern abruft, die nicht direkt mit dem Server 20 verbunden sind, auf die aber ansonsten über das lokale Netz zugegriffen werden kann, sodass dass System 10 automatisch Nachrichten von solchen Voicemail-Systemen oder Anrufbeantwortern abrufen und überwachen kann.
  • Der Server 20 beinhaltet eine Aufzeichnungseinheit 40 zum Aufzeichnen und Speichern von Audiodaten vorzugsweise in digitaler Form (z. B. von ankommenden Telefonanrufen oder Nachrichten, die von Voicemail-System oder Anrufbeantwortern abgerufen wurden). Außerdem beinhaltet der Server 20 vorzugsweise ein Komprimierungs-/Dekomprimierungsmodul 42 zum Komprimieren der digitalisierten Audiodaten sowie der als eMail und Fax-Nachricht empfangenen Nachrichtendaten, um die Datenspeicherkapazität eines (nicht gezeigten) Speichers des Systems 10 zu erhöhen, sowie zum Dekomprimieren solcher Daten vor der Wiederherstellung, wenn solche Daten vom Speicher abgerufen werden.
  • Ein Sprechererkennungsmodul 22 und ein Modul 24 zur automatischen Spracherkennung/Sprachenerkennung (Automatic Speech Recognizer/Natural Language Understanding, ASR/NLU) sind funktionell mit dem Server 20 verbunden. Das Sprechererkennungsmodul 22 ermittelt die Identität des Anrufers 14 und der Teilnehmer einer Konferenzschaltung aus den durch den Server 20 empfangenen Sprachdaten sowie die Identität des Urhebers einer empfangenen Fax- oder eMail-Nachricht. Das ASR/NLU-Modul 24 setzt die Sprachdaten oder andere vom Server 20 empfangene Nachrichtendaten in lesbaren Text um, um den Inhalt und das Thema solcher Anrufe, Gespräche oder Nachrichten zu ermitteln. Ferner wird im Folgenden gezeigt, dass das ASR/NLU-Modul 24 Sprachbefehle von einem berechtigten Benutzer verarbeitet, damit dieser das System 10 programmieren sowie Nachrichten erzeugen oder abrufen kann. Das ASR/NLU-Modul 24 verarbeitet auch Sprachdaten von Anrufern und berechtigten Benutzern, um interaktive Sprachantwortfunktionen (Interactive Voice Response, IVR) auszuführen. Ein Sprachenerkennungs-/Übersetzungsmodul 26, das funktionell mit dem ASR/NLU-Modul 24 verbunden ist, wird bereitgestellt, damit das System 10 fremdsprachige Nachrichten verstehen und ordnungsgemäß beantworten kann, wenn das System zum Beispiel in einem mehrsprachigen Land wie beispielsweise Kanada genutzt wird.
  • Ein Vermittlungsmodul 28, das funktionell mit dem Sprechererkennungsmodul 22 und dem ASR/NLU-Modul 24 verbunden ist, verarbeitet die durch das Sprechererkennungsmodul 22 und/oder durch das ASR/NLU-Modul 24 empfangenen Daten. Das Vermittlungsmodul führt mit den ankommenden Telefonanrufen oder den Fax- oder eMail-Nachrichten gemäß einer vorprogrammierten Prozedur eine Verarbeitungsprozedur durch (z. B., indem es einen Anruf an ein Voicemail-System oder einen Anrufbeantworter weiterleitet).
  • Ein Identitätsmarkierungsmodul (ID-Markierungsmodul) 30, das funktionell mit dem Sprechererkennungsmodul 22 verbunden ist, wird zum elektronischen Markieren der Identität des Anrufers in dessen Nachricht oder Gespräch oder zum Markieren der Identität des Urhebers einer eMail- oder Fax-Nachricht bereitgestellt. Wenn das System im Hintergrund einer Telefonkonferenz aktiv ist, markiert das ID-Markierungsmodul 30 außerdem die Identität der gerade sprechenden Person. Ein Umsetzungsmodul 32, das funktionell mit dem ASR/NLU-Modul 24 verbunden ist, wird zum Umsetzen von Telefonnachrichten oder -gesprächen, Telefonkonferenz- und/oder Fax-Nachrichten bereitgestellt. Außerdem kann das Umsetzungsmodul 32 eine vom Benutzer diktierte Sprachnachricht umsetzen, die dann vom System 10 per Telefon, Fax oder eMail an eine andere Person gesendet werden kann.
  • Ein Audioindexierungs-/Prioritätsmodul 34 ist funktionell mit dem ID-Markierungsmodul 30 und dem Umsetzungsmodul 32 verbunden. Das ID-Markierungsmodul 34 speichert in einer vorprogrammierten Weise die Umsetzungsdaten und die Anruferkennungsdaten, die vom Umsetzungsmodul 32 beziehungsweise vom ID-Markierungsmodul 30 verarbeitet werden, sowie die Uhrzeit des Anrufs und die Rufnummer des Absenders (sofern verfügbar über die automatische Nummernerkennung (Automatic Number Identification, ANI), damit der Benutzer bestimmte Anrufe oder Nachrichten von einem bestimmten Absender oder Nachrichten mit einem bestimmten Thema abrufen kann. Ferner kann das Audioindexierungs-/Prioritätsmodul so programmiert werden, dass es bestimmten Anrufen oder Nachrichten eine Priorität zuweist und den Benutzer über solche Anrufe oder Nachrichten informiert.
  • Ein Sprachsynthesemodul 36, das funktionell mit dem Audioindexierungs-/Prioritätsmodul 34 verbunden ist, ermöglicht dem Benutzer das Abrufen von Nachrichten (eMails oder Fax-Nachrichten) in Form von Audiosignalen (d. h. in Form synthetisierter Sprache). Das Sprachsynthesemodul ist auch mit dem ASR/NLU-Modul funktionell verbunden, um (im Gegensatz zur Anzeige zum Beispiel auf einem Computermonitor) Systemeingabeaufforderungen (d. h. Abfragen) in Form synthetisierter Sprache bereitzustellen.
  • Eine Programmieroberfläche 38, die funktionell mit dem Server 20, dem Sprechererkennungsmodul 22, dem Sprachenerkennungs-/Übersetzungsmodul 26, dem ASR/NLU-Modul 24, dem Audioindexierungs-/Prioritätsmodul 34 und dem Vermittlungsmodul verbunden ist, wird zum Programmieren des Systems 10 bereitgestellt, um Anrufe und Nachricht nach einer vorgegebenen Prozedur zu verarbeiten. Im Folgenden wird ausführlich erläutert, dass ein Benutzer das System unter Verwendung der Programmierschnittstelle 38 entweder über Sprachbefehle oder über eine grafische Benutzeroberfläche (Graphical User Interface, GUI) oder über beide programmieren kann. Bei einer bevorzugten Ausführungsart wird das System 10 durch Sprachbefehle vom Benutzer (d. h. im Sprachbefehlsmodus) programmiert. Genauer gesagt, der Benutzer kann das System 10 entweder von fern durch Anrufen des Systems 10 oder an Ort und Stelle mit einem Mikrofon programmieren. Die Programmierschnittstelle 38 ist mit dem Server 20 verbunden, der in Verbindung mit dem Sprechererkennungsmodul 22 und dem ASR/NLU-Modul 24 die Identität des Benutzers prüft, bevor dieser die vom Benutzer gesprochenen Programmierbefehle verarbeitet. Das System 10 kann Informationen über die gesprochenen Programmierbefehle (d. h., ob das System 10 einen solchen Befehl akzeptiert) sowie die aktuelle Programmstruktur des Systems 10 entweder (über die GUI) anzeigen oder (über das Sprachsynthesemodul 36) wiedergeben.
  • Gemäß einer weiteren Ausführungsart kann das System 10 an Ort und Stelle über einen Personal Computer und einen GUI-Bildschirm oder von fern programmiert werden, indem von einem fernen Standort über ein Computernetz auf das System 10 zugegriffen wird. Ähnlich wie bei der herkömmlichen Windows-Oberfläche kann der Benutzer das System 10 programmieren, indem er bestimmte auf der GUI angezeigte Felder auswählt. Es sollte klar sein, dass das System 10 durch eine Kombination von Sprachbefehlen und einer GUI programmiert werden kann. In einem solchen Fall kann die GUI zum Beispiel den Benutzer unterstützen, indem sie ihm die zum Programmieren des Systems 10 zur Verfügung stehenden Sprachbefehle anzeigt. Darüber hinaus kann das System 10 durch Bearbeiten einer entsprechenden Programmstrukturdatei programmiert werden, welche die Funktionsmodule von 2 steuert.
  • Im Folgenden wird unter Bezug auf 2 und die 3a und 3b die Funktionsweise der vorliegenden Erfindung beschrieben. Es sollte klar sein, dass die Darstellung der vorliegenden Erfindung in 2 als Ablaufplan zur Veranschaulichung der Arbeitsschritte der vorliegenden Erfindung sowie als Blockschaltbild zur Darstellung einer Ausführungsart der vorliegenden Erfindung zu verstehen ist. Der Server 20 wird so programmiert, dass er einen ankommenden Telefonanruf, eine eMail, ein Fax/Modem oder andere elektronische Sprach- oder Nachrichtendaten automatisch beantwortet (Schritt 100). Der Server 20 unterscheidet anhand spezieller Codes, d. h. Protokolle am Anfang jeder Nachricht, welche die Quelle anzeigen, zwischen ankommenden Telefonanrufen, eMail-Nachrichten, Fax-Nachrichten usw. Insbesondere geht der Server 20 zuerst davon aus, dass es sich bei dem ankommenden Anruf um ein Telefongespräch handelt und verfährt entsprechend (Schritt 110), sofern der Server 20 nicht zum Beispiel ein Quittungssignal von einem Modem empfängt, worauf das System 10 den Anruf als Computer-Verbindungsprotokoll verarbeitet. Es sollte klar sein, dass das System 10 so programmiert werden kann, dass es andere Voicemail- oder eMail-Konten durch periodisches Anrufen solcher Konten und durch Abrufen von Voicemail- und eMail-Nachrichten von solchen Konten überwachen kann.
  • Wenn festgestellt wird, dass es sich bei dem vom Server 20 empfangenen ankommenden Anruf um einen Telefonanruf handelt, werden die Audiodaten (z. B. ankommende Anrufe sowie von Voicemail-Systemen oder Anrufbeantwortern abgerufene Anrufe) von der Aufzeichnungseinheit 40 aufgezeichnet (Schritt 112). Bei der Aufzeichnungseinheit 40 kann es sich um eine herkömmliche Einheit wie beispielsweise eine analoge Aufzeichnungseinheit oder ein digitales Audioband (Digital Audio Tape, DAT) handeln. Vorzugsweise wird als Aufzeichnungseinheit 40 eine digitale Aufzeichnungseinheit verwendet, d. h. ein Analog-Digital-Umsetzer zum Umsetzen der Audiodaten in digitale Daten. Die digitalisierten Audiodaten können dann durch das Komprimierungs-/Dekomprimierungsmodul 42 (Schritt 114) komprimiert werden, bevor sie in dem (in 2 nicht gezeigten Speicher) gespeichert werden (Schritt 116). Es sollte klar sein, dass vom Komprimierungs-/Dekomprimierungsmodul 42 zur Verarbeitung der Nachrichtendaten ein beliebiger herkömmlicher Algorithmus verwendet werden kann, zum Beispiel der in „Digital Signal Processing, Synthesis and Recognition", von S. Furui, Dekker, 1989, beschriebene Algorithmus.
  • Als Nächstes wird gleichzeitig mit dem Aufzeichnen und Speichern der Audiodaten die Identität des Anrufers ermittelt, indem die Audionachrichten und/oder Audioantworten des Anrufers auf Abfragen seitens des Systems 10 verarbeitet werden. Genauer gesagt, die verbalen Äußerungen und Antworten werden durch den Server 20 empfangen und an das Sprechererkennungsmodul 22 gesendet, wo solche verbalen Äußerungen und Antworten verarbeitet und mit früher gespeicherten Sprechermodellen verglichen werden (Schritt 120). Wenn der Sprecher durch Übereinstimmung der empfangenen Sprachdaten mit einem früher gespeicherten Sprachmodell eines solchen Sprechers erkannt wird (Schritt 130) und das System 10 so programmiert ist, dass es Anrufe entsprechend der Identität eines Anrufers verarbeitet, verarbeitet das System 10 den Telefonanruf gemäß einer solchen vorher programmierten Prozedur (Schritt 152).
  • Wenn der Sprecher (z. B. ein Sprecher, der zum ersten Mal anruft) andererseits nicht anhand der zuvor gespeicherten Sprachmodelle erkannt werden kann, kann eine Sprechererkennung sowohl durch das Sprechererkennungsmodul 22 als auch durch das ASR/NLU-Modul 26 erfolgen, wobei der Inhalt der Telefonnachricht durch das ASR/NLU-Modul 26 verarbeitet werden kann, um den Namen des Anrufers zu ermitteln, der dann mit zuvor gespeicherten Namen verglichen wird, um die Identität eines solchen Anrufers zu ermitteln (Schritt 140). Wenn dann die Identität des Anrufers ermittelt wird, verarbeitet das System 10 den Telefonanruf entsprechend der Identität des Anrufer (Schritt 152).
  • Falls das System 10 nicht in der Lage ist, die Identität des Anrufers entweder anhand der gespeicherten Sprachmodelle oder des Inhalts der Telefonnachricht zu ermitteln, sendet das Sprechererkennungsmodul 22 ein Signal an den Server 20, der wiederum den Anrufer mit einer Abfrage, z. B. „Wer sind Sie", auffordert, seinen Namen anzugeben (Schritt 150), worauf der obige Erkennungsprozess wiederholt wird (Schritt 120). Der Server 20 erhält die Abfrage vom Sprachsynthesemodul 36 in Form synthetisierter Sprache. Gemäß der obigen Beschreibung sollte klar sein, dass das System 10 so programmiert werden kann, dass es zu Anfang den Anrufer nach seinem Namen oder nach Einzelheiten über den Grund seines Anrufs befragt.
  • Sobald das Sprechererkennungsmodul 22 die Identität des Anrufers oder Urhebers ermittelt hat, wird vom Sprechererkennungsmodul 22 ein Signal an das Vermittlungsmittel 28 gesendet, wodurch das Vermittlungsmittel 28 den Anruf oder die Nachricht anhand der Identität des Anrufers oder Urhebers gemäß einer vorher programmierten Prozedur verarbeitet (Schritt 152). Wenn die Identität des Anrufers jedoch überhaupt nicht ermittelt werden kann, kann das System 10 so programmiert sein, dass es den Anruf als Anruf von einem unbekannten Anrufer verarbeitet (Schritt 154), indem es den Anruf z. B. an ein Voicemail-System weiterleitet. Eine solche Programmierung, die näher erläutert werden muss, wird vom Benutzer 12 über das Programmieroberflächenmodul 38 ausgeführt. Gemäß der obigen Beschreibung können die Verarbeitungsschritte des Systems 10 so programmiert werden, dass es unter anderem, aber nicht ausschließlich, das Vermitteln des Anrufs an ein anderes System, das Weiterleiten des Anrufs an ein anderes Telefonendgerät (1 und 2, Kasten 18) oder die direkte Verarbeitung des Anrufs entweder durch das Durchstellen des Anrufs an einen bestimmten Teilnehmer, das Trennen des Anrufs oder das Versetzen des Anrufs in eine Warteschleife (1 und 2, Kasten 16) ausführt.
  • Es sollte klar sein, dass immer, wenn ein neuer Anrufer zum ersten Mal mit dem System 10 in Verbindung tritt, Sprechermodelle erstellt und im Sprechererkennungsmodul 22 gespeichert werden, sofern sie nicht auf Wunsch des Benutzers gelöscht werden. Solche Modelle werden dann vom Sprechererkennungsmodul 22 zur Prüfung und Erkennung verwendet, wenn der Anrufer zu einem späteren Zeitpunkt mit dem System 10 in Verbindung tritt.
  • Es sollte klar sein, dass das System 10 die Sprechererkennung unter Verwendung anderer Verfahren durchführen kann, die nicht auf akustischen Merkmalen beruhen, wenn die erforderlichen Sprachmodelle nicht vorliegen. Beispielsweise kann das System 10 bei Telefonanrufen weitere Informationen (z. B. die Anrufer-ID) nutzen, um die Treffergenauigkeit des Systems 10 zu erhöhen und/oder erstmalig anrufende Anrufer zu erkennen.
  • Gemäß der folgenden Erläuterung kann das System 10 so programmiert werden, dass der Name und die Rufnummer jedes Anrufers (oder bestimmter Anrufer) gespeichert werden. Durch eine solche Funktion kann der Benutzer automatisch Antwortnachrichten an Anrufer versenden sowie dynamisch ein Adressbuch erstellen (das im System 10 gespeichert wird), auf das der Benutzer später zugreifen kann, um eine Nachricht an eine bestimmte Person zu senden.
  • Es sollte klar sein, dass es je nach Anwendung nicht in jedem Fall erforderlich ist, dass das System 10 die Sprechererkennung und Sprachenerkennung in Echtzeit (d. h. gleichzeitig mit dem Aufzeichnen und während des Telefongesprächs selbst) durchführt. Zum Beispiel kann das System 10 so programmiert werden, dass es beim Eingang des Anrufs den Anrufer (über die IVR-Programmierung) zur Gewinnung wichtiger Informationen (d. h. des Namens und des Grundes für den Anruf) abfragt und diese Informationen speichert. Nach dem Anruf kann dann der Erkennungsprozess durch das Sprechererkennungsmodul 22 oder das ASR/NLU-Modul 24 durchgeführt werden, indem die gespeicherten Audiodaten vom Speicher abgerufen werden (Schritt 118) (siehe gestrichelte Linie in 3a).
  • Es sollte klar sein, dass als Sprechererkennungsmodul 22 zur Erkennung des Anrufers ein beliebiges Sprechererkennungssystem verwenden kann. Vorzugsweise nutzt das gemäß der vorliegenden Erfindung angewendete Sprechererkennungssystem ein System, das eine textunabhängige Sprechererkennung durchführt und Zufallsfragen stellt, d. h. eine Kombination von Spracherkennung, textunabhängiger Sprechererkennung und Sprachenerkennung gemäß der Beschreibung in der US-Patentanmeldung mit der Serien-Nr. 08/871 784, eingereicht am 11. Juni 1997, mit dem Titel „Apparatus and Methods for Speaker Verification/Identification/Classification Employing Non-Acoustic and/or Acoustic Models and Databases". Insbesondere beruht die textunabhängige Sprechererkennung vorzugsweise auf einer Merkmalsklassifikation einzelner Ausschnitte (frames), die ausführlich in der US-Patentanmeldung mit der Serien-Nr. 08/788 471, eingereicht am 28. Januar 1977, mit dem Titel „Text Independent Speaker Recognition for Transparent Command Ambiguity and Continuous Access Control" beschrieben wird, die hier durch Bezugnahme einbezogen ist.
  • Gemäß der Erläuterung in der oben erwähnten einbezogenen US-Patentanmeldung mit der Serien-Nr. 08/871 784 wird der textunabhängigen Sprechererkennung der Vorzug vor der textabhängigen oder der textgebundenen Sprechererkennung gegeben, da die Sprechererkennungsfunktion bei Textunabhängigkeit parallel mit anderen Spracherkennungsfunktionen in einer für den Anrufer transparenten Weise ausgeführt werden kann, ohne das Gespräch durch neue Befehle oder die Erkennung eines neuen Anrufers zu unterbrechen, wenn ein neuer Anrufer in Erscheinung tritt.
  • Gemäß 3b (und unter der Annahme, dass das System 10 zur Verarbeitung von Anrufen auf der Grundlage der Identität eines Anrufers oder Urhebers programmiert ist) wird als Nächstes ermittelt, ob es sich bei dem ankommenden Anruf um eine Fax- oder eine eMail-Nachricht handelt, worauf die Nachrichtendaten (z. B. ankommende eMails oder Nachrichten, die von eMail-Konten abgerufen wurden) durch das ASR/NLU-Modul 24 (Schritt 190) verarbeitet, komprimiert (Schritt 192) und in einem (nicht gezeigten) Speicher gespeichert werden (Schritt 194). Bei eMail-Nachrichten werden die Daten direkt verarbeitet (da solche Daten bereits im Textformat vorliegen). Bei Fax- Nachrichten nutzt das ASR/NLU-Modul 24 bekannte Techniken zur optischen Zeichenerkennung (Optical Character Recognition, OCR), um die empfangene Fax-Nachricht in lesbaren Text umzusetzen (d. h., die Fax-Nachricht in eine ASCII-Datei umzusetzen.)
  • Als Nächstes kann gleichzeitig mit dem Umsetzen und Speichern der Daten der ankommenden Nachricht die Identität des Urhebers einer solchen Nachricht durch das ASR/NLU-Modul 24 ermittelt werden, wobei der Inhalt der ankommenden Nachricht analysiert wird (Schritt 200), um den Namen des Urhebers oder die Quelle der Nachricht zu entnehmen, der dann zur Ermittlung der Identität eines solchen Urhebers mit den zuvor gespeicherten Namen verglichen wird (Schritt 210). Wenn der Urheber erkannt worden ist (Schritt 210), kann die Nachricht nach einer vorher programmierten Prozedur auf der Grundlage der Identität des Urhebers verarbeitet werden (Schritt 222). Wenn die Identität des Urhebers jedoch nicht ermittelt werden kann, kann die Nachricht nach der vorher programmierten Prozedur für einen nicht erkannten Urheber verarbeitet werden (Schritt 224).
  • Nach den obigen Erläuterungen sollte klar sein, dass das System 10 die ankommende oder abgerufene Nachricht nicht in jedem Fall in Echtzeit (d. h. gleichzeitig mit dem Umsetzen der ursprünglichen Nachricht) verarbeiten muss. Die Verarbeitung kann vom ASR/NLU-Modul 24 nach dem Empfangen der eMail- oder Fax-Nachricht erfolgen, indem die Daten der umgesetzten Nachricht vom Speicher abgerufen werden (Schritt 196)(siehe die gestrichelte Linie in 3b).
  • Zusätzlich zur Erkennung der Identität des Anrufers oder Urhebers kann das System 10 ferner vom Benutzer 12 so programmiert werden, dass ein ankommender Telefonanruf oder eine Fax- oder eMail-Nachricht auf der Grundlage des Inhalts oder des Themas des Anrufs oder der Nachricht und/oder der Uhrzeit verarbeitet wird, zu der ein solcher Anruf oder eine solche Nachricht empfangen wurde. Gemäß den 2, 3a und 3b sendet der Server 20 nach dem Empfangen eines ankommenden Telefonanrufs oder einer eMail- oder Fax-Nachricht oder nach dem Abrufen einer aufgezeichneten Nachricht vom einem Anrufbeantworter oder einem Voicemail-System die Daten des Anrufs oder der Nachricht an das ASR/NLU-Modul 24. Im Fall von Sprachdaten (z. B. Telefonanrufen oder Nachrichten, die von einem Voicemail-System oder einem Anrufbeantworter abgerufen wurden) setzt das ASR/NLU-Modul 24 solche Daten in eine Symbolsprache oder einen lesbaren Text um. Gemäß der obigen Erläuterung werden eMail-Nachrichten direkt verarbeitet (da sie bereits in einem lesbaren Textformat vorliegen) und Fax-Nachrichten durch das ASR/NLU-Modul 24 unter Verwendung bekannter optischer Zeichenerkennungsverfahren (OCR) in lesbaren Text (d. h. ASCII-Dateien) umgesetzt. Das ASR/NLU-Modul 24 analysiert dann die Daten des Anrufs oder der Nachricht unter Verwendung einer Kombination zur Spracherkennung, um bestimmte Schlüsselwörter oder Themen herauszufiltern und die gesprochene Sprache zu erkennen und so das Thema und den Inhalt des Anrufs (Schritt 160 in 3a für Telefonanrufe) oder der Nachricht (Schritt 200 in 3b für eMails oder Fax-Nachrichten) zu ermitteln.
  • Sobald das ASR/NLU-Modul das Thema des Anrufs (Schritt 170 in 3a) oder der Nachricht (Schritt 220 in 3b) ermittelt hat, wird vom ASR/NLU-Modul 24 ein Signal an das Vermittlungsmittel 28 gesendet, in dem der Anruf oder die Nachricht nach einer vorgegebenen Weise auf der Grundlage des Themas oder des Inhalts des Anrufs (Schritt 158 in 3a) oder des Inhalts der Nachricht (Schritt 228 in 3b) verarbeitet wird. Wenn eine Nachricht oder ein Anruf beispielsweise einen Notfall oder einen Unfall betrifft, kann das Vermittlungsmittel 28 so programmiert sein, dass der Anruf sofort an eine bestimmte Person übertragen wird.
  • Wenn das ASR/NLU-Modul 24 nicht in der Lage ist, das Thema oder den Inhalt eines Telefonanrufs zu ermitteln, sendet es ein Signal an das Sprachsynthesemodul 36, das wiederum eine Nachricht an den Server 20 sendet, damit dieser den Anrufer auffordert, den Grund für den Anruf in wenigen Worten zu beschreiben (Schritt 180), z. B. „Warum rufen Sie an?" Auch hier sollte klar sein, dass das System 10 so programmiert werden kann, dass es gleich zu Anfang den Anrufer auffordert, den Grund für den Anruf anzugeben. Wenn das System 10 dann immer noch nicht in der Lage ist, das Thema eines solchen Anrufs zu ermitteln, kann der Anruf nach einer vorher programmierten Prozedur auf der Grundlage eines unbekannten Themas verarbeitet werden (Schritt 156). Desgleichen kann die Nachricht nach einer vorher programmierten Prozedur auf der Grundlage eines unbekannten Themas verarbeitet werden (Schritt 226), wenn das Thema einer eMail- oder Fax-Nachricht nicht ermittelt werden kann (Schritt 220).
  • Wenn der ankommende Anruf oder die eMail-Nachricht ferner in einer Fremdsprache in Bezug auf das System 10 (d. h., einer Fremdsprache für den Benutzer) abgefasst ist, teilt das ASR/NLU-Modul 24 dies dem Sprachenerkennungs-/Übersetzungsmodul 26 mit, um die betreffende Sprache des Anrufs oder der Nachricht zu ermitteln und die geforderte Übersetzung an das ASR/NLU-Modul 24 zu liefern, damit das System 10 den Anruf verstehen und dem Anrufer die Antwort in der richtigen Sprache zukommen lassen kann. Es sollte klar sein, dass das System 10 vorher auch so programmiert werden kann, dass Anrufe oder Nachrichten mit einer unbekannten Sprache in einer bestimmten Weise verarbeitet werden.
  • Es sollte klar sein, dass in der vorliegenden Erfindung jedes beliebige herkömmliche Verfahren zur Sprachenerkennung und Übersetzung verwendet werden kann, zum Beispiel das bestens bekannte maschinelle Sprachenerkennungsverfahren, das von J. Hieronymus und S. Kadambe in dem Artikel „Robust Spoken Language Identification using Large Vocabulary Speech Recognition", Proceedings of ICASSP 97, Bd. 2, S. 1111 ff., beschrieben wird, sowie das Sprachenübersetzungsverfahren, das von Hutchins und Somers in „An Introduction to Machine Translation", Academic Press, London, 1992 (enzyklopädische Übersicht) beschrieben wird.
  • Abgesehen von den obigen Literaturangaben kann die Sprachenerkennung auch unter Verwendung verschiedener statistischer Verfahren durchgeführt werden. Erstens kann das System 10 den eingegebenen Text in jeder der verschiedenen Sprachen (unter Verwendung verschiedener ASR-Systeme) decodieren, wenn das System 10 zur Verarbeitung einer kleinen Anzahl verschiedener Sprachen konfiguriert ist (z. B. in Kanada, wo im Wesentlichen nur Englisch oder Französisch gesprochen wird). Dann werden die verschiedenen decodierten Scripts analysiert, um statistische Muster zu ermitteln (d. h. die statistische Verteilung decodierter Wörter in jedem Script wird analysiert). Wenn die Decodierung in der falschen Sprache erfolgt war, wäre die Verwirrung des decodierten Scripts sehr hoch, und diese Sprache würde nicht mehr berücksichtigt.
  • Zweitens kann die Sprachenerkennung auf phonetischer Ebene erfolgen, indem das System einen Satz von Phonemen erkennt (entweder unter Verwendung eines universellen phonetischen Systems oder mehrerer Systeme für verschiedene Sprachen). Dann untersucht das System die Häufigkeiten der decodierten Phonemsequenzen für jede Sprache. Wenn sich eine bestimmte decodierte Sequenz als ungebräuchlich herausstellt, würde das System eine solche Sprache ausschließen. Es kann aber auch Sequenzen geben, die für eine bestimmte Sprache typisch sind. Dadurch wird das System die mit hoher Wahrscheinlichkeit infrage kommende Sprache erkennen.
  • Es sollte klar sein, dass die vorliegende Erfindung die Identität des Anrufers zur Sprachenerkennung ausnutzen kann. Genauer gesagt, wenn das Sprecherprofil eines bestimmten Anrufers (das im System 10 gespeichert ist) besagt, dass der Anrufer in einer bestimmten Sprache spricht, kann diese Information zur Erkennung der Sprache herangezogen werden. Umgekehrt kann das System 10 unter Verwendung der oben erwähnten Verfahren eine bestimmte Sprache erkennen und dann die Identität eines Anrufers ermitteln, indem es die Sprecherprofile durchsucht und ermittelt, welche Sprecher eine solche erkannte Sprache verwenden.
  • Es sollte klar sein, dass sowohl die Spracherkennung als auch die Sprachenerkennung vom ASR/NLU-Modul 24 zur Verarbeitung der vom Server 20 empfangenen Daten verwendet werden kann. Die vorliegende Erfindung nutzt vorzugsweise die Verfahren zur Sprachenerkennung, die in der US-Patentanmeldung mit der Serien-Nr. 08/859 586 mit dem Titel „A Statistical Translation System with Features Based an Phrases or Groups of Words", eingereicht am 20. Mai 1997, und in der US-Patentanmeldung mit der Serien-Nr. 08/593 032 mit dem Titel „Statistical Natural Language Understanding Using Hidden Clumpings", eingereicht am 29. Januar 1996, beschrieben werden. Die oben einbezogenen Erfindungen betreffen Verfahren zur Sprachenerkennung, um Texteingaben (unter Verwendung bestimmter Algorithmen) zu parametrisieren, d. h. in eine Sprache umzusetzen, die vom System 10 verstanden und verarbeitet werden kann. Im Zusammenhang mit der vorliegenden Erfindung liefert die ASR-Komponente des ASR/NLU-Moduls 24 beispielsweise die NLU-Komponente eines solchen Moduls für eine unbeschränkte Texteingabe wie „Erste Nachricht von Bob wiedergeben". Ein solcher Text kann von der NLU-Komponente des ASR/NLU-Moduls 24 in die Form „Nachricht-abrufen(Absender=Bob, Nachrichtennummer=1)" umgesetzt werden. Ein solcher parametrisierter Vorgang kann vom System 10 verstanden und ausgeführt werden.
  • Die in dem Artikel von Zeppenfeld et al. mit dem Titel „Recognition of Conversational Telephone Speech Using the Janus Speech Engine", Proceedings of ICASSP 97, Bd. 3, S. 1815 ff., 1997, beschriebenen bekannten automatischen Spracherkennungsfunktionen und die in dem Artikel von K. Shirai und S. Furui mit dem Titel „Special Issue an Spoken Dialog", 15, (3 bis 4) Speech Communication, 1994, beschriebenen bekannten Sprachenerkennungsfunktionen können ebenfalls in der vorliegenden Erfindung verwendet werden. Zur Vereinfachung der Programmierung des ASR/NLU-Moduls 24 und um sicherzustellen, dass gewisse kritische Nachrichten in ausreichender Weise bearbeitet werden, kann ferner die Suche nach Schlüsselwörtern vorzugsweise auf der Grundlage der Erkennungsverfahren erfolgen, die von Richard C. Cross in „Word Spotting from Continuous Speech Utterances", Automatic Speech and Speaker Recognition, Advanced Topics, S. 303 bis 327, Herausgeber Chin-Hui Lee, Frank K. Soong, Kuldip K. Paiwal (Huwer Academic Publishers), 1996, beschrieben werden.
  • Es sollte klar sein, dass das System 10 durch die Nutzung der Sprachenerkennung gemäß der obigen Darstellung in der Lage ist, interaktive Sprachantwortfunktionen (Interactive Voice Response, IVR) auszuführen, um einen Dialog mit dem Benutzer oder Anrufer zu eröffnen, um den Dialog zu führen und die Anforderungen zu verstehen. Dadurch kann das System 10 zur Auftragsannahme und zum Ausfüllen von Formularen im Verlauf des Dialogs genutzt werden. Ferner versetzen solche Funktionen den Anrufer in die Lage zu entscheiden, wie der Anruf verarbeitet werden soll (unter der Annahme, dass das System 10 dementsprechend programmiert ist), d. h. durch Hinterlegen einer eMail- oder Voicemail-Nachricht, durch Senden einer Textseite oder Übermitteln des Anrufs an eine andere Rufnummer. Gemäß der obigen Erläuterung kann das System 10 dadurch außerdem vom Benutzer von einem fernen Standort durch Sprachbefehle programmiert werden.
  • Ferner sollte klar sein, dass das System 10 zum Schutz vor unberechtigten Zugriffen auf das System 10 beiträgt. Insbesondere muss ein Benutzer, der auf das System 10 zugreifen und sich an diesem beteiligen will, den Anmeldeprozess des Systems durchlaufen. Dieser Prozess kann auf verschiedene Weise ablaufen. Zum Beispiel kann die Anmeldung von einem fernen Standort erfolgen, indem ein neuer Benutzer anrufen und eine zuvor erteilte persönliche Kennnummer (PIN) eingeben muss, wobei der Server 20 so programmiert sein kann, dass er auf die PIN antwortet, die der neue Benutzer über DTMF-Tasten seines Telefons in das System 10 eingibt. Das System 10 kann dann Sprachmodelle des neuen Benutzers erstellen, um den neuen Benutzer zu prüfen und zu erkennen, wenn er zu einem späteren Zeitpunkt versucht, auf das System 10 zuzugreifen oder es zu programmieren. Alternativ kann zum Erstellen der für die zukünftige Erkennung und Prüfung nötigen Sprechermodelle entweder ein aufgezeichnetes oder ein laufendes Telefongespräch des neuen Benutzers genutzt werden.
  • Es sollte klar sein, dass der Server 20 der vorliegenden Erfindung gemäß den Lehren der Patentanmeldung (IBM-Aktenzeichen Y0977-313) mit dem Titel „Apparatus and Methods for Providing Repetitive Enrollment in a Plurality of Biometric Recognition Systems Bases an an Initial Enrollment" aufgebaut sein, um die Sprechermodelle (d. h. biometrische Daten) berechtigter Benutzer (die im Server 20 gespeichert sind) anderen biometrischen Erkennungssystemen zur Verfügung zu stellen, damit der Benutzer automatisch angemeldet wird, ohne dass zur Anmeldung in solchen Systemen systematisch neue biometrische Modelle erstellt werden müssen.
  • Der Prozess der Programmierung des Systems 10 kann vom Benutzer entweder an Ort und Stelle über eine grafische Benutzeroberfläche oder über Sprachbefehle oder von einem fernen Standort über eine Telefonleitung (durch Sprachbefehle) oder über ein mit dem System verbundenes Netz ausgeführt werden. In allen Fällen wird dies über eine Programmieroberfläche 38 abgewickelt. Wie oben gezeigt wurde, erfolgt das Programmieren des Systems 10 z. B. durch Auswählen der Namen von Personen, die an eine bestimmte Rufnummer, ein Voicemail-System oder einen Anrufbeantworter vermittelt werden sollen, durch Eingeben bestimmter Schlüsselwörter oder Themen, aus denen das System 10 die Notwendigkeit bestimmter Verarbeitungsprozeduren erkennt und/oder durch Programmieren des Systems 10 in der Weise, dass Notfallanrufe oder geschäftliche Anrufe zwischen 8:00 Uhr und 12:00 Uhr sofort durchgestellt werden. 2 zeigt, dass die Programmieroberfläche 38 solche Informationen an den Server 20, an das Sprechererkennungsmodul 22, das ASR/NLU-Modul 24, das Sprachenerkennungs-/Übersetzungsmodul 26, das Audioindexierungs-/Prioritätsmodul 34 und das Vermittlungsmittel 28 sendet, welches das System 10 veranlasst, Anrufe gemäß den vom Benutzer programmierten Anweisungen zu verarbeiten.
  • Die Programmieroberfläche reagiert entweder auf DTMF-Tasteneingaben oder Sprachbefehle eines berechtigten Benutzers. Das bevorzugte Verfahren zur Programmierung des Systems 10 wird nicht über DTMF-Tasteneingaben oder über eine GUI-Oberfläche, sondern über sprachaktivierte Befehle durch einen Prozess zur Spracherkennung und zur Sprachenerkennung abgewickelt. Durch diesen Prozess kann das System 10 den Benutzer prüfen und erkennen, bevor dieser auf das System 10 zugreifen kann. Diese Maßnahme trägt zum Schutz vor unberechtigten Benutzern bei, die möglicherweise Kenntnis von einer ansonsten gültigen PIN erlangt haben könnten. Genauer gesagt, bevor der Benutzer das System 10 durch Sprachbefehle programmieren kann, wird seine Stimme zuerst durch den Server 20 empfangen und dann durch das Sprechererkennungsmodul 22 geprüft und erkannt. Nach der Prüfung der Identität des Benutzers gibt der Server 20 die Programmieroberfläche 38 zur Programmierung des Systems 10 durch den Benutzer frei.
  • Die Sprachbefehle zur Programmierung des Systems 10 werden im ASR/NLU-Modul 24 verarbeitet. Insbesondere befindet sich das ASR/NLU-Modul 24 während einer solchen Programmierung in einem Befehls- und Steuermodus, wobei jede durch die Programmieroberfläche 38 empfangene Sprachanweisung bzw. jeder Sprachbefehl an das ASR/NLU-Modul 24 gesendet, in eine Symbolsprache umgesetzt und als Befehl gedeutet wird. Wenn der Benutzer beispielsweise möchte, dass das System 10 alle Anrufe von seiner Ehefrau auf seine Leitung legt, kann er z. B. anordnen „Alle Anrufe von meiner Frau Jane sofort durchstellen", und das System 10 erkennt einen solchen Programmierbefehl und verarbeitet ihn entsprechend.
  • Darüber hinaus kann der Benutzer über das ASR/NLU-Modul 24 und das Sprachsynthesemodul 36 einen Dialog mit dem System 10 führen. Der Benutzer kann das aktuelle Programm überprüfen, indem er an die Programmieroberfläche 38 z. B. die Frage stellt: „Welche Anrufe werden an meinen Anrufbeantworter geleitet". Diese Anfrage wird dann vom Server 20 (wenn der Benutzer das System 10 von außen anruft) oder von der Programmieroberfläche 28 über den Server 20 (wenn sich der Benutzer im Büro aufhält) an das ASR/NLU-Modul 24 gesendet, wo die Anfrage verarbeitet wird. Das ASR/NLU-Modul 24 erzeugt dann eine Antwort auf die Anfrage und sendet diese an das Sprachsynthesemodul 36, um eine synthetisierte Nachricht zu erzeugen, die dann für den Benutzer wiedergegeben wird.
  • Desgleichen kann das ASR/NLU-Modul 24, wenn das System 10 eine gesprochene Programmieranfrage von einem berechtigten Benutzer nicht verstehen kann, eine Aufforderung an den Benutzer richten, z. B. „Bitte formulieren Sie ihre Anfrage neu", die dann vom Sprachsynthesemodul 36 verarbeitet wird. Genauer gesagt, der Server 20 sendet während einer solchen Programmierung eine Programmieranfrage an die Programmieroberfläche 38. Wenn das System 10 die Anfrage nicht entschlüsseln kann, sendet die Programmieroberfläche 38 eine Fehlermeldung an den Server 20 zurück, der diese Meldung an das ASR/NLU-Modul 24 weiterleitet. Das ASR/NLU-Modul 24 kann dann die Abfrage nach einer anderen möglichen Bedeutung untersuchen oder den Benutzer (über das Sprachsynthesemodul 36) auffordern, eine neue Programmieranfrage zu stellen.
  • Es sollte klar sein, dass das System 10 so programmiert werden kann, dass es durch das Audioindexierungs-/Prioritätsmodul 34 verschiedene Nachrichten und Anrufe verwalten kann, die über mit dem System 10 verbundene Voicemail-Systeme, Telefonleitungen, Fax-/Modemeinheiten, eMail-Programme und andere Datenübertragungseinheiten empfangen wurden. Insbesondere kann das Audioindexierungs-/Prioritätsmodul 34 so programmiert werden, dass es solche Nachrichten und Telefongespräche automatisch nach ihrem Thema und Inhalt oder ihrer Herkunft oder nach beidem sortiert und indexiert. Vorzugsweise kann das System 10 ferner so programmiert werden, dass es bestimmten Anrufen und Nachrichten von einer bestimmten Person eine Priorität zuweist.
  • Das Audioindexierungs-/Prioritätssystem gemäß 2 funktioniert wie folgt. Nachdem der Anrufer durch das Sprechererkennungsmodul 22 geprüft und erkannt wurde, sendet dieses Modul Signale an das ID-Markierungsmodul 30, das automatisch die Identität des Anrufers oder die Identität des aktuellen Sprechers einer Gruppe von Teilnehmern einer Telefonkonferenz markiert. Zeitgleich mit dem ID-Markierungsprozess setzt das Umsetzungsmodul 32 das Telefongespräch oder die Nachricht um. Zum Markierungsprozess gehört, dass die umgesetzte Nachricht der Identität des Sprechers oder Anrufers zugeordnet wird. Zum Beispiel wird während einer Telefonkonferenz jedes der dem aktuellen Sprecher entsprechende Segment des umgesetzten Gesprächs mit der Identität dieses Sprechers zusammen mit dem Anfangs- und Endzeitpunkt dieses Segments markiert.
  • Die im ID-Markierungsmodul 30 und im Umsetzungsmodul 32 verarbeiteten Informationen werden an das Audioindexierungs-/Prioritätsmodul 34 gesendet, in dem die empfangenen Informationen nach einer zuvor programmierten Prozedur verarbeitet und gespeichert werden. Das Audioindexierungs-/Prioritätsmodul 34 kann so programmiert werden, dass es die Nachrichten und Gespräche in einer vom Benutzer gewünschten Weise indexiert. Zum Beispiel kann der Benutzer in die Lage versetzt werden, entweder Nachrichten von einem bestimmten Anrufer oder alle dringenden Anrufe oder Nachrichten zu einem bestimmten Thema abzurufen. Ferner kann das Audioindexierungs-/Prioritätsmodul 34 so programmiert werden, dass es Anrufen von einem Anrufer eine Priorität zuweist, der entweder viele oder dringende Nachrichten hinterlegt hat.
  • Der Benutzer kann entweder an Ort und Stelle oder von einem fernen Standort auf die im Audioindexierungs-/Prioritätsmodul 34 gespeicherten Informationen zugreifen, um sie abzurufen. Wenn der Benutzer auf solche Informationen zugreift, sendet das Audioindexierungs-/Prioritätsmodul 34 die angeforderten Informationen an das Sprachsynthesemodul 38, in welchem eine Text-Sprache-Umsetzung erfolgt, damit der Benutzer die Nachricht in Form synthetisierter Sprach abhören kann. Es sollte klar sein, dass in der vorliegenden Erfindung jedes beliebige herkömmliche Sprachsyntheseverfahren verwendet werden kann, zum Beispiel die „Eloquent engine" (Sprachmaschine), die mit der handelsüblichen Software VIAVOICEGOLD von IBM geliefert wird.
  • Es sollte klar sein, dass die Informationen unter Verwendung verschiedener Verfahren wie beispielsweise über eine GUI-Oberfläche, PINs und DTMF-Tasteneingaben vom Audioindexierungs-/Prioritätsmodul 34 abgerufen werden können. Das bevorzugte Verfahren in der vorliegenden Erfindung zum Abrufen solcher Informationen bedient sich jedoch sprachaktivierter Befehle. Unter Verwendung eines solchen Verfahrens kann das System 10 den Benutzer prüfen und erkennen, bevor dieser auf die im Audioindexierungs-/Prioritätsmodul 34 gespeicherten und indexierten Nachrichten oder Gespräche zugreifen kann. Das Audioindexierungs-/Prioritätsmodul 34 kann so programmiert werden, dass es bestimmte Sprachbefehle des Benutzers erkennt und beantwortet, die durch das ASR/NLU-Modul 24 und das Audioindexierungs-/Prioritätsmodul 34 verarbeitet werden, um bestimmte Nachrichten und Gespräche abzurufen. Zum Beispiel kann der Benutzer durch einen Sprachbefehl der Form „Alle Nachrichten von Herrn Smith wiedergeben" alle Nachrichten von Herrn Smith abrufen, die im Audioindexierungs-/Prioritätsmodul 34 gespeichert sind. Dieser Befehl wird durch den Server 20 empfangen und zur Verarbeitung an das ASR/NLU-Modul 24 gesendet. Wenn das ASR/NLU-Modul 24 die Abfrage versteht, sendet es eine Antwort an den Server 20 zurück, um die Abfrage zu verarbeiten. Dann weist der Server 20 das Audioindexierungs-/Prioritätsmodul 34 an, die angeforderten Nachrichten an das Sprachsynthesemodul zu senden, um synthetisierte eMail- oder Fax-Nachrichten zu erzeugen, oder aufgezeichnete Telefon- oder Voicemail-Nachrichten direkt an den Server 20 zu senden, die einfach wiedergegeben werden.
  • Es sollte klar sein, dass ein Fachmann in der vorliegenden Erfindung verschiedene alternative Programmierstrategien zur Verarbeitung von Anrufen anwenden kann. Zum Beispiel kann das System 10 so programmiert werden, dass es den Benutzer bei einem wichtigen oder dringenden ankommenden Telefonanruf alarmiert. Genauer gesagt, das System 10 kann so programmiert werden, dass es den Benutzer auf einem Bildschirm benachrichtigt, damit der Benutzer selbst über die Verarbeitung des Anrufs entscheiden oder den Anruf einfach nach einer vorher programmierten Prozedur in der oben gezeigten Weise verarbeiten kann. Darüber hinaus kann das System 10 so programmiert werden, dass es einen dringenden oder wichtigen Anruf an das Signalgerät des Benutzers weiterleitet, wenn dieser nicht zu Hause ist oder sich nicht im Büro aufhält. Der Benutzer kann das System 10 auch so programmieren, dass es (nach dem Entgegennehmen eines ankommenden Telefonanrufs) eine Reihe von Rufnummern anwählt, an denen sich der Benutzer im Tagesverlauf aufhalten kann. Außerdem kann die Folge (d. h. die Liste) der vorher programmierten Rufnummern entsprechend dem letzten ermittelten Aufenthaltsort des Benutzers automatisch durch das System 10 aktualisiert werden. Wenn der Benutzer dies wünscht, können Personen, die das System 10 anrufen, auch auf eine solche Liste zugreifen, sodass solche Anrufer versuchen können, den Benutzer an einem der verschiedenen Standorte ihrer Wahl zu erreichen.
  • Außerdem sollte klar sein, dass das System 10 so programmiert werden kann, dass die Namen aller das System 10 anrufenden Personen (unter Verwendung der automatischen Rufnummererkennung ANI) zusammen mit ihren Rufnummern sowie die eMail-Adressen von Personen, die eine elektronische Nachricht gesendet haben, gespeichert werden. Dadurch kann der Benutzer des Systems 10 automatisch auf aktuelle Anrufe oder Nachrichten antworten, ohne vorher die Rufnummer oder die eMail-Adresse der Person zu ermitteln, der er antworten möchte. Ferner sorgt eine solche Programmierung für die dynamische Erstellung eines ständig aktuellen Adressbuchs, auf das ein berechtigter Benutzer zugreifen kann, um Nachrichten zu senden oder Anrufe zu tätigen. Genauer gesagt, der Benutzer kann auf das System 10 zugreifen, den Namen einer bestimmten anzurufenden Person auswählen und dann das System 10 anweisen, eine bestimmte Nachricht (z. B. eine eMail- oder eine Fax-Nachricht) an diese Person zu senden.
  • Außerdem kann das System 10 so programmiert werden, dass der Benutzer auf bestimmte Funktionen des Systems 10 zugreifen und diese nutzen kann. Zum Beispiel kann das System 10 dem Benutzer die Möglichkeit anbieten, einen beabsichtigten Termin mit dem Benutzer zu planen, der im System 10 gespeichert und dann vom Benutzer akzeptiert oder abgelehnt werden kann. Dem Benutzer kann auch die Gelegenheit gegeben werden, das Verfahren (z. B. per Telefonanruf, Fax- oder eMail-Nachricht) auszuwählen, mit dem er einen solchen Termin bestätigen, ablehnen oder verschieben kann. Außerdem kann das System 10 so programmiert werden, dass ein bestimmter berechtigter Anrufer auf den Terminkalender des Benutzers zugreifen darf, damit solche Termine unkompliziert geplant werden können.
  • Ferner sollte klar sein, dass die vorliegende Erfindung in kleinem Maßstab bei einer privat genutzten Anwendung oder in großem Maßstab bei einer Verwaltungs- oder Unternehmensanwendung eingesetzt werden kann. Dem Fachmann sollte ferner klar sein, dass das System 10 auch bei anderen Anwendungen eingesetzt werden kann. Zum Beispiel kann das System 10 unter Verwendung des NLU-Merkmals mit Geräten wie Tonband-, Hörfunk- und Fernsehgeräten verbunden werden, um den Benutzer zu alarmieren, wenn auf einem Kanal über ein bestimmtes Thema berichtet oder wenn eine bestimmte Person interviewt wird. Es sollte klar sein, dass das System 10 nicht auf Telefonübertragungen beschränkt ist. Das System 10 kann für Web-Telefone, Internetgespräche, Telefonkonferenzen und diverse andere Datenübertragungen genutzt werden, bei denen Sprache über einen digitalen oder analogen Kanal übertragen wird. Auf dieselbe Weise können auch weitere elektronische Daten wie beispielsweise ASCII-Zeichen, Fax-Nachrichten und der Inhalt von Internetseiten und Datenbanksuchen verarbeitet werden. Durch die Verknüpfung der optischen Zeichenerkennung (OCR) mit Fax-Empfangsfunktionen kann das System 10 den Inhalt von Nachrichten umsetzen, die per Fax oder eMail empfangen und im Audioindexierungs-/Prioritätsmodul 34 gespeichert wurden. Wie oben gezeigt wurde, kann der Benutzer diese Nachrichten dann durch das Sprachsynthesemodul 36 abrufen, um den Inhalt solcher Nachrichten abzuhören.
  • Zusammenfassend ist zu sagen, dass die vorliegende Erfindung ein programmierbares System zur Verarbeitung von Anrufen und Nachrichten bereitstellt, das von einem Benutzer zur Verarbeitung ankommender Telefonanrufe, eMail-Nachrichten, Fax-Nachrichten und der Daten anderer elektronischer Daten auf eine vorgegebene Weise programmiert werden kann, ohne dass der Benutzer zuerst manuell einen Telefonanruf entgegennehmen oder eine eMail- oder Fax-Nachricht abrufen, den Anrufer oder den Urheber der Nachricht ermitteln und dann entscheiden muss, wie er einen solchen Anruf weiterleiten oder auf eine solche Nachricht antworten muss. Die vorliegende Erfindung kann so programmiert werden, dass Telefongespräche oder Telefonkonferenzen umgesetzt, die Identität des Anrufers oder der Teilnehmer der Telefonkonferenz markiert und solche Nachrichten und Gespräche entsprechend der Identität des Anrufers oder Urhebers und/oder dem Thema und dem Inhalt des Gesprächs oder der Nachricht gespeichert werden. Der Benutzer kann dann jede beliebige gespeicherte Nachricht oder jedes Gespräche auf der Grundlage der Identität des Anrufers oder eine Gruppe ähnlicher Nachrichten auf der Grundlage ihres Themas abrufen.
  • Die Erfindung kann ferner folgende Merkmale aufweisen:
    Das Servermittel empfängt ferner und reagiert auf eine ankommende Fax-Nachricht und/oder eMail-Nachricht und/oder Sprachdaten und/oder in Text umsetzbare Daten.
  • Das Sprechererkennungsmodul beruht auf der textunabhängigen Sprechererkennung.
  • Das Sprechererkennungsmodul nutzt zur Ermittlung des Themas und des Inhalts des Anrufs die Spracherkennung und die Sprachenerkennung.
  • Das System beinhaltet ein Sprachenerkennungsmittel, das funktionell mit dem Sprechererkennungsmodul verbunden ist, um die Sprachen des ankommenden Anrufs zu erkennen und zu verstehen.
  • Das Erkennungsmittel führt die Sprachenübersetzung durch.
  • Die Identität des Anrufers wird aus der erkannten Sprache des Anrufs ermittelt.
  • Das Sprachenerkennungsmittel nutzt die Identität des Anrufers zur Erkennung der Sprache des Anrufs.
  • Das System enthält ein Anmeldungsmittel zum Anmelden eines neuen Benutzer, der auf das System zugreifen will.
  • Der neue Benutzer kann automatisch angemeldet werden.
  • Es wird ein Mittel zum Ermitteln eines Zeitpunkts des Anrufs bereitgestellt, wobei das System ferner so programmiert werden kann, dass der Anruf entsprechend dem Zeitpunkt des Anrufs verarbeitet wird.
  • Das Programmiermittel beinhaltet eine GUI-Oberfläche und/oder eine Sprachschnittstelle und/oder eine Programm-Konfigurationsdatei.
  • Das Programmieren kann an Ort und Stelle oder von einem fernen Standort oder von beiden erfolgen.
  • Es wird ein Mittel bereitgestellt, das als Reaktion auf den ankommenden Anruf dynamisch ein Adressbuch erstellt.
  • Es wird ein Mittel zum Zugreifen auf das Adressbuch bereitgestellt, um eine Nachricht an eine ausgewählte Person zu senden.
  • Die Verarbeitung des Anrufs beinhaltet das sequenzielle oder gleichzeitige Weiterleiten eines ankommenden Telefonanrufs an eine Vielzahl verschiedener Rufnummern.
  • Es wird ein Mittel bereitgestellt, um den Anrufer zur Angabe seiner Identität und des Themas des Anrufs aufzufordern. Diese Aufforderung kann erfolgen, wenn das System entweder die Identität oder das Thema des Anrufs nicht ermitteln kann.
  • Alternativ erfolgt die Aufforderung, wenn der Anruf empfangen wird, um die Identität des Anrufers und das Thema des Anrufs zu ermitteln.
  • Ferner kann das System ein funktionell mit dem Umsetzungsmittel verbundenes Mittel umfassen, damit ein Benutzer des Systems Nachrichten diktieren und an eine ausgewählte Person senden kann. Die Nachricht kann per Fax und/oder eMail und/oder Telefonanruf an die ausgewählte Person gesendet werden.
  • Ferner kann das System ein Mittel umfassen, um in den Kopfdaten der Fax- und eMail-Nachricht Markierungen zur Stimmungslage oder zur Dringlichkeit/Vertraulichkeit anzubringen.
  • Der Schritt zur Ermittlung der Identität des Anrufers kann durch eine textabhängige Sprechererkennung ausgeführt werden.
  • Der Schritt zur Ermittlung des Themas des Anrufs kann durch eine Spracherkennung und eine Sprachenerkennung ausgeführt werden.
  • Das Verfahren kann den zur Übersetzung des Anrufs in eine von der Sprache des Anrufs verschiedene Sprache beinhalten.
  • Der ankommende Anruf kann aufgezeichnet werden.
  • Die Aufzeichnung erfolgt gleichzeitig mit dem Schritt zur Ermittlung der Identität des Anrufers und kann vor dem Schritt zur Ermittlung der Identität des Anrufers durchgeführt werden.
  • Das Verfahren kann ferner die folgenden Schritte umfassen: Ermitteln eines Zeitpunkts des Anrufs; und Verarbeiten des Anrufs auf der Grundlage des ermittelten Zeitpunkts des Anrufs.
  • Der Schritt zum Abrufen der indexierten Informationen wird durch Sprachbefehle ausgeführt.
  • Das Verfahren kann die Ermittlung des Zeitpunkts des Anrufs oder der Nachricht und die Verarbeitung des Anrufs oder der Nachricht entsprechend dem ermittelten Zeitpunkt beinhalten.

Claims (7)

  1. System zur automatischen Verarbeitung von Anrufen und Datenübertragungen, wobei das System Folgendes umfasst: ein Servermittel (20) zum Empfangen eines ankommenden Anrufs; ein funktionell mit dem Servermittel verbundenes Sprechererkennungsmittel (22) zum Erkennen eines Anrufers des Anrufs; ein funktionell mit dem Servermittel verbundenes Spracherkennungsmittel (24) zum Ermitteln des Themas des Anrufs; ein Vermittlungsmittel (28) zum Verarbeiten des Anrufs gemäß der Erkennung des Anrufers und dem ermittelten Thema als Reaktion auf das Sprechererkennungsmittel und das Spracherkennungsmittel; ein funktionell mit dem Servermittel, dem Sprechererkennungsmittel und dem Spracherkennungsmittel verbundenes Programmiermittel (38), mit welchem ein Benutzer das System programmieren kann; und gekennzeichnet durch ein Identitätsmarkierungsmittel (30), das die Identität des Anrufers als Reaktion auf das Sprechererkennungsmittel markiert; ein Umsetzmittel (transcribing means) (32), das ein Telefongespräch oder eine Nachricht des Anrufers als Reaktion auf das Spracherkennungsmittel umsetzt; und ein funktionell mit dem Identitätsmarkierungsmittel und dem Umsetzmittel verbundenes Audioindexierungsmittel (34) zum Indexieren der Nachrichten und der Gespräche des Anrufers gemäß dem Thema des Gesprächs und der Nachricht und der Identität des Anrufers.
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass das Servermittel ein Mittel zum Aufzeichnen (40) des ankommenden Anrufs beinhaltet.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Servermittel ferner ein Mittel (42) zum Komprimieren und Speichern der aufgezeichneten Daten und ein Mittel zum Dekomprimieren der komprimierten Daten beinhaltet.
  4. System nach Anspruch 1, 2 oder 3, das ferner durch ein Mittel (118) zum Abrufen der indexierten Nachrichten vom Audioindexierungsmittel gekennzeichnet ist.
  5. System nach Anspruch 1, 2, 3 oder 4, das ferner durch ein funktionell mit dem Servermittel, dem Spracherkennungsmittel und dem Audioindexierungsmittel verbundenes Sprachsynthesemittel (36) zum Umwandeln der im Audioindexierungsmittel gespeicherten Daten in synthetisierte Sprache gekennzeichnet ist.
  6. Verfahren zum Bereitstellen einer Anrufverarbeitung, das die folgenden Schritte umfasst: Empfangen eines ankommenden Anrufs (100); Erkennen eines Anrufers des Anrufs, wenn ein ankommender Anruf empfangen wird (130), und Ermitteln (160) des Themas des Anrufs; Verarbeiten (152, 154, 156, 158) des Anrufs und der Nachricht gemäß der Identität des Anrufers und Urhebers bzw. dem Thema des Anrufs und der Nachricht; und gekennzeichnet durch die folgenden Schritte: Markieren der ermittelten Identität eines solchen Anrufers; Umsetzen des ermittelten Themas eines solchen Anrufs; Indexieren der sich aus dem Markieren und dem Umsetzen ergebenden Daten gemäß dem ermittelten Thema und der ermittelten Identität.
  7. Verfahren nach Anspruch 6, gekennzeichnet durch das Abrufen der indexierten Daten und das Umwandeln der indexierten Daten in synthetisierte Sprache.
DE69839068T 1998-01-16 1998-12-21 System und Verfahren zur automatischen Verarbeitung von Anruf und Datenübertragung Expired - Lifetime DE69839068T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US8124 1998-01-16
US09/008,124 US6327343B1 (en) 1998-01-16 1998-01-16 System and methods for automatic call and data transfer processing

Publications (2)

Publication Number Publication Date
DE69839068D1 DE69839068D1 (de) 2008-03-20
DE69839068T2 true DE69839068T2 (de) 2009-01-22

Family

ID=21729917

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69839068T Expired - Lifetime DE69839068T2 (de) 1998-01-16 1998-12-21 System und Verfahren zur automatischen Verarbeitung von Anruf und Datenübertragung

Country Status (6)

Country Link
US (1) US6327343B1 (de)
EP (1) EP0935378B1 (de)
JP (1) JP2000013510A (de)
KR (1) KR100369696B1 (de)
DE (1) DE69839068T2 (de)
TW (1) TW401673B (de)

Families Citing this family (208)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6567778B1 (en) 1995-12-21 2003-05-20 Nuance Communications Natural language speech recognition using slot semantic confidence scores related to their word recognition confidence scores
US6775264B1 (en) * 1997-03-03 2004-08-10 Webley Systems, Inc. Computer, internet and telecommunications based network
US7630895B2 (en) 2000-01-21 2009-12-08 At&T Intellectual Property I, L.P. Speaker verification method
US5897616A (en) * 1997-06-11 1999-04-27 International Business Machines Corporation Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases
US6636733B1 (en) 1997-09-19 2003-10-21 Thompson Trust Wireless messaging method
US6850609B1 (en) * 1997-10-28 2005-02-01 Verizon Services Corp. Methods and apparatus for providing speech recording and speech transcription services
JP3445737B2 (ja) * 1998-03-20 2003-09-08 シャープ株式会社 通信装置
US9294629B2 (en) * 1998-04-16 2016-03-22 At&T Intellectual Property I, L.P. Home gateway system with telephony functions and method
US7027566B2 (en) * 1998-04-16 2006-04-11 Sbc Knowledg Ventures, L.P Home gateway system with telephony functions and method
US6647099B1 (en) * 1998-06-08 2003-11-11 Hewlett-Packard Development Company, L.P. Administrative control and security of modems
JP2000176168A (ja) * 1998-12-18 2000-06-27 Konami Co Ltd メッセージ作成ゲーム装置及びメッセージ作成方法
US7961853B2 (en) * 1998-12-31 2011-06-14 S.F. Ip Properties 30 Llc System and method for prioritizing communications messages
US8321411B2 (en) 1999-03-23 2012-11-27 Microstrategy, Incorporated System and method for management of an automatic OLAP report broadcast system
US6570964B1 (en) * 1999-04-16 2003-05-27 Nuance Communications Technique for recognizing telephone numbers and other spoken information embedded in voice messages stored in a voice messaging system
US7058573B1 (en) * 1999-04-20 2006-06-06 Nuance Communications Inc. Speech recognition system to selectively utilize different speech recognition techniques over multiple speech recognition passes
US6449345B1 (en) * 1999-04-28 2002-09-10 Avaya Technology Corp. Selective remote access of an audio messaging system
US6766295B1 (en) 1999-05-10 2004-07-20 Nuance Communications Adaptation of a speech recognition system across multiple remote sessions with a speaker
US7260187B1 (en) * 1999-05-11 2007-08-21 Verizon Services Corp. Voice response apparatus and method of providing automated voice responses with silent prompting
US9208213B2 (en) 1999-05-28 2015-12-08 Microstrategy, Incorporated System and method for network user interface OLAP report formatting
US8607138B2 (en) 1999-05-28 2013-12-10 Microstrategy, Incorporated System and method for OLAP report generation with spreadsheet report within the network user interface
US6760428B2 (en) * 1999-07-30 2004-07-06 Avaya Technology Corp. Modification of voice prompting based on prior communication in a call center
US6721059B1 (en) * 1999-07-30 2004-04-13 Hewlett-Packard Develpoment Company, L.P. Method and apparatus for automatically handling faxes
WO2001013362A1 (de) * 1999-08-18 2001-02-22 Siemens Aktiengesellschaft Verfahren zur unterstützung eines dialogs
US6885734B1 (en) * 1999-09-13 2005-04-26 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive inbound and outbound voice services, with real-time interactive voice database queries
US6850603B1 (en) * 1999-09-13 2005-02-01 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized dynamic and interactive voice services
US6658093B1 (en) 1999-09-13 2003-12-02 Microstrategy, Incorporated System and method for real-time, personalized, dynamic, interactive voice services for travel availability information
US6829334B1 (en) 1999-09-13 2004-12-07 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services, with telephone-based service utilization and control
US8130918B1 (en) 1999-09-13 2012-03-06 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services, with closed loop transaction processing
US6836537B1 (en) 1999-09-13 2004-12-28 Microstrategy Incorporated System and method for real-time, personalized, dynamic, interactive voice services for information related to existing travel schedule
US6964012B1 (en) 1999-09-13 2005-11-08 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services, including deployment through personalized broadcasts
US20030125954A1 (en) * 1999-09-28 2003-07-03 Bradley James Frederick System and method at a conference call bridge server for identifying speakers in a conference call
US7689416B1 (en) 1999-09-29 2010-03-30 Poirier Darrell A System for transferring personalize matter from one computer to another
US7376710B1 (en) * 1999-10-29 2008-05-20 Nortel Networks Limited Methods and systems for providing access to stored audio data over a network
US7308462B1 (en) 1999-10-29 2007-12-11 Nortel Networks Limited Methods and systems for building and distributing audio packages
US7725307B2 (en) 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US9076448B2 (en) * 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
DE19956852A1 (de) * 1999-11-25 2001-05-31 Michael Mende Verfahren und Vorrichtung zur E-Mail-Kommunikation
US7453991B1 (en) * 1999-12-08 2008-11-18 At&T Corp. Method and apparatus for voice mail notes
CA2323538A1 (en) * 1999-12-08 2001-06-08 At&T Corp. System and method for gisting, browsing and searching voicemail using automatic speech recognition
US8108218B1 (en) * 1999-12-13 2012-01-31 Avaya Inc. Methods and apparatus for voice recognition for call treatment modification on messaging
US6687362B1 (en) * 2000-02-11 2004-02-03 Hallmark Cards, Incorporated Automatic address book update system
GB2360166A (en) * 2000-03-07 2001-09-12 Mitel Corp Telephone call blocking using voice recognition
US6784899B1 (en) * 2000-03-31 2004-08-31 Ricoh Company, Ltd. Systems and methods for providing rich multimedia messages to remote users using telephones and facsimile machines
US7664636B1 (en) * 2000-04-17 2010-02-16 At&T Intellectual Property Ii, L.P. System and method for indexing voice mail messages by speaker
JP2001306564A (ja) 2000-04-21 2001-11-02 Nec Corp 自動翻訳機能付き携帯端末
US6775651B1 (en) * 2000-05-26 2004-08-10 International Business Machines Corporation Method of transcribing text from computer voice mail
GB2364850B (en) * 2000-06-02 2004-12-29 Ibm System and method for automatic voice message processing
US7958214B1 (en) * 2000-06-09 2011-06-07 Schwab Barry H Method for secure transactions utilizing physically separated computers
FR2810487B1 (fr) * 2000-06-19 2002-10-25 France Telecom Systeme d'accueil telephonique de correspondants en cas d'indisponibilite d'un souscripteur
US6810116B1 (en) * 2000-09-12 2004-10-26 International Business Machines Corporation Multi-channel telephone data collection, collaboration and conferencing system and method of using the same
US6640230B1 (en) * 2000-09-27 2003-10-28 International Business Machines Corporation Calendar-driven application technique for preparing responses to incoming events
US6988128B1 (en) * 2000-09-27 2006-01-17 International Business Machines Corporation Calendar events and calendar-driven application technique
CA2425844A1 (en) * 2000-10-16 2002-04-25 Eliza Corporation Method of and system for providing adaptive respondent training in a speech recognition application
US6772123B2 (en) * 2000-11-30 2004-08-03 3Com Corporation Method and system for performing speech recognition for an internet appliance using a remotely located speech recognition application
US20020076024A1 (en) * 2000-12-20 2002-06-20 Nortel Networks Limited Method, device and software for assessing urgency of incoming communications
US7581230B2 (en) * 2001-02-06 2009-08-25 Siebel Systems, Inc. Adaptive communication application programming interface
US7099439B2 (en) 2001-02-26 2006-08-29 Classco Inc. Loop test apparatus and method
US6999989B2 (en) * 2001-03-29 2006-02-14 At&T Corp. Methods for providing video enhanced electronic mail return receipts
US20030033294A1 (en) * 2001-04-13 2003-02-13 Walker Jay S. Method and apparatus for marketing supplemental information
DE10122192B4 (de) * 2001-05-08 2008-10-09 Harman Becker Automotive Systems Gmbh Kommunikationseinrichtung
US7225126B2 (en) * 2001-06-12 2007-05-29 At&T Corp. System and method for processing speech files
US7953219B2 (en) 2001-07-19 2011-05-31 Nice Systems, Ltd. Method apparatus and system for capturing and analyzing interaction based content
US7133899B2 (en) * 2001-07-31 2006-11-07 Cingular Wireless Ii, Llc Method and apparatus for providing interactive text messages during a voice call
DE10139866A1 (de) * 2001-08-14 2003-03-13 Siemens Ag Verfahren und Vorrichtung zum Übertragen von Nachrichten in einem intelligenten Netz
EP1423967A2 (de) * 2001-09-06 2004-06-02 Nice Systems Ltd. Aufzeichnung von wechselwirkungen zwischen einem verkäufer und einem kunden
US7728870B2 (en) 2001-09-06 2010-06-01 Nice Systems Ltd Advanced quality management and recording solutions for walk-in environments
US7573421B2 (en) * 2001-09-24 2009-08-11 Nice Systems, Ltd. System and method for the automatic control of video frame rate
US7184536B2 (en) * 2001-09-28 2007-02-27 Intel Corporation Intelligent forwarded telephone call handling with a call answering system
DE10154053A1 (de) * 2001-11-02 2003-05-15 Deutsche Telekom Ag Rücksetzen von versendeten Informationen
US9088645B2 (en) 2001-12-12 2015-07-21 International Business Machines Corporation Intermediary device initiated caller identification
US7167551B2 (en) 2001-12-12 2007-01-23 International Business Machines Corporation Intermediary device based callee identification
US7245716B2 (en) 2001-12-12 2007-07-17 International Business Machines Corporation Controlling hold queue position adjustment
US7443970B2 (en) 2001-12-17 2008-10-28 International Business Machines Corporation Logging calls according to call context
US6768792B2 (en) * 2001-12-17 2004-07-27 International Business Machines Corporation Identifying call parties to a call to an incoming calling party
US7418087B2 (en) 2002-01-04 2008-08-26 Classco Inc. Telephone network messaging
US7436887B2 (en) 2002-02-06 2008-10-14 Playtex Products, Inc. Method and apparatus for video frame sequence-based object tracking
US20050128304A1 (en) * 2002-02-06 2005-06-16 Manasseh Frederick M. System and method for traveler interactions management
EP1472869A4 (de) * 2002-02-06 2008-07-30 Nice Systems Ltd System und verfahren zur detektion, überwachung und alarmverwaltung auf der basis der videoinhaltsanalyse
US6724866B2 (en) * 2002-02-08 2004-04-20 Matsushita Electric Industrial Co., Ltd. Dialogue device for call screening and classification
US7761544B2 (en) 2002-03-07 2010-07-20 Nice Systems, Ltd. Method and apparatus for internal and external monitoring of a transportation vehicle
US7016849B2 (en) * 2002-03-25 2006-03-21 Sri International Method and apparatus for providing speech-driven routing between spoken language applications
DE10220524B4 (de) * 2002-05-08 2006-08-10 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
EP1363271A1 (de) * 2002-05-08 2003-11-19 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs
FR2841160B1 (fr) * 2002-06-19 2004-07-23 Solystic Procede de traitement d'objets postaux utilisant la synthese vocale
US20040006628A1 (en) * 2002-07-03 2004-01-08 Scott Shepard Systems and methods for providing real-time alerting
US20040024585A1 (en) 2002-07-03 2004-02-05 Amit Srivastava Linguistic segmentation of speech
US8472608B2 (en) 2002-07-10 2013-06-25 Blake Bookstaff Method and system for providing directory assistance to erroneous telephone calls
US8254547B2 (en) 2002-07-10 2012-08-28 Blake Bookstaff Method and system for providing directory assistance to erroneous telephone calls
US8254548B2 (en) 2002-07-10 2012-08-28 Blake Bookstaff Method and system for providing directory assistance to erroneous telephone calls
US7227936B2 (en) 2002-07-10 2007-06-05 Blake Bookstaff Method and system for providing directory assistance to erroneous telephone calls
US8693664B2 (en) 2002-07-10 2014-04-08 Blake Bookstaff Method and system for providing directory assistance to erroneous telephone calls
US8913732B2 (en) 2002-07-10 2014-12-16 Blake Bookstaff Method and system for providing directory assistance to erroneous telephone calls via wearable devices
US8472607B2 (en) 2002-07-10 2013-06-25 Blake Bookstaff Method and system for providing directory assistance to erroneous telephone calls
JP3979209B2 (ja) * 2002-07-23 2007-09-19 オムロン株式会社 データ入力方法およびデータ入力装置
KR100487533B1 (ko) * 2002-09-16 2005-05-03 엘지전자 주식회사 디지털 사설 교환기에서의 가입자 데이터 자동송수신방법
US20040138894A1 (en) 2002-10-17 2004-07-15 Daniel Kiecza Speech transcription tool for efficient speech transcription
US8130928B2 (en) 2002-11-07 2012-03-06 Blake Bookstaff Method and system for number indexing for advertising
US8611517B2 (en) 2002-11-07 2013-12-17 Blake Bookstaff Method and system for alphanumeric indexing for advertising with cloud computing
US8495047B2 (en) 2004-06-29 2013-07-23 Blake Bookstaff Method and system for automated intelligent electronic advertising
US8542809B2 (en) 2002-11-07 2013-09-24 Blake Bookstaff Method and system for alphanumeric indexing for advertising with cloud computing
US8363806B2 (en) 2002-11-07 2013-01-29 Blake Bookstaff Method and system for alphanumeric indexing for advertising via cloud computing
US8913728B2 (en) 2002-11-07 2014-12-16 Blake Bookstaff Method and system for automated intellegent advertising on wearable devices
US6931113B2 (en) * 2002-11-08 2005-08-16 Verizon Services Corp. Facilitation of a conference call
EP1616309A1 (de) 2003-04-09 2006-01-18 Nice Systems Ltd. Vorrichtung, system und verfahren zum lösen von disputen, zum erzwingen der einhaltung von regeln und für das qualitätsmanagement in finanziellen institutionen
US20040252349A1 (en) * 2003-05-29 2004-12-16 Green Brett A. Fax routing based on caller-ID
SG140445A1 (en) * 2003-07-28 2008-03-28 Sony Corp Method and apparatus for automatically recognizing audio data
US7852993B2 (en) * 2003-08-11 2010-12-14 Microsoft Corporation Speech recognition enhanced caller identification
US7546173B2 (en) * 2003-08-18 2009-06-09 Nice Systems, Ltd. Apparatus and method for audio content analysis, marking and summing
US7450937B1 (en) 2003-09-04 2008-11-11 Emc Corporation Mirrored data message processing
WO2005048019A2 (en) 2003-09-04 2005-05-26 Emc Corporation Data message mirroring and redirection
US7499531B2 (en) * 2003-09-05 2009-03-03 Emc Corporation Method and system for information lifecycle management
US7330536B2 (en) * 2003-09-05 2008-02-12 Emc Corporation Message indexing and archiving
US7457396B2 (en) * 2003-09-05 2008-11-25 Emc Corporation Automated call management
US8103873B2 (en) * 2003-09-05 2012-01-24 Emc Corporation Method and system for processing auditory communications
US7916848B2 (en) * 2003-10-01 2011-03-29 Microsoft Corporation Methods and systems for participant sourcing indication in multi-party conferencing and for audio source discrimination
WO2005046195A1 (en) * 2003-11-05 2005-05-19 Nice Systems Ltd. Apparatus and method for event-driven content analysis
EP1634225A4 (de) * 2004-03-10 2008-01-16 Nice Systems Ltd Vorrichtung und verfahren zum erzeugen eines follow-up auf inhaltsbasis
US20050201533A1 (en) * 2004-03-10 2005-09-15 Emam Sean A. Dynamic call processing system and method
US20050243975A1 (en) * 2004-04-28 2005-11-03 International Business Machines Corporation Method and system of determining unsolicited callers
US7086139B2 (en) * 2004-04-30 2006-08-08 Hitachi Global Storage Technologies Netherlands B.V. Methods of making magnetic write heads using electron beam lithography
JP2005348240A (ja) * 2004-06-04 2005-12-15 Matsushita Electric Ind Co Ltd 電話装置
US7275049B2 (en) * 2004-06-16 2007-09-25 The Boeing Company Method for speech-based data retrieval on portable devices
US8078977B2 (en) * 2004-06-29 2011-12-13 Blake Bookstaff Method and system for intelligent processing of electronic information
WO2006005001A2 (en) * 2004-06-29 2006-01-12 Blake Bookstaff Method and system for automated intelligent electronic advertising
US9792633B2 (en) 2004-06-29 2017-10-17 Blake Bookstaff Method and system for intelligent processing of electronic information with cloud computing
US7631042B2 (en) * 2004-06-30 2009-12-08 International Business Machines Corporation Method to update status on multiple voice and text systems from a single device
US8180742B2 (en) * 2004-07-01 2012-05-15 Emc Corporation Policy-based information management
US20060004579A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Flexible video surveillance
US8229904B2 (en) * 2004-07-01 2012-07-24 Emc Corporation Storage pools for information management
US8244542B2 (en) * 2004-07-01 2012-08-14 Emc Corporation Video surveillance
US8180743B2 (en) 2004-07-01 2012-05-15 Emc Corporation Information management
US7444287B2 (en) * 2004-07-01 2008-10-28 Emc Corporation Efficient monitoring system and method
US7707037B2 (en) * 2004-07-01 2010-04-27 Emc Corporation Archiving of surveillance data
US9268780B2 (en) * 2004-07-01 2016-02-23 Emc Corporation Content-driven information lifecycle management
US8204884B2 (en) * 2004-07-14 2012-06-19 Nice Systems Ltd. Method, apparatus and system for capturing and analyzing interaction based content
WO2006021943A1 (en) * 2004-08-09 2006-03-02 Nice Systems Ltd. Apparatus and method for multimedia content based
US7580837B2 (en) 2004-08-12 2009-08-25 At&T Intellectual Property I, L.P. System and method for targeted tuning module of a speech recognition system
US8724891B2 (en) * 2004-08-31 2014-05-13 Ramot At Tel-Aviv University Ltd. Apparatus and methods for the detection of abnormal motion in a video stream
US8078463B2 (en) * 2004-11-23 2011-12-13 Nice Systems, Ltd. Method and apparatus for speaker spotting
US7242751B2 (en) 2004-12-06 2007-07-10 Sbc Knowledge Ventures, L.P. System and method for speech recognition-enabled automatic call routing
US7751551B2 (en) 2005-01-10 2010-07-06 At&T Intellectual Property I, L.P. System and method for speech-enabled call routing
US7627096B2 (en) * 2005-01-14 2009-12-01 At&T Intellectual Property I, L.P. System and method for independently recognizing and selecting actions and objects in a speech recognition system
EP1815365A4 (de) * 2005-02-07 2009-04-01 Nice Systems Ltd Aufrüstung unter verwendung gemeinsamer angesammelter informationen von verwaltungssystemen
US8005675B2 (en) * 2005-03-17 2011-08-23 Nice Systems, Ltd. Apparatus and method for audio analysis
EP1867167A4 (de) * 2005-04-03 2009-05-06 Nice Systems Ltd Vorrichtung und verfahren zur halbautomatischen verfolgung und untersuchung eines objekts oder eines ereignisses an einem überwachten standort
US20060242104A1 (en) * 2005-04-21 2006-10-26 Microsoft Corporation Systems and methods for manipulating data in a data storage system
US20060253272A1 (en) * 2005-05-06 2006-11-09 International Business Machines Corporation Voice prompts for use in speech-to-speech translation system
US7386105B2 (en) * 2005-05-27 2008-06-10 Nice Systems Ltd Method and apparatus for fraud detection
US8059805B2 (en) * 2005-06-30 2011-11-15 Emc Corporation Enhanced services provided using communication redirection and processing
US8605878B2 (en) * 2005-06-30 2013-12-10 Emc Corporation Redirecting and mirroring of telephonic communications
US8831194B2 (en) * 2005-06-30 2014-09-09 Emc Corporation Telephonic communication redirection and compliance processing
US7616751B2 (en) * 2005-07-12 2009-11-10 Avaya Inc. Managing held telephone calls by using a messaging resource
US8880047B2 (en) 2005-08-03 2014-11-04 Jeffrey C. Konicek Realtime, location-based cell phone enhancements, uses, and applications
US8295851B2 (en) 2005-08-03 2012-10-23 Michael Edward Finnegan Realtime, interactive and geographically defined computerized personal matching systems and methods
US20080040110A1 (en) * 2005-08-08 2008-02-14 Nice Systems Ltd. Apparatus and Methods for the Detection of Emotions in Audio Interactions
US7978844B1 (en) 2005-12-16 2011-07-12 Union Beach L.P. Selective telephone ringing-signal interruption
US7489772B2 (en) 2005-12-30 2009-02-10 Nokia Corporation Network entity, method and computer program product for effectuating a conference session
JP4466572B2 (ja) * 2006-01-16 2010-05-26 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置、音声コマンド実行プログラムおよび音声コマンド実行方法
WO2007086042A2 (en) * 2006-01-25 2007-08-02 Nice Systems Ltd. Method and apparatus for segmentation of audio interactions
US8625749B2 (en) * 2006-03-23 2014-01-07 Cisco Technology, Inc. Content sensitive do-not-disturb (DND) option for a communication system
US8725518B2 (en) * 2006-04-25 2014-05-13 Nice Systems Ltd. Automatic speech analysis
WO2007135656A1 (en) * 2006-05-18 2007-11-29 Nice Systems Ltd. Method and apparatus for combining traffic analysis and monitoring center in lawful interception
US20070269025A1 (en) * 2006-05-19 2007-11-22 Shieh Johnny M Managing Customer Access to a Communication Recorded by A Provider in Association with a Transaction
US20070297581A1 (en) * 2006-06-26 2007-12-27 Microsoft Corporation Voice-based phone system user interface
US8019051B1 (en) 2006-08-16 2011-09-13 Avaya Inc. Method and apparatus for ordering communications
US20080065378A1 (en) * 2006-09-08 2008-03-13 James Wyatt Siminoff System and method for automatic caller transcription (ACT)
US8054961B2 (en) * 2006-09-29 2011-11-08 Siemens Enterprise Communications, Inc. MeetMe assistant
US7822605B2 (en) * 2006-10-19 2010-10-26 Nice Systems Ltd. Method and apparatus for large population speaker identification in telephone interactions
US7631046B2 (en) * 2006-10-26 2009-12-08 Nice Systems, Ltd. Method and apparatus for lawful interception of web based messaging communication
US7577246B2 (en) * 2006-12-20 2009-08-18 Nice Systems Ltd. Method and system for automatic quality evaluation
US7865556B2 (en) * 2006-12-20 2011-01-04 International Business Machines Corporation Failover processing for automatic responder in mixed server environment
US20080189171A1 (en) * 2007-02-01 2008-08-07 Nice Systems Ltd. Method and apparatus for call categorization
US8571853B2 (en) * 2007-02-11 2013-10-29 Nice Systems Ltd. Method and system for laughter detection
US7599475B2 (en) * 2007-03-12 2009-10-06 Nice Systems, Ltd. Method and apparatus for generic analytics
US20080259918A1 (en) 2007-04-19 2008-10-23 Craig Elliott Walker Method and apparatus for managing telephone calls
BRPI0810243A2 (pt) * 2007-04-20 2014-10-29 Stephen Murphy Método e sistema implementado por processador, e meio acessível por processador para responder às pesquisas de seqüência de texto de usuário, e, aparelho para responder às pesquisas da seqüência de texto do usuário
US8086461B2 (en) 2007-06-13 2011-12-27 At&T Intellectual Property Ii, L.P. System and method for tracking persons of interest via voiceprint
US20090012826A1 (en) * 2007-07-02 2009-01-08 Nice Systems Ltd. Method and apparatus for adaptive interaction analytics
US20090171973A1 (en) * 2007-07-09 2009-07-02 Rpm Communications, Inc. User-generated multimedia content from mobile and non-mobile devices
WO2009038667A2 (en) * 2007-09-14 2009-03-26 Ribbit Corporation Messaging and application system integration
US20090228282A1 (en) * 2008-03-07 2009-09-10 Aruze Gaming America, Inc. Gaming Machine and Gaming System with Interactive Feature, Playing Method of Gaming Machine, and Control Method of Gaming System
US9209975B2 (en) * 2008-10-15 2015-12-08 Ricoh Company, Ltd. Secure access of electronic documents and data from client terminal
EP2113850A3 (de) * 2008-04-30 2009-11-11 Ricoh Company, Limited Verwaltung von elektronischen Daten mit Indexdaten, die den elektronischen Daten entsprechen und sicherer Zugang zu elektronischen Dokumenten und Daten von einem Client-Endgerät
US8095541B2 (en) * 2008-04-30 2012-01-10 Ricoh Company, Ltd. Managing electronic data with index data corresponding to said electronic data
DE102008046431A1 (de) * 2008-09-09 2010-03-11 Deutsche Telekom Ag Sprachdialogsystem mit Reject-Vermeidungsverfahren
JP5284745B2 (ja) * 2008-10-10 2013-09-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 電子メッセージに対するアクセスを管理する装置及び方法
US8290126B2 (en) * 2008-12-19 2012-10-16 CenturyLing Intellectual Property LLC System and method for a visual voicemail interface
US8351581B2 (en) 2008-12-19 2013-01-08 At&T Mobility Ii Llc Systems and methods for intelligent call transcription
CN101883060A (zh) * 2009-05-08 2010-11-10 中兴通讯股份有限公司 业务流程切换方法及媒体服务器
JP5502787B2 (ja) * 2011-03-15 2014-05-28 株式会社東芝 音声変換支援装置、プログラムおよび音声変換支援方法
EP2732447A4 (de) * 2011-07-12 2015-05-06 Hewlett Packard Development Co Hörprobe
US8819012B2 (en) * 2011-08-30 2014-08-26 International Business Machines Corporation Accessing anchors in voice site content
CN102571793A (zh) * 2012-01-09 2012-07-11 中国人民解放军信息工程大学 电信网垃圾呼叫捕获装置
US9691377B2 (en) 2013-07-23 2017-06-27 Google Technology Holdings LLC Method and device for voice recognition training
US9275638B2 (en) 2013-03-12 2016-03-01 Google Technology Holdings LLC Method and apparatus for training a voice recognition model database
US20140376541A1 (en) * 2013-06-19 2014-12-25 Microsoft Corporation Dual-tone multi-frequency (dtmf) programming of an auto-dialer
US9548047B2 (en) 2013-07-31 2017-01-17 Google Technology Holdings LLC Method and apparatus for evaluating trigger phrase enrollment
US9189742B2 (en) * 2013-11-20 2015-11-17 Justin London Adaptive virtual intelligent agent
EP3254435B1 (de) 2015-02-03 2020-08-26 Dolby Laboratories Licensing Corporation Wiedergabesystem nach konferenzen mit höherer wahrgenommener qualität als ursprünglich in der konferenz gehört
EP3254456B1 (de) 2015-02-03 2020-12-30 Dolby Laboratories Licensing Corporation Optimierte gestaltung virtueller szenen zur räumlichen sitzungswiedergabe
US10134386B2 (en) 2015-07-21 2018-11-20 Rovi Guides, Inc. Systems and methods for identifying content corresponding to a language spoken in a household
US11178277B2 (en) * 2015-10-26 2021-11-16 Brandon Donnell Lee Circuit ID lookup
TWI608359B (zh) * 2017-01-17 2017-12-11 關貿網路股份有限公司 資料傳輸系統及其方法
US10764428B2 (en) * 2017-12-29 2020-09-01 Trysit Nitidharmatut Simultaneous voice and data content driven commercial data platform
US11032423B2 (en) 2017-12-29 2021-06-08 Trysit Nitidharmatut Simultaneous voice and data content driven commercial data platform
US11553082B2 (en) 2017-12-29 2023-01-10 Trysit Nitidharmatut Simultaneous voice and data content driven commercial data platform

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62139491A (ja) 1985-12-13 1987-06-23 Nec Corp 外線呼自動内線転送装置
US5199062A (en) * 1988-01-20 1993-03-30 Phone Base Systems Inc. Telephone communications system including a digital telephone switch, a voice response unit and a stored program sequence for controlling both the switch and the voice response unit
JPH0362800A (ja) 1989-07-31 1991-03-18 Toshiba Corp 音声リモートコントロール装置
JPH03203794A (ja) 1989-12-29 1991-09-05 Pioneer Electron Corp 音声リモートコントロール装置
JP3066920B2 (ja) 1991-06-11 2000-07-17 キヤノン株式会社 音声認識方法及び装置
JP4203122B2 (ja) * 1991-12-31 2008-12-24 ユニシス・パルスポイント・コミュニケーションズ 音声制御通信装置および処理方法
US5327486A (en) * 1993-03-22 1994-07-05 Bell Communications Research, Inc. Method and system for managing telecommunications such as telephone calls
US5594784A (en) * 1993-04-27 1997-01-14 Southwestern Bell Technology Resources, Inc. Apparatus and method for transparent telephony utilizing speech-based signaling for initiating and handling calls
US5511111A (en) * 1993-11-01 1996-04-23 Engineering And Business Systems, Inc. Caller name and identification communication system with caller screening option
US5608784A (en) 1994-01-24 1997-03-04 Miller; Joel F. Method of personnel verification using voice recognition
US5604790A (en) 1994-08-31 1997-02-18 Lucent Technologies Inc. Voice processing call announcement and answering system
US5594789A (en) 1994-10-13 1997-01-14 Bell Atlantic Network Services, Inc. Transaction implementation in video dial tone network
JP3591052B2 (ja) 1995-06-06 2004-11-17 松下電器産業株式会社 構内電話システムおよびその情報処理方法
US5752186A (en) * 1995-06-07 1998-05-12 Jeman Technologies, Inc. Access free wireless telephony fulfillment service system
US5999611A (en) * 1996-11-19 1999-12-07 Stentor Resource Centre Inc. Subscriber interface for accessing and operating personal communication services
US6064963A (en) * 1997-12-17 2000-05-16 Opus Telecom, L.L.C. Automatic key word or phrase speech recognition for the corrections industry
US6052439A (en) * 1997-12-31 2000-04-18 At&T Corp Network server platform telephone directory white-yellow page services

Also Published As

Publication number Publication date
DE69839068D1 (de) 2008-03-20
TW401673B (en) 2000-08-11
EP0935378A3 (de) 2003-06-11
KR19990067916A (ko) 1999-08-25
JP2000013510A (ja) 2000-01-14
KR100369696B1 (ko) 2003-01-30
EP0935378A2 (de) 1999-08-11
EP0935378B1 (de) 2008-01-30
US6327343B1 (en) 2001-12-04

Similar Documents

Publication Publication Date Title
DE69839068T2 (de) System und Verfahren zur automatischen Verarbeitung von Anruf und Datenübertragung
DE69824508T2 (de) Fernsprechbasiertes Anweisungssystem
DE60305458T2 (de) System und verfahren zur bereitstellung einer nachrichtengestützten kommunikationsinfrastruktur für einen automatisierten anrufzentralenbetrieb
DE69934275T2 (de) Gerät und Verfahren um die Benutzerschnittstelle der integrierten Sprachantwortsystemen zu verbessern
DE10220524B4 (de) Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
DE69633883T2 (de) Verfahren zur automatischen Spracherkennung von willkürlichen gesprochenen Worten
DE60001765T2 (de) Verfahren und Gerät zur Zusammensetzung und Präsentation von strukturierten Sprachpostnachrichten
DE60214391T2 (de) Erkennung von Ereignissen bei der Kommunikation mit mehreren Sprachkanälen
DE69732786T2 (de) Verfahren und gerät zum wiederauffinden einer gewünschten aufzeichnung in einem fernsprechverzeichnis
DE3590157C2 (de)
DE60113644T2 (de) Methode und System zur Verwaltung einer Datenbank in einem Kommunikationsnetz
DE102004050785A1 (de) Verfahren und Anordnung zur Bearbeitung von Nachrichten im Rahmen eines Integrated Messaging Systems
DE102011118780A1 (de) Verfahren und system für das erzeugen einerzusammenarbeitszeitachse, die anwendungsartefakte im kontext illustriert
EP1898617A1 (de) Zentrale Speicherung von Daten
EP1282296A2 (de) Verfahren und Anordnung zum Aufbau einer Konferenzschaltung
EP1361737A1 (de) Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
DE10208295A1 (de) Verfahren zum Betrieb eines Sprach-Dialogsystems
EP2047668B1 (de) Verfahren, sprachdialogsystem und telekommunikationsendgerät zur multilingualen sprachausgabe
DE60018349T2 (de) Erzeugung von einem Namenwörterbuch aus aufgezeichneten telephonischen Grüssen für die Spracherkennung
EP1590797A1 (de) Kommunikationssystem, kommunikationsendeinrichtung und vorrichtung zum erkennen fehlerbehafteter text-nachrichten
DE102007027363A1 (de) Verfahren zum Betreiben eines Voice-Mail-Systems
EP1251680A1 (de) Sprachgesteuerter Verzeichnisdienst für Verbindung an ein Datennetzwerk
EP1361738A1 (de) Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
EP1444855A1 (de) Rücksetzen von versendeten informationen
DE60126487T2 (de) Verfahren und vorrichtung zum herstellen von verbindungen ohne verbreitung der rufnummer

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8327 Change in the person/name/address of the patent owner

Owner name: NUANCE COMMUNICATIONS,INC., BURLINGTON, MASS., US

8328 Change in the person/name/address of the agent

Representative=s name: VOSSIUS & PARTNER, 81675 MUENCHEN