DE69735526T2 - System for interactive communication - Google Patents

System for interactive communication Download PDF

Info

Publication number
DE69735526T2
DE69735526T2 DE69735526T DE69735526T DE69735526T2 DE 69735526 T2 DE69735526 T2 DE 69735526T2 DE 69735526 T DE69735526 T DE 69735526T DE 69735526 T DE69735526 T DE 69735526T DE 69735526 T2 DE69735526 T2 DE 69735526T2
Authority
DE
Germany
Prior art keywords
segments
document
information
tags
documents
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69735526T
Other languages
German (de)
Other versions
DE69735526D1 (en
Inventor
Michael J. Plainsboro Wynblatt
Arding Kendall Park Hsu
Daniel C. Seattle Benson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corporate Research Inc
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of DE69735526D1 publication Critical patent/DE69735526D1/en
Application granted granted Critical
Publication of DE69735526T2 publication Critical patent/DE69735526T2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4938Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals comprising a voice browser which renders and interprets, e.g. VoiceXML
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99931Database or file accessing
    • Y10S707/99933Query processing, i.e. searching

Description

Die vorliegende Erfindung betrifft ein System und Verfahren für die interaktive Kommunikation sowie insbesondere primär eine Audio-Umgebung zur Bereitstellung des Zugangs zu Informationen, die beispielsweise in einem Netzwerk wie etwa dem World Wide Web bereitgehalten werden.The The present invention relates to a system and method for the interactive Communication and in particular primarily an audio environment for the provision access to information, for example, in a network such as the World Wide Web.

Das World Wide Web (WWW) wird immer schneller zur wichtigsten Informationsquelle für Unternehmen und Privatnutzer. Bei jeder Informationsquelle besteht jedoch ein Zielkonflikt zwischen dem Wert der gefundenen Information und den Opportunitätskosten für die Zeit, die der Anwender mit der Suche nach dieser Information verbringt. Neuere Fortschritte in der Technologie, beispielsweise das Mobiltelefon, haben den Nutzern geholfen, das Ergebnis dieses Zielkonflikts zu optimieren, indem sie ihnen die bessere Ausnutzung der Zeit ermöglichten, die andernfalls unproduktiv wäre, beispielsweise die Zeit für den Weg zur Arbeit oder für sportliche Aktivitäten. Das WWW ist jedoch in derartigen Situationen nur relativ schwierig zu nutzen, da die vorhandenen WWW-Browser ein hohes Maß an visueller Aufmerksamkeit und interaktiver Kommunikation erfordern.The World Wide Web (WWW) is fast becoming the most important source of information For companies and home users. However, every information source has one Target conflict between the value of the information found and the Opportunity costs for the Time the user spends looking for this information. Recent advances in technology, such as the mobile phone, have helped users to determine the outcome of this conflict of objectives optimize them by making better use of time, that would otherwise be unproductive, for example the time for the way to work or for sports. The However, WWW is relatively difficult in such situations use, because the existing WWW browser a high degree of visual Require attention and interactive communication.

Ziel der vorliegenden Erfindung ist, ein System bereitzustellen, mit dessen Hilfe auch dann auf das World Wide Web zugegriffen werden kann, wenn kein Rechnerbildschirm und/oder keine Tastatur zur Verfügung steht. Dazu tritt die Audio-Wiedergabe an die Stelle von Text und visuellen Informationen und werden gesprochene Befehle oder die Betätigung von Tasten und anderen Bedienelementen anstelle der Bearbeitung von Elementen einer Bedienoberfläche (GUI) gesetzt. Andere Systeme, beispielsweise Web-On-Call von Netphonic, bieten bereits eine vergleichbare Funktionalität, erfordern jedoch serverseitig umfangreiche Vorbereitungen. Das bedeutet, dass die Anwender nur auf die wenigen Server zugreifen können, die bei diesem Dienst angemeldet sind. Das System gemäß der vorliegenden Erfindung dagegen erledigt die gesamte Arbeit auf der Client-Seite, weshalb die Anwender damit auf jeden beliebigen Web-Server zugreifen können.aim The present invention is to provide a system with whose help will be accessed on the World Wide Web can if no computer screen and / or keyboard is available. In addition, audio playback takes the place of text and visual Information and will be spoken commands or the actuation of Keys and other controls instead of editing Elements of a user interface (GUI) set. Other systems, such as Netphonic's Web-On-Call, already offer comparable functionality, but require server-side extensive preparations. That means the users only can access the few servers that are on this service are registered. The system according to the present Invention on the other hand does all the work on the client side, which is why users access any web server can.

Vor kurzem hat ein Unternehmen namens The Productivity Works einen WWW-Browser mit dem Namen WebSpeak herausgebracht. Dieser ist speziell für Anwender mit eingeschränktem Sehvermögen konzipiert.In front Recently, a company called The Productivity Works has a WWW browser released with the name WebSpeak. This one is especially for users with restricted eyesight designed.

Zwar umfasst auch dieses System große Schrift und andere visuelle Funktionen, aber es bietet auch die Text-zu-Sprache-Umwandlung für die Ausgabe von HTML-Dokumenten. Die interne Funktionsweise dieses Systems ist nicht bekannt und den Antragstellern liegen derzeit keine näheren Informationen hierüber vor.Though This system also includes large font sizes and other visual functions, but it also provides text-to-speech conversion for output HTML documents. The internal functioning of this system is not known and the applicants are currently no further information here over in front.

Eine weitere nicht-visuelle WWW-Browser-Umgebung für Web-Nutzer mit eingeschränktem Sehvermögen ist bekannt aus T. V. RAMAN: „Emacspeak – A Speech Interface", Seiten 66–71 des CHI 96 Sitzungsprotokolls, Human Factors in Computing Systems, 13–18 April 1996, Vancouver, British Columbia, Kanada; Protokoll veröffentlicht von ACM Press, New York, USA, am 13.04.96.A is another non-visual WWW browser environment for web users with low vision known from T. V. RAMAN: "Emacspeak - A Speech Interface ", pages 66-71 of the CHI 96 Session Protocol, Human Factors in Computing Systems, April 13-18 1996, Vancouver, British Columbia, Canada; Protocol published by ACM Press, New York, USA, on 13.04.96.

Ziel der vorliegenden Erfindung ist, die vorstehend beschriebenen Probleme zu beseitigen, indem eine nicht-visuelle Browser-Umgebung für das WWW zur Verfügung gestellt wird. Ein derartiges System ist auch für Web-Nutzer mit Einschränkungen im Sehvermögen äußerst vorteilhaft.aim of the present invention is the problems described above eliminate by a non-visual Browser environment for the WWW available is provided. Such a system is also for web users with limitations in eyesight extremely beneficial.

Gemäß der Erfindung wird ein System für die interaktive Kommunikation zwischen einem Anwender und einer Informationsquelle bereitgestellt, das die Eigenschaften laut Anspruch 1 aufweist. Ferner hat ein Verfahren zur Bereitstellung der interaktiven Kommunikation zwischen einem Anwender und einer Informationsquelle gemäß der Erfindung die Eigenschaften laut Anspruch 7.According to the invention will be a system for the interactive communication between a user and a Information source provided that claims the properties 1 has. It also has a method for providing interactive communication between a user and an information source according to the invention the properties according to claim 7.

Eine Ausführungsform der Erfindung umfasst ein System für die Wiedergabe strukturierter Dokumente mittels Audio, eine Schnittstelle für den Informationsaustausch mit Anwendern, ein tastaturloses WWW-Suchsystem und eine Reihe verschiedener Funktionen und Leistungsmerkmale. Das System für die Wiedergabe strukturierter Dokumente mittels Audio beinhaltet ein Vorab-Aufbereitungssystem, das ein HTML-Dokument in ein Zwischenformat umwandelt, sowie ein Audio-Aufbereitungssystem, das eine Audio-Ausgabe erzeugt. Die Schnittstelle umfasst ein nicht-visuelles Browser-System und eine Schnittstelle zum Anwender für visuelle Browser-Umgebungen.A embodiment The invention comprises a system for the reproduction of structured documents via audio, an interface for the exchange of information with users, a keyboardless WWW search system and a number of different Features and features. The system for playback structured Documents by audio includes a pre-editing system that converts an HTML document into an intermediate format, as well as an audio editing system, which produces an audio output. The interface includes a non-visual Browser system and an interface to the user for visual Browser environments.

Zum besseren Verständnis der vorliegenden Erfindung sowie zur Darstellung von Möglichkeiten, diese umzusetzen, wird im Folgenden beispielhaft Bezug genommen auf die beigefügten Zeichnungen, wobei:To the better understanding of the present invention as well as to illustrate ways this will be exemplified in the following reference to the attached Drawings, wherein:

1 ein Blockschaltbild einer Ausführungsform der vorliegenden Erfindung darstellt. 1 a block diagram of an embodiment of the present invention.

2 die Vorab-Aufbereitungsanalyse eines HTML-Dokuments illustriert, die in der Funktion für die Wiedergabe strukturierter Dokumente erfolgt. 2 illustrates the pre-editing analysis of an HTML document that occurs in the Structured Document Rendering feature.

3 das Verfahren zur Berechnung der Textmarkierungen für die Sprachgenerierung (Speech-Markup-Informationen) für das Zwischendokument der Vorab-Aufbereitungsanalyse darstellt. 3 illustrates the method of calculating the speech generation text markers (speech markup information) for the pre-editing analysis intermediate document.

4 den Prozess für die Aufbereitung des Zwischendokuments sowie für das Generieren von Sprache und anderen Audio-Ausgaben zeigt. 4 the process for preparing the intermediate document as well as for generating Language and other audio issues shows.

5 ein beispielhaftes Bedienfeld für das WIRE-System gemäß der vorliegenden Erfindung zeigt. 5 an exemplary control panel for the WIRE system according to the present invention shows.

Die vorliegende Erfindung wird im Folgenden unter Bezugnahme auf eine bestimmte Ausführungsform der Erfindung, das so genannte WIRE-System, beschrieben.The The present invention will be described below with reference to a certain embodiment of the invention, the so-called WIRE system described.

Das WIRE-System gemäß der vorliegenden Erfindung besteht aus einer Reihe von Software-Technologien und einem Bedienoberflächen-Paradigma und kann dazu benutzt werden, auf das World Wide Web zuzugreifen, wenn kein Rechnerbildschirm und/oder keine Tastatur zur Verfügung steht. Wie vorstehend bereits erwähnt steht dahinter der Gedanke, die Audio-Wiedergabe an die Stelle von Textausgabe und visuellen Informationen zu setzen und die Betätigung von Tasten und anderen Bedienelementen anstelle der Bearbeitung von Elementen einer Bedienoberfläche (GUI) zu setzen. Das WIRE-System gemäß der Erfindung realisiert alle diese Aufgaben auf der Client-Seite, daher kann der Anwender mit diesem System auf jeden beliebigen Web-Server zugreifen. Für diesen Zweck wurden verschiedene neue Technologien und Methoden entwickelt, die nachstehend erläutert werden.The WIRE system according to the present invention consists of a number of software technologies and a user interface paradigm and can be used to access the World Wide Web if no computer screen and / or keyboard is available. As already mentioned above behind it the thought, the audio playback in place of text output and to put visual information and the actuation of Keys and other controls instead of editing Elements of a user interface (GUI). The WIRE system realized according to the invention all these tasks on the client side, therefore, the user can with this System to access any web server. For this Purpose, various new technologies and methods have been developed explained below become.

1 zeigt eine Ausführungsform des WIRE-Systems 10 gemäß der vorliegenden Erfindung. Die zentralen Komponenten des WIRE-Systems 10 sind: Ein System 11 zur Wiedergabe von strukturierten Dokumenten mittels Audio, eine Schnittstelle 12 für den Informationsaustausch mit Anwendern, ein nicht auf Stichwort basierendes System 13 für die Suche im WWW und eine Reihe verschiedener Funktionen und Leistungsmerkmale 14. Das System 11 für die Wiedergabe strukturierter Dokumente mittels Audio beinhaltet ein Vorab-Aufbereitungssystem 15, das ein HTML-Dokument in ein Zwischenformat umwandelt, sowie ein Audio-Aufbereitungssystem 16, das anhand des Zwischendokuments eine Audio-Ausgabe erzeugt. Die Schnittstelle 12 umfasst ein nicht-visuelles Browser-System 17 und eine Schnittstelle 18 zu Anwendern für visuelle Browser-Umgebungen. 1 shows an embodiment of the WIRE system 10 according to the present invention. The central components of the WIRE system 10 are: a system 11 for the reproduction of structured documents by means of audio, an interface 12 for the exchange of information with users, a non-keyword based system 13 for searching the WWW and a number of different functions and features 14 , The system 11 for the reproduction of structured documents by means of audio includes a pre-editing system 15 , which converts an HTML document into an intermediate format, as well as an audio editing system 16 that generates an audio output based on the intermediate document. the interface 12 includes a non-visual browser system 17 and an interface 18 to users of visual browser environments.

Die erste Komponente ist das System 11 für die Wiedergabe strukturierter Dokumente mittels Audio. Vorhandene WWW-Browser stellen HTML-Dokumente visuell auf einem Rechnerbildschirm dar. Als Alternative dazu stellt das WIRE-System gemäß der vorliegenden Erfindung die Audio-Aufbereitung von HTML-Dokumenten bereit, wobei es sich um eine Art und Weise der Darstellung von Inhalten des WWW, umfassend Text, Strukturen und bildliche Darstellungen, rein mit Hilfe der Audio-Wiedergabe handelt. Die Architektur des WIRE-Dokumentenaufbereitungs-Moduls ist auf jede Art strukturierter Dokumente anwendbar, zum Zwecke der Erläuterung wird nachstehend jedoch ausschließlich die Implementierung für HTML-Dokumente beschrieben, da dies die am häufigsten anzutreffende Form strukturierter Dokumente im WWW ist.The first component is the system 11 for the reproduction of structured documents by means of audio. Existing WWW browsers visually display HTML documents on a computer screen. Alternatively, the WIRE system according to the present invention provides the audio rendering of HTML documents, which is a way of displaying contents of the WWW comprising text, structures and pictorial representations, purely by means of audio playback. The architecture of the WIRE Document Editing Module is applicable to any type of structured document, however, for purposes of explanation, only the implementation for HTML documents will be described below, as this is the most commonly encountered form of structured documents on the WWW.

Der im WIRE-System verwendete Prozess für die Aufbereitung eines HTML-Dokuments besteht aus zwei Teilen: dem Vorab-Aufbereitungssystem 15, welches das HTML-Dokument in ein Zwischendokument umwandelt, und dem Audio-Aufbereitungssystem 16, welches aus dem Zwischendokument eine Audio-Ausgabe erzeugt. Einige Teile der beiden Prozessteile können parallel ablaufen, bilden jedoch logisch separate Einheiten.The process used to process an HTML document in the WIRE system consists of two parts: the pre-processing system 15 which converts the HTML document into an intermediate document and the audio rendering system 16 which generates an audio output from the intermediate document. Some parts of the two process parts can run in parallel, but form logically separate units.

Die Vorab-Aufbereitungsanalyse wird in 2 dargestellt. Die erste Stufe dieser Analyse besteht darin, das HTML-Dokument in logische Abschnitte zu untergliedern, wie durch die Stufe „Dokument wird segmentiert" 21 dargestellt. Zu diesem Zweck wird nach syntaktischen Elementen in dem betreffenden HTML-Dokument gesucht, die allgemein die Grenzen zwischen Bereichen verschiedenen Inhalts kennzeichnen. Als syntaktische Elemente verwendet werden horizontale Linien und Tags, die den Beginn von Tabellen, Zeilen und Spalten markieren. Diese Elemente werden entsprechend als Segmentgrenzen betrachtet.The pre-processing analysis is in 2 shown. The first stage of this analysis is to break the HTML document into logical sections, as represented by the "Document being Segmented" level. 21 shown. For this purpose, search is made for syntactic elements in the relevant HTML document, which generally identify the boundaries between areas of different content. The syntactical elements used are horizontal lines and tags that mark the beginning of tables, rows and columns. These elements are considered as segment boundaries.

Das Ergebnis der Stufe „Dokument wird segmentiert" 21 wird an eine Stufe „Segmente werden kategorisiert" 22 übergeben. Diese zweite Stufe der Analyse ordnet die Segmente des HTML-Dokuments in Kategorien ein, entweder als Navigationssegment oder als Inhaltssegment. Für diese Kategorisierung wird die Link-Dichte jedes Segments berechnet. Die Link-Dichte ist ein Maß für die Menge an Inhalt in einem bestimmten Segment, der in Ankern für Hyperlinks enthalten ist. In dem WIRE-System gemäß der vorliegenden Erfindung wird eine empirische Formel zur Berechnung der Link-Dichte D verwendet:

Figure 00060001
wobei CHREF für die Anzahl Zeichen im Segment steht, die keine Tags sind, aber innerhalb von HREF-Tags erscheinen, C für die Gesamtzahl von Zeichen im Segment steht, die keine Tags sind, und LI für die Anzahl von Hyperlinks in den Bildkarten des Segments steht. C erhält immer einen Wert von mindestens 1, selbst wenn das betreffende Segment keinerlei Zeichen enthält, die keine Tags sind. Der Wert K repräsentiert die Gewichtung der Links in den Bildkarten und wird empirisch festgelegt auf einen Wert 5. Wenn ein Segment die Link-Dichte D > 0,7 aufweist, wird es als Navigationssegment kategorisiert, andernfalls wird es als Inhaltssegment eingestuft. Der Wert 0,7 wurde empirisch als adäquat ermittelt.The result of the "Document is segmented" stage 21 is categorized at a level "segments are categorized" 22 to hand over. This second level of analysis categorizes the segments of the HTML document, either as a navigation segment or as a content segment. For this categorization, the link density of each segment is calculated. The link density is a measure of the amount of content in a particular segment contained in anchors for hyperlinks. In the WIRE system according to the present invention, an empirical formula is used to calculate the link density D:
Figure 00060001
where C HREF is the number of characters in the segment that are not tags but appear within HREF tags, C is the total number of characters in the segment that are not tags, and L I is the number of hyperlinks in the picture cards of the segment stands. C always gets a value of at least 1, even if the segment does not contain any characters that are not tags. The value K represents the weight of the links in the image maps and is empirically set to a value of 5. If a segment has the link density D> 0.7, it is categorized as a navigation segment, otherwise it is classified as a content segment. The value 0.7 was determined empirically as adequate.

Das Ergebnis der Stufe „Segmente werden kategorisiert" 22 wird einer Stufe „Sektionierung wird berechnet" 24 zugeleitet. Diese dritte Analysestufe dient der Ermittlung der Abschnittsstruktur des HTML-Dokuments. Die Abschnittsstruktur ist nicht gleichzusetzen mit der Segmentierung, und die genaue Verwendung dieser beiden Informationen wird an späterer Stelle noch erläutert.The result of the segment "Segments are categorized" 22 becomes a stage "Sectioning is calculated" 24 fed. This third analysis step is used to determine the section structure of the HTML document. The section structure is not the same as segmentation, and the exact usage of this information will be explained later.

Für die Abschnittsinformation werden lediglich Inhaltssegmente analysiert. Jedes Inhaltssegment wird als oberste Abschnittsebene betrachtet. Innerhalb von Inhaltssegmenten wird jedes Vorkommnis eines Überschriften-Tags oder Schriftgrößen-Tags registriert. In HTML haben Überschriften-Tags einen Wert von 1 bis 6 in absteigender Folge, während die Werte der Schriftgrößen-Tags im Bereich von 1 bis 7 in ansteigender Folge liegen. Im Sektionierungsprozess werden Schriftgrößen-Tags, die größer als die standardmäßige Schriftgröße des Textes sind, als Überschriften-Tags behandelt, deren Rang 8 minus ihrem Größenwert entspricht. Relative Schriftgrößen-Tags, beispielsweise <fontsize +2> werden zunächst in absolute Größenangaben umgerechnet, indem sie auf die standardmäßige Textgröße angewandt werden. Schriftgrößen-Tags, die eine Größe unterhalb der Standard-Schriftgröße definieren, werden ignoriert.For the section information only content segments are analyzed. Each content segment is considered as the top section level. Within content segments Every occurrence of a headline tag or font size tag registered. In HTML have heading tags a value of 1 to 6 in descending order, while the values of the font size tags ranging from 1 to 7 in ascending order. In the sectioning process will be font size tags that greater than the default font size of the text are, as headline tags whose rank is equal to 8 minus their size. Relative font size tags, for example, <fontsize +2> are first in absolute sizes converted by applying to the default text size. Font size tags, the one size below define the default font size, are ignored.

Das Ergebnis besteht in einer Hierarchie von Überschriften-Tags unterschiedlichen Rangs. Danach werden die Abschnitte hierarchisch definiert, wobei die Überschriften-Tags als Grenzen dienen und die oberste Abschnittsebene die Spitze der Hierarchie bildet und die Überschriften-Tags die Unterabschnitte, Unter-Unterabschnitte und so viele weitere Gliederungsebenen bezeichnen, wie entsprechend der Anzahl der im Dokument enthaltenen Rang-Werte notwendig sind.The Result is different in a hierarchy of heading tags Rank. Thereafter, the sections are defined hierarchically, where the headline tags as boundaries serve and the top section level the top of the hierarchy forms and the headline tags the subsections, sub-subsections, and so many other outline levels according to the number of documents contained in the document Rank values are necessary.

Das Ergebnis der Stufe „Sektionierung wird berechnet" 24 ist die Grundlage für eine Stufe „Speech-Markup-Informationen werden berechnet" 26. In dieser letzten Stufe der Analyse wird das Zwischendokument erstellt, das für einen Text-zu-Sprache-Mechanismus interpretierbar ist. Grundsätzlich werden in diesem Schritt die Meta-Informationen in Form von Befehlen erzeugt, welche den Text-zu-Sprache-Mechanismus veranlassen, Stimme, Tonfall, Tempo und andere Parameter zu verändern, um den Informationsgehalt des HTML-Dokuments in angemessener Weise zu vermitteln. In dem hier dargestellten Beispiel werden die Befehle für einen mit Microsoft SAPI kompatiblen Text-zu-Sprache-Mechanismus gegeben. Bei der Berechnung der Speech-Markup-Informationen in Stufe 26 wird darüber hinaus festgelegt, welcher Text für den Anwender ausgegeben wird. Die Stufe 26, Speech-Markup-Informationen werden berechnet, wird in 3 ausführlich beschrieben. Abschließend werden weitere Meta-Informationen bereitgestellt, die die Segmentgrenzen bezeichnen, welche während der Wiedergabe verwendet werden sollen.The result of the step "Sectioning is calculated" 24 is the basis for a level "Speech markup information is calculated" 26 , In this final stage of the analysis, the intermediate document is created, which is interpretable for a text-to-speech mechanism. Basically, in this step, the meta-information is generated in the form of commands that cause the text-to-speech mechanism to alter voice, pitch, tempo, and other parameters to adequately convey the informational content of the HTML document. In the example shown here, the commands are given for a Microsoft SAPI compatible text-to-speech mechanism. When calculating the speech markup information in stage 26 In addition, it determines which text is output for the user. The stage 26 Speech markup information is calculated in 3 described in detail. Finally, further meta-information is provided which identifies the segment boundaries to be used during playback.

Eine Art von Meta-Befehl, die die Prozedur nach der vorliegenden Erfindung erzeugt, ist ein Befehl zum Umschalten von einer Stimme auf eine andere Stimme, in Abhängigkeit von dem gerade zu sprechenden Text. In dem hier beschriebenen Beispiel werden vier Stimmen für die Wiedergabe benutzt. Die Stimmen 1 und 2 sind für normale Textpassagen vorgesehen, und eine dieser beiden Stimmen ist immer die aktive Stimme. Die Variable V speichert die aktuell aktive Stimme. Die Stimme 3 wird für Abschnittsüberschriften und Titel benutzt, Stimme 4 für Hyperlink-Ankertexte. Die genauen Parameter der einzelnen Stimmen sind hier nicht von Belang, außerdem können verschiedene Anwender auch unterschiedliche Stimmen wählen.A Kind of meta-instruction, which is the procedure according to the present invention is a command to switch from one voice to another different voice, depending from the text to be spoken. In the example described here will be four votes for the playback is used. The voices 1 and 2 are for normal Text passages provided, and one of these two voices is always the active voice. The variable V stores the currently active voice. The voice 3 is for Section headings and title used, voice 4 for hyperlink anchor texts. The exact parameters of each voice are not here Concern, as well can different users also choose different voices.

Wie in 3 beschrieben besteht der Prozess der Erzeugung des Zwischendokuments daraus, die Syntax des ursprünglichen strukturierten Dokuments sowie die in den vorangegangenen Phasen ermittelten Segmentierungs- und Sektionierungsinformationen zu prüfen und eine entsprechende Ausgabe zu erzeugen. Normalerweise wird Text, bei dem es sich nicht um Tag-Text handelt, in dem Zwischendokument einfach nur wiederholt, während Tag-Informationen verworfen werden, jedoch wird in folgenden Fällen zusätzliche Ausgabe erzeugt: Am Beginn jedes Segments wird ein Marker geschrieben, der das neue Segment kennzeichnet und den Segmenttyp angibt. Am Anfang jedes Abschnitts, Unterabschnitts oder Abschnitts einer noch niedrigeren Gliederungsebene wird in das Zwischendokument ein Text „Section X" (Abschnitt X) eingetragen, wobei X für die Nummer des Abschnitts steht. Beispielsweise würde im zweiten Unterabschnitt des dritten Unterabschnitts des ersten Inhaltssegments (oberste Gliederungsebene) der Text „1.3.2" erscheinen. Zum Vorlesen dieser Abschnittsüberschrift wird auf die Stimme 3 umgeschaltet, danach wieder zurück auf die aktive Stimme, V. Um dies zu erreichen, werden in der Zwischendatei vor und hinter dem neuen Text Sprachbefehle eingefügt. Wird ein Titel- oder Überschriften-Tag in der HTML-Datei erkannt, erfolgt die Umschaltung auf Stimme 3, danach wird der Text innerhalb des Tags geschrieben und anschließend wird wieder auf die aktive Stimme zurückgeschaltet. Wenn in der HTML-Datei ein starker oder b-Tag (= bold, fett) erkannt wird oder wenn in einem Abschnitt, der überwiegend in der standardmäßigen Textfarbe gehalten ist, eine nicht-standardmäßige Textfarbe erscheint, wird im Ausgabedokument vor jedes Wort des Textes in diesem Tag ein/EMP-Tag gesetzt. Bei Erkennung eines HREF-Tags wird im Dokument ein Link-Marker gesetzt, auf die Stimme 4 umgeschaltet, der Text innerhalb des Tags geschrieben und anschließend wieder auf die aktive Stimme V zurückgeschaltet. Folgen drei p-Tags (p = Paragraph, Absatz) aufeinander, ohne dass die Stimme gewechselt wurde, wird auf Stimme 3 minus die Nummer der aktiven Stimme umgeschaltet. Auf diese Weise wird effektiv zwischen Stimme 1 und 2 umgeschaltet. Das V-Flag dient dazu, die Nummer der aktiven Stimme zu speichern, und wird ebenfalls auf einen Wert 3 minus Nummer der aktiven Stimme aktualisiert. Zweck dieser Umschaltung der aktiven Stimme ist, der Monotonie entgegen zu wirken, die entsteht, wenn über längere Zeit dieselbe synthetische Stimme zu hören ist.As in 3 the process of creating the intermediate document consists of examining the syntax of the original structured document as well as the segmentation and sectioning information obtained in the preceding phases and generating a corresponding output. Normally, text other than tag text is simply repeated in the intermediate document while tag information is discarded, but additional output is generated in the following cases: At the beginning of each segment, a marker is written that is the new one Segment and indicates the segment type. At the beginning of each section, subsection, or section of an even lower outline level, a text "Section X" (Section X) is entered in the intermediate document, where X represents the section number, for example, in the second subsection of the third subsection of the first content segment (top Structure level), the text "1.3.2" appears. To read this section heading, switch to voice 3, then back to the active voice, V. To achieve this, voice commands are inserted in the intermediate file in front of and behind the new text. If a title or heading tag is recognized in the HTML file, it will switch to voice 3, then the text will be written within the tag and then switched back to the active voice. If a strong or b (= bold) or "b" tag is recognized in the HTML file, or if a non-standard text color appears in a section that is predominantly in the default text color, the output document will appear before each word of the text set an / EMP tag this day. When an HREF tag is detected, the document enters Link marker set, switched to the voice 4, the text written within the day and then switched back to the active voice V back. If three p-tags (p = paragraph, paragraph) follow each other without changing the voice, the system switches to voice 3 minus the number of the active voice. This effectively switches between voice 1 and 2. The V flag is used to store the number of the active voice and is also updated to a value of 3 minus the number of the active voice. The purpose of this switching of the active voice is to counteract the monotony that arises when the same synthetic voice is heard for a long time.

Während des Aufbereitungsprozesses, der in 4 dargestellt ist, wird die Syntax des Zwischendokuments geprüft (sog. Parsing). Im Allgemeinen werden sämtliche Text- und Meta-Informationen direkt an den Text-zu-Sprache-Mechanismus weitergeleitet, der daraufhin eine Audio-Ausgabe erzeugt. Als Ausnahme hiervon kann jedes beliebige Segment übersprungen werden, je nach dem Browser-Modus des Anwenders. Auf den Browser-Modus wird an späterer Stelle noch ausführlicher eingegangen. Zusätzlich kann, wenn ein Link-Marker erkannt wird, ein Aufmerksamkeitston erzeugt werden, der den Anwender darauf hinweist, dass ein Hyperlink folgt.During the treatment process, the in 4 is shown, the syntax of the intermediate document is checked (so-called parsing). In general, all textual and meta-information is passed directly to the text-to-speech mechanism, which then generates an audio output. As an exception, any segment can be skipped, depending on the browser mode of the user. The browser mode will be discussed in more detail later. In addition, when a link marker is detected, an attention sound may be generated to alert the user that a hyperlink is following.

Im Folgenden wird ein nicht-visuelles Browsing-System beschrieben. Vorhandene WWW-Browser stützen sich zur Steuerung der Navigation durch das Web auf GUI-Elemente und visuelle Informationen. Um diese Elemente in der nicht-visuellen Umgebung zu ersetzen, verwendet das WIRE-System verschiedene Techniken, die nachstehend erläutert werden. 5 zeigt ein beispielhaftes Bedienfeld 50, auf das in der folgenden Erläuterung Bezug genommen wird. Das Bedienfeld 50 gemäß dieser Ausführungsform ist in Anlehnung an die Bedienelemente eines Autoradios gestaltet und zeigt, auf welche Weise sich die Schnittstelle des WIRE-Systems in ein derartiges System integrieren lässt. Die genaue Ausführung des Bedienfeldes ist jedoch nicht wesentlicher Bestandteil der vorliegenden Erfindung.The following describes a non-visual browsing system. Existing WWW browsers rely on GUI elements and visual information to control web navigation. To replace these elements in the non-visual environment, the WIRE system uses various techniques, which are discussed below. 5 shows an exemplary control panel 50 which will be referred to in the following explanation. The control panel 50 according to this embodiment is designed on the basis of the controls of a car radio and shows how the interface of the WIRE system can be integrated into such a system. However, the exact design of the control panel is not an integral part of the present invention.

Grundsätzlich besteht der Vorgang der Navigation in einer WIRE-Umgebung darin, die Audio-Ausgabe des Browsers anzuhören und dann die Taste „Follow" (Folgen) 51 zu betätigen, um dem zuletzt angesagten Hyperlink zu folgen. Hyperlinks werden für den Anwender auf zweifache Weise hörbar gekennzeichnet. Zum einen wird unmittelbar, bevor der Hyperlink-Anker abgespielt wird, ein Benachrichtigungs-Soundeffekt erzeugt. Und zum anderen wird der Hyperlink-Anker selbst mit einer anderen Stimme gesprochen als der Rest des Textes. Der jeweils zuletzt angesagte Hyperlink wird als der aktive Link bezeichnet. Die Lautstärke des Audio-Signals wird durch ein Lautstärkeregler-Element 52 wie in 5 gezeigt eingestellt.Basically, the process of navigating in a WIRE environment is to listen to the browser's audio output and then press the "Follow" button. 51 to press to follow the most recent hyperlink. Hyperlinks are audibly indicated to the user in two ways. First, a notification sound effect is generated immediately before the hyperlink anchor is played. And secondly, the hyperlink anchor itself is spoken with a different voice than the rest of the text. The most recent hyperlink is called the active link. The volume of the audio signal is controlled by a volume control element 52 as in 5 shown set.

Da das Abhören einer kompletten Webseite nicht immer praktisch ist, könnte das WIRE-System gemäß der vorliegenden Erfindung vier Browser-Modi bereitstellen. Jeder Modus bietet dem Anwender eine bestimmte Art der Wiedergabe einer Seite basierend auf den Informationen aus dem Zwischendokument. Im Normal-Modus werden alle Segmente vollständig abgespielt. Im Navigations-Modus werden nur Navigationssegmente wiedergegeben. Im Inhalt-Modus werden nur Inhaltssegmente abgespielt, jedoch auch die Navigationssegmente angesagt. Die Ansage der Navigationssegmente erfolgt in der Form „Navigationsabschnitt mit N Links", wobei N für die Anzahl der Hyperlinks in dem betreffenden Segment steht. Im Überschriften-Modus werden lediglich Überschriften angesagt. Überschriften können entweder aus Überschriften-Tags oder aus Schriftgrößen-Tags stammen wie vorstehend bereits beschrieben. In jedem der vorgenannten Modi beginnt die Wiedergabe mit der Ansage des Dokumententitels.There the interception a complete website is not always practical, that could WIRE system according to the present Invention to provide four browser modes. Each mode offers that Users based on a particular way of rendering a page on the information from the intermediate document. In normal mode all segments will be complete played. In navigation mode, only navigation segments become played. In content mode, only content segments are played, however also announced the navigation segments. The announcement of the navigation segments takes place in the form "Navigation section with N links ", where N for the number the hyperlinks in that segment. In headline mode only become headlines hip, trendy, popular. headlines can either from heading tags or from font size tags come as already described above. In each of the above Modes starts playback with the announcement of the document title.

Zum „Blättern" durch ein Dokument kann der Anwender die Tasten Vorwärts 53, Rückwärts 54 und Pause 55 verwenden. Diese Tasten haben je nach dem aktuellen Browser-Modus eine geringfügig andere Funktion. Im Normal-Modus und im Inhalt-Modus bewirkt die Taste „Vorwärts", dass die Wiedergabe bei der nächsten Zeile des Zwischendokuments fortgesetzt wird. Mit der Taste „Rückwärts" kehrt die Wiedergabe zu der vorherigen Zeile des Zwischendokuments zurück. Im Navigations-Modus springt die Wiedergabe bei Betätigen der Taste „Vorwärts" zum nächsten Hyperlink-Anker und bei Betätigen der Taste „Rückwärts" zum vorherigen Hyperlink-Anker. Im Überschriften-Modus wird bei Betätigen der Taste „Vorwärts" die nächste Überschrift angesagt, bei Drücken von „Rückwärts" die vorherige Überschrift.To "scroll" through a document, the user can use the keys forward 53 , Backwards 54 and break 55 use. These buttons have a slightly different function depending on the current browser mode. In Normal mode and Content mode, the Forward button causes playback to resume on the next line of the intermediate document, and the Reverse button returns to the previous line of the intermediate document. In Navigation mode, when the Forward button is pressed, playback skips to the next hyperlink anchor and, when the Back button is pressed, to the previous hyperlink anchor. In heading mode, pressing the "Forward" key will announce the next heading, and pressing "Reverse" will announce the previous heading.

Das WIRE-System führt ein Historien-Protokoll wie herkömmliche Browser auch. Der Anwender kann mithilfe des Protokoll-Bedienelements 58 in diesem Historien-Protokoll seitenweise vorwärts und rückwärts springen. Dieses Protokoll-Bedienelement kann in der Form einer Wählscheibe realisiert werden, um einen schnelleren Zugriff zu ermöglichen, in welchem Fall durch ein auditives Signal, beispielsweise ein Klicken, jeweils das Erreichen einer Seite signalisiert wird. Indem der Anwender die Anzahl der Klicks verfolgt, kann er seinen Fortschritt durch die Liste messen.The WIRE system maintains a history log like traditional browsers do. The user can use the protocol control 58 Jump forwards and backwards page by page in this history log. This protocol control can be realized in the form of a dial to allow faster access, in which case an audible signal, such as a click, signals the arrival of a page. By tracking the number of clicks, the user can measure his progress through the list.

Wie vorstehend beschrieben beginnt die Wiedergabe eines Dokuments mit der Ansage des Dokumententitels, so dass der Anwender sehr schnell weiß, wo er sich gerade befindet.As described above, the reproduction of a document begins with the announcement of the document title, allowing the user very quickly White, where he is right now.

Das WIRE-System ermöglicht den sofortigen Zugriff auf eine Anzahl vom Anwender ausgewählter WWW-Dokumente mit Hilfe der Favoriten-Taste(n) 56. Diese Tasten entsprechen den Lesezeichen (Bookmarks) eines herkömmlichen Hypertext-Browsers bzw. den vorbelegten Programmtasten eines Radiogeräts insoweit, als sie eine permanente Adresse symbolisieren, zu der das WIRE-System unmittelbar springt. Im vorliegenden Fall handelt es sich bei dieser Adresse um eine URL im WWW. Mithilfe der Favoriten-Taste kann auch die aktive Seite (die aktuell wiedergegebene oder die zuletzt wiedergegebene Seite) als Favorit gekennzeichnet werden. Die Frage, wie die Belegung der Favoriten-Taste im Offline-Modus modifiziert werden kann, wird an späterer Stelle noch erörtert.The WIRE system allows for immediate Access to a number of user-selected WWW documents using the Favorites key (s) 56 , These keys correspond to bookmarks (Bookmarks) of a conventional hypertext browser or the preset program buttons of a radio device in so far as they symbolize a permanent address to which the WIRE system jumps immediately. In the present case, this address is a URL in the WWW. You can also use the Favorites button to mark the active page (the currently playing or last played page) as a favorite. The question of how to change the assignment of the favorites key in offline mode will be discussed later.

Nachfolgend wird nun eine Schnittstelle zu visuellen Browsern beschrieben. Das WIRE-System ist nicht als primärer WWW-Browser für Anwender vorgesehen, sondern vielmehr als ein Browser für den Einsatz in Umgebungen, in denen eine visuelle Anzeige nicht verfügbar oder nicht praktisch ist. Dementsprechend kann der Anwender zu anderen Zeiten einen standardmäßigen, visuell orientierten Browser verwenden und gegebenenfalls wünschen, Informationen zwischen dem WIRE-kompatiblen Browser und dem visuellen Browser auszutauschen. Das WIRE-System unterstützt diese Art der Informationsübertragung in beide Richtungen.following Now an interface to visual browsers is described. The WIRE system is not considered primary WWW browser for User, but rather as a browser for use in environments where a visual ad is not available or not practical. Accordingly, the user can switch to others Times a standard, visual using an oriented browser and, if desired, Information between the WIRE-compatible Browser and the visual browser. The WIRE system supports this type of information transfer in both directions.

Im Folgenden wird die Festlegung von Favoriten im Offline-Modus beschrieben. Die Favoriten-Taste, wie sie vorstehend beschrieben wurde, kann mithilfe eines visuellen Browsers oder eines Web-Authoring-Tools offline zurückgesetzt werden. Bei einer Implementierung dieses Schemas werden die Favoriten als strukturiertes Dokument, beispielsweise als HTML-Dokument, auf einem Web-Server gespeichert. Das WIRE-Gerät kann dann dieses Dokument beim Start herunterladen und eventuelle Änderungen daran vornehmen, indem diese an den Web-Server gesendet werden. In ähnlicher Weise kann der Anwender auf das Dokument zugreifen und Änderungen vornehmen, indem er sich eines beliebigen anderen Browsing- oder Authoring-Systems bedient, wenn er nicht in einer WIRE-Umgebung arbeitet.in the The following describes how to set favorites in offline mode. The favorites key as described above can using a visual browser or a web authoring tool reset offline become. In an implementation of this schema, the favorites will be as a structured document, for example as an HTML document saved to a web server. The WIRE device can then receive this document download at startup and make any changes to it, by sending them to the web server. In similar Way, the user can access the document and make changes make any other browsing or browsing Serves authoring system when not in a WIRE environment is working.

Nachstehend wird das Markieren von Dokumenten, das sog. Flagging, beschrieben. Das WIRE-System enthält ein zusätzliches Bedienelement „Flag Page" (Seite markieren) 57 zum Markieren von Dokumenten. Durch das Markieren wird ein Dokument gekennzeichnet, das auch außerhalb der WIRE-Umgebung von Interesse ist, so dass es auch in anderen Browsern als WIRE hervorgehoben ist. Auf diese Weise kann ein Anwender, wenn er einen anderen Browser benutzt, (ähnlich wie bei Lesezeichen) schnell auf eine so markierte Seite zugreifen. Dieses Schema kann durch die Verwendung eines strukturierten Dokuments realisiert werden, in dem die URL-Adressen jeder markierten Seite als ein Satz von Hyperlinks gespeichert sind und welches dann auf einem Web-Server gespeichert wird. Der WIRE-kompatible Browser aktualisiert dieses Dokument automatisch, indem er der URL einer markierten Seite entweder per HTTP oder per FTP einen Hyperlink hinzufügt. Ein beliebiger anderer WWW-Browser kann auf diese Seite zugreifen (bzw. auch ein Lesezeichen darauf setzen) und so einen Satz Hyperlinks zu den markierten Seiten übernehmen, um seinerseits schnellen Zugriff auf die markierten Seiten selbst zu erhalten.Hereinafter, the marking of documents, the so-called flagging, will be described. The WIRE system includes an additional flag page control. 57 for marking documents. Marking marks a document that is also of interest outside the WIRE environment, so that it is also highlighted in browsers other than WIRE. In this way, if a user uses a different browser (similar to bookmarks), he can quickly access such a marked page. This scheme can be realized through the use of a structured document in which the URLs of each tagged page are stored as a set of hyperlinks and which is then stored on a web server. The WIRE-compatible browser automatically updates this document by adding a hyperlink to the URL of a selected page, either via HTTP or FTP. Any other WWW browser can access (or bookmark) this page and thus transfer a set of hyperlinks to the selected pages in order to gain quick access to the selected pages themselves.

Beschrieben wird nun eine Technik zum Suchen im Web ohne Tastatur. Üblicherweise umfasst der Vorgang des Browsings im WWW die Nutzung von Suchmaschinen, um Dokumente zu einem bestimmten Thema zu finden. In den meisten herkömmlichen WWW-Umgebungen sind diese Suchmaschinen stichwort-basiert, das heißt, Anfragen werden in der Weise gestellt, dass der Anwender mittels eines Texteingabegeräts die Suchbegriffe eingibt. Das WIRE-System bietet zwei Alternativen zu einem solchen System, die in einer Umgebung, in der kein Monitor und/oder keine Tastatur vorhanden ist, praktischer sind.described Now a technique for searching the web without keyboard. Usually the process of browsing the WWW includes the use of search engines, to find documents on a specific topic. In most usual WWW environments are These search engines are keyword-based, that is, queries are in the Manner that the user using a text input device, the search terms enters. The WIRE system offers two alternatives to such System operating in an environment where no monitor and / or no Keyboard is present, are more practical.

Im WIRE-System hat der Anwender die Möglichkeit, für die Suche nach Dokumenten im WWW ein Verfahren der progressiven Verfeinerung einzusetzen. Bei diesem System werden dem Anwender eine Anzahl übergeordneter Kategorien zur Auswahl gestellt, beispielsweise: Wirtschaft und Handel, Wissenschaft, Literatur und Kunst etc. Der Anwender wählt mithilfe der weiter oben beschriebenen Taste „Follow" eine dieser Kategorien aus und kann dann mit den Tasten „Vorwärts" und „Rückwärts" wie vorstehend ebenfalls erläutert durch die Liste blättern. Nach Auswahl einer Kategorie erhält der Anwender eine Liste spezifischerer Kategorien, aus denen er wählen kann, und danach eine weitere Liste von noch einmal verfeinerten Kategorien. Dieser Vorgang setzt sich so lange fort, bis schließlich einige (oder alle) Listenelemente ausreichend verfeinert sind, um spezifische Dokumente anstatt Kategorien darzustellen. Wenn der Anwender eines dieser Elemente auswählt, lädt das WIRE-System das zugehörige Dokument und gibt es wieder. Danach wird der Browsing-Vorgang ganz normal fortgesetzt.in the WIRE system gives the user the opportunity to search according to documents in the WWW a method of progressive refinement use. In this system, the user becomes a number higher Categories to choose from, for example: Economics and Commerce, science, literature and art etc. The user chooses using The "Follow" button described above is and can be one of these categories then with the "Forward" and "Backward" keys as above explained scroll through the list. To Selection of a category receives the user a list of more specific categories from which to choose and then another list of more refined categories. This process continues until finally some (or all) list items are sufficiently refined to be specific To present documents instead of categories. If the user of a selects these elements, loads that WIRE system the associated Document and give it back. After that, the browsing process will be complete normal continued.

Weitere Funktionen dieses Systems umfassen: Ein Bedienelement zum Zurückspringen zu der vorherigen Liste, automatisches Zurückkehren zum Anfang bei Erreichen des Listenendes, sowie ein Bedienelement, das eine Liste der Kategorien erstellt, aus der dann die aktuelle Kategorie abgeleitet werden kann. Ferner steht ein Bedienelement zur Verfügung, um zu der obersten Kategorienliste zu springen.Further Functions of this system include: A pop-up control to the previous list, automatic return to the beginning on reaching the list end, as well as a control that displays a list of categories from which the current category is derived can. Furthermore, a control is available to go to the top category list to jump.

Dieses System arbeitet ähnlich wie das visuelle System der progressiven Verfeinerung, das die Suchmaschine des Anbieters Yahoo! verwendet.This System works similarly like the visual system of progressive refinement that the search engine of the provider Yahoo! used.

Im Folgenden wird das „rooted DAG"-Browsing-Verfahren ohne visuelle Rückmeldungen erläutert. Die Hierarchie der Kategorien in der Technik der progressiven Verfeinerung wie vorstehend beschrieben kann als ein Rooted Directed Acyclic Graph (RDAG) dargestellt werden (d.h. als von einer Wurzel ausgehender gerichteter azyklischer Graph). Somit kann das Browsing-Schema allgemein als ein Verfahren zum Durchsuchen von RDAGs in einer nicht-visuellen Umgebung beschrieben werden. Das WIRE-Schema gemäß der vorliegenden Erfindung beinhaltet folgende Funktionen und Leistungsmerkmale für das RDAG-Browsing:

  • 1. Automatisches zyklisches Durchblättern von Knoten derselben Hierarchieebene, bis eine Operation ausgewählt wird.
  • 2. Eine Operation, mit deren Hilfe der Anwender zu dem übergeordneten Knoten, von dem aus er die Suche begonnen hat, und der Liste der gleichgeordneten Knoten zurückkehren kann.
  • 3. Eine Operation, mit deren Hilfe der Anwender zu dem übergeordneten Knoten, von dem aus er die Suche begonnen hat, und der Liste aller dem gerade verlassenen Knoten übergeordneten Knoten zurückkehren kann.
  • 4. Eine Operation, mit deren Hilfe der Anwender zu der Liste der einem Knoten untergeordneten Knoten gelangt.
  • 5. Eine Operation, mit deren Hilfe der Anwender direkt zum Root-Verzeichnis gelangt.
The following is an explanation of the "rooted DAG" browsing method without visual feedback: The hierarchy of categories in the progressive refinement technique as described above may be represented as a Rooted Directed Acyclic Graph (RDAG) (ie, radix-directed Thus, the browsing scheme may be generally described as a method for searching RDAGs in a non-visual environment The WIRE scheme of the present invention includes the following functions and features for RDAG browsing:
  • 1. Automatic cyclic browsing of nodes of the same hierarchical level until an operation is selected.
  • 2. An operation that allows the user to return to the parent node from which they started the search and the list of siblings.
  • 3. An operation that allows the user to return to the parent node from which it started the search, and the list of all the parent nodes of the node just left.
  • 4. An operation that allows the user to access the list of nodes subordinate to a node.
  • 5. An operation that allows the user to go directly to the root directory.

Die vorliegende Erfindung hat den Vorteil, dass der Anwender stets in irgendeiner Form über Informationen darüber verfügt, wo er sich gerade befindet, da er jederzeit die übrigen Knoten in der Liste abhören kann. Weiter bietet sie gegenüber rein auf einer Baumstruktur basierenden Systemen den Vorteil, dass für denselben Knoten mehrere übergeordnete Knoten vorhanden sein können. Auf diese Weise können erheblich ausgefeiltere Darstellungshierarchien realisiert werden, als in einem einfachen Baum möglich sind. Mithin bietet Operation 3 eine leistungsfähige Browsing-Option, wie sie in Baumbasierten Systemen nicht zur Verfügung steht.The present invention has the advantage that the user always in some form over Information about it features, where he is right now, because he always has the remaining nodes in the list monitor can. Next she offers opposite purely tree-based systems have the advantage that for the same Node multiple parent nodes can be present. That way you can significantly more sophisticated presentation hierarchies are realized, as possible in a simple tree are. Thus, Operation 3 offers a powerful browsing option, like them is not available in tree-based systems.

Zu beachten ist, dass, wenn Operation 2 in bestimmten Kombinationen nach Operation 3 ausgeführt wird, das Ergebnis dieser Operation oben nicht formal beschrieben wird. In diesem Fall sollte Operation 2 wie Operation 3 behandelt werden.To Note that when Operation 2 in certain combinations executed after operation 3 The result of this operation is not formally described above becomes. In this case, Operation 2 should be treated like Operation 3 become.

Nachstehend wird die Eingabe eines Suchbegriffs mittels Spracherkennung beschrieben. WIRE bietet einen alternativen Suchmechanismus zu dem vorstehend beschriebenen System. Falls eine gute Sprache-zu-Text-Software (d.h. eine Spracherkennungs-Software) zur Verfügung steht, kann der Anwender auch die herkömmliche Stichwortsuche nutzen, indem er den gesuchten Begriff spricht. Ob der Begriff als solcher ausgesprochen werden kann oder Buchstabe für Buchstabe angesagt werden muss, hängt von der Qualität des Sprache-zu-Text-Mechanismus ab.below the input of a search term is described by means of speech recognition. WIRE provides an alternative search mechanism to that above described system. If good speech-to-text software (i.e. a speech recognition software), the user can also the conventional one Use keyword search by speaking the term you are looking for. If the term can be pronounced as such or letter for letter has to be announced, depends from the quality the language-to-text mechanism from.

Das WIRE-System gemäß der vorliegenden Erfindung umfasst noch diverse weitere Funktionen und Leistungsmerkmale, beispielsweise E-Mail-Unterstützung. Neben der Funktion als WWW-Browser kann das WIRE-System auch als System zum Vorlesen von E-Mails im Internet eingesetzt werden. Das System ist in der Lage, dem Anwender mittels Text-zu-Sprache-Umsetzung E-Mail-Nachrichten vorzulesen. Die Wiedergabe jeder Nachricht beginnt dabei mit der Absender- und der Betreff-Zeile aus dem Kopf der E-Mail-Nachricht, wofür eine andere Stimme verwendet wird. Zum Durchblättern der Nachrichten-Warteschlange kann der Anwender das weiter vorn bereits beschriebene Protokoll-Bedienelement benutzen.The WIRE system according to the present invention includes several other features and features, such as E-mail support. In addition to being a WWW browser, the WIRE system can also be called System used to read e-mails on the Internet. The system is able to provide the user with text-to-speech conversion To read e-mail messages. The playback of each message starts with the sender and the subject line from the head of the e-mail message, what a different vote is used. To flip through The message queue allows the user to continue that way already described protocol control to use.

WWW-URLs, die in E-Mail-Nachrichten enthalten sind, werden erkannt und als Hyperlinks wiedergegeben. Um ihnen zu folgen, kann die vorstehend bereits erwähnte Taste „Follow" benutzt werden. Wird eine solche Aktion ausgeführt, werden automatisch die WWW-Browser-Funktionen des WIRE-Systems aktiviert, die dann an Stelle der E-Mail-Lesefunktionen treten.WWW URLs that are contained in e-mail messages are recognized and called Rendered hyperlinks. To follow them can be the above already mentioned Button "Follow" can be used. If such an action is executed, will automatically activate the WWW browser functions of the WIRE system, which then take the place of the e-mail reading functions.

Nachstehend wird die Unterstützung von Audio-Dateien und Streaming erläutert. Das WIRE-System kann digitale Audio-Daten wiedergeben, die in Form von WWW-Dateien gespeichert sind. Wenn eine URL für eine Audio-Datei steht, sei es als strukturierte Daten (beispielsweise MIDI) oder als unstrukturierte Daten (beispielsweise WAV), wird die Datei in der gewöhnlichen Weise wiedergegeben. Während der Wiedergabe haben die Tasten Vorwärts, Rückwärts und Pause ihre ganz normale Funktion.below will the support of audio files and streaming explained. The WIRE system can play back digital audio data stored in the form of WWW files are. If a URL for an audio file is available, be it as structured data (for example MIDI) or as unstructured data (eg WAV) the file in the ordinary Played way. During the Playback has the buttons Forward, Backwards and Pause their normal function.

Darüber hinaus unterstützt das WIRE-System auch das Streaming von Audio-Daten mithilfe gängiger Streaming-Protokolle, beispielsweise RealAudio.Furthermore supports The WIRE system also streaming audio data using popular streaming protocols, such as RealAudio.

Im Folgenden wird die Wiedergabe von Radio- oder Werbeprogrammen während des Herunterladens von Dokumenten beschrieben. Während der Zeit, die das Herunterladen eines neuen Dokuments aus dem WWW in Anspruch nimmt, kann das WIRE-System die Wiedergabe umschalten auf ein kommerzielles Live-Radioprogramm. Welcher Sender dabei letztendlich gespielt wird, kann in einigen Fällen vom Anwender frei gewählt oder, in anderen Fällen, vom ISP vorab eingestellt werden.in the The following is the playback of radio or advertising programs during the Downloading documents. During the time the downloading a new document from the WWW, the WIRE system can playback switch to a commercial live radio program. Which transmitter ultimately played, may in some cases be freely chosen by the user or, in other cases, be pre-set by the ISP.

Eine Möglichkeit, dieses Leistungsmerkmal zu nutzen, ist die Kombination mit einem reinen Werbesender. Durch die weite Verbreitung unter WIRE-Anwendern könnten sich die Werbungtreibenden veranlasst sehen, die WIRE-Anschlussgebühren zu ersetzen, wodurch ein noch breiteres Publikum das WIRE-System nutzen könnte.A Possibility, to use this feature is the combination with a pure advertising channel. Due to the wide distribution among WIRE users could Advertisers are forced to replace the WIRE connection fees, which would allow an even wider audience to use the WIRE system.

Alternativ könnte das WIRE-System während der Download-Zeiten im Voraus aufgezeichnete Werbespots wiedergeben, die von Zeit zu Zeit durch den Anbieter des WIRE-Dienstes aktualisiert werden. Da der WIRE-Anbieter auf Profilinformationen zu den Webseiten, die der Anwender besucht hat, zugreifen kann, könnten diese Werbespots gezielt auf den einzelnen Anwender abgestimmt werden. Bei den Anwendern könnte diese Strategie auf Zustimmung treffen, wenn dadurch die Kosten des WIRE-Dienstes deutlich gesenkt würden.alternative could the WIRE system during the download times play pre-recorded commercials from time to time Time to be updated by the provider of the WIRE service. There the WIRE provider on profile information about the websites that If the user has visited, these commercials could be targeted be tuned to the individual user. At the users could to agree with this strategy, if by doing so the costs significantly reduced by the WIRE service.

Bei dem WIRE-System gemäß der vorliegenden Erfindung handelt es sich um eine Sammlung verschiedener Technologien, die den Zugang zum WWW ermöglichen, wenn keine visuelle Anzeige zur Verfügung steht. Obwohl das WIRE-System nicht als primärer WWW-Browser des Anwenders vorgesehen ist, kann die WIRE-Technologie für Anwender, deren Zeit kostbar ist und für die ein WWW-Zugang aus einem Fahrzeug heraus oder über ein tragbares Gerät oder in sonstigen nicht standardmäßigen Konstellationen von Nutzen ist, wertvoll sein. Ferner bietet WIRE Anwendern mit eingeschränktem Sehvermögen eine Möglichkeit des Zugangs zum WWW.at the WIRE system according to the present Invention is a collection of different technologies, which allow access to the WWW, if no visual display is available. Although the WIRE system not as primary WWW browser provided by the user, the WIRE technology for users, whose time is precious and for the one WWW access out of a vehicle or over portable device or in other non-standard constellations is useful, valuable. Furthermore, WIRE offers users limited eyesight a possibility access to the WWW.

Das WIRE-System fasst verschiedene vorhandene Technologien, darunter Text-zu-Sprache und Internet-Protokolle, zusammen und erweitert diese durch neue Technologien und Verfahren, nämlich: ein Audio-Aufbereitungsschema für strukturierte Dokumente, ein nicht-visuelles WWW-Browsing-Schema, ein nicht-stichwortbasiertes WWW-Suchschema und eine Schnittstelle zu herkömmlichen Browsern. Diese Kombination aus neuen und alten Technologien ergibt ein Tool, das die Effizienz von Pendlern, Reisenden und Sporttreibenden überall steigern wird, und macht vielleicht erstmals das World Wide Web auch für Anwender mit eingeschränktem Sehvermögen nutzbar.The WIRE system summarizes various existing technologies, including Text-to-speech and internet protocols, together and expanding them with new technologies and procedures, namely: one Audio rendering scheme for structured Documents, a non-visual WWW Browsing Schema, a non-keyword WWW search schema and an interface to conventional Browsers. This combination of new and old technologies yields a tool that will increase the efficiency of commuters, travelers and sports enthusiasts everywhere, and maybe for the first time makes the World Wide Web for users with restricted eyesight available.

Durch Verwendung eines WIRE-kompatiblen Geräts könnte ein Anwender etwa vom Auto oder von einem tragbaren System aus eine Verbindung zum WWW herstellen. Anschließend wäre der Anwender in der Lage, Seiten zu besuchen, Suchaktionen durchzuführen und Informationen aus dem Web ansagen zu lassen. Ferner könnten besonders interessante Seiten mit einem „Flag" markiert werden, so dass sie später über einen anderen, visuellen Browser wieder aufgesucht werden können, bzw. könnten Seiten, auf die der Anwender mittels eines visuellen Browsers stößt, entsprechend markiert und später über das WIRE-kompatible Gerät wiedergegeben werden. Mit diesem System wird der Anwender von der für herkömmliche Browser erforderlichen visuellen Aufmerksamkeit entbunden und kann ansonsten unproduktive Zeit besser für die Informationsbeschaffung im WWW nutzen.By Using a WIRE-compatible device could save a user about Car or from a portable system connect to the WWW produce. Subsequently would be the Users able to visit pages, perform searches and To announce information from the web. Further, especially interesting pages are marked with a "flag", so they later have one other, visual browsers can be visited again, or could pages, which the user encounters via a visual browser, accordingly marked and later on that WIRE-compatible device be reproduced. With this system, the user of the for conventional Browser can give birth and necessary visual attention otherwise unproductive time better for information gathering use in the WWW.

Die Bedienoberfläche wurde in dem vorliegenden Dokument unter Bezugnahme auf das Beispiel-Bedienfeld 50 beschrieben, das in 5 dargestellt ist. Es wäre jedoch auch möglich, Browsing-Funktionen wie etwa „Follow" oder „Vorwärts" mittels einer geeigneten Software für Spracherkennung und Sprachbefehle bereitzustellen, so dass gesprochene Befehle von dem System gemäß der vorliegenden Erfindung interpretiert und ausgeführt werden könnten. Diese Ausführungsform der Erfindung ist insbesondere dort wertvoll, wo die physische Bedienung von Tasten auf dem Beispiel-Bedienfeld 50 Schwierigkeiten bereitet.The user interface has been described in the present document with reference to the example control panel 50 described in 5 is shown. However, it would also be possible to provide browsing functions such as "follow" or "forward" by means of suitable voice recognition and voice command software so that spoken commands could be interpreted and executed by the system according to the present invention. This embodiment of the invention is particularly valuable where the physical operation of buttons on the example control panel 50 Difficulties.

Claims (10)

System (10) für die interaktive Kommunikation zwischen einem Anwender und einer Informationsquelle, wobei das System (10) eine Einrichtung (11) umfasst, mit der strukturierte Dokumente, die von der Informationsquelle bezogen wurden, mithilfe der Audio-Technologie wiedergegeben werden können, und ein Suchsystem (50), welches vom Anwender gesteuert werden kann, wobei die besagte Einrichtung (11) für die Wiedergabe von strukturierten Dokumenten mithilfe der Audio-Technologie folgendes umfasst: Vorab-Aufbereitungssystem (15), durch das ein strukturiertes Dokument in ein Zwischendokument umgewandelt wird; und Audio-Aufbereitungssystem (16), das eine Audio-Ausgabe auf der Grundlage des Zwischendokuments erzeugt, wobei besagtes Vorab-Aufbereitungssystem (15) folgendes umfasst: System (21) zum Segmentieren von Dokumenten, welches besagte strukturierte Dokumente in logische Segmente untergliedert; System (22) zum Einordnen von Dokumenten in Kategorien, welches besagte logische Segmente entweder als Navigationssegmente oder als Inhaltssegmente kategorisiert; System (24) zur Sektionierung von Dokumenten, welches die Gliederung des besagten strukturierten Dokuments in Abschnitte ermittelt; und System (26) zur Berechnung der Textmarkierungen für die Sprachgenerierung (Speech-Markup-Informationen), mit dessen Hilfe besagtes Zwischendokument erzeugt wird, welches durch eine Text-zu-Sprache-Konvertierungseinrichtung interpretiert werden kann, dadurch gekennzeichnet, dass das System (22) zum Einordnen von Dokumenten in Kategorien folgendes umfasst: Berechnungseinrichtung zur Berechnung einer Link-Dichte in jedem der besagten logischen Segmente entsprechend der Formel:
Figure 00220001
wobei D für besagte Link-Dichte steht, CHREF für die Anzahl Zeichen in jedem der besagten Segmente steht, die keine Tags sind, aber innerhalb von HREF-Tags erscheinen, C für die Gesamtzahl von Zeichen in jedem der besagten Segmente steht, die keine Tags sind, LI für die Anzahl von Hyperlinks in den Bildkarten in jedem der besagten Segmente steht und der Wert K die Gewichtung der Links in den Bildkarten repräsentiert.
System ( 10 ) for interactive communication between a user and an information source, wherein the system ( 10 ) An institution ( 11 ) using which structured documents obtained from the information source can be reproduced using audio technology, and a search system ( 50 ) which can be controlled by the user, said device ( 11 ) for the reproduction of structured documents by means of audio technology, comprises: pre-processing system ( 15 ), which transforms a structured document into an intermediate document; and audio editing system ( 16 ) which produces an audio output based on the intermediate document, said pre-editing system ( 15 ) comprises: system ( 21 ) for segmenting documents which subdivide said structured documents into logical segments; System ( 22 ) for categorizing documents categorizing said logical segments as either navigation segments or content segments; System ( 24 ) for sectioning documents, which determines the structure of said structured document into sections; and system ( 26 ) for calculating the speech generation text markers (speech markup information) used to generate said intermediate document which can be interpreted by a text-to-speech conversion means, characterized in that the system ( 22 ) for classifying documents into categories comprises: Calculating means for calculating a link density in each of said logical segments according to the formula:
Figure 00220001
where D stands for said link density, C HREF stands for the number of characters in each of said segments that are not tags but appear within HREF tags, C stands for the total number of characters in each of said segments that does not Tags are L I representing the number of hyperlinks in the image maps in each of said segments and the value K representing the weighting of the links in the image maps.
System (10) gemäß Anspruch 1, in dem das Vorab-Aufbereitungssystem (15) und das Audio-Aufbereitungssystem (16) parallel zueinander arbeiten.System ( 10 ) according to claim 1, wherein the pre-treatment system ( 15 ) and the audio editing system ( 16 ) work in parallel. System (10) gemäß Anspruch 1, in dem das besagte System (24) zur Sektionierung von Dokumenten folgendes umfasst: Einrichtung zur hierarchischen Sektionierung, in der die Abschnitte in hierarchischer Form definiert werden, wobei Überschriften-Tags als Grenzen dienen und die oberste Abschnittsebene die Spitze der Hierarchie bildet und die besagten Überschriften-Tags die Unterabschnitte, Unter-Unterabschnitte und so viele weitere Gliederungsebenen bezeichnen, wie entsprechend der Anzahl der in dem besagten strukturierten Dokument enthaltenen Rang-Werte notwendig sind.System ( 10 ) according to claim 1, wherein said system ( 24 ) for sectioning documents comprises: hierarchical sectioning means in which the sections are defined in a hierarchical form, where header tags serve as boundaries and the top level section forms the top of the hierarchy and said heading tags comprise the subsections, subsection Indicate subsections and so many other outline levels as are necessary according to the number of rank values contained in said structured document. System (10) gemäß einem der vorstehenden Ansprüche 1 oder 3, in dem: besagtes System (26) zur Berechnung der Textmarkierungen für die Sprachgenerierung (Speech-Markup-Informationen) ferner festlegt, welche Texte für die besagten Anwender wiedergegeben werden sollen.System ( 10 ) according to one of the preceding claims 1 or 3, in which: said system ( 26 ) for the calculation of the speech generation text markers (speech markup information) also defines which texts should be reproduced for said users. System (10) gemäß einem der vorstehenden Ansprüche 1, 3 oder 4, wobei besagtes System (26) zur Berechnung der Textmarkierungen für die Sprachgenerierung (Speech-Markup-Informationen) folgendes umfasst: Einrichtung zur Erzeugung von Meta-Informationen, mit deren Hilfe Meta-Informationen in Form von Befehlen erzeugt werden, welche den besagten Text-zu-Sprache-Mechanismus veranlassen, Stimme, Tonfall, Tempo und andere Parameter zu verändern, um den Informationsgehalt des besagten strukturierten Dokuments in angemessener Weise zu vermitteln.System ( 10 ) according to one of the preceding claims 1, 3 or 4, wherein said system ( 26 ) for calculating speech markup information (speech markup information) comprises: means for generating meta-information which generates meta-information in the form of commands which cause said text-to-speech mechanism To change voice, pitch, tempo and other parameters to adequately convey the informational content of said structured document. System (10) gemäß jedem der vorstehenden Ansprüche, ferner umfassend mindestens ein System zur Unterstützung des E-Mail-Dienstes; ein System zur Unterstützung von Audio-Dateien und Streaming; ein System für nicht-visuelles Browsing und eine Schnittstelle zu visuellen Browser-Umgebungen; ein System zur Bereitstellung von Radio- und/oder Werbeprogrammen während des Herunterladens von Dokumenten.System ( 10 ) according to any one of the preceding claims, further comprising at least one system for supporting the e-mail service; a system for supporting audio files and streaming; a system for non-visual browsing and an interface to visual browser environments; a system for providing radio and / or advertising programs while downloading documents. Verfahren zur Bereitstellung der interaktiven Kommunikation zwischen einem Anwender und einer Informationsquelle, dadurch gekennzeichnet, dass es folgende Schritte umfasst: Beziehen eines strukturierten Dokuments von der Informationsquelle als Reaktion auf eine Anforderung, die ein Anwender vermittels eines Suchsystems gestellt hat, und Wiedergeben dieses strukturierten Dokuments mithilfe der Audio-Technologie, indem ein Vorab-Aufbereitungsprozess durchgeführt wird, in dessen Rahmen ein strukturiertes Dokument in ein Zwischendokument umgewandelt wird; und Durchführen eines Audio-Aufbereitungsprozesses, in dem eine Audio-Ausgabe erzeugt wird, wobei die Durchführung eines Vorab-Aufbereitungsprozesses folgende Schritte umfasst: Untergliedern des besagten strukturierten Dokuments in logische Segmente; Einordnen der besagten logischen Segmente in Kategorien, entweder als Navigationssegmente oder als Inhaltssegmente; Ermitteln der Gliederung des besagten strukturierten Dokuments in Abschnitte; und Erzeugen des besagten Zwischendokuments, welches von einem Text-zu-Sprache-Mechanismus interpretiert werden kann, dadurch gekennzeichnet, dass der Schritt zur Einordnung der besagten logischen Segmente in Kategorien die Berechnung eines Link-Dichte-Wertes für jedes der besagten logischen Segmente nach folgender Formel umfasst:
Figure 00240001
wobei D für besagte Link-Dichte steht, CHREF für die Anzahl Zeichen in jedem der besagten Segmente steht, die keine Tags sind, aber innerhalb von HREF-Tags erscheinen, C für die Gesamtzahl von Zeichen in jedem der besagten Segmente steht, die keine Tags sind, LI für die Anzahl von Hyperlinks in den Bildkarten in jedem der besagten logischen Segmente steht und der Wert K die Gewichtung der Links in den Bildkarten repräsentiert.
A method for providing interactive communication between a user and an information source, characterized by comprising the steps of: obtaining a structured document from the information source in response to a request made by a user through a search system and rendering that structured document using the audio technology, by performing a pre-editing process in which a structured document is converted into an intermediate document; and performing an audio rendering process in which an audio output is generated, wherein performing a pre-rendering process comprises the steps of: dividing said structured document into logical segments; Classifying said logical segments into categories, either as navigation segments or as content segments; Determining the outline of said structured document into sections; and generating said intermediate document which may be interpreted by a text-to-speech mechanism, characterized in that the step of classifying said logical segments into categories comprises calculating a link density value for each of said logical segments according to the following Formula includes:
Figure 00240001
where D stands for said link density, C HREF stands for the number of characters in each of said segments that are not tags but appear within HREF tags, C stands for the total number of characters in each of said segments that does not Tags are L I for the number of hyperlinks in the image maps in each of said logical segments and the value K represents the weighting of the links in the image maps.
Verfahren gemäß Anspruch 7, wobei der Schritt zur Ermittlung der Gliederung in Abschnitte beinhaltet, dass Abschnitte in hierarchischer Form definiert werden, wobei Überschriften-Tags als Grenzen dienen und die oberste Abschnittsebene die Spitze der Hierarchie bildet und die besagten Überschriften-Tags die Unterabschnitte, Unter-Unterabschnitte und so viele weitere Gliederungsebenen bezeichnen, wie entsprechend der Anzahl der in dem besagten strukturierten Dokument enthaltenen Rang-Werte notwendig sind.The method of claim 7, wherein the step of determining division into sections includes defining sections in a hierarchical form, wherein header tags serve as boundaries and the top level section forms the top of the hierarchy and said header tags form subsections, sub-sections Subsections and so many other outline levels, as corresponding to the number in the said Structured document contained rank values are necessary. Verfahren gemäß Anspruch 7 oder Anspruch 8, wobei der Schritt des Erzeugens des besagten Zwischendokuments beinhaltet, dass Meta-Informationen in Form von Befehlen erzeugt werden, welche einen Text-zu-Sprache-Mechanismus veranlassen, Stimme, Tonfall, Tempo und andere Parameter zu verändern, um den Informationsgehalt des besagten strukturierten Dokuments in angemessener Weise zu vermitteln.Method according to claim 7 or claim 8, wherein the step of generating said intermediate document involves generating meta-information in the form of commands which cause a text-to-speech mechanism, voice, Tone of voice, tempo and other parameters to change the information content of the said structured document. Verfahren nach einem der Ansprüche 7, 8 oder 9, welches ferner die Bereitstellung einer Schnittstelle für den Austausch von Informationen mit Anwendern beinhaltet, umfassend die Schritte des Bereitstellens eines nicht-visuellen Browser-Systems; und Bereitstellen einer Schnittstelle zu Anwendern visueller Browser-Umgebungen.The method of any of claims 7, 8 or 9, which further the provision of an interface for the exchange of information with users, comprising the steps of providing a non-visual Browser system; and providing an interface to users visual browser environments.
DE69735526T 1996-12-13 1997-12-12 System for interactive communication Expired - Fee Related DE69735526T2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/768,046 US6018710A (en) 1996-12-13 1996-12-13 Web-based interactive radio environment: WIRE
US768046 1996-12-13

Publications (2)

Publication Number Publication Date
DE69735526D1 DE69735526D1 (en) 2006-05-11
DE69735526T2 true DE69735526T2 (en) 2006-08-24

Family

ID=25081360

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69735526T Expired - Fee Related DE69735526T2 (en) 1996-12-13 1997-12-12 System for interactive communication

Country Status (3)

Country Link
US (1) US6018710A (en)
EP (1) EP0848373B1 (en)
DE (1) DE69735526T2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8995316B2 (en) 1997-10-15 2015-03-31 Nokia Corporation Mobile telephone for internet applications

Families Citing this family (173)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7397363B2 (en) * 1993-06-08 2008-07-08 Raymond Anthony Joao Control and/or monitoring apparatus and method
US20030212996A1 (en) * 1996-02-08 2003-11-13 Wolzien Thomas R. System for interconnection of audio program data transmitted by radio to remote vehicle or individual with GPS location
US7253731B2 (en) 2001-01-23 2007-08-07 Raymond Anthony Joao Apparatus and method for providing shipment information
US7277010B2 (en) * 1996-03-27 2007-10-02 Raymond Anthony Joao Monitoring apparatus and method
US10152876B2 (en) 1996-03-27 2018-12-11 Gtj Ventures, Llc Control, monitoring, and/or security apparatus and method
US10011247B2 (en) * 1996-03-27 2018-07-03 Gtj Ventures, Llc Control, monitoring and/or security apparatus and method
US5970124A (en) * 1996-06-05 1999-10-19 Voice Fx Corporation Sponsored information distribution method and apparatus
US6775264B1 (en) 1997-03-03 2004-08-10 Webley Systems, Inc. Computer, internet and telecommunications based network
JPH10304068A (en) * 1997-04-30 1998-11-13 Nec Corp Voice information exchange system
JP3287281B2 (en) * 1997-07-31 2002-06-04 トヨタ自動車株式会社 Message processing device
US6404872B1 (en) * 1997-09-25 2002-06-11 At&T Corp. Method and apparatus for altering a speech signal during a telephone call
US6366651B1 (en) * 1998-01-21 2002-04-02 Avaya Technology Corp. Communication device having capability to convert between voice and text message
US9075136B1 (en) 1998-03-04 2015-07-07 Gtj Ventures, Llc Vehicle operator and/or occupant information apparatus and method
JPH11327870A (en) 1998-05-15 1999-11-30 Fujitsu Ltd Device for reading-aloud document, reading-aloud control method and recording medium
US6665836B1 (en) * 1998-06-17 2003-12-16 Siemens Corporate Research, Inc. Method for managing information on an information net
DE19831202A1 (en) * 1998-07-01 2000-01-20 Ver Energiewerke Ag Reception and playback method for sound data transmitted over world wide web
US6539080B1 (en) * 1998-07-14 2003-03-25 Ameritech Corporation Method and system for providing quick directions
US6886014B1 (en) * 1998-07-15 2005-04-26 Koninklijke Philips Electronics N.V. Modifiable universal resource locators (MURLs)
US6263332B1 (en) * 1998-08-14 2001-07-17 Vignette Corporation System and method for query processing of structured documents
US6446096B1 (en) * 1998-09-11 2002-09-03 International Business Machines Corporation Method and system for providing device-specific key control using role-based HTML element tags
US6324511B1 (en) * 1998-10-01 2001-11-27 Mindmaker, Inc. Method of and apparatus for multi-modal information presentation to computer users with dyslexia, reading disabilities or visual impairment
US6587822B2 (en) * 1998-10-06 2003-07-01 Lucent Technologies Inc. Web-based platform for interactive voice response (IVR)
AU1557099A (en) * 1998-10-23 2000-05-15 Nokia Networks Oy Method and apparatus for distributing an audio or video information
US6993004B2 (en) * 1998-10-29 2006-01-31 Sound Starts, Inc. Method and apparatus for practicing IP telephony from an Internet-capable radio
US6314094B1 (en) * 1998-10-29 2001-11-06 Central Coast Patent Agency Inc Mobile wireless internet portable radio
US6631368B1 (en) * 1998-11-13 2003-10-07 Nortel Networks Limited Methods and apparatus for operating on non-text messages
US7082397B2 (en) * 1998-12-01 2006-07-25 Nuance Communications, Inc. System for and method of creating and browsing a voice web
US7150030B1 (en) 1998-12-03 2006-12-12 Prime Research Alliance, Inc. Subscriber characterization system
US7240355B1 (en) * 1998-12-03 2007-07-03 Prime Research Alliance E., Inc. Subscriber characterization system with filters
US7949565B1 (en) 1998-12-03 2011-05-24 Prime Research Alliance E., Inc. Privacy-protected advertising system
EP1208418A4 (en) 1998-12-03 2004-09-15 Samsung Electronics Co Ltd Subscriber characterization and advertisement monitoring system
US6256071B1 (en) * 1998-12-11 2001-07-03 Hitachi America, Ltd. Methods and apparatus for recording video files and for generating a table listing the recorded files and links to additional information
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
DE19905825A1 (en) * 1999-02-12 2000-12-14 Alcatel Sa Procedure for posting and querying an advertisement
US6249810B1 (en) * 1999-02-19 2001-06-19 Chaincast, Inc. Method and system for implementing an internet radio device for receiving and/or transmitting media information
US7610607B1 (en) * 1999-02-19 2009-10-27 Chaincast Networks, Inc. Chaincast method and system for broadcasting information to multiple systems within the internet
US6901604B1 (en) 1999-02-19 2005-05-31 Chaincast, Inc. Method and system for ensuring continuous data flow between re-transmitters within a chaincast communication system
US8321411B2 (en) 1999-03-23 2012-11-27 Microstrategy, Incorporated System and method for management of an automatic OLAP report broadcast system
US8607138B2 (en) 1999-05-28 2013-12-10 Microstrategy, Incorporated System and method for OLAP report generation with spreadsheet report within the network user interface
US9208213B2 (en) 1999-05-28 2015-12-08 Microstrategy, Incorporated System and method for network user interface OLAP report formatting
US6374223B1 (en) * 1999-06-11 2002-04-16 Lucent Technologies, Inc. Internet to voice mail messaging
US6389463B2 (en) * 1999-06-16 2002-05-14 Im Networks, Inc. Internet radio receiver having a rotary knob for selecting audio content provider designations and negotiating internet access to URLS associated with the designations
US6920479B2 (en) 1999-06-16 2005-07-19 Im Networks, Inc. Internet radio receiver with linear tuning interface
DE19933318C1 (en) * 1999-07-16 2001-02-01 Bayerische Motoren Werke Ag Method for the wireless transmission of messages between a vehicle-internal communication system and a vehicle-external central computer
JP2001043064A (en) * 1999-07-30 2001-02-16 Canon Inc Method and device for processing voice information, and storage medium
US6356529B1 (en) * 1999-08-12 2002-03-12 Converse, Ltd. System and method for rapid wireless application protocol translation
US6603844B1 (en) * 1999-08-31 2003-08-05 Avaya Technology Corp. Advertised ring back in a telecommunication switching system
JP2003510674A (en) * 1999-09-10 2003-03-18 エブリーパス・インコーポレイテッド How to convert 2D data to standard representation
US6836537B1 (en) * 1999-09-13 2004-12-28 Microstrategy Incorporated System and method for real-time, personalized, dynamic, interactive voice services for information related to existing travel schedule
US20050223408A1 (en) * 1999-09-13 2005-10-06 Microstrategy, Incorporated System and method for real-time, personalized, dynamic, interactive voice services for entertainment-related information
US6964012B1 (en) * 1999-09-13 2005-11-08 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services, including deployment through personalized broadcasts
US6873693B1 (en) * 1999-09-13 2005-03-29 Microstrategy, Incorporated System and method for real-time, personalized, dynamic, interactive voice services for entertainment-related information
US7039165B1 (en) * 1999-09-13 2006-05-02 Microstrategy Incorporated System and method for personalizing an interactive voice broadcast of a voice service based on automatic number identification
US6940953B1 (en) * 1999-09-13 2005-09-06 Microstrategy, Inc. System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services including module for generating and formatting voice services
US6829334B1 (en) 1999-09-13 2004-12-07 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services, with telephone-based service utilization and control
US8130918B1 (en) 1999-09-13 2012-03-06 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services, with closed loop transaction processing
US7219123B1 (en) * 1999-10-08 2007-05-15 At Road, Inc. Portable browser device with adaptive personalization capability
US6230199B1 (en) 1999-10-29 2001-05-08 Mcafee.Com, Inc. Active marketing based on client computer configurations
US6848002B1 (en) * 1999-12-01 2005-01-25 Sharp Laboratories Of America, Inc. System and method for optimal selection and presentation of streaming media types
US6598018B1 (en) * 1999-12-15 2003-07-22 Matsushita Electric Industrial Co., Ltd. Method for natural dialog interface to car devices
US7116765B2 (en) * 1999-12-16 2006-10-03 Intellisync Corporation Mapping an internet document to be accessed over a telephone system
US6687341B1 (en) * 1999-12-21 2004-02-03 Bellsouth Intellectual Property Corp. Network and method for the specification and delivery of customized information content via a telephone interface
SG128405A1 (en) * 1999-12-22 2007-01-30 Swatch Ag Device for diffusing an occupancy rate of a real or virtual site
AU2928801A (en) * 2000-01-04 2001-07-16 Heyanita, Inc. Interactive voice response system
WO2001055910A2 (en) * 2000-01-27 2001-08-02 American Express Travel Related Services Company, Inc. Information architecture for an interactive environment
EP1122636A3 (en) * 2000-02-03 2007-11-14 Siemens Corporate Research, Inc. System and method for analysis, description and voice-driven interactive input to html forms
US6721705B2 (en) 2000-02-04 2004-04-13 Webley Systems, Inc. Robust voice browser system and voice activated device controller
US7516190B2 (en) 2000-02-04 2009-04-07 Parus Holdings, Inc. Personal voice-based information retrieval system
US7346042B2 (en) * 2000-02-21 2008-03-18 Ntt Docomo, Inc. Information distributing method, information distributing system, information distributing server, mobile communication network system and communication service providing method
US6662163B1 (en) * 2000-03-30 2003-12-09 Voxware, Inc. System and method for programming portable devices from a remote computer system
GB0008383D0 (en) * 2000-04-05 2000-05-24 Sontora Limited System and method for providing an internet audio stream to a wap mobile telephone or the like over a computer nrework
GB2361556A (en) * 2000-04-19 2001-10-24 Roundpoint Inc Text-to-speech browser
US7194624B1 (en) * 2000-04-24 2007-03-20 Harris Scott C Page encryption system
AU2001261721A1 (en) 2000-05-19 2001-12-03 Leap Wireless International, Inc. Computer network page advertising method
JP2002082994A (en) * 2000-06-28 2002-03-22 Fujitsu Ltd Internet data base
US7080315B1 (en) * 2000-06-28 2006-07-18 International Business Machines Corporation Method and apparatus for coupling a visual browser to a voice browser
US6966034B2 (en) * 2000-06-30 2005-11-15 Microsoft Corporation Supplemental request header for applications or devices using web browsers
US6874018B2 (en) 2000-08-07 2005-03-29 Networks Associates Technology, Inc. Method and system for playing associated audible advertisement simultaneously with the display of requested content on handheld devices and sending a visual warning when the audio channel is off
US7653748B2 (en) * 2000-08-10 2010-01-26 Simplexity, Llc Systems, methods and computer program products for integrating advertising within web content
US6938087B1 (en) 2000-09-12 2005-08-30 Hewlett-Packard Development Company, L.P. Distributed universal communication module for facilitating delivery of network services to one or more devices communicating over multiple transport facilities
US7240006B1 (en) * 2000-09-27 2007-07-03 International Business Machines Corporation Explicitly registering markup based on verbal commands and exploiting audio context
US7349946B2 (en) * 2000-10-02 2008-03-25 Canon Kabushiki Kaisha Information processing system
WO2002031811A1 (en) * 2000-10-10 2002-04-18 Siemens Aktiengesellschaft Acoustic output of networked documents
WO2002042941A2 (en) * 2000-11-21 2002-05-30 Blue Wireless, Inc. Portable browser device with adaptive personalization capalibity
GB0029576D0 (en) 2000-12-02 2001-01-17 Hewlett Packard Co Voice site personality setting
US7197120B2 (en) * 2000-12-22 2007-03-27 Openwave Systems Inc. Method and system for facilitating mediated communication
DE10064661A1 (en) * 2000-12-22 2002-07-11 Siemens Ag Communication arrangement and method for communication systems with interactive speech function
US7194411B2 (en) * 2001-02-26 2007-03-20 Benjamin Slotznick Method of displaying web pages to enable user access to text information that the user has difficulty reading
CA2438888C (en) * 2001-02-26 2011-01-11 Benjamin Slotznick A method to access web page text information that is difficult to read
US20020124056A1 (en) * 2001-03-01 2002-09-05 International Business Machines Corporation Method and apparatus for modifying a web page
US20020124020A1 (en) * 2001-03-01 2002-09-05 International Business Machines Corporation Extracting textual equivalents of multimedia content stored in multimedia files
US20020124025A1 (en) * 2001-03-01 2002-09-05 International Business Machines Corporataion Scanning and outputting textual information in web page images
US6658414B2 (en) * 2001-03-06 2003-12-02 Topic Radio, Inc. Methods, systems, and computer program products for generating and providing access to end-user-definable voice portals
US20060265397A1 (en) * 2001-03-06 2006-11-23 Knowledge Vector, Inc. Methods, systems, and computer program products for extensible, profile-and context-based information correlation, routing and distribution
EP1377955A2 (en) * 2001-03-15 2004-01-07 International Business Machines Corporation Method and system for accessing interactive multimedia information or services from braille documents
US20020178445A1 (en) * 2001-04-03 2002-11-28 Charles Eldering Subscriber selected advertisement display and scheduling
US6941509B2 (en) 2001-04-27 2005-09-06 International Business Machines Corporation Editing HTML DOM elements in web browsers with non-visual capabilities
US20020161824A1 (en) * 2001-04-27 2002-10-31 International Business Machines Corporation Method for presentation of HTML image-map elements in non visual web browsers
JP2002334086A (en) * 2001-05-10 2002-11-22 Sony Corp Information processor, its method, recording medium, and program
JP2002366194A (en) 2001-05-30 2002-12-20 Nokia Corp Hyper sound document
US7366712B2 (en) * 2001-05-31 2008-04-29 Intel Corporation Information retrieval center gateway
JP2003016008A (en) * 2001-07-03 2003-01-17 Sony Corp Program, system and method for processing information
US6983307B2 (en) * 2001-07-11 2006-01-03 Kirusa, Inc. Synchronization among plural browsers
US7028024B1 (en) * 2001-07-20 2006-04-11 Vignette Corporation Information retrieval from a collection of information objects tagged with hierarchical keywords
DE10138059A1 (en) * 2001-08-03 2003-02-13 Deutsche Telekom Ag Conversion device and conversion method for acoustic access to a computer network
US8238881B2 (en) * 2001-08-07 2012-08-07 Waloomba Tech Ltd., L.L.C. System and method for providing multi-modal bookmarks
GB2388209C (en) * 2001-12-20 2005-08-23 Canon Kk Control apparatus
US20030121002A1 (en) * 2001-12-20 2003-06-26 Stuart Goose Method and system for exchanging information through speech via a packet-oriented network
US20030187656A1 (en) * 2001-12-20 2003-10-02 Stuart Goose Method for the computer-supported transformation of structured documents
US7062444B2 (en) * 2002-01-24 2006-06-13 Intel Corporation Architecture for DSR client and server development platform
US20030139929A1 (en) * 2002-01-24 2003-07-24 Liang He Data transmission system and method for DSR application over GPRS
US6947772B2 (en) 2002-01-31 2005-09-20 Qualcomm Incorporated System and method for providing messages on a wireless device connecting to an application server
EP1351477A1 (en) * 2002-04-03 2003-10-08 BRITISH TELECOMMUNICATIONS public limited company An engine and a method for building a representation of structured information for use with a voice interface
US8213917B2 (en) 2006-05-05 2012-07-03 Waloomba Tech Ltd., L.L.C. Reusable multimodal application
US10562492B2 (en) * 2002-05-01 2020-02-18 Gtj Ventures, Llc Control, monitoring and/or security apparatus and method
US7822609B2 (en) * 2002-06-14 2010-10-26 Nuance Communications, Inc. Voice browser with integrated TCAP and ISUP interfaces
US6687338B2 (en) * 2002-07-01 2004-02-03 Avaya Technology Corp. Call waiting notification
US7039398B2 (en) * 2002-08-30 2006-05-02 Qualcomm Incorporated Server processing of interactive screens for a wireless device
US6996394B2 (en) 2002-08-30 2006-02-07 Qualcomm Incorporated Server processing in providing messages for a wireless device connecting to a server
KR100872191B1 (en) * 2002-09-27 2008-12-09 인터내셔널 비지네스 머신즈 코포레이션 System and method for enhancing live speech with information accessed from the world wide web
US7577948B2 (en) * 2003-07-02 2009-08-18 Upgradedetect, Inc. System and method for providing computer upgrade information
US6711676B1 (en) * 2002-10-15 2004-03-23 Zomaya Group, Inc. System and method for providing computer upgrade information
FR2848312B1 (en) * 2002-12-10 2005-08-05 France Telecom METHOD AND DEVICE FOR CONVERTING HYPERTEXT DOCUMENTS TO VOICE SIGNALS, AND ACCESS PORTAL TO THE INTERNET NETWORK USING SUCH A DEVICE.
US7603371B1 (en) * 2002-12-17 2009-10-13 Vignette Corporation Object based system and method for managing information
US7272258B2 (en) * 2003-01-29 2007-09-18 Ricoh Co., Ltd. Reformatting documents using document analysis information
US7548858B2 (en) * 2003-03-05 2009-06-16 Microsoft Corporation System and method for selective audible rendering of data to a user based on user input
US9165478B2 (en) 2003-04-18 2015-10-20 International Business Machines Corporation System and method to enable blind people to have access to information printed on a physical document
US7275032B2 (en) * 2003-04-25 2007-09-25 Bvoice Corporation Telephone call handling center where operators utilize synthesized voices generated or modified to exhibit or omit prescribed speech characteristics
US7882434B2 (en) * 2003-06-27 2011-02-01 Benjamin Slotznick User prompting when potentially mistaken actions occur during user interaction with content on a display screen
NL1024398C2 (en) * 2003-09-29 2005-03-31 Tno Method, equipment and software for presentation to user of text of non-activatable and activatable text constituents, e.g. referring to a digital information object
US9984377B2 (en) * 2003-10-06 2018-05-29 Yellowpages.Com Llc System and method for providing advertisement
US7685522B1 (en) 2003-11-03 2010-03-23 Adobe Systems Incorporated Self-describing forms
GB2412046A (en) * 2004-03-11 2005-09-14 Seiko Epson Corp Semiconductor device having a TTS system to which is applied a voice parameter set
US7469833B1 (en) 2004-04-08 2008-12-30 Adobe Systems Incorporated Creating and using documents with machine-readable codes
US7246748B1 (en) 2004-06-30 2007-07-24 Adobe Systems Incorporated Enabling the use of machine-readable codes
US8321465B2 (en) * 2004-11-14 2012-11-27 Bloomberg Finance L.P. Systems and methods for data coding, transmission, storage and decoding
US7603620B2 (en) * 2004-12-20 2009-10-13 Ricoh Co., Ltd. Creating visualizations of documents
WO2006097402A1 (en) 2005-03-18 2006-09-21 France Telecom Method for providing an interactive voice service on a platform accessible to a client terminal, corresponding voice service, computer programme and server
US20070124142A1 (en) * 2005-11-25 2007-05-31 Mukherjee Santosh K Voice enabled knowledge system
US20070130510A1 (en) * 2005-12-07 2007-06-07 Gautam Dharamshi Method and apparatus for improving user accessibility on the web
US20070211071A1 (en) * 2005-12-20 2007-09-13 Benjamin Slotznick Method and apparatus for interacting with a visually displayed document on a screen reader
US7761789B2 (en) 2006-01-13 2010-07-20 Ricoh Company, Ltd. Methods for computing a navigation path
US7788579B2 (en) * 2006-03-06 2010-08-31 Ricoh Co., Ltd. Automated document layout design
US8631005B2 (en) 2006-12-28 2014-01-14 Ebay Inc. Header-token driven automatic text segmentation
US7844462B2 (en) * 2007-02-01 2010-11-30 Sap Ag Spatial sound generation for screen navigation
US8527594B2 (en) * 2007-02-16 2013-09-03 Ecairn, Inc. Blog advertising
US8584042B2 (en) 2007-03-21 2013-11-12 Ricoh Co., Ltd. Methods for scanning, printing, and copying multimedia thumbnails
US8583637B2 (en) * 2007-03-21 2013-11-12 Ricoh Co., Ltd. Coarse-to-fine navigation through paginated documents retrieved by a text search engine
US20080235564A1 (en) * 2007-03-21 2008-09-25 Ricoh Co., Ltd. Methods for converting electronic content descriptions
US8812969B2 (en) * 2007-03-21 2014-08-19 Ricoh Co., Ltd. Methods for authoring and interacting with multimedia representations of documents
US9685094B2 (en) * 2007-09-26 2017-06-20 Verizon Patent And Licensing Inc. Text to training aid conversion system and service
JP4785909B2 (en) * 2008-12-04 2011-10-05 株式会社ソニー・コンピュータエンタテインメント Information processing device
US9432516B1 (en) 2009-03-03 2016-08-30 Alpine Audio Now, LLC System and method for communicating streaming audio to a telephone device
US8996384B2 (en) * 2009-10-30 2015-03-31 Vocollect, Inc. Transforming components of a web page to voice prompts
US8774955B2 (en) * 2011-04-13 2014-07-08 Google Inc. Audio control of multimedia objects
US9769285B2 (en) 2011-06-14 2017-09-19 Google Inc. Access to network content
US8788711B2 (en) 2011-06-14 2014-07-22 Google Inc. Redacting content and inserting hypertext transfer protocol (HTTP) error codes in place thereof
US8650139B2 (en) * 2011-07-01 2014-02-11 Google Inc. Predicting user navigation events
US8744988B1 (en) 2011-07-15 2014-06-03 Google Inc. Predicting user navigation events in an internet browser
US8655819B1 (en) 2011-09-15 2014-02-18 Google Inc. Predicting user navigation events based on chronological history data
US9946792B2 (en) 2012-05-15 2018-04-17 Google Llc Access to network content
US20140297285A1 (en) * 2013-03-28 2014-10-02 Tencent Technology (Shenzhen) Company Limited Automatic page content reading-aloud method and device thereof
US10546441B2 (en) 2013-06-04 2020-01-28 Raymond Anthony Joao Control, monitoring, and/or security, apparatus and method for premises, vehicles, and/or articles
KR102207443B1 (en) 2013-07-26 2021-01-26 삼성전자주식회사 Method for providing graphic user interface and apparatus for the same
US20150113364A1 (en) * 2013-10-21 2015-04-23 Tata Consultancy Services Limited System and method for generating an audio-animated document
US9821738B2 (en) 2014-06-30 2017-11-21 Raymond Anthony Joao Battery power management apparatus and method
US11393451B1 (en) * 2017-03-29 2022-07-19 Amazon Technologies, Inc. Linked content in voice user interface
US11760227B2 (en) 2021-02-15 2023-09-19 Raymond Anthony Joao Battery power management apparatus and method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5416899A (en) * 1992-01-13 1995-05-16 Massachusetts Institute Of Technology Memory based method and apparatus for computer graphics
US5305244B2 (en) * 1992-04-06 1997-09-23 Computer Products & Services I Hands-free user-supported portable computer
DE69327446T2 (en) * 1992-11-18 2000-05-11 Canon Information Syst Inc Method and device for extracting text from a structured file and converting it into speech
US5479411A (en) * 1993-03-10 1995-12-26 At&T Corp. Multi-media integrated message arrangement
US5528739A (en) * 1993-09-17 1996-06-18 Digital Equipment Corporation Documents having executable attributes for active mail and digitized speech to text conversion
US5708828A (en) * 1995-05-25 1998-01-13 Reliant Data Systems System for converting data from input data environment using first format to output data environment using second format by executing the associations between their fields
US5572643A (en) * 1995-10-19 1996-11-05 Judson; David H. Web browser with dynamic display of information objects during linking
GB9523759D0 (en) * 1995-11-21 1996-01-24 Pollitt Alexander J World wide web information retrieval system
US5819220A (en) * 1996-09-30 1998-10-06 Hewlett-Packard Company Web triggered word set boosting for speech interfaces to the world wide web

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8995316B2 (en) 1997-10-15 2015-03-31 Nokia Corporation Mobile telephone for internet applications
US9420402B2 (en) 1997-10-15 2016-08-16 Nokia Technologies Oy Mobile telephone for internet applications
US9521505B2 (en) 1997-10-15 2016-12-13 Nokia Technologies Oy Mobile telephone for internet applications

Also Published As

Publication number Publication date
EP0848373A3 (en) 1999-03-10
DE69735526D1 (en) 2006-05-11
EP0848373A2 (en) 1998-06-17
EP0848373B1 (en) 2006-03-22
US6018710A (en) 2000-01-25

Similar Documents

Publication Publication Date Title
DE69735526T2 (en) System for interactive communication
DE60116343T2 (en) Web Server
DE69831904T2 (en) Dynamic creation of web pages
DE60006525T2 (en) VOICE CONTROLLED BROWSER AND METHOD
DE60124280T2 (en) METHOD AND SYSTEM FOR SYNCHRONIZING AN AUDIOVISUAL REPRESENTATION IN A MULTIMODAL DISPLAY DEVICE
DE69736373T2 (en) Web browser that enables navigation between hypertext objects with a distance control
DE60131183T2 (en) SYSTEM AND METHOD FOR TRANSMITTING REFERENCE INFORMATION THROUGH A WIRELESS DEVICE
DE60029724T2 (en) Device for providing information with music tone effect
DE60120822T2 (en) Meta-document and method for managing meta-documents
DE60132624T2 (en) METHOD FOR DISTRIBUTING ADVERTISING USING AN EMBEDDED MEDIA PLAYER SITE
DE69636869T2 (en) Server with automatic menu load function
DE19962192A1 (en) Method and system for content conversion of electronic data for wireless devices
DE19718834A1 (en) Navigation in hypermedia using soft hyperlinks
DE60305645T2 (en) System and method for text-to-speech implementation with a function to provide additional information
DE60003278T2 (en) Hierarchical resolution of addresses in a data network
DE69719641T2 (en) A process for presenting information on screen devices in various sizes
DE60123153T2 (en) Voice-controlled browser system
WO2007090560A1 (en) Method for selection and display of at least one piece of additional information
DE60024727T2 (en) Analysis of downloaded documents for a browser with speech synthesis capability
DE10196456T5 (en) Personal disc jockey system
DE60025051T2 (en) METHOD AND DEVICE FOR PERSONALIZING WEB SITE INDEPENDENT INFORMATION FROM MULTIPLE WEB SITES WITH USER-SPECIFIC EXTRACTION FUNCTION
DE19755863C2 (en) Acoustic user interface for mobile and stationary use
EP1755048A1 (en) Method for transmission of information from an information server to a client
DE102019219406A1 (en) CONTEXT-SENSITIVE VOICE DIALOGUE SYSTEM
WO2005116867A1 (en) Method and system for the automated generation of computer-based control and analysis devices

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee