DE69838401T2 - Verfahren und vorrichtung zur kodierung von tonsignalen, in dem am tonsignal eine unhörbare kode hinzugefügt wird, für verwendung in programmidentifikationssystemen - Google Patents

Verfahren und vorrichtung zur kodierung von tonsignalen, in dem am tonsignal eine unhörbare kode hinzugefügt wird, für verwendung in programmidentifikationssystemen Download PDF

Info

Publication number
DE69838401T2
DE69838401T2 DE69838401T DE69838401T DE69838401T2 DE 69838401 T2 DE69838401 T2 DE 69838401T2 DE 69838401 T DE69838401 T DE 69838401T DE 69838401 T DE69838401 T DE 69838401T DE 69838401 T2 DE69838401 T2 DE 69838401T2
Authority
DE
Germany
Prior art keywords
frequency
code
signal
predetermined
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69838401T
Other languages
English (en)
Other versions
DE69838401D1 (de
Inventor
Venugopal Palm Harbor SRINIVASAN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TNC US Holdings Inc
Original Assignee
Nielsen Media Research LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nielsen Media Research LLC filed Critical Nielsen Media Research LLC
Publication of DE69838401D1 publication Critical patent/DE69838401D1/de
Application granted granted Critical
Publication of DE69838401T2 publication Critical patent/DE69838401T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • H04H20/30Arrangements for simultaneous broadcast of plural pieces of information by a single channel
    • H04H20/31Arrangements for simultaneous broadcast of plural pieces of information by a single channel using in-band signals, e.g. subsonic or cue signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/28Arrangements for simultaneous broadcast of plural pieces of information
    • H04H20/33Arrangements for simultaneous broadcast of plural pieces of information by plural channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/38Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space
    • H04H60/39Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying broadcast time or space for identifying broadcast space-time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/50Aspects of broadcast communication characterised by the use of watermarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID

Description

  • Technisches Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf ein System und Verfahren zum Hinzufügen eines unhörbaren Codes zu einem Audiosignal und nachträglichem Wiedergewinnen des Codes. Solch ein Code kann beispielsweise in einer Einschaltquotenermittlungsanwendung verwendet werden, um ein gesendetes Programm zu identifizieren.
  • Hintergrund der Erfindung
  • Es gibt viele Anordnungen zum Hinzufügen eines Hilfscodes zu einem Signal derart, daß der addierte Code nicht bemerkt wird. Es ist bei der Fernsehübertragung beispielsweise bekannt, solch Hilfscodes in nicht-sichtbaren Videoabschnitten zu verstecken, indem diese entweder in das VBI-Intervall (Vertikalestrahlrücklauf-Intervall) oder Horizontalrücklauf-Intervall des Videos eingefügt wird. Ein Beispielsystem, das Codes in nicht-sichtbaren Videoabschnitten versteckt, ist als "AMOL" bekannt und wird in US-Patent Nr. 4,025,851 gelehrt. Dieses System wird vom Anmelder verwendet, um sowohl Fernsehprogrammsendungen als auch der Zeiten solcher Übertragungen zu überwachen.
  • Andere bekannte Videokodierungssysteme haben angestrebt, den Hilfscode in einem Abschnitt der Übertragungsbandbreite eines Fernsehsignals zu verstecken, der ansonsten wenig Signalenergie trägt. Ein Beispiel für solch ein System wird von Dougherty in US-Patent Nr. 5,629,739 offenbart, das dem Inhaber der vorliegenden Anmeldung zuzuschreiben ist.
  • Andere Verfahren und Systeme fügen Hilfscodes zu Audiosignalen hinzu, um die Signale zu identifizieren und möglicherweise deren Wege durch Signalverteilungssysteme rückzuverfolgen. Solche Anordnungen haben den offensichtlichen Vorteil, nicht nur für das Fernsehen anwendbar zu sein, sondern auch für Radioübertragungen und für voraufgezeichnete Musik. Zudem können Hilfscodes, die zu Audiosignalen hinzugefügt werden, in der Audiosignalausgabe durch einen Lautsprecher reproduziert werden. Demgemäß bieten diese Anordnungen die Möglichkeit einer eingriffsfreien Abfrage und Dekodierung der Codes mit einer Einrichtung, die Mikrofone als Eingänge aufweist. Insbesondere bieten diese Anordnungen einen Ansatz zur Messung von Rundfunk-Zuhörer/Zuschauerschaften durch die Verwendung von tragbaren Meßeinrichtungen, die von den Individuen der Zuhörer/Zuschauerschaft getragen werden.
  • In dem Gebiet der Kodierung von Audiosignalen für Zwecke der Rundfunk-Einschaltquotenmessung lehrt Crosby in US-Patent Nr. 3,845,391 einen Audiokodierungs-Ansatz, bei dem der Code in einen schmalen Frequenz-"Spalt" eingefügt wird, aus dem das ursprüngliche Audiosignal entfernt wird. Der Spalt wird bei einer festen vorbestimmten Frequenz (z.B. 40 Hz) eingerichtet. Dieser Ansatz führte zu Codes, die hörbar waren wenn das ursprüngliche Signal, das den Code beinhaltete, eine niedrige Intensität aufwies.
  • Das Crosby-Patent wurde von einer Reihe von Verbesserungen gefolgt. So lehrt Howard in US-Patent Nr. 4,703,476 die Verwendung von zwei separaten Spaltfrequenzen für die Markierungs- und die Abstands-Abschnitte eines Codesignals. Kramer lehrt in den US-Patenten Nr. 4,931,871 und 4,945,412 u.a. die Verwendung eines Codesignals mit einer Amplitude, welche der Amplitude des Audiosignals, zu dem der Code hinzugefügt wird, nachläuft.
  • Rundfunk-Einschaltquotenermittlungssysteme, bei denen von Mitgliedern der Zuschauer/Zuhörerschaft erwartet wird, daß sie mit Mikrofonen ausgerüstete Audioüberwachungsgeräte tragen, die in einem Audiosignal übertrage, unhörbare Codes aufnehmen, sind ebenfalls bekannt. Beispielsweise beschreiben Aijalla et al. in WO 94/11989 und in US-Patent Nr. 5,579,124 eine Anordnung, bei der Frequenzspreizverfahren (Spread-Spectrum-Techniken) verwendet werden, um einen Code zu einem Audiosignal hinzuzufügen, so daß der Code entweder nicht wahrnehmbar ist oder lediglich als schwachpegeliges "statisches" Rauschen gehört werden kann. Auch lehren Jensen et al. in US-Patent Nr. 5,450,490 eine Anordnung zum Hinzufügen eines Codes bei einem festen Satz an Frequenzen, wobei eines von zwei Maskierungssignalen verwendet wird, wobei die Auswahl des Maskierungssignals auf Grundlage einer Frequenzanalyse des Audiosignals getroffen wird, zu dem der Code hinzugefügt werden soll. Jensen et al. lehren nicht eine Kodierungsanordnung, bei der die Codefrequenzen von Block zu Block variieren. Die Intensität des durch Jensen et al. eingefügten Codes ist ein vorbestimmter Bruchteil eines gemessenen Werts (z.B. 30 dB unterhalb der Spitzenintensität) statt relative Maxima oder Minima zu umfassen.
  • Ferner lehren Preuss et al. in US-Patent Nr. 5,319,735 eine Multiband-Audiokodierungsanordnung, bei der ein Spread-Spectrum-Code in aufgezeichnete Musik unter einem festen Verhältnis zur Eingangssignalintensität (Code-zu-Musik-Verhältnis) eingefügt wird, das vorzugsweise 19 dB beträgt. Lee et al. lehren in US-Patent Nr. 5,687,191 eine Audiokodierungsanordnung, die zur Verwendung mit digitalisierten Audiosignalen geeignet ist, bei denen die Code-Intensität so eingerichtet wird, daß sie zum Eingangssignal paßt, indem ein Signal-zu-Masken-Verhältnis in jedem von mehreren Frequenzbändern berechnet wird und indem dann der Code mit einer Intensität eingefügt wird, die ein vorbestimmtes Verhältnis des Audiosignals in diesem Band ist. Wie in diesem Patent berichtet wird, haben Lee et al. in der anhängigen US-Anmeldung US 5,882,360 auch ein Verfahren zum Einbetten digitaler Informationen in einer digitalen Wellenform beschrieben.
  • Da Hilfscodes vorzugsweise mit niedrigen Intensitäten eingefügt werden, um zu verhindern, daß der Code einen Zuhörer des Audioprogramms stört, ist einzusehen, daß derartiges Codes durch verschiedene Signalverarbeitungsvorgänge gefährdet sind. Obgleich Lee et al. digitalisierte Audiosignale diskutieren, ist beispielsweise darauf hinzuweisen, daß viele der schon bekannten Ansätze zur Kodierung von Rundfunkaudiosignalen nicht kompatibel sind mit derzeitigen und vorgeschlagenen digitalen Audiostandards, insbesondere nicht mit jenen, die Signalkompressionsverfahren einsetzen, welche den Dynamikbereich des Signals verkleinern können (und dadurch einen niedrig-pegeligen Code löschen können) oder die anderweitig einen Hilfscode beschädigen können. In dieser Hinsicht ist es insbesondere wichtig für einen Hilfscode, Kompression und nachfolgende Dekompression durch den AC-3-Algorithmus oder durch einen der in dem ISO/IEC 11172 MPEG-Standard empfohlenen Algorithmen zu überleben, von dem erwartet wird, daß er in zukünftigen digitalen Fernsehrundfunksystemen breite Anwendung finden wird.
  • GB-A-260246 offenbart ein Verfahren zum Hinzufügen eines binären Code-Bits zu einem Block von einem Signal, das mit einer vorbestimmten Signalbandbreite variiert. Das Verfahren umfaßt die Schritte Auswählen wenigstens eines schmalen Frequenzbandes. Es mißt die Spektralleistung des Signals in einer Umgebung der ersten Frequenz und in einer Umgebung einer zweiten Frequenz. Es vergrößert die Spektralleistung bei der ersten Frequenz, um diese in der ersten Frequenzumgebung auf einen vorbestimmten Wert zu bringen und es verringert die Spektralleistung bei der zweiten Frequenz, um diese in der zweiten Frequenzumgebung im Wesentlichen auf Null zu bringen.
  • Die vorliegende Erfindung ist vorgesehen, um eines oder mehrere der oben genannten Probleme zu lösen.
  • Zusammenfassung der Erfindung
  • Gemäß eines ersten Aspekts der vorliegenden Erfindung wird ein Verfahren bereitgestellt zum Hinzufügen eines binären Code-Bits zu einem Block eines innerhalb einer vorbestimmten Signalbandbreite variierenden Signals, umfassend die Schritte: a) Auswählen einer Referenzfrequenz innerhalb der vorbestimmten Signalbandbreite und Verknüpfen sowohl einer ersten Codefrequenz, die einen ersten vorbestimmen Abstand von der Referenzfrequenz aufweist, und einer zweiten Codefrequenz, die einen zweiten vorbestimmten Abstand von der Referenzfrequenz aufweist, mit dieser Referenzfrequenz; b) Messen der Spektralleistung des Signals in einer ersten Frequenzumgebung, die sich und die erste Codefrequenz erstreckt, und in einer zweiten Frequenzumgebung, die sich um die zweite Codefrequenz erstreckt; c) Erhöhen der Spektralleistung bei der ersten Codefrequenz, um die Spektralleistung bei der ersten Codefrequenz zu einem Maximum in der ersten Frequenzumgebung zu machen; und d) Verringern der Spektralleistung bei der zweiten Codefrequenz, um die Spektralleistung bei der zweiten Codefrequenz zu einem Minimum in der zweiten Frequenzumgebung zu machen.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung umfaßt ein Verfahren das Lesen einer digital kodierten Mitteilung, die mit einem Signal übertragen wird, das eine zeitveränderliche Intensität aufweist. Das Signal ist gekennzeichnet durch eine Signalbandbreite und die digital kodierte Mitteilung weist mehrere binäre Bits auf. Das Verfahren umfaßt folgende Schritte: a) Auswählen einer Referenzfrequenz innerhalb der Signalbandbreite; b) Auswählen einer ersten Codefrequenz bei einem ersten vorbestimmten Frequenzabstand von der Referenzfrequenz und Auswählen einer zweiten Codefrequenz bei einem zweiten vorbestimmten Frequenzabstand von der Referenzfrequenz; und c) Herausfinden, welche der ersten und der zweiten Codefrequenzen eine damit verknüpfte Spektralamplitude aufweist, die ein Maximum innerhalb einer entsprechenden Frequenzumgebung ist, und Herausfinden, welche der ersten und der zweiten Codefrequenzen eine damit verknüpfte Spektralamplitude aufweist, die ein Minimum innerhalb einer entsprechenden Frequenzumgebung ist, um dadurch einen Wert eines empfangenen der binären Bits zu bestimmen.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung umfaßt ein Kodierer, der ausgelegt ist, um ein binäres Bit eines Codes zu einem Block eines Signals mit einer innerhalb einer vorbestimmten Signalbandbreite variierenden Intensität hinzuzufügen, einen Selektor, einen Detektor und einen Bit-Einfüger. Der Selektor ist ausgelegt, um innerhalb des Blocks auszuwählen, (i) eine Referenzfrequenz innerhalb der vorbestimmten Signalbandbreite, (ii) eine erste Codefrequenz mit einem ersten vorbestimmten Abstand von der Referenzfrequenz und (iii) eine zweite Codefrequenz mit einem zweiten vorbestimmten Abstand von der Referenzfrequenz. Der Detektor ist ausgelegt, um eine Spektralamplitude des Signals in einer ersten sich um die erste Codefrequenz erstreckenden Frequenzumgebung und in einer zweiten sich um die zweite Codefrequenz erstreckenden Frequenzumgebung zu detektieren. Der Bit-Einfüger ist dazu ausgelegt, das binäre Bit einzufügen, indem er die Spektralamplitude bei der ersten Codefrequenz erhöht, um die Spektralamplitude bei der ersten Codefrequenz zu einem Maximum in der ersten Frequenzumgebung zu machen, und die Spektralamplitude bei der zweiten Codefrequenz verringert, um die Spektralamplitude bei der zweiten Codefrequenz zu einem Minimum in der zweiten Frequenzumgebung zu machen.
  • Nach noch einem anderen Aspekt der vorliegenden Erfindung umfaßt ein Decoder, der ausgelegt ist, um ein binäres Bit eines Codes von einem Block eines mit einer zeitveränderlichen Intensität übertragenen Signals zu dekodieren, einen Selektor, einen Detektor und einen Bit-Auffinder. Der Selektor ist ausgelegt, um innerhalb des ersten Blocks (i) eine Referenzfrequenz innerhalb der Signalbandbreite, (ii) eine erste Codefrequenz bei einem ersten vorbestimmten Frequenzabstand von der Referenzfrequenz, und (iii) eine zweite Codefrequenz bei einem zweiten vorbestimmten Frequenzabstand von der Referenzfrequenz auszuwählen. Der Detektor ist ausgelegt, um eine Spektralamplitude innerhalb entsprechender vorbestimmter Frequenzumgebungen der ersten und der zweiten Codefrequenz zu detektieren. Der Bit-Auffinder ist ausgelegt, um das binäre Bit zu finden, wenn eine der ersten oder zweiten Codefrequenzen eine damit verknüpfte Spektralamplitude aufweist, die innerhalb ihrer entsprechenden Umgebung ein Maximum ist und die andere der ersten und zweiten Codefrequenzen eine mit ihr verknüpfte Spektralamplitude aufweist, die in ihrer entsprechenden Umgebung ein Minimum ist.
  • Gemäß eines weiteren Aspekts der vorliegenden Erfindung umfaßt ein Verfahren zum Hinzufügen eines binären Code-Bits zu einem Block eines innerhalb einer vorbestimmten Signalbandbreite variierenden Signals die folgenden Schritte: a) Auswählen einer Referenzfrequenz innerhalb der vorbestimmten Signalbandbreite und Verknüpfen sowohl einer ersten Codefrequenz, die einen ersten vorbestimmten Abstand von der Referenzfrequenz aufweist, und einer zweiten Codefrequenz, die einen zweiten vorbestimmten Abstand von der Referenzfrequenz aufweist, mit der Referenzfrequenz; b) Messen der Spektralleistung des Signals innerhalb des Blocks in einer ersten sich um die erste Codefrequenz erstreckenden Frequenzumgebung und in einer zweiten sich um die zweite Codefrequenz erstreckenden Frequenzumgebung, wobei die erste Frequenz eine Spektralamplitude aufweist und wobei die zweite Frequenz eine Spektralamplitude aufweist; c) Austauschen der Spektralamplitude der ersten Codefrequenz mit einer Spektralamplitude einer Frequenz, die in der ersten Frequenzumgebung eine maximale Amplitude aufweist, während ein Phasenwinkel sowohl der ersten Frequenz als auch der Frequenz mit der maximalen Amplitude in der ersten Frequenzumgebung aufrechterhalten wird; und d) Austauschen der Spektralamplitude der zweiten Codefrequenz mit einer Spektralamplitude einer Frequenz, die in der zweiten Frequenzumgebung eine minimale Amplitude aufweist, während ein Phasenwinkel bei sowohl bei der zweiten Frequenz als auch bei der Frequenz mit der maximalen Amplitude in der zweiten Frequenzumgebung aufrechterhalten wird.
  • Kurze Beschreibung der Zeichnungen Diese und andere Merkmale und Vorteile werden anhand einer detaillierten Betrachtung der Erfindung besser ersichtlich, wenn diese in Verbindung mit den Zeichnungen durchgeführt wird:
  • 1 ist ein schematisches Blockdiagramm eines Einschaltquotenermittlungssystems, das die Signalkodierungs- und -dekodierungsanordnungen der vorliegenden Erfindung einsetzt;
  • 2 ist ein Flußdiagramm, das Schritte darstellt, die von einem Kodierer des in 1 gezeigten Systems ausgeführt werden;
  • 3 ist ein Spektraldiagramm eines Audioblocks, wobei die dünne Linie des Plots das Spektrums des ursprünglichen Audiosignals ist und die dicke Linie des Plots das Spektrum des gemäß der vorliegenden Erfindung modulierten Signals ist;
  • 4 zeigt eine Fensterfunktion, die verwendet werden kann, um Transienteneffekte zu vermeiden, die sonst an den Grenzen zwischen benachbarten kodierten Blöcken auftreten könnten;
  • 5 ist ein schematisches Blockdiagramm einer Anordnung zum Erzeugen einer sieben-bittigen Pseudorausch-Synchronisationssequenz;
  • 6 ist ein Spektraldiagramm eines "Dreifachton"-Audioblocks, der den ersten Block einer bevorzugten Synchronisationssequenz bildet, wobei die dünne Linie des Plots das Spektrum des ursprünglichen Audiosignals ist und die dicke Linie des Plots das Spektrum des modulierten Signals ist;
  • 7a stellt schematisch eine Anordnung von Synchronisations- und Informationsblöcken dar, die zur Bildung einer vollständigen Code-Mitteilung verwendbar sind;
  • 7b zeigt schematisch weitere Details des in 7a gezeigten Synchronisationsblocks;
  • 8 ist ein Flußdiagramm, das Schritte darstellt, die von einem Dekoder des in 1 gezeigten Systems ausgeführt werden; und
  • 9 stellt eine Kodierungsanordnung dar, bei der Audiokodierungsverzögerungen im Videodatenstrom kompensiert werden.
  • Detaillierte Beschreibung der Erfindung
  • Audiosignale werden gewöhnlich mit Samplingraten digitalisiert, die von 32 kHz bis 48 kHz reichen. Beispielsweise wird bei der Aufzeichnung von Musik üblicherweise eine Samplingrate von 44.1 kHz verwendet. Allerdings ist es beim digitalen Fernsehen ("DTV") wahrscheinlich, daß eine 48 kHz Samplingrate verwendet wird. Neben der Samplingrate ist beim Digitalisieren eines Audiosignals die Anzahl an binären Bits, die verwendet werden, um das Audiosignal an jedem der Samplingpunkte zu repräsentieren, ein weiterer interessanter Parameter. Diese Anzahl an binären Bits kann variieren, beispielsweise zwischen 16 und 24 Bits pro Sample. Der dynamische Amplitudenbereich, der sich ergibt, wenn man 16 Bits pro Sample des Audiosignals verwendet, ist 96 dB. Dieses Dezibel-Maß ist das Verhältnis zwischen dem Quadrat der größten Audioamplitude (216 = 65536) und der niedrigsten Audioamplitude (12 = 1). Der dynamische Bereich, der sich ergibt wenn man 24 Bits pro Sample verwendet, ist 144 dB. Rohe Audiodaten, die mit der 44.1-kHz-Rate gesampelt werden und in eine 16-Bit-pro-Sample-Darstellung konvertiert werden, resultieren in einer Datenrate von 705.6 kbits/s.
  • Um diese Datenrate auf ein Niveau zu reduzieren, das es ermöglicht, ein Stereopaar solcher Daten auf einem Kanal mit einem Durchsatz von bis zu nur 192 kbits/s zu übertragen, wird eine Kompression von Audiosignalen durchgeführt. Diese Kompression wird üblicherweise erreicht durch eine Transformationskodierung. Ein Block, der aus Nd = 1024 Samples besteht, kann beispielsweise durch Verwendung einer Fast-Fourier-Transformation oder anderen ähnlichen Frequenzanalyseprozessen in eine Spektraldarstellung zerlegt werden. Um Fehler zu vermeiden, die an der Grenze zwischen einem Block und dem vorherigen oder nachfolgenden Block auftreten können, werden üblicherweise sich überlappende Blöcke verwendet. In einer derartigen Anordnung, bei der 1024 Samples pro überlappenden Block verwendet werden, beinhaltet ein Block 512 Samples des "alten" Samples (d.h. Samples aus dem vorhergehenden Block) und 512 Samples des "neuen" oder aktuellen Samples. Die Spektraldarstellung solch eines Blocks wird aufgeteilt in kritische Bänder, wobei jedes Band eine Gruppe von verschiedenen Nachbarfrequenzen umfaßt. Die Leistung in jedem dieser Bänder kann berechnet werden, indem die Quadrate der Amplituden der Frequenzkomponenten innerhalb des Bandes aufsummiert werden.
  • Audiokompression basiert auf dem Prinzip der Maskierung, d.h., daß bei Vorliegen einer hohen Spektralenergie bei einer Frequenz (d.h. der Maskierungsfrequenz) das menschliche Ohr nicht in der Lage ist, ein niederenergetischeres Signal wahrzunehmen, falls das niederenergetischere Signal eine Frequenz (d.h. die maskierte Frequenz) hat, die nahe jener des höherenergetischeren Signals liegt. Das niederenergetischere Signal bei der maskierten Frequenz wird als maskiertes Signal bezeichnet. Eine Maskierungsschwelle, die entweder (i) die akustische Energie repräsentiert, die bei der maskierten Frequenz erforderlich ist, um diese unhörbar zu machen, oder (ii) eine Energieveränderung in dem existierenden Spektralwert repräsentiert, die wahrnehmbar wäre, kann für jedes Band dynamisch berechnet werden. Die Frequenzkomponenten in einem maskierten Band können grob repräsentiert werden durch Verwendung weniger Bits basierend auf dieser Maskierungsschwelle. Das heißt, die Maskierungsschwellen und die Amplituden der Frequenzkomponenten in jedem Band werden mit einer kleineren Anzahl von Bits kodiert, welche die komprimierten Audiodaten darstellen. Dekompression rekonstruiert das ursprüngliche Signal auf Grundlage dieser Daten.
  • 1 stelle ein Einschaltquotenermittlungssystem 10 dar, bei dem ein Kodierer 12 einen Hilfscode zu einem Audiosignalanteil 14 eines Rundfunksignals hinzufügt. Alternativ kann der Kodierer 12, wie es bereits bekannt ist, an einem anderen Ort in der Rundfunksignalverteilungskette eingefügt werden. Ein Sender 16 überträgt den kodierten Audiosignalanteil mit einem Videosignalanteil 18 des Rundfunksignals. Wenn das kodierte Signal von einem Empfänger 20 empfangen wird, der sich an einem statistisch ausgewählten Meßort 22 befindet, wird der Hilfscode wiedergewonnen, indem der Audiosignalanteil des empfangenen Rundfunksignals verarbeitet wird, obgleich die Gegenwart des Hilfscodes für einen Hörer nicht wahrnehmbar ist, wenn der kodierte Audiosignalanteil den Lautsprechern 24 des Empfängers 20 zugeführt wird. Zu diesem Zweck ist ein Dekoder 26 entweder direkt mit einem am Empfänger 20 verfügbaren Audioausgang 28 verbunden, oder mit einem Mikrofon 30, das in der Nähe der Lautsprecher 24 platziert ist, die zur Audioreproduktion dienen. Das empfangene Audiosignal kann entweder in einem Monoformat oder in einem Stereoformat vorliegen.
  • KODIERUNG DURCH SPEKTRALMODULATION
  • Damit der Kodierer 12 die digitalen Codedaten in einen Audiodatenstrom auf eine Weise einbettet, die mit Kompressionstechnologie kompatibel ist, sollte der Kodierer 12 vorzugsweise Frequenzen und kritische Bänder verwenden, die auf jene abgestimmt sind, die bei der Kompression verwendet werden. Die Blocklänge NC des Audiosignals, die zur Kodierung verwendet wird, kann so gewählt werden, daß beispielsweise jNC = Nd = 1024, wobei j eine ganze Zahl ist. Ein geeigneter Wert für NC kann beispielsweise 512 sein. Wie in Schritt 40 des in 2 gezeigten Flußdiagramms dargestellt ist, der von dem Kodierer 12 ausgeführt wird, wird ein erster Block v(t) aus jNC Samples aus dem Audiosignalanteil 14 vom Kodierer 12 erlangt, beispielsweise durch Verwendung eines Analog-Digital-Wandlers, wobei v(t) die Zeitdomänen-Darstellung des Audiosignals innerhalb des Blocks ist. Ein optionales Fenster kann auf v(t) bei einem Block 42 angewendet werden, wie unten detaillierter diskutiert wird. Unter der momentanen Annahme, daß solch ein Fenster nicht verwendet wird, wird bei einem Schritt 44 eine Fourier-Transformation
    Figure 00120001
    des zu kodierenden Blocks v(t) berechnet. (Die bei Schritt 44 implementierte Fourier-Transformation kann eine Fast-Fourier-Transformation sein.)
  • Die aus der Fourier-Transformation resultierenden Frequenzen werden im Bereich –256 bis +255 indiziert, wobei ein Index von 255 genau der halben Samplingfrequenz fs entspricht. Für eine 48-kHz-Samplingfrequenz würde deshalb der größte Index einer Frequenz von 24 kHz entsprechen. Dementsprechend wird zum Zwecke dieser Indizierung der Index, der einer bestimmten aus der Fourier-Transformation
    Figure 00120002
    resultierenden Frequenzkomponente fj am nächsten ist, durch folgende Gleichung gegeben:
    Figure 00120003
    wobei Gleichung (1) in der folgenden Diskussion verwendet wird, um eine Frequenz fj und ihren entsprechenden Index Ij miteinander in Bezug zu setzen.
  • Die Codefrequenzen fi, die zur Kodierung eines Blocks verwendet werden, können aus der Fourier-Transformation
    Figure 00120004
    bei Schritt 46 im 4.8 kHz bis 6 kHz Bereich gewählt werden, um die höhere Hörschwelle in diesem Band auszunutzen. Auch kann jedes nachfolgende Bit des Codes ein unterschiedliches Paar von Kodierungsfrequenzen f1 und f0 verwenden, die durch entsprechende Codefrequenz-Indizes I1 und I0 bezeichnet werden. Es gibt zwei bevorzugte Wege, die Codefrequenzen f1 und f0 bei Schritt 46 auszuwählen, um einen unhörbaren, dem Breitbandrauschen ähnlichen Code zu erzeugen.
  • (a) Direkte Sequenz
  • Eine Möglichkeit, die Codefrequenzen f1 und f0 in Schritt 46 auszuwählen, besteht darin, die Codefrequenzen durch Verwendung eines Frequenzsprungalgorithmus zu berechnen, der eine Sprungsequenz Hs und einen Verschiebungsindex Ishift verwendet. Falls beispielsweise Ns Bits zusammengruppiert werden, um eine Pseudorauschsequenz zu bilden, ist Hs eine geordnete Sequenz aus Ns Zahlen, welche die Frequenzabweichung bezüglich eines vorbestimmten Referenzindex I5k beschreiben. Für den Fall Ns = 7 könnte eine Sprungsequenz Hs = {2, 5, 1, 4, 3, 2, 5} und ein Verschiebungsindex Ishift = 5 verwendet werden. Im Allgemeinen können die Indizes für die Ns Bits, die aus einer Sprungsequenz resultieren, durch die folgenden Gleichungen gegeben werden: I1 = I5k + Hs – Ishift (2)und I0 = I5k + Hs + Ishift (3)
  • Eine mögliche Wahl für die Referenzfrequenz f5k ist 5 kHz, was einem vorbestimmten Referenzindex I5k = 53 entspricht. Dieser Wert von f5k wird gewählt, da er oberhalb der durchschnittlichen maximalen Empfindlichkeitsfrequenz des menschlichen Ohrs liegt. Beim Kodieren eines ersten Blocks des Autosignals werden I1 und I0 für den ersten Block aus den Gleichungen (2) und (3) unter Verwendung einer ersten der Sprungsequenzzahlen bestimmt; beim Kodieren eines zweiten Blocks des Audiosignals werden I1 und I0 für den zweiten Block aus den Gleichungen (2) und (3) unter Verwendung einer zweiten der Sprungsequenzzahlen bestimmt; usw. Für das fünfte Bit in der Sequenz {2, 5, 1, 4, 3, 2, 5} ist beispielsweise der Sprungsequenzwert drei und Verwendung der Gleichungen (2) und (3) erzeugt einen Index I1 = 51 und einen Index I0 = 61 im Fall Ishift = 5. In diesem Beispiel ist der Mittenfrequenzindex durch folgende Gleichung gegeben: Imid = I5k + 3 = 56 (4)wobei Imid einen Index repräsentiert, der mitten zwischen den Codefrequenzindizes I1 und I0 liegt. Dementsprechend wird jeder der Codefrequenzindizes bezüglich dem Mittenfrequenzindex um denselben Betrag, Ishift verschoben, aber die beiden Abstände haben entgegengesetzte Vorzeichen.
  • (b) Springen auf Grundlage des Niederfrequenzmaximums
  • Eine weitere Möglichkeit zur Auswahl der Codefrequenzen im Schritt 46 besteht darin, einen Frequenzindex Imax zu bestimmen, bei dem die Spektralleistung des Audiosignals, die in Schritt 44 bestimmt wurde, ein Maximum im Niederfrequenzband ist, das sich von 0 Hz bis 2 kHz erstreckt. In anderen Worten, Imax ist der Index, der jener Frequenz entspricht, die maximale Leistung im Bereich von 0-2 kHz aufweist. Es ist nützlich, diese Berechnung beginnend mit Index 1 durchzuführen, da Index 0 die "lokale" Gleichstromkomponente (DC) repräsentiert und durch bei der Kompression verwendete Hochpaßfilter modifiziert werden könnte. Die Codefrequenzindizes I1 und I0 werden bezüglich dem Frequenzindex Imax gewählt, so daß sie in einem höheren Frequenzband liegen, bei dem das menschliche Ohr relativ weniger empfindlich ist. Wieder ist eine mögliche Wahl für die Referenzfrequenz f5k fünf kHz, was einem Referenzindex I5k = 53 entspricht, so daß I1 und I0 durch folgende Gleichungen gegeben sind: I1 = I5k + Imax – Ishift (5)und I0 = I5k + Imax + Ishift (6)wobei Ishift ein Verschiebungsindex ist und wobei Imax mit der Spektralleistung des Audiosignals variiert. Eine wichtige Beobachtung hier ist die, daß von Eingangsblock zu Eingangsblock ein anderer Satz von Codefrequenzindizes I1 und I0 für die Spektralmodulation ausgewählt wird, abhängig vom Frequenzindex Imax des entsprechenden Eingangsblocks. In diesem Fall wird ein Code-Bit als ein einzelnes Bit kodiert: Allerdings springen die für die Kodierung der jeweiligen Bits verwendeten Frequenzen von Block zu Block.
  • Im Gegensatz zu vielen traditionellen Kodierungsverfahren wie beispielsweise Frequency-Shift-Keying (FSK) oder Phase-Shift-Keying (PSK) beruht die vorliegende Erfindung nicht auf einer einzelnen festen Frequenz. Demgemäß wird ein "Frequenzsprung"-Effekt erzeugt, der jenem ähnlich ist, der bei Spread-Spectrum-Modulationssystemen (Frequenzspreiz-Modulationssystemen) zu sehen ist. Im Gegensatz zu Spread-Spectrum besteht das Ziel der Variation der Kodierungsfrequenzen der vorliegenden Erfindung darin, die Verwendung einer konstanten Codefrequenz zu vermeiden, was diese hörbar machen könnte.
  • Für beide der zwei oben beschriebenen Ansätze zur Codefrequenzauswahl gibt es wenigstens vier Verfahren zum Kodieren eines binären Datenbits in einem Audioblock, nämlich Amplitudenmodulation und Phasenmodulation. Diese zwei Modulationsverfahren werden nun separat beschrieben.
  • (i) Amplitudenmodulation
  • Um eine binäre "1" unter Verwendung von Amplitudenmodulation zu kodieren, wird die Spektralleistung bei I1 auf ein Niveau erhöht, bei dem sie ein Maximum in ihrer entsprechenden Frequenzumgebung darstellt. Die Indizesumgebung, die dieser Frequenzumgebung entspricht, wird in Schritt 48 analysiert, um zu bestimmen, wie stark die Codefrequenzen f1 und f0 verstärkt und gedämpft werden müssen, damit sie vom Dekoder 26 detektierbar sind. Für den Index I1 könnte sich die Umgebung vorzugsweise von I1 – 2 bis und I1 + 2 erstrecken und ist so beschränkt, daß sie einen Frequenzbereich abdeckt, der schmal genug, daß die Umgebung von I1 sich nicht mit der Umgebung von I0 überlappt. Gleichzeitig wird die Spektralleistung bei I0 modifiziert, um sie zu einem Minimum in ihrer Indizesumgebung zu machen, die von I0 – 2 bis I0 + 2 reicht. Um eine binäre "0" unter Verwendung von Amplitudenmodulation zu kodieren, wird umgekehrt die Leistung bei I0 in der entsprechenden Umgebung verstärkt und die Leistung bei I1 in der entsprechenden Umgebung gedämpft.
  • Als ein Beispiel zeigt 3 ein typisches Spektrum 50 eines jNC-Sample-Audioblocks, das über einen Frequenzindexbereich von 45 bis 77 dargestellt ist. Ein Spektrum 52 zeigt den Audioblock nach Kodieren eines "1"-Bits und ein Spektrum 54 zeigt den Audioblock vor der Kodierung. In diesem speziellen Fall der Kodierung eines "1"-Bits gemäß des Codefrequenz-Auswahlansatzes (a) ist der Sprungsequenzwert fünf, was einen Mittenfrequenzindex von 85 ergibt. Die Werte für I1 und I0 sind 53 bzw. 63. Die Spektralamplitude bei 53 wird dann bei Schritt 56 von 2 modifiziert, um aus ihr ein Maximum innerhalb ihrer Indizesumgebung zu machen. Die Amplitude bei 63 stellt bereits ein Minimum dar, weswegen lediglich eine kleine zusätzliche Dämpfung in Schritt 56 ausgeübt wird.
  • Der Prozeß der Spektralleistungsmodifikation erfordert die Berechnung von je vier Werten in der Umgebung von I1 und der Umgebung von I0. Für die Umgebung von I1 sind diese vier Werte folgende: (1) Imax1, was der Index der Frequenz in der Umgebung von I1 mit maximaler Leistung ist; (2) Pmax1, was die Spektralleistung bei Imax1 ist; (3) Imin1, was der Index der Frequenz in der Umgebung von I1 mit minimaler Leistung ist; und (4) Pmin1, was die Spektralleistung bei Imin1 ist. Entsprechende Werte für die I0-Umgebung sind Imax0, Pmax0, Imin0, und Pmin.
  • Falls Imax1 = I1 und falls der zu kodierende Binärwert eine "1" ist, ist lediglich eine symbolische Vergrößerung in Pmax1 (d.h. der Leistung bei I1) in Schritt 56 erforderlich. Falls Imin0 = I0 ist entsprechend lediglich eine symbolische Verminderung in Pmax0 (d.h., der Leistung bei I0) in Schritt 56 erforderlich. Wenn Pmax1 verstärkt wird, wird sie in Schritt 56 mit einem Faktor 1 + A multipliziert, wobei A im Bereich von ungefähr 1.5 bis ungefähr 2.0 liegt. Die Wahl von A basiert auf experimentellen Hörbarkeitstest kombiniert mit Kompressionsüberlebungstests. Die Bedingung für fehlende Wahrnehmbarkeit erfordert einen geringen Wert von A, wogegen die Bedingung zur Kompressionsüberlebung einen großen Wert von A erfordert. Möglicherweise bietet sich ein fester Wert von A nicht besonders gut an für eine lediglich symbolische Vergrößerung oder Verringerung der Leistung. Deshalb wäre eine logischere Wahl für A ein Wert, der auf der lokalen Maskierungsschwelle basiert. In diesem Fall ist A variabel und die Kodierung kann mit einer minimalen inkrementellen Leistungsniveauveränderung erreicht werden und trotzdem die Kompression überleben.
  • In jedem Fall ist die Spektralleistung bei I1 durch folgende Gleichung gegeben: P11 = (1 + A)·Pmax1 (7)mit geeigneter Modifikation der Real- und Imaginärteile der Frequenzkomponente bei I1. Die Real- und Imaginärteile werden mit demselben Faktor multipliziert, um den Phasenwinkel konstant zu halten. Die Leistung bei I0 wird auf eine ähnliche Weise auf einen Wert reduziert, der (1 + A)–1 Pmin0 entspricht.
  • Die Fourier-Transformation des zu kodierenden Blocks, wie sie im Schritt 44 bestimmt wird, umfaßt auch negative Frequenzkomponenten mit Indizes, die von Indexwerten von –256 bis –1 reichen. Spektralamplituden bei Frequenzindizes –I1 und –I0 müssen gemäß der folgenden Gleichungen auf Werte gesetzt werden, die das komplex konjugierte der Amplituden bei I1 bzw. I0 repräsentieren: Re[f(–I1)] = Re[f(I1)] (8) Im[f(–I1)] = –Im[f(I1)] (9) Re[f[–I0)] = Re[f(I0)] (10) Im[f(–I0)] = –Im[f(I0)] (11)wobei f(I) die komplexe Spektralamplitude bei Index I ist. Das modifizierte Frequenzspektrum, das jetzt den binären Code ("0" oder "1") enthält, wird nun in Schritt 62 einer inversen Transformationsoperation unterzogen, um das kodierte Zeitdomänensignal zu erlangen, wie untenstehend beschrieben wird.
  • Auf dem Maskierungseffekt beruhende Kompressionsalgorithmen modifizieren die Amplitude der einzelnen Spektralkomponenten mittels eines Bit-Allokationsalgorithmus. Frequenzbänder, die durch das Vorliegen von hohen Spektralenergien in benachbarten Bändern einem hohen Maskierungsgrad unterzogen werden, werden weniger Bits zugeordnet, mit dem Ergebnis, daß deren Amplituden grob quantisiert sind. Allerdings tendieren die dekomprimierten Audiodaten in den meisten Fällen dazu, die relativen Amplitudenpegel bei Frequenzen innerhalb einer Umgebung aufrechtzuerhalten. Die ausgewählten Frequenzen in dem kodierten Audiostrom, die in Schritt 56 verstärkt oder gedämpft wurden, werden deshalb ihre relativen Positionen selbst nach einem Kompressions-/Dekompressionsprozeß beibehalten.
  • Es kann passieren, daß die Fourier-Transformation
    Figure 00190001
    eines Blockes nicht in einer Frequenzkomponente mit ausreichender Amplitude bei den Frequenzen f1 und f0 resultieren könnte, um eine Kodierung eines Bits durch Verstärkung der Leistung bei der geeigneten Frequenz zu ermöglichen. In diesem Fall ist es bevorzugt, diesen Block nicht zu kodieren und statt dessen einen nachfolgenden Block zu kodieren, wo die Leistung des Signals bei den Frequenzen f1 und f0 für die Kodierung geeignet ist.
  • (ii) Modulation durch Frequenzaustausch
  • Bei diesem Ansatz, der eine Variation des oben in Abschnitt (i) beschriebenen Amplitudenmodulationsansatzes ist, werden die Spektralamplituden bei I1 und Imax1 ausgetauscht, wenn ein Eins-Bit kodiert wird, während die ursprünglichen Phasenwinkel bei I1 und Imax1 aufrechterhalten werden. Es wird auch eine ähnliche Vertauschung bei den Spektralamplituden I0 und Imax0 durchgeführt. Beim Kodieren eines Null-Bits werden die Rollen von I1 und I0 wie im Falle der Amplitudenmodulation umgekehrt. Wie in dem vorhergehenden Fall wird das Austauschen auch auf die entsprechenden negativen Frequenzindizes angewandt. Dieser Kodierungsansatz resultiert in einem niedrigeren Hörbarkeitspegel, da das kodierte Signal lediglich einer geringfügigen Frequenzverzerrung unterliegt. Die unkodierten und kodierten Signale haben beide identische Energiewerte.
  • (iii) Phasenmodulation
  • Der mit einer Spektralkomponente I0 verknüpfte Phasenwinkel ist durch folgende Gleichung gegeben:
    Figure 00200001
    wobei 0 ≤ ϕ0 ≤ 2π. Der mit I1 verknüpfte Phasenwinkel kann auf ähnliche Weise berechnet werden. Um eine binäre Zahl zu kodieren, kann der Phasenwinkel einer dieser Komponenten, üblicherweise diejenige Komponente mit der niedrigsten Spektralamplitude, so modifiziert werden, daß sie entweder in Phase (d.h. 0°) oder außer Phase (d.h. 180°) bezüglich der anderen Komponente ist, welche die Referenz wird. Auf diese Weise kann eine binäre Null kodiert werden als eine In-Phasen-Modifikation und eine binäre 1 kann als eine Außer-Phasen-Modifikation kodiert werden. Alternativ kann eine binäre 1 als eine In-Phasen-Modifikation und eine binäre 0 als eine Außer-Phasen-Modifikation kodiert werden. Der Phasenwinkel der Komponente, die modifiziert wird, wird als ϕM bezeichnet, und der Phasenwinkel der anderen Komponente wird als ϕR bezeichnet. Wählt man die Komponente mit der niedrigeren Amplitude als die zu modifizierende Spektralkomponente aus, so minimiert dies die Änderung im ursprünglichen Audiosignal.
  • Um diese Form der Modulation durchzuführen, könnte es sein, daß eine der Spektralkomponenten eine maximale Phasenänderung von 180° durchlaufen muß, was den Code hörbar machen könnte. In der Praxis allerdings ist es nicht wesentlich, die Phasenmodulation in diesem Ausmaße durchzuführen, da es lediglich erforderlich ist, sicherzustellen, daß die zwei Komponenten entweder "nahe" in ihrer Phase beieinander liegen oder "weit" auseinander liegen. Deshalb kann im Schritt 48 eine sich über einen Bereich von ±π/4 um ϕR, der Referenzkomponente, erstreckende Phasenumgebung und eine weitere sich über einen Bereich von ±π/4 um ϕR + π erstreckende Phasenumgebung gewählt werden. Im Schritt 56 wird der Phasenwinkel ϕM der modifizierbaren Spektralkomponente modifiziert, so daß er in eine dieser Phasenumgebungen fällt, abhängig davon, ob eine binäre "0" oder eine binäre "1" kodiert wird. Falls eine modifizierbare Spektralkomponente bereits in der geeignete Phasenumgebung liegt, kann es sein, daß eine Phasenmodifikation nicht erforderlich ist. In typischen Audioströmen sind ungefähr 30 % der Segmente auf diese Weise "selbstkodiert" und eine Modulation ist nicht erforderlich. Die inverse Fourier-Transformation wird in Schritt 62 bestimmt.
  • (iv) Gerade/Ungerade-Indexmodulation
  • In diesem Gerade/Ungerade-Indexmodulations-Ansatz wird ein einzelner Codefrequenz-Index I1 verwendet, der wie im Fall der anderen Modulationsansätze ausgewählt wird. Eine durch die Indizes I1, I1 + 1, I1 + 2 und I1 + 3 definierte Umgebung wird analysiert, um zu ermitteln, ob der Index Im, welcher der Spektralkomponente mit maximaler Leistung in dieser Umgebung entspricht, gerade oder ungerade ist. Falls das zu kodierende Bit eine "1" ist und der Index Im ungerade ist, dann wird der zu kodierende Block als "selbstkodiert" betrachtet. Andernfalls wird eine ungerade-indizierte Frequenz in der Umgebung für die Verstärkung ausgewählt, um diese zu einem Maximum zu machen. Ein Bit "0" wird auf ähnliche Weise unter Verwendung eines geraden Index kodiert. In der aus vier Indizes bestehenden Umgebung ist die Wahrscheinlichkeit, daß die Parität des Index der Frequenz mit maximaler Spektralleistung mit jener übereinstimmen wird, die zur Kodierung des geeigneten Bitwertes erforderlich ist, 0.25. Deshalb würden im Mittel 25% der Blöcke auto-kodiert sein. Diese Art von Kodierung wird die Hörbarkeit eines Codes signifikant vermindernd.
  • Ein praktisches Problem, das mit der Blockkodierung durch entweder Amplituden- oder Phasenmodulation des oben beschriebenen Typs verknüpft ist, besteht darin, daß große Diskontinuitäten im Audiosignal an Grenzen zwischen aufeinanderfolgenden Blöcken auftreten können. Diese scharfen Übergänge können den Code hörbar machen. Um diese scharfen Übergänge zu eliminieren, kann das Zeit-Domänensignal v(t) vor der Durchführung der Fourier-Transformation im Schritt 44 im Schritt 42 mit einer glatten Einhüllenden oder Fensterfunktion w(t) multipliziert werden. Eine Fensterfunktion ist für die Modulation mittels des hier beschriebenen Frequenzaustauschansatzes nicht erforderlich. Die Frequenzverzerrung ist gewöhnlich klein genug, um lediglich geringfügige Randdiskontinuitäten in der Zeitdomäne zwischen benachbarten Blöcken zu erzeugen.
  • Die Fensterfunktion w(t) ist in 4 dargestellt. Deshalb ist die in Schritt 54 durchgeführte Analyse auf den Zentralabschnitt des Blocks beschränkt, der aus
    Figure 00220001
    resultiert. Die erforderliche Spektralmodulation wird in Schritt 56 auf die Transformation
    Figure 00220002
    angewandt.
  • Auf den Schritt 62 folgend wird im Schritt 64 das kodierte Zeitdomänensignal gemäß folgender Gleichung bestimmt:
    Figure 00230001
    wobei der erste Teil der rechten Seite von Gleichung (13) das ursprüngliche Audiosignal v(t) ist, wobei der zweite Teil der rechten Seite der Gleichung (13) die Kodierung ist und wobei die linke Seite der Gleichung (13) das resultierende kodierte Audiosignal v0(t) ist.
  • Während mittels des bislang beschriebenen Verfahrens einzelne Bits kodiert werden können, erfordert die geeignete Dekodierung von digitalen Daten auch (i) Synchronisation, um den Beginn der Daten zu lokalisieren und (ii) eingebaute Fehlerkorrektur, um einen zuverlässigen Datenempfang zu ermöglichen. Die aus der Kodierung durch Spektralmodulation resultierende Rohbit-Fehlerrate ist hoch und kann typischerweise Werte von 20% erreichen. Bei Vorliegen solcher Fehlerraten können sowohl Synchronisation als auch Fehlerkorrektur durch Verwendung von Pseudorausch-(PN)-Sequenzen aus Einsen und Nullen erreicht werden. Eine PN-Sequenz kann beispielsweise durch Verwendung eines m-stufigen Verschieberegisters 58 (wobei m im Falle von 5 drei ist) und eines Exklusiv-ODER-Gatters 60 erzeugt werden, wie es in 5 gezeigt ist. Zur Vereinfachung wird eine n-Bit PN-Sequenz hier als eine PNn-Sequenz bezeichnet. Für eine NPN-Bit PN-Sequenz ist ein m-stufiges Verschieberegister erforderlich, das gemäß folgender Gleichung arbeitet: NPN = 2m – 1 (14)wobei m eine ganze Zahl ist. Mit m = 3 ist beispielsweise die 7-Bit PN-Sequenz (PN7) 1110100. Die spezielle Sequenz ist abhängig von einer Ausgangseinstellung des Verschiebesregisters 58. In einer robusten Version des Kodierers 12 wird jedes einzelne Datenbit durch diese PN-Sequenz repräsentiert – d.h. 1110100 wird für ein Bit "1" verwendet und das Komplement 0001011 wird für ein Bit "0" verwendet. Die Verwendung von sieben Bits zur Kodierung jedes Code-Bits resultiert in extrem hohen Kodierungs-Overheads.
  • Ein alternatives Verfahren verwendet mehrere PN15-Sequenzen, wobei jede fünf Bits Codedaten umfaßt und 10 angefügte Fehlerkorrekturbits. Diese Darstellung ergibt einen Hamming-Abstand von 7 zwischen jeweils zwei 5-Bit-Code-Datenwörtern. Bis zu 3 Fehler in einer 15-Bit-Sequenz können detektiert und korrigiert werden. Diese PN15-Sequenz ist ideal geeignet für einen Kanal mit einer Rohbit-Fehlerrate von 20%.
  • Im Hinblick auf Synchronisation ist eine eindeutige Synchronisationssequenz 66 (7a) für eine Synchronisation erforderlich, um PN15-Code-Bitsequenzen 74 von anderen Bitsequenzen in dem kodierten Datenstrom zu unterscheiden. In einem bevorzugten Ausführungsbeispiel, das in 7b gezeigt ist, verwendet der erste Code-Block der Synchronisationssequenz 66 einen "Dreifachton" 70 der Synchronisationssequenz, in dem drei Frequenzen mit Indizes I0, I1 und Imid alle hinreichend verstärkt werden, daß jede ein Maximum in ihrer jeweiligen Umgebung wird, wie durch eines der Beispiele in 6 dargestellt ist. Es ist anzumerken, daß, obwohl es bevorzugt ist, den Dreifachton 70 durch Verstärkung der Signale bei den drei ausgewählten Frequenzen zu erzeugen, so daß diese relative Maxima in ihren jeweiligen Frequenzumgebungen sind, diese Signale stattdessen auch lokal gedämpft werden könnten, so daß die drei verknüpften lokalen Extremwerte drei lokale Minima umfassen. Es sollte angemerkt werden, daß jegliche Kombination aus lokalen Maxima und lokalen Minima für den Dreifachton 70 verwendet werden könnte. Da allerdings Rundfunkaudiosignale wesentliche Stilleperioden umfassen, involviert der bevorzugte Ansatz lokale Verstärkung statt lokale Dämpfung. Der Sprungsequenzwert für den Block, der das erste Bit in einer Sequenz ist und von dem der Dreifachton 70 abgeleitet wird, ist 2 und der Mittenfrequenzindex ist 55. Um den Dreifachtonblock wirklich eindeutig zu machen, kann ein Verschiebungsindex von 7 gewählt, statt der üblichen 5. Die drei Indizes I0, I1 und Imid, deren Amplituden alle verstärkt werden, sind 48, 62 und 55, wie in 6 gezeigt ist. (In diesem Beispiel gilt Imid = Hs + 53 = 2 + 53 = 55.). Der Dreifachton 70 ist der erste Block der 15-Block-Sequenz 66 und repräsentiert im Wesentlichen ein Bit Synchronisationsdaten. Die übrigen vierzehn Blöcke der Synchronisationssequenz 66 werden aus zwei PN7-Sequenzen gebildet: 1110100, 0001011. Dies bewirkt, daß die fünfzehn Synchronisationsblocks sich von allen PN-Sequenzen, die Codedaten repräsentieren, unterscheiden.
  • Wie bereits dargelegt, werden die zu übertragenden Codedaten in 5-Bit-Gruppen konvertiert, wobei jede dieser durch eine PN15-Sequenz repräsentiert wird. Wie in 7a gezeigt ist, wird ein unkodierter Block 72 zwischen jeweils aufeinanderfolgenden Paaren aus PN-Sequenzen 74 eingefügt. Während der Dekodierung erlaubt dieser unkodierte Block 72 (oder Spalt) zwischen benachbarten PN-Sequenzen 74 eine präzise Synchronisierung, indem er eine Suche nach einem Korrelationsmaximum über einen Bereich von Audiosamples ermöglicht.
  • Im Falle von Stereosignalen werden der linke und der rechte Kanal mit identischen digitalen Daten kodiert. Im Falle von Mono-Signalen werden der linke und der rechte Kanal kombiniert, um einen einzelnen Audiosignalstrom zu erzeugen. Da die für die Modulation ausgewählten Frequenzen in beiden Kanälen identisch sind, wird erwartet, daß der resultierende monophone Ton die gewünschten Spektraleigenschaften aufweist, so daß, wenn er dekodiert wird, derselbe digitale Code wiedergewonnen wird.
  • DEKODIEREN DES SPEKTRAL MODULIERTEN SIGNALS
  • In den meisten Fällen kann der eingebettete digitale Code aus dem am Audioausgang 28 des Empfängers 20 verfügbaren Audiosignals wiederhergestellt werden. Alternativ, oder wenn der Empfänger 20 keinen Audioausgang 28 hat, kann ein analoges Signal mittels dem in der Nähe der Lautsprecher 24 platzierten Mikrofon reproduziert werden. Falls das Mikrofon 30 verwendet wird, oder falls das Signal am Audioausgang 28 analog ist, konvertiert der Dekoder 20 das analoge Audio in einen gesampelten digitalen Ausgangsstrom mit einer bevorzugten Samplingrate, die zu der Samplingrate des Kodierers 12 paßt. In Dekodierungssystemen bei denen eine Beschränkung hinsichtlich Speicher und Computerleistung besteht, kann ein Halbraten-Sampling verwendet werden. Im Falle des Halbraten-Samplings würde jeder Code-Block aus Nc/2 = 256 Samples bestehen und die Auflösung in der Frequenzdomäne (d.h. die Frequenzdifferenz zwischen aufeinanderfolgenden Spektralkomponenten) würde wie im Falle der vollen Samplingrate beibehalten werden. Im Fall, daß der Empfänger 20 digitale Ausgaben liefert, werden die digitalen Ausgaben ohne Sampling direkt vom Dekoder 26 verarbeitet, aber bei einer Datenrate, die für den Dekoder 26 geeignet ist.
  • Die Aufgabe des Dekodierens besteht primär darin, die dekodierten Datenbits mit jenen einer PN15-Sequenz abzugleichen, die entweder eine Synchronisationssequenz oder eine Code-Datensequenz sein könnte, die jeweils eine oder mehrere Code-Datenbits repräsentiert. Hier wird der Fall amplitudenmodulierter Audioblöcke betrachtet. Allerdings ist die Dekodierung von phasenmodulierten Blöcken nahezu identisch, mit dem Unterschied, daß die Spektralanalyse, Phasenwinkel statt Amplitudenverteilungen vergleichen würde, und Dekodieren von Index-modulierten Blöcken würde gleichermaßen die Parität des Frequenzindex mit maximaler Leistung in der spezifizierten Umgebung analysieren. Auch durch Frequenzaustausch kodierte Audioblöcke können durch den selben Prozeß dekodiert werden.
  • In einer praktischen Anwendung der Audiodekodierung, wie sie beispielsweise in einem Heim-Einschaltquoten-Ermittlungssystem verwendet werden kann, ist es sehr erwünscht, einen Audiostrom in Realzeit dekodieren zu können. Es ist auch sehr erwünscht, die dekodierten Daten zu einer Zentralstelle zu übermitteln. Der Dekoder 26 kann so eingerichtet werden, daß er den unten beschriebenen Dekodierungsalgorithmus auf Hardware für die digitale Signalverarbeitung (DSP) ablaufen läßt, die üblicherweise bei solchen Anwendungen verwendet wird. Wie oben dargelegt, kann das eingehende kodierte Audiosignal am Dekoder 26 entweder am Audioausgang 28 oder am Mikrofon 30 verfügbar sein, das in der Nähe der Lautsprecher 24 platziert ist. Um die Verarbeitungsgeschwindigkeit zu vergrößern und Speichererfordernisse zu reduzieren, kann der Dekoder 26 das eingehende kodierte Audiosignal mit der halben (24 kHz) der normalen 48-kHz-Samplingrate sampeln.
  • Bevor die eigentlichen Datenbits, welche die Code-Information repräsentieren, wiedergewonnen werden, ist es erforderlich, die Synchronisationssequenz zu lokalisieren. Um die Synchronisationssequenz innerhalb eines eingehenden Audiostroms zu suchen, könnten Blöcke aus 256 Samples, die jeweils aus dem jüngst empfangenen Sample und den 255 vorangehenden Samples bestehen, analysiert werden. Für eine Realzeit-Verarbeitung muß diese Analyse, welche die Fast-Fourier-Transformation des 256-Sample-Blocks umfaßt, vor der Ankunft des nächsten Samples abgeschlossen werden. Das Durchführen einer 256-Punkt Fast-Fourier-Transformation auf einem 40-MHZ DSP-Prozessor benötigt 600 Mikrosekunden. Allerdings beträgt die Zeit zwischen. Samples lediglich 40 Mikrosekunden, was das Durchführen einer Realzeit-Verarbeitung des eingehenden kodierten Audiosignals, wie oben beschrieben, mit gängiger Hardware undurchführbar macht.
  • Deshalb kann der Dekoder 26, statt eine normale Fast-Fourier-Transformation auf jedem 256-Sample-Block durchzuführen, auch so eingerichtet werden, daß er eine Realzeit-Dekodierung durch Implementation einer inkrementierenden oder gleitenden Fast-Fourier-Transformations-Routine 100 (8) einsetzt, gekoppelt mit der Verwendung eines Statusinformations-Arrays SIS, das ständig mit fortschreitender Verarbeitung erneuert wird. Dieses Array umfaßt p Elemente, SIS [0] bis SIS [p-1]. Falls p = 64 ist, sind beispielsweise die Elemente im Statusinformations-Array SIS SIS[0] bis SIS[63].
  • Im Gegensatz zu einer konventionellen Transformation, welche das komplette Spektrum bestehend aus 256 Frequenz-"Bins" berechnet, berechnet der Dekoder 26 die Spektralamplitude lediglich für Frequenz-Indizes, die zu den interessierenden Umgebungen gehören, d.h. die von dem Kodierer 12 verwendeten Umgebungen. In einem typischen Beispiel sind Frequenzindizes, die von 45 bis 70 reichenden, geeignet, so daß das entsprechende Frequenzspektrum nur 26 Frequenz-Bins beinhaltet. Jeder wiedergewonnene Code taucht in einem oder in mehreren Elementen des Statusinformations-Arrays SIS auf, sobald das Ende des Mitteilungsblockes erreicht ist.
  • Zudem sei angemerkt, daß sich das durch eine Fast-Fourier-Transformation analysierte Frequenzspektrum typischerweise über eine kleine Anzahl Samples eines Audiostroms nur wenig verändert. Statt jeden Block aus 256 Samples, der aus einem "neuen" Sample und 255 "alten" Samples besteht, zu verarbeiten, können 256-Sample-Blöcke derart verarbeitet werden, daß in jedem zu verarbeitenden Block aus 256 Samples die letzten k Samples "neu" sind und die übrigen 256-k Samples von der vorherigen Analyse kommen. Im Fall k = 4 kann die Verarbeitungsgeschwindigkeit durch Springen durch den Audiostrom in Inkrementen von vier Samples vergrößert werden, wobei ein Sprungfaktor k definiert ist als k = 4, um diesem Vorgang Rechnung zu tragen.
  • Jedes Element SIS[p] des Statusinformations-Arrays SIS besteht aus fünf Mitgliedern: ein Vorzustandstatus PCS (PCS = "previous condition status"), ein Folgesprungindex JI (JI = "jump index"), ein Gruppenzähler GC (GC = "group counter"), ein Rohdaten-Array DA und ein Ausgangsdaten-Array OP. Das Rohdaten-Array DA hat die Kapazität fünfzehn ganze Zahlen aufzunehmen. Das Ausgangsdaten-Array OP speichert zehn ganze Zahlen, wobei jede ganze Zahl des Ausgangsdaten-Arrays OP einer Fünf-Bit-Zahl entspricht, die aus einer wiedergewonnen PN15-Sequenz extrahiert wird. Diese PN15-Sequenz hat demgemäß fünf tatsächliche Datenbits und zehn andere Bits. Diese anderen Bits können beispielsweise für Fehlerkorrektur verwendet werden. Es wird hier angenommen, daß die Nutzdaten in einem Mitteilungsblock aus 50 Bits bestehen, die in 10 Gruppen aufgeteilt sind, wobei jede Gruppe 5 Bits umfaßt, obgleich auch ein Mitteilungsblock einer beliebigen anderen Größe verwendet werden könnte.
  • Die Funktion des Statusinformations-Arrays SIS wird am Besten in Verbindung mit 8 erklärt. Ein Ausgangsblock von 256 Samples empfangener Audiodaten wird in einer Verarbeitungsstufe 102 in einen Puffer gelesen. Der Ausgangsblock aus 256 Samples wird in einer Verarbeitungsstufe 104 durch eine konventionelle Fast-Fourier-Transformation analysiert, um dessen Spektralleistungsverteilung zu erhalten. Alle darauffolgenden Transformationen, die durch die Routine 100 durchgeführt werden, verwenden den Hochgeschwindigkeits-Inkremental-Ansatz, auf den oben Bezug genommen wurde und der unten beschrieben wird.
  • Um als Erstes die Synchronisationssequenz zu lokalisieren, wird die Fast-Fourier-Transformation, die dem in der Verarbeitungsstufe 102 gelesenen anfänglichen 256-Sample-Block entspricht, in einer Verarbeitungsstufe 106 auf einen Dreifachton getestet, welcher das erste Bit in der Synchronisationssequenz repräsentiert. Die Gegenwart eines Dreifachtons kann ermittelt werden, indem der anfängliche 256-Sample-Block für die Indizes I0, I1 und Imid untersucht wird, die vom Kodierer 12 bei der Erzeugung des Dreifachtons wie oben beschrieben verwendet wurden wurde. Das SIS[p]-Element des SIS-Arrays, das mit diesem Ausgangsblock von 256 Samples verknüpft ist, ist SIS[0], wobei der Status-Array- Index p gleich 0 ist. Falls ein Dreifachton in der Verarbeitungsstufe 106 gefunden wird, werden die Werte bestimmter Mitglieder des SIS[0]-Elements des Statusinformations-Arrays SIS in einer Verarbeitungsstufe 108 wie folgt verändert: Der Vorzustandstatus PCS, der anfänglich auf 0 gesetzt ist, wird auf 1 gesetzt, was anzeigt, daß ein Dreifachton in dem Sample-Block gefunden wurde, der SIS[0] entspricht; der Wert des nächsten Sprungindex JI wird auf 1 inkrementiert; und die erste Ganzzahl des Rohdatenmitglieds DA[0] in dem Rohdaten-Array DA wird auf den Wert (0 oder 1) des Dreifachtons gesetzt. In diesem Fall wird die erste Ganzzahl des Rohdatenmitglieds DA[0] in dem Rohdaten-Array DA auf 1 gesetzt, da in der Analyse angenommen wird, daß der Dreifachton das Äquivalent eines 1-Bits ist. Auch wird der Status-Array-Index p für den nächsten Sample-Block um eins inkrementiert. Falls kein Dreifachton vorliegt, werden in der Verarbeitungsstufe 108 keine dieser Änderungen am SIS[0]-Element durchgeführt, aber der Status-Array-Index p wird dennoch für den nächsten Sample-Block um eins inkrementiert. Egal ob ein Dreifachton in diesem 256-Sample-Block detektiert wird oder nicht, tritt die Routine 100 in Verarbeitungsstufe 110 in einen inkrementellen FFT-Modus ein.
  • Dementsprechend wird ein neues 256-Sample-Block-Inkrement in Verarbeitungsstufe 112 in den Puffer gelesen, indem vier neue Samples zum anfänglichen 256-Sample-Block, der in den Verarbeitungsstufen 102 bis 106 verarbeitet wurde, hinzugefügt werden und die vier ältesten Samples fallengelassen werden. Dieses neue 256-Sample-Block-Inkrement wird in Verarbeitungsstufe 114 gemäß der folgenden Schritte analysiert:
    SCHRITT 1: Der Sprungfaktor k der Fourier-Transformation wird gemäß der folgenden Gleichung angewendet, um jede Frequenzkomponente Fold(u0) des Spektrums, welche dem Ausgangs-Sample-Block entspricht, zu modifizieren, um eine entsprechende Zwischenfrequenzkomponente F1(u0) abzuleiten:
    Figure 00310001
    wobei u0 der interessierende Frequenzindex ist. Gemäß des oben beschriebenen typischen Beispiels variiert der Frequenzindex u0 von 45 bis 70. Es sei auch angemerkt, daß dieser erste Schritt die Multiplikation zweier komplexer Zahlen involviert.
  • SCHRITT 2: Die Wirkung der ersten vier Samples des alten 256-Sample-Blocks wird dann aus jedem F1(u0) des Spektrums, das dem Ausgangs-Sample-Block entspricht, eliminiert und die Wirkung der vier neuen Samples wird in jedem F1(u0) des Spektrums, das dem derzeitigen Sample-Block-Inkrement entspricht, aufgenommen, um die neue Spektralamplitude Fnew(u0) für jeden Frequenzindex u0 gemäß der folgenden Gleichung zu erhalten:
    Figure 00310002
    wobei Fold und Fnew die Zeitdomänen-Samplewerte sind. Es sei auch angemerkt, daß dieser zweite Schritt die Addition einer komplexen Zahl mit der Summe eines Produkts einer reellen Zahl und einer komplexen Zahl umfaßt. Diese Berechnung wird über den interessierenden Frequenz-Index-Bereich wiederholt (zum Beispiel 45 bis 70).
  • SCHRITT 3: Der Wirkung der Multiplikation des 256-Sample-Blocks mit der Fensterfunktion im Kodierer 12 wird dann Rechnung getragen. Das heißt, die Ergebnisse von obigem Schritt 2 sind nicht beschränkt durch die Fensterfunktion, die im Kodierer 12 verwendet wird. Deshalb sollten die Ergebnisse aus Schritt 2 vorzugsweise mit dieser Fensterfunktion multipliziert werden. Da die Multiplikation in der Zeitdomäne äquivalent ist zu einer Faltung des Spektrums mit der Fourier-Transformation der Fensterfunktion, können die Ergebnisse des zweiten Schritts mit der Fensterfunktion gefaltet werden. In diesem Fall ist die bevorzugte Fensterfunktion für diesen Vorgang die folgende wohl bekannte "raised-cosine"-Funktion, welche ein schmales 3-Index-Spektrum mit Amplituden (–0.50, 1, +0.50) aufweist:
    Figure 00320001
    wobei TW die Breite des Fensters in der Zeitdomäne ist. Diese "raised-cosine"-Funktion erfordert lediglich drei Multiplikations- und Additionsvorgänge, welche die Real- und Imaginärteile der Spektralamplitude involvieren. Dieser Vorgang verbessert die Verarbeitungsgeschwindigkeit signifikant. Dieser Schritt ist im Falle einer Modulation durch Frequenzaustausch nicht erforderlich.
  • SCHRITT 4: Das aus Schritt 3 resultierende Spektrum wird dann auf die Gegenwart eines Dreifachtons untersucht. Falls ein Dreifachton gefunden wird, werden die Werte von bestimmten Elementen des SIS[1]-Elements des Statusinformations-Arrays SIS in einer Verarbeitungsstufe 116 wie folgt gesetzt: Der Vorzustandstatus PCS, der anfänglich auf 0 gesetzt wird, wird auf 1 geändert; der Wert des nächsten Sprungindex JI wird auf 1 inkrementiert; und die erste Ganzzahl des Rohdaten- Mitglieds DA[1] in dem Rohdaten-Array DA wird auf 1 gesetzt. Auch wird der Status-Array-Index p um eins inkrementiert. Falls kein Dreifachton vorliegt, werden in der Verarbeitungsstufe 116 keine dieser Änderungen für die Struktur des SIS[1]-Elements durchgeführt, aber der Status-Array-Index p wird dennoch um eins inkrementiert.
  • Da p noch nicht gleich 64 ist, wie in der Verarbeitungsstufe 118 ermittelt wird, und der Gruppenzähler GC noch keinen Zählwert von 10 akkumuliert hat, wie in Verarbeitungsstufe 120 ermittelt wird, geht diese Analyse, die den Verarbeitungsstufen 112 bis 120 entspricht, in der oben beschriebenen Weise in Inkrementen von vier Samples weiter vor, wobei p für jedes Sample-Inkrement inkrementiert wird. Wenn SIS[63] erreicht wird, wo p = 64, wird p in der Verarbeitungsstufe 118 auf 0 zurückgesetzt und das 256-Sample-Block-Inkrement, das nun im Puffer ist, liegt exakt 256 Samples entfernt von dem Ort im Audiostrom, bei dem das SIS[0]-Element letztmals erneuert wurde. Jedes Mal, wenn p 64 erreicht, wird das SIS-Array, das durch die Elemente SIS[0] bis SIS[63] repräsentiert wird, untersucht, um zu ermitteln, ob der Vorzustandstatus PCS eines beliebigen dieser Elemente Eins ist, was einen Dreifachton anzeigt. Falls der Vorzustandstatus PCS eines beliebigen dieser Elemente, das den gegenwärtigen 64-Sample-Block-Inkrementen entspricht, nicht Eins ist, werden die Verarbeitungsstufen 112 bis 120 für die nächsten 64 Block-Inkremente wiederholt. (Jedes Block-Inkrement umfaßt 256 Samples).
  • Sobald der Vorbezustandstatus PCS für all jene SIS[0] bis SIS[63]-Elemente gleich 1 ist, die einem beliebigen Satz von 64-Sample-Block-Inkrementen entsprechen, und das entsprechende Rohdaten-Mitglied DA[p] auf den Wert des Dreifachton-Bits gesetzt ist, werden die nächsten 64-Block-Inkremente in den Verarbeitungsstufen 112 bis 120 analysiert hinsichtlich des nächsten Bits in der Synchronisationssequenz.
  • Jedes der neuen Block-Inkremente beginnend wo p auf 0 zurückgesetzt wurde, wird bzgl. des nächsten Bits in der Synchronisationssequenz analysiert. Diese Analyse verwendet das zweite Mitglied der Sprungsequenz Hs, da der nächste Sprungindex JI gleich 1 ist. Von dieser Sprungsequenzzahl und dem bei der Kodierung verwendeten Verschiebungsindex können die Indizes I1 und I0 bestimmt werden, zum Beispiel über die Gleichungen (2) und (3). Dann werden die Umgebungen der I1 und I0-Indizes analysiert, um im Falle der Amplitudenmodulation Maxima und Minima zu lokalisieren. Falls beispielsweise ein Leistungsmaximum bei I1 und ein Leistungsminimum bei I0 detektiert wird, wird das nächste Bit der Synchronisationssequenz als 1 genommen. Um die gleichen Veränderungen im Signal zu ermöglichen, die aufgrund von Kompression oder anderen Formen von Verzerrung auftreten könnten, wird es dem Index für entweder die maximale Leistung oder die minimale Leistung in einer Umgebung ermöglicht, um 1 von seinem erwarteten Wert abzuweichen. Falls beispielsweise ein Leistungsmaximum im Index I1 gefunden wird und falls das Leistungsminimum in der I0-Umgebung bei I0 – 1 gefunden wird statt bei I0, so wird das nächste Bit in der Synchronisationssequenz dennoch als 1 genommen. Falls andererseits ein Leistungsminimum bei I1 und ein Leistungsmaximum bei I0 unter Verwendung derselben oben diskutierten erlaubten Veränderungen detektiert werden, so wird das nächste Bit in der Synchronisationssequenz als 0 genommen. Falls allerdings keine dieser Bedingungen erfüllt sind, wird der Ausgangscode auf –1 gesetzt, was einen Sample-Block anzeigt, der nicht dekodiert werden kann. Angenommen ein 0-Bit oder ein 1-Bit wird gefunden, so wird die zweite Ganzzahl des Rohdaten-Mitglieds DA[1] in dem Rohdaten-Array DA auf den geeigneten Wert gesetzt und der nächste Sprungindex JI von SIS[0] wird auf 2 inkrementiert, was dem dritten Mitglied der Sprungsequenz Hs entspricht. Aus dieser Sprungsequenzzahl und dem bei der Kodierung verwendeten Verschiebungsindex können die Indizes I1 und I0 bestimmt werden. Dann werden die Umgebungen der I1 und I0 Indizes analysiert, um im Falle der Amplitudenmodulation lokale Maxima und Minima zu lokalisieren, so daß der Wert des nächsten Bits aus dem dritten Satz von 64-Block-Inkrementen dekodiert werden kann, usw. für 15 solcher Bits der Synchronisationssequenz. Die in dem Rohdaten-Array DA gespeicherten fünfzehn Bits können dann mit einer Referenzsynchronisationssequenz verglichen werden, um die Synchronisation zu bestimmen. Falls die Fehlerzahl zwischen den 15 in dem Rohdaten-Array DA gespeichert Bits und der Referenzsynchronisationssequenz einen im voraus gesetzten Schwellenwert überschreitet, ist die extrahierte Sequenz nicht als Synchronisation akzeptabel und die Suche nach der Synchronisationssequenz beginnt von Neuem mit einer Suche nach einem Dreifachton.
  • Falls so eine gültige Synchronisationssequenz detektiert wird, liegt eine gültige Synchronisation vor und die PN15-Datensequenzen können dann unter Verwendung derselben Analyse extrahiert werden, wie sie für die Synchronisationssequenz verwendet wird, mit der Ausnahme, daß die Detektion jeder PN15-Datensequenz nicht bedingt wird durch die Detektion des Dreifachtons, der für die Synchronisationssequenz reserviert ist. Mit Auffinden jedes Bits einer PN15-Datensequenz wird dieses als eine entsprechende Ganzzahl des Rohdaten-Arrays DA eingefügt. Wenn alle Ganzzahlen des Rohdaten-Arrays DA aufgefüllt sind, (i) werden diese Ganzzahlen mit jedem der zweiunddreißig möglichen PN15-Sequenzen verglichen (ii) zeigt die am besten übereinstimmende Sequenz an, welche 5-Bit-Zahl zum Schreiben in die geeignete Array-Position des Ausgangsdaten-Arrays OP auszuwählen ist, und (iii) wird das Gruppenzähler GC-Mitglied inkrementiert, um anzuzeigen, daß die erste PN15-Datensequenz erfolgreich extrahiert wurde. Falls der Gruppenzähler GC noch nicht auf 10 inkrementiert wurde, wie in der Verarbeitungsstufe 120 ermittelt wird, kehrt der Programmfluß zurück zur Verarbeitungsstufe 112, um die nächste PN15-Datensequenz zu dekodieren.
  • Wenn der Gruppenzähler GC auf 10 inkrementiert wurde, wie in der Verarbeitungsstufe 120 ermittelt wird, wird das Ausgangsdaten-Array OP, das eine volle 50-Bit-Mitteilung beinhaltet, in einer Verarbeitungsstufe 122 gelesen. Die Gesamtzahl an Samples in einem Mitteilungsblock ist 45,056 bei einer Halbraten-Samplingfrequenz von 24 kHz. Es ist möglich, daß mehrere benachbarte Elemente des Statusinformations-Arrays SIS die jeweils einen Mitteilungsblock repräsentieren, der durch vier Samples von seinem Nachbarn separiert ist, zur Wiederherstellung derselben Mitteilung führen können, da Synchronisation an verschiedenen nahe beieinander liegenden Positionen im Audiostrom auftreten kann. Falls all diese Mitteilungen identisch sind, besteht eine hohe Wahrscheinlichkeit, daß ein fehlerfreier Code empfangen wurde.
  • Sobald eine Mitteilung wiederhergestellt wurde und die Mitteilung in der Verarbeitungsstufe 122 gelesen wurde, wird der Vorzustandstatus PCS des entsprechenden SIS-Elements in einer Verarbeitungsstufe 124 auf Null gesetzt, so daß das Suchen nach dem Dreifachton der Synchronisationssequenz des nächsten Mitteilungsblocks in einer Verarbeitungsstufe 126 wieder aufgenommen wird.
  • MEHRSTUFEN-KODIERUNG
  • Oft besteht das Bedürfnis, mehr als eine Mitteilung in denselben Audiostrom einzufügen. Beispielsweise könnte beim Fernsehrundfunk der Netzerzeuger des Programms seinen Identifikationscode und Zeitstempel einfügen und eine netzangegliederte Station, die dieses Programm überträgt, könnte ihren eigenen Identifikationscode einfügen. Zudem könnte ein Werbetreibender oder Sponsor wünschen, daß sein Code hinzugefügt wird. Um eine derartige Mehrstufen-Kodierung zu ermöglichen, können 48 Bits in einem 50-Bit-System für den Code verwendet werden und die übrigen 2 Bits können für die Spezifikation der Stufe verwendet werden. Gewöhnlich wird der ursprüngliche Programmmaterial-Erzeuger, zum Beispiel das Netz, Codes in den Audiostrom einfügen. Dessen erster Mitteilungsblock würde Stufenbits aufweisen, die auf 00 gesetzt sind, und im Falle eines dreistufigen System würde nur eine Synchronisationssequenz und die zwei Stufenbits für den zweiten und dritten Mitteilungsblock gesetzt sein. Beispielsweise können die Stufenbits für die zweite und die dritte Mitteilung beide auf 11 gesetzt werden, was anzeigt, daß die eigentlichen Datenbereiche ungenutzt gelassen werden.
  • Die Netz-angegliederte Station kann nun ihren Code mit einer Dekoder/Kodierer-Kombination einfügen, welche die Synchronisation des zweiten Mitteilungsblocks mit der 11 Stufeneinstellung lokalisieren würde. Diese Station fügt ihren Code in den Datenbereich dieses Blocks ein und setzt die Stufenbits auf 01. Der Kodierer der nächsten Stufe fügt seinen Code in den Datenbereich des dritten Mitteilungsblocks ein und setzt die Stufenbits auf 10. Während der Dekodierung unterscheiden die Stufenbits die jeweiligen Mitteilungsstufenkategorien.
  • CODE-LÖSCHUNG UND ÜBERSCHREIBUNG
  • Es könnte auch erforderlich sein, Mittel zum Löschen eines Codes oder zum Löschen und Überschreiben eines Codes bereitzustellen. Löschen kann erreicht werden, indem die Dreifachton/Synchronisationssequenz unter Verwendung eines Dekoders detektiert wird und indem dann wenigstens eine der Dreifachtonfrequenzen derart modifiziert wird, daß der Code nicht länger wiederherstellbar ist. Das Überschreiben involviert das Extrahieren der Synchronisationssequenz in den Audiodaten, das Testen der Datenbits in dem Datenbereich und das Einsetzen eines neuen Bits nur in jene Blöcke, welche nicht die gewünschten Bit-Werte aufweisen. Das neue Bit wird durch Verstärkung und Dämpfung geeigneter Frequenzen im Datenbereich eingefügt.
  • VERZÖGERUNGSKOMPENSIERUNG
  • In einer praktischen Anwendung des Kodierers 12 werden zu jedem beliebigen Zeitpunkt NC Audiosamples verarbeitet, wobei NC typischerweise 512 beträgt. Um einen Betrieb mit einer minimalen Durchsatzverzögerung zu erreichen, werden folgende Puffer verwendet: Eingangspuffer IN0 und IN1 und Ausgangspuffer OUT0 und OUT1. Jeder dieser Puffer kann NC Samples speichern. Während im Eingangspuffer IN0 Samples verarbeitet werden, empfängt der Eingangspuffer IN1 neue eingehende Samples. Die verarbeiteten Ausgangssamples vom Eingangspuffer IN0 werden in den Ausgangspuffer OUT0 geschrieben und vorher kodierte Samples werden aus dem Ausgangspuffer OUT1 zum Ausgang geschrieben. Wenn der mit jedem dieser Puffer verknüpfte Ablauf beendet ist, beginnt die Verarbeitung auf den im Eingangspuffer IN1 gespeicherten Samples, während der Eingangspuffer IN0 mit dem Empfang neuer Daten beginnt. Nun werden Daten vom Ausgangspuffer OUT0 zum Ausgang geschrieben. Dieser Zyklus des Umschaltens zwischen den Pufferpaaren in den Eingangs- und Ausgangssektionen des Kodierers fährt solange fort, solange neue Audiosamples zur Kodierung ankommen. Es ist klar, daß ein am Eingang eintreffendes Sample eine Verzögerung erfährt, die gleich der Zeitdauer ist, die für das Auffüllen zweier Puffer bei der Samplingrate von 48 kHz benötigt wird, bevor dessen kodierte Version am Ausgang auftaucht. Diese Verzögerung ist ungefähr 22 ms. Wenn der Kodierer 12 im Zusammenhang mit Fernsehrundfunk verwendet wird, ist es erforderlich, diese Verzögerung zu kompensieren, um die Synchronisation zwischen Video und Audio aufrechtzuerhalten.
  • Solch eine Kompensationseinrichtung ist in 9 gezeigt. Wie in 9 gezeigt ist, wird eine Kodierungseinrichtung 200, die für die Elemente 12, 14 und 18 in 1 verwendet werden kann, eingerichtet, um entweder analoge Video- und Audioeingaben, oder digitale Video- und Audioeingaben zu empfangen. Analoge Video- und Audioeingaben werden den entsprechenden Video- und Audio-Analog-Digital-Konvertern 202 und 204 zugeführt. Die Audiosamples vom Audio-Analog-Digital-Konverter 204 werden einem Audiokodierer 206 zugeführt, der einen bekannten Aufbau haben kann, oder der so eingerichtet sein kann, wie oben beschrieben wurde. Die digitale Audioeingabe wird direkt dem Audiokodierer 206 zugeführt. Falls der digitale Eingangs-Bitstrom eine Kombination von digitalen Video- und Audio-Bitstrom-Anteilen ist, wird alternativ der digitale Eingangs-Bitstrom einem Demultiplexer 208 zugeführt, der die digitalen Video- und Audio-Anteile des digitalen Eingangs-Bitstroms trennt und den separierten digitalen Audio-Anteil dem Audiokodierer 206 zuführt.
  • Da der Audiokodierer 206 dem digitalen Audio-Bitstrom wie oben diskutiert eine Verzögerung bezüglich dem digitalen Video-Bitstrom auferlegt, wird eine Verzögerung 210 in den digitalen Video-Bitstrom eingeführt. Die dem digitalen Video-Bitstrom durch die Verzögerung 210 auferlegte Verzögerung ist gleich der Verzögerung, die dem digitalen Audio-Bitstrom durch den Audiokodierer 206 auferlegt wird. Demgemäß werden der digitale Video- und der digitale Audio-Bitstrom nach der Kodierungseinrichtung 200 synchronisiert sein.
  • Falls der Kodierungseinrichtung 200 analoge Video- und Audio-Eingaben zugeführt werden, wird die Ausgabe der Verzögerung 210 einem Video-Digital-Analog-Konverter 212 zugeführt und die Ausgabe des Audiokodierers 206 wird einem Audio-Digital-Analog-Konverter 214 zugeführt. Im Fall, daß der Kodierungseinrichtung 200 separierte digitale Video- und Audio-Bitströme zugeführt werden, wird die Ausgabe der Verzögerung 210 direkt als eine digitale Videoausgabe der Kodierungseinrichtung 200 ausgegeben und die Ausgabe des Audiokodierers 206 wird direkt als eine digitale Audio-Ausgabe der Kodierungseinrichtung 200 ausgegeben. Falls der Kodierungseinrichtung 200 ein kombinierter digitaler Video- und Audio-Bitstrom zugeführt wird, werden allerdings die Ausgaben der Verzögerung 210 und des AudikKodierers 206 einem Multiplexer 216 zugeführt, der die digitalen Video- und Audio-Bitströme als eine Ausgabe der Kodierungseinrichtung 200 wieder rekombiniert.
  • Verschiedene Abwandlungen der vorliegenden Erfindung wurden oben diskutiert. Andere Abwandlungen werden dem Fachmann der vorliegenden Erfindung leicht offensichtlich. Beispielsweise umfaßt gemäß obiger Beschreibung die Kodierungseinrichtung 200 eine Verzögerung 210, die dem Video-Bitstrom eine Verzögerung auferlegt, um die Verzögerung zu kompensieren, die dem Audio-Bitstrom durch den Audiokodierer 206 auferlegt wird. Allerdings können einige Ausführungsbeispiele der Kodierungseinrichtung 200 auch einen Videokodierer 218 umfassen, der vom bekannten Aufbau sein kann, um die Videoausgabe des Video-Analog-Digital-Konverters 202 zu kodieren, oder den digitalen Video-Eingangsbitstrom, oder die Ausgabe des Demultiplexers 208, je nach Gegebenheiten. Wenn der Videokodierer 218 verwendet wird, können der Audiokodierer 206 und/oder der Videokodierer 218 so eingestellt werden, daß die relative Verzögerung, die den Audio- und Video-Bitströmen auferlegt wird, Null ist, so daß die Audio- und Video-Bitströme dadurch synchronisiert werden. In diesem Fall ist die Verzögerung 210 nicht erforderlich. Alternativ kann die Verzögerung 210 verwendet werden, um eine geeignete Verzögerung bereitzustellen, und kann entweder in die Video- oder die Audio-Verarbeitung eingefügt werden, so daß die relative Verzögerung, die den Audio- und Video-Bitströme auferlegt wird, Null ist, so daß die Audio- und Video-Bitströme dadurch synchronisiert werden.
  • In wieder anderen Ausführungsbeispielen der Kodierungseinrichtung 200 kann der Videokodierer 216 und nicht der Audiokodierer 206 verwendet werden. In diesem Fall kann die Verzögerung 210 erforderlich sein, um dem Audio-Bitstrom eine Verzögerung aufzuerlegen, so daß die relative Verzögerung zwischen den Audio- und Video-Bitströmen Null ist, so daß die Audio- und Video-Bitströme dadurch synchronisiert werden.
  • Demgemäß ist die Beschreibung der vorliegenden Erfindung lediglich als illustrativ aufzufassen und dient dazu, dem Fachmann den besten Weg zur Ausführung der Erfindung darzulegen. Die ausschließliche Benutzung aller Modifikationen, die innerhalb des Schutzbereichs der beigefügten Ansprüche fallen, ist vorbehalten.

Claims (33)

  1. Verfahren zum Hinzufügen eines binären Code-Bits zu einem Block (42) eines innerhalb einer vorbestimmten Bandbreite variierenden Signals, wobei das Verfahren folgende Schritte aufweist: a) Auswählen einer Referenzfrequenz (f5k) innerhalb der vorbestimmten Signalbandbreite und Verknüpfen sowohl einer ersten Codefrequenz (f1), die einen ersten vorbestimmten Abstand von der Referenzfrequenz (f5k) hat, als auch einer zweiten Codefrequenz, die einen zweiten vorbestimmten Abstand von der Referenzfrequenz (f5k) hat, mit der Referenzfrequenz (f5k); b) Messen der Spektralleistung des Signals innerhalb des Blocks (42) in einer ersten sich um die erste Codefrequenz (f1) erstreckenden Frequenzumgebung und in einer zweiten sich um die zweite Codefrequenz (f0) erstreckenden Frequenzumgebung, gekennzeichnet durch c) Erhöhen der Spektralleistung bei der ersten Codefrequenz (f1), um die Spektralleistung (Pmax1) bei der ersten Codefrequenz (f1) zu einem Maximum in der Frequenzumgebung zu machen; und, d) Verringern der Spektralleistung bei der zweiten Codefrequenz (f0), um die Spektralleistung (Pmin0) bei der zweiten Codefrequenz (f0) zu einem Minimum in der zweiten Frequenzumgebung zu machen.
  2. Verfahren nach Anspruch 1, bei dem die erste und die zweite Codefrequenz (f1, f0) gemäß der Referenzfrequenz (f5k), einer Frequenzsprungsequenzzahl (Ns) und einem vorbestimmten Verschiebungsindex (Ishift) ausgewählt werden.
  3. Verfahren nach Anspruch 1, bei dem die erste und die zweite Codefrequenz (f1, f0) gemäß der folgenden Gleichungen ausgewählt werden: I1 = I5k + Hs – Ishift und I0 = I5k + Hs + Ishift wobei I5k die Referenzfrequenz ist, Hs eine Frequenzsprungsequenzzahl ist, –Ishift der erste vorbestimmte Verschiebungsindex ist und +Ishift der zweite vorbestimmte Verschiebungsindex ist.
  4. Verfahren nach Anspruch 1, bei dem die Referenzfrequenz (f5k) in einem Schritt a) gemäß folgender Schritte ausgewählt wird: a1) Auffinden, innerhalb eines vorbestimmten Abschnitts der Bandbreite, einer Frequenz, bei der das Signal ein Maximum der Spektralleistung aufweist; und a2) Addieren einer vorbestimmten Frequenzverschiebung zu dieser Frequenz mit maximaler Spektralleistung.
  5. Verfahren nach Anspruch 4, bei dem das Signal ein Audiosignal ist, bei dem der vorbestimmte Abschnitt der Bandbreite einen unteren Abschnitt der Bandbreite aufweist, der sich von der niedrigsten Frequenz bis 2 kHz erstreckt.
  6. Verfahren nach Anspruch 1, bei dem die erste und die zweite Codefrequenz (f1, f0) gemäß den folgenden Gleichungen ausgewählt werden: I1 = I5k + Imax – Ishift und I0 = I5k + Imox + Ishift wobei I5k die Referenzfrequenz ist, Imax ein Index ist, der einer Frequenz entspricht, bei der das Signal eine maximale Spektralleistung aufweist, –Ishift der erste vorbestimmte Verschiebungsindex ist, und +Ishift der zweite vorbestimmte Verschiebungsindex ist.
  7. Verfahren nach Anspruch 1, bei dem ein Synchronisationsblock (66) zum Signal hinzugefügt wird, wobei der Synchronisationsblock gekennzeichnet ist durch einen Dreifachtonabschnitt (70).
  8. Verfahren nach Anspruch 1, bei dem das Signal eine Spektralleistung aufweist, die in Umgebungen der Referenzfrequenz (f5k), der ersten Codefrequenz (f1) und der zweiten Codefrequenz (f0) ein Maximum ist.
  9. Verfahren nach Anspruch 6, bei dem ein Synchronisationsblock (66) zum Signal hinzugefügt wird, und wobei der Synchronisationsblock (66) gekennzeichnet ist durch einen Dreifachtonabschnitt (70).
  10. Verfahren nach Anspruch 1, bei dem der erste und der zweite vorbestimmte Abstand gleiche Beträge aber unterschiedliche Vorzeichen aufweisen.
  11. Verfahren nach Anspruch 1, bei dem die erste Codefrequenz (f1) größer ist als die Referenzfrequenz (f5k), und bei dem die zweite Codefrequenz (f0) kleiner ist als die Referenzfrequenz (f5k).
  12. Verfahren nach Anspruch 1, bei dem die zweite Codefrequenz (f0) größer ist als die Referenzfrequenz (f5k) und bei dem die erste Codefrequenz (f1) kleiner ist als die Referenzfrequenz (f5k).
  13. Verfahren nach Anspruch 1, bei dem mehrere binäre Codebits zum Signal hinzugefügt werden, indem die Schritte a)-d) mehrmals wiederholt werden.
  14. Verfahren zum Lesen einer digital kodierten Mitteilung, die mit einem Signal übertragen wird, das eine zeitveränderliche Intensität aufweist, wobei das Signal gekennzeichnet ist durch eine Signalbandbreite, und wobei die digital kodierte Mitteilung mehrere binäre Bits aufweist, wobei das Verfahren die folgenden Schritte aufweist: a) Auswählen einer Referenzfrequenz (f5k) innerhalb der Signalbandbreite; b) Auswählen einer ersten Codefrequenz (f1) bei einem ersten vorbestimmten Frequenzabstand von der Referenzfrequenz (f5k) und Auswählen einer zweiten Codefrequenz (f0) bei einem zweiten vorbestimmten Frequenzabstand von der Referenzfrequenz (f5k) ; und, gekennzeichnet durch c) Herausfinden, welche der ersten und der zweiten Codefrequenzen (f1, f0) eine mit ihr verknüpfte Spektralamplitude aufweist, die ein Maximum innerhalb einer entsprechenden Frequenzumgebung ist, und Herausfinden, welche der ersten und der zweiten Codefrequenzen (f1, f0) eine mit ihr verknüpfte Spektralamplitude aufweist, die ein Minimum innerhalb einer entsprechenden Frequenzumgebung ist, um dadurch einen Wert eines empfangenen der binären Bits zu bestimmen.
  15. Verfahren nach Anspruch 14, das ferner den Schritt des Auffindens eines Dreifachtons aufweist, gekennzeichnet dadurch, daß (i) das empfangene Signal eine Spektralamplitude bei der Referenzfrequenz (f5k) aufweist, die ein lokales Maximum innerhalb einer Frequenzumgebung der Referenzfrequenz (f5k) ist, (ii) das empfangene Signal eine Spektralamplitude bei der ersten Codefrequenz (f1) aufweist, die ein lokales Maximum innerhalb einer Frequenzumgebung ist, die der erstem Codefrequenz (f1) entspricht, und (iii) das empfangene Signal eine Spektralamplitude bei der zweiten Codefrequenz (f0) auf weist, die ein lokales Maximum innerhalb einer Frequenzumgebung ist, die der zweiten Codefrequenz (f1) entspricht.
  16. Verfahren nach Anspruch 14, bei dem die erste und die zweite Codefrequenz (f1, f0) ausgewählt werden gemäß der Referenzfrequenz (f5k), einer Frequenzsprungsequenz (Hs) und einem vorbestimmten Verschiebungsindex (Ishift).
  17. Verfahren nach Anspruch 14, bei dem die erste und die zweite Codefrequenz (f1, f0) gemäß folgender Schritte ausgewählt werden: Auffinden, innerhalb eines vorbestimmten Abschnitts der Bandbreite, jener Frequenz, bei der die Spektralamplitude des Signals ein Maximum ist; und Addieren einer vorbestimmten Frequenzverschiebung zu dieser Frequenz mit maximaler Spektralamplitude.
  18. Verfahren nach Anspruch 17, wobei das Signal ein Audiosignal ist, wobei der vorbestimmte Abschnitt der Bandbreite einen unteren Abschnitt der Bandbreite aufweist, der sich von dessen niedrigster Frequenz bis 2 kHz darüber erstreckt.
  19. Verfahren nach Anspruch 14, bei dem der erste und der zweite vorbestimmte Frequenzabstand gleiche Beträge, aber unterschiedliche Vorzeichen aufweisen.
  20. Kodierer (12), der ausgelegt ist, um ein binäres Bit eines Codes zu einem Block (42) eines Signals mit einer innerhalb einer vorbestimmten Signalbandbreite variierenden Intensität zu addieren, umfassend: einen Selektor, der ausgelegt ist, um innerhalb des Blocks (42) auszuwählen, (i) eine Referenzfrequenz (f5k) innerhalb der vorbestimmten Signalbandbreite, (ii) eine erste Codefrequenz (f1) mit einem ersten vorbestimmten Abstand von der Referenzfrequenz (f5k), und (iii) eine zweite Codefrequenz (f0) mit einem zweiten vorbestimmten Abstand von der Referenzfrequenz (f5k) einen Detektor, der ausgelegt ist, um eine Spektralamplitude des Signals in einer ersten sich um die erste Codefrequenz eerstreckenden Frequenzumgebung und in einer zweiten sich um die zweite Codefrequenz erstreckenden Frequenzumgebung zu detektieren; und einen Bit-Einfüger; gekennzeichnet dadurch, daß der Bit-Einfüger ausgelegt ist, um das binäre Bit einzufügen, indem er die Spektralamplitude bei der ersten Codefrequenz (f1) erhöht, um die Spektralamplitude bei der ersten Codefrequenz (f1) zu einem Maximum in der ersten Frequenzumgebung zu machen, und die Spektralamplitude bei der zweiten Codefrequenz (f0) zu verringern, um die Spektralamplitude bei der zweiten Codefrequenz (f0) zu einem Minimum in der zweiten Frequenzumgebung zu machen.
  21. Kodierer (12) nach Anspruch 20, bei dem das binäre Bit ein '1'-Bit ist.
  22. Kodierer (12) nach Anspruch 20, bei dem das binäre Bit ein '0'-Bit ist.
  23. Kodierer (12) nach Anspruch 20, bei dem die erste und die zweite Codefrequenz (f1, f0) ausgewählt werden gemäß der Referenzfrequenz (f5k), einer Frequenzsprungsequenzzahl (NS) und dem ersten und dem zweiten vorbestimmten Abstand.
  24. Kodierer (12) nach Anspruch 20, bei dem ein Synchronisationsblock (66) zu dem Signal hinzugefügt wird, und wobei der Synchronisationsblock (66) gekennzeichnet ist durch einen Dreifachtonabschnitt (70).
  25. Kodierer (12) nach Anspruch 20, bei dem der erste und der zweite vorbestimmte Abstand gleiche Beträge aber unterschiedliche Vorzeichen aufweisen.
  26. Kodierer (12) nach Anspruch 20, bei dem mehrere binäre Bits zu dem Signal hinzugefügt werden, indem die Schritte a)-d) mehrmals wiederholt werden.
  27. Dekoder (26), der ausgelegt ist, um ein binäres Bit eines Codes von einem Block (42) eines mit einer zeitveränderlichen Intensität übertragenen Signals zu dekodieren, umfassend: einen Selektor, der ausgelegt ist, um, innerhalb des Blocks (42), (i) eine Referenzfrequenz (f5k) innerhalb der Signalbandbreite, (ii) eine erste Codefrequenz (f1) bei einem ersten vorbestimmten Frequenzabstand von der Referenzfrequenz (f5k), und (iii) eine zweite Codefrequenz (f0) bei einem zweiten vorbestimmten Frequenzabstand von der Referenzfrequenz (f5k) auszuwählen; einen Detektor, der ausgelegt ist, um eine Spektralamplitude innerhalb jeweiliger vorbestimmter Frequenzumgebungen der ersten bzw. der zweiten Codefrequenz (f1, f0) zu detektieren; und einen Bit-Auffinder gekennzeichnet dadurch, daß der Bit-Auffinder ausgelegt ist, um das binäre Bit zu finden wenn eine der ersten und der zweiten Codefrequenzen (f1, f0) eine damit verknüpfte Spektralamplitude aufweist, die innerhalb ihrer entsprechenden Umgebung ein Maximum ist, und die andere der ersten und zweiten Codefrequenzen (f1, f0) eine mit ihr verknüpfte Spektralamplitude aufweist, die in ihrer entsprechenden Umgebung ein Minimum ist.
  28. Dekoder (26) nach Anspruch 27, bei dem das Signal einen Dreifachton (70) umfaßt, gekennzeichnet dadurch, daß (i) das empfangene Signal eine Spektralamplitude bei der Referenzfrequenz (f5k) aufweist, die innerhalb der vorbestimmten Frequenzumgebung der Referenzfrequenz (f5k) ein lokales Maximum ist, (ii) das empfangene Signal bei der ersten Codefrequenz (f1) eine Spektralamplitude aufweist, die innerhalb einer vorbestimmten Frequenzumgebung, die der ersten Codefrequenz (f1) entspricht, ein lokales Maximum ist, und (iii) das empfangene Signal eine Spektralamplitude bei der zweiten Codefrequenz (f0) aufweist, die innerhalb einer vorbestimmten Frequenzumgebung, die der zweiten Codefrequenz (f0) entspricht, ein lokales Maximum ist.
  29. Dekoder (26) nach Anspruch 27, wobei der Selektor ausgelegt ist, um die erste und die zweite Codefrequenz (f1, f0) gemäß der Referenzfrequenz (f5k), einer Frequenzsprungsequenz (Hs) und dem ersten und dem zweiten vorbestimmten Abstand auszuwählen.
  30. Dekoder (26) nach Anspruch 27, bei dem der erste und der zweite Frequenzabstand gleiche Beträge, aber unterschiedliche Vorzeichen aufweisen.
  31. Dekoder nach Anspruch 27, wobei das dekodierte binäre Bit ein '1'-Bit ist.
  32. Dekoder nach Anspruch 27, bei dem das dekodierte binäre Bit ein '0'-Bit ist.
  33. Verfahren zum Addieren eines binären Code-Bits zu einem Block (42) eines innerhalb einer vorbestimmten Signalbandbreite variierenden Signals, wobei das Verfahren die folgenden Schritte aufweist: a) Auswählen einer Referenzfrequenz (f5k) innerhalb der vorbestimmten Signalbandbreite und Verknüpfen sowohl einer ersten Codefrequenz (f1), die einen ersten vorbestimmten Abstand von der Referenzfrequenz (f5k) hat, als auch einer zweiten Codefrequenz (f0), die einen zweiten vorbestimmten Abstand von der Referenzfrequenz (f5k) hat, mit der Referenzfrequenz (f5k) b) Messen der Spektralleistung des Signals innerhalb des Blocks (42) in einer ersten sich um die erste Codefrequenz (f1) erstreckenden Frequenzumgebung und in einer zweiten sich um die zweite Codefrequenz (f0) erstreckenden Frequenzumgebung, wobei die erste Frequenz (f1) eine Spek tralamplitude aufweist und wobei die zweite Frequenz (f0) eine Spektralamplitude aufweist; gekennzeichnet durch c) Austauschen der Spektralamplitude der ersten Codefrequenz (f1) mit einer Spektralamplitude einer Frequenz, die in der ersten Frequenzumgebung eine maximale Amplitude aufweist, während ein Phasenwinkel sowohl der ersten Frequenz (f1) als auch der Frequenz mit der maximalen Amplitude in der ersten Frequenzumgebung aufrechterhalten wird; und d) Austauschen der Spektralamplitude der zweiten Codefrequenz (f0) mit einer Spektralamplitude einer Frequenz, die in der zweiten Frequenzumgebung eine minimale Amplitude aufweist, während ein Phasenwinkel sowohl bei der zweiten Frequenz (f0) als auch bei der Frequenz mit der maximalen Amplitude in der zweiten Frequenzumgebung aufrechterhalten wird.
DE69838401T 1998-07-16 1998-11-05 Verfahren und vorrichtung zur kodierung von tonsignalen, in dem am tonsignal eine unhörbare kode hinzugefügt wird, für verwendung in programmidentifikationssystemen Expired - Lifetime DE69838401T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/116,397 US6272176B1 (en) 1998-07-16 1998-07-16 Broadcast encoding system and method
US116397 1998-07-16
PCT/US1998/023558 WO2000004662A1 (en) 1998-07-16 1998-11-05 System and method for encoding an audio signal, by adding an inaudible code to the audio signal, for use in broadcast programme identification systems

Publications (2)

Publication Number Publication Date
DE69838401D1 DE69838401D1 (de) 2007-10-18
DE69838401T2 true DE69838401T2 (de) 2008-06-19

Family

ID=22366946

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69838401T Expired - Lifetime DE69838401T2 (de) 1998-07-16 1998-11-05 Verfahren und vorrichtung zur kodierung von tonsignalen, in dem am tonsignal eine unhörbare kode hinzugefügt wird, für verwendung in programmidentifikationssystemen

Country Status (11)

Country Link
US (4) US6272176B1 (de)
EP (3) EP1463220A3 (de)
JP (1) JP4030036B2 (de)
CN (1) CN1148901C (de)
AR (2) AR013810A1 (de)
AU (4) AU771289B2 (de)
CA (3) CA2332977C (de)
DE (1) DE69838401T2 (de)
ES (1) ES2293693T3 (de)
HK (2) HK1040334A1 (de)
WO (1) WO2000004662A1 (de)

Families Citing this family (260)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6614914B1 (en) 1995-05-08 2003-09-02 Digimarc Corporation Watermark embedder and reader
US6944298B1 (en) 1993-11-18 2005-09-13 Digimare Corporation Steganographic encoding and decoding of auxiliary codes in media signals
US6983051B1 (en) * 1993-11-18 2006-01-03 Digimarc Corporation Methods for audio watermarking and decoding
US6636615B1 (en) 1998-01-20 2003-10-21 Digimarc Corporation Methods and systems using multiple watermarks
US5748763A (en) 1993-11-18 1998-05-05 Digimarc Corporation Image steganography system featuring perceptually adaptive and globally scalable signal embedding
US8505108B2 (en) 1993-11-18 2013-08-06 Digimarc Corporation Authentication using a digital watermark
US6611607B1 (en) * 1993-11-18 2003-08-26 Digimarc Corporation Integrating digital watermarks in multimedia content
US7171016B1 (en) 1993-11-18 2007-01-30 Digimarc Corporation Method for monitoring internet dissemination of image, video and/or audio files
US5768426A (en) * 1993-11-18 1998-06-16 Digimarc Corporation Graphics processing system employing embedded code signals
US6882738B2 (en) * 1994-03-17 2005-04-19 Digimarc Corporation Methods and tangible objects employing textured machine readable data
US6973197B2 (en) * 1999-11-05 2005-12-06 Digimarc Corporation Watermarking with separate application of the grid and payload signals
US20020136429A1 (en) * 1994-03-17 2002-09-26 John Stach Data hiding through arrangement of objects
US7724919B2 (en) 1994-10-21 2010-05-25 Digimarc Corporation Methods and systems for steganographic processing
US6560349B1 (en) 1994-10-21 2003-05-06 Digimarc Corporation Audio monitoring using steganographic information
US6721440B2 (en) 1995-05-08 2004-04-13 Digimarc Corporation Low visibility watermarks using an out-of-phase color
US6763123B2 (en) 1995-05-08 2004-07-13 Digimarc Corporation Detection of out-of-phase low visibility watermarks
US7224819B2 (en) * 1995-05-08 2007-05-29 Digimarc Corporation Integrating digital watermarks in multimedia content
US6728390B2 (en) * 1995-05-08 2004-04-27 Digimarc Corporation Methods and systems using multiple watermarks
US7054462B2 (en) 1995-05-08 2006-05-30 Digimarc Corporation Inferring object status based on detected watermark data
US6718046B2 (en) 1995-05-08 2004-04-06 Digimarc Corporation Low visibility watermark using time decay fluorescence
US7006661B2 (en) 1995-07-27 2006-02-28 Digimarc Corp Digital watermarking systems and methods
US20030056103A1 (en) * 2000-12-18 2003-03-20 Levy Kenneth L. Audio/video commerce application architectural framework
US6381341B1 (en) * 1996-05-16 2002-04-30 Digimarc Corporation Watermark encoding method exploiting biases inherent in original signal
US7412072B2 (en) * 1996-05-16 2008-08-12 Digimarc Corporation Variable message coding protocols for encoding auxiliary data in media signals
JP3255022B2 (ja) * 1996-07-01 2002-02-12 日本電気株式会社 適応変換符号化方式および適応変換復号方式
US6108637A (en) 1996-09-03 2000-08-22 Nielsen Media Research, Inc. Content display monitor
US6675383B1 (en) 1997-01-22 2004-01-06 Nielsen Media Research, Inc. Source detection apparatus and method for audience measurement
EP0901282B1 (de) 1997-09-03 2006-06-28 Hitachi, Ltd. Verfahren zur Aufnahme und Wiedergabe von Information über elektronische Wasserzeichen
US6804376B2 (en) 1998-01-20 2004-10-12 Digimarc Corporation Equipment employing watermark-based authentication function
US7006555B1 (en) * 1998-07-16 2006-02-28 Nielsen Media Research, Inc. Spectral audio encoding
US7373513B2 (en) * 1998-09-25 2008-05-13 Digimarc Corporation Transmarking of multimedia signals
US7197156B1 (en) * 1998-09-25 2007-03-27 Digimarc Corporation Method and apparatus for embedding auxiliary information within original data
US7532740B2 (en) * 1998-09-25 2009-05-12 Digimarc Corporation Method and apparatus for embedding auxiliary information within original data
US6442283B1 (en) * 1999-01-11 2002-08-27 Digimarc Corporation Multimedia data embedding
US6871180B1 (en) 1999-05-25 2005-03-22 Arbitron Inc. Decoding of information in audio signals
KR20010016704A (ko) * 1999-08-02 2001-03-05 구자홍 디지털 티브이(Digital TV)의 입력신호 선택장치
AUPQ206399A0 (en) 1999-08-06 1999-08-26 Imr Worldwide Pty Ltd. Network user measurement system and method
JP4639441B2 (ja) * 1999-09-01 2011-02-23 ソニー株式会社 ディジタル信号処理装置および処理方法、並びにディジタル信号記録装置および記録方法
WO2001016869A1 (en) * 1999-09-01 2001-03-08 Digimarc Corporation Watermarking digital images with intensity specified by area
CA2809775C (en) * 1999-10-27 2017-03-21 The Nielsen Company (Us), Llc Audio signature extraction and correlation
EP1277295A1 (de) * 1999-10-27 2003-01-22 Nielsen Media Research, Inc. Verfahren und vorrichtung zur kodierung von tonsignalen für verwendung in programmidentifikationssystemen, durch hinzufügen eines unhörbaren kodes im tonsignal
US6569206B1 (en) * 1999-10-29 2003-05-27 Verizon Laboratories Inc. Facilitation of hypervideo by automatic IR techniques in response to user requests
US6757866B1 (en) * 1999-10-29 2004-06-29 Verizon Laboratories Inc. Hyper video: information retrieval using text from multimedia
US6996775B1 (en) * 1999-10-29 2006-02-07 Verizon Laboratories Inc. Hypervideo: information retrieval using time-related multimedia:
AU2001217524A1 (en) 2000-01-12 2001-07-24 Jupiter Media Metrix, Inc. System and method for estimating prevalence of digital content on the world-wide-web
EP2352120B1 (de) 2000-01-13 2016-03-30 Digimarc Corporation Netzbasierter Zugriff auf Zusatzdaten basierend auf steganografischer Information
US7127744B2 (en) * 2000-03-10 2006-10-24 Digimarc Corporation Method and apparatus to protect media existing in an insecure format
US8091025B2 (en) 2000-03-24 2012-01-03 Digimarc Corporation Systems and methods for processing content objects
US7949773B2 (en) * 2000-04-12 2011-05-24 Telecommunication Systems, Inc. Wireless internet gateway
US6891811B1 (en) * 2000-04-18 2005-05-10 Telecommunication Systems Inc. Short messaging service center mobile-originated to HTTP internet communications
US6891959B2 (en) * 2000-04-19 2005-05-10 Digimarc Corporation Hiding information out-of-phase in color channels
US8027509B2 (en) 2000-04-19 2011-09-27 Digimarc Corporation Digital watermarking in data representing color channels
US6804377B2 (en) 2000-04-19 2004-10-12 Digimarc Corporation Detecting information hidden out-of-phase in color channels
US7738673B2 (en) 2000-04-19 2010-06-15 Digimarc Corporation Low visible digital watermarks
US6912295B2 (en) 2000-04-19 2005-06-28 Digimarc Corporation Enhancing embedding of out-of-phase signals
US7305104B2 (en) 2000-04-21 2007-12-04 Digimarc Corporation Authentication of identification documents using digital watermarks
US6879652B1 (en) * 2000-07-14 2005-04-12 Nielsen Media Research, Inc. Method for encoding an input signal
AU2001275712A1 (en) 2000-07-27 2002-02-13 Activated Content Corporation, Inc. Stegotext encoder and decoder
FR2812503B1 (fr) * 2000-07-31 2003-03-28 Telediffusion De France Tdf Procede et systeme de codage-decodage d'informations numeriques dans un signal sonore transmis par un canal reverberant
US7346776B2 (en) * 2000-09-11 2008-03-18 Digimarc Corporation Authenticating media signals by adjusting frequency characteristics to reference values
US6674876B1 (en) 2000-09-14 2004-01-06 Digimarc Corporation Watermarking in the time-frequency domain
US6996521B2 (en) 2000-10-04 2006-02-07 The University Of Miami Auxiliary channel masking in an audio signal
US6483927B2 (en) * 2000-12-18 2002-11-19 Digimarc Corporation Synchronizing readers of hidden auxiliary data in quantization-based data hiding schemes
US8964604B2 (en) 2000-12-26 2015-02-24 Polycom, Inc. Conference endpoint instructing conference bridge to dial phone number
US7221663B2 (en) * 2001-12-31 2007-05-22 Polycom, Inc. Method and apparatus for wideband conferencing
WO2002093397A1 (en) * 2000-12-26 2002-11-21 Polycom, Inc. System and method for coordinating a conference using a dedicated server
US7339605B2 (en) * 2004-04-16 2008-03-04 Polycom, Inc. Conference link between a speakerphone and a video conference unit
US7864938B2 (en) * 2000-12-26 2011-01-04 Polycom, Inc. Speakerphone transmitting URL information to a remote device
US8977683B2 (en) * 2000-12-26 2015-03-10 Polycom, Inc. Speakerphone transmitting password information to a remote device
US9001702B2 (en) 2000-12-26 2015-04-07 Polycom, Inc. Speakerphone using a secure audio connection to initiate a second secure connection
US8948059B2 (en) * 2000-12-26 2015-02-03 Polycom, Inc. Conference endpoint controlling audio volume of a remote device
US7640031B2 (en) * 2006-06-22 2009-12-29 Telecommunication Systems, Inc. Mobile originated interactive menus via short messaging services
US7822969B2 (en) * 2001-04-16 2010-10-26 Digimarc Corporation Watermark systems and methods
US20030187798A1 (en) * 2001-04-16 2003-10-02 Mckinley Tyler J. Digital watermarking methods, programs and apparatus
JP3576993B2 (ja) * 2001-04-24 2004-10-13 株式会社東芝 電子透かし埋め込み方法及び装置
US7046819B2 (en) 2001-04-25 2006-05-16 Digimarc Corporation Encoded reference signal for digital watermarks
US8976712B2 (en) 2001-05-10 2015-03-10 Polycom, Inc. Speakerphone and conference bridge which request and perform polling operations
US8934382B2 (en) 2001-05-10 2015-01-13 Polycom, Inc. Conference endpoint controlling functions of a remote device
RU2293368C2 (ru) * 2001-05-10 2007-02-10 Поликом Израиль Лтд. Способ (варианты) и система (варианты) для управления конференциями и блок управления для многоточечной мультимедийной/речевой системы
US6963543B2 (en) * 2001-06-29 2005-11-08 Qualcomm Incorporated Method and system for group call service
US8572640B2 (en) * 2001-06-29 2013-10-29 Arbitron Inc. Media data use measurement with remote decoding/pattern matching
US8094869B2 (en) 2001-07-02 2012-01-10 Digimarc Corporation Fragile and emerging digital watermarks
CA2456815A1 (en) * 2001-08-22 2003-03-06 Nielsen Media Research, Inc. Television proximity sensor
US7213757B2 (en) 2001-08-31 2007-05-08 Digimarc Corporation Emerging security features for identification documents
US7537170B2 (en) * 2001-08-31 2009-05-26 Digimarc Corporation Machine-readable security features for printed objects
US6862355B2 (en) 2001-09-07 2005-03-01 Arbitron Inc. Message reconstruction from partial detection
US7117513B2 (en) * 2001-11-09 2006-10-03 Nielsen Media Research, Inc. Apparatus and method for detecting and correcting a corrupted broadcast time code
WO2003052680A1 (en) 2001-12-18 2003-06-26 Digimarc Id System, Llc Multiple image security features for identification documents and methods of making same
US7728048B2 (en) 2002-12-20 2010-06-01 L-1 Secure Credentialing, Inc. Increasing thermal conductivity of host polymer used with laser engraving methods and compositions
US8023458B2 (en) * 2001-12-31 2011-09-20 Polycom, Inc. Method and apparatus for wideband conferencing
US7742588B2 (en) * 2001-12-31 2010-06-22 Polycom, Inc. Speakerphone establishing and using a second connection of graphics information
US8705719B2 (en) 2001-12-31 2014-04-22 Polycom, Inc. Speakerphone and conference bridge which receive and provide participant monitoring information
US7787605B2 (en) * 2001-12-31 2010-08-31 Polycom, Inc. Conference bridge which decodes and responds to control information embedded in audio information
US8934381B2 (en) * 2001-12-31 2015-01-13 Polycom, Inc. Conference endpoint instructing a remote device to establish a new connection
US20050213726A1 (en) * 2001-12-31 2005-09-29 Polycom, Inc. Conference bridge which transfers control information embedded in audio information between endpoints
US8102984B2 (en) * 2001-12-31 2012-01-24 Polycom Inc. Speakerphone and conference bridge which receive and provide participant monitoring information
US7978838B2 (en) 2001-12-31 2011-07-12 Polycom, Inc. Conference endpoint instructing conference bridge to mute participants
US8947487B2 (en) * 2001-12-31 2015-02-03 Polycom, Inc. Method and apparatus for combining speakerphone and video conference unit operations
US8223942B2 (en) * 2001-12-31 2012-07-17 Polycom, Inc. Conference endpoint requesting and receiving billing information from a conference bridge
US8885523B2 (en) * 2001-12-31 2014-11-11 Polycom, Inc. Speakerphone transmitting control information embedded in audio information through a conference bridge
US8144854B2 (en) * 2001-12-31 2012-03-27 Polycom Inc. Conference bridge which detects control information embedded in audio information to prioritize operations
US20030131350A1 (en) * 2002-01-08 2003-07-10 Peiffer John C. Method and apparatus for identifying a digital audio signal
US7321667B2 (en) * 2002-01-18 2008-01-22 Digimarc Corporation Data hiding through arrangement of objects
US7231061B2 (en) 2002-01-22 2007-06-12 Digimarc Corporation Adaptive prediction filtering for digital watermarking
US7966497B2 (en) * 2002-02-15 2011-06-21 Qualcomm Incorporated System and method for acoustic two factor authentication
US20030212549A1 (en) * 2002-05-10 2003-11-13 Jack Steentra Wireless communication using sound
US7824029B2 (en) 2002-05-10 2010-11-02 L-1 Secure Credentialing, Inc. Identification card printer-assembler for over the counter card issuing
US7401224B2 (en) * 2002-05-15 2008-07-15 Qualcomm Incorporated System and method for managing sonic token verifiers
JP3765413B2 (ja) * 2002-07-12 2006-04-12 ソニー株式会社 情報符号化装置および方法、情報復号装置および方法、記録媒体、並びにプログラム
US8271778B1 (en) 2002-07-24 2012-09-18 The Nielsen Company (Us), Llc System and method for monitoring secure data on a network
US7239981B2 (en) 2002-07-26 2007-07-03 Arbitron Inc. Systems and methods for gathering audience measurement data
US7395062B1 (en) 2002-09-13 2008-07-01 Nielson Media Research, Inc. A Delaware Corporation Remote sensing system
US9711153B2 (en) 2002-09-27 2017-07-18 The Nielsen Company (Us), Llc Activating functions in processing devices using encoded audio and detecting audio signatures
US7222071B2 (en) 2002-09-27 2007-05-22 Arbitron Inc. Audio data receipt/exposure measurement with code monitoring and signature extraction
US8959016B2 (en) 2002-09-27 2015-02-17 The Nielsen Company (Us), Llc Activating functions in processing devices using start codes embedded in audio
EP1551644A4 (de) 2002-10-15 2008-01-02 Digimarc Corp Identifikationsdokument und verwandte verfahren
WO2004038538A2 (en) 2002-10-23 2004-05-06 Nielsen Media Research, Inc. Digital data insertion apparatus and methods for use with compressed audio/video data
US6845360B2 (en) 2002-11-22 2005-01-18 Arbitron Inc. Encoding multiple messages in audio data and detecting same
US7174151B2 (en) 2002-12-23 2007-02-06 Arbitron Inc. Ensuring EAS performance in audio signal encoding
US7483835B2 (en) 2002-12-23 2009-01-27 Arbitron, Inc. AD detection using ID code and extracted signature
EP1586045A1 (de) 2002-12-27 2005-10-19 Nielsen Media Research, Inc. Verfahren und vorrichtung zur transkodierung von metadaten
US6931076B2 (en) * 2002-12-31 2005-08-16 Intel Corporation Signal detector
DE602004030434D1 (de) 2003-04-16 2011-01-20 L 1 Secure Credentialing Inc Dreidimensionale datenspeicherung
US7460684B2 (en) * 2003-06-13 2008-12-02 Nielsen Media Research, Inc. Method and apparatus for embedding watermarks
WO2005034398A2 (en) * 2003-06-19 2005-04-14 University Of Rochester Data hiding via phase manipulation of audio signals
US7043204B2 (en) * 2003-06-26 2006-05-09 The Regents Of The University Of California Through-the-earth radio
WO2005031634A1 (en) * 2003-08-29 2005-04-07 Nielsen Media Research, Inc. Methods and apparatus for embedding and recovering an image for use with video content
WO2005036877A1 (en) 2003-09-12 2005-04-21 Nielsen Media Research, Inc. Digital video signature apparatus and methods for use with video program identification systems
US7706565B2 (en) * 2003-09-30 2010-04-27 Digimarc Corporation Multi-channel digital watermarking
MXPA06003935A (es) 2003-10-07 2006-06-27 Nielsen Media Res Inc Metodos y aparato para extraer codigos de una pluralidad de canales.
WO2005041109A2 (en) * 2003-10-17 2005-05-06 Nielsen Media Research, Inc. Methods and apparatus for identifiying audio/video content using temporal signal characteristics
US20060138631A1 (en) * 2003-12-31 2006-06-29 Advanced Semiconductor Engineering, Inc. Multi-chip package structure
US8406341B2 (en) 2004-01-23 2013-03-26 The Nielsen Company (Us), Llc Variable encoding and detection apparatus and methods
WO2005079941A1 (en) 2004-02-17 2005-09-01 Nielsen Media Research, Inc. Et Al. Methods and apparatus for monitoring video games
US7483975B2 (en) 2004-03-26 2009-01-27 Arbitron, Inc. Systems and methods for gathering data concerning usage of media data
US8738763B2 (en) 2004-03-26 2014-05-27 The Nielsen Company (Us), Llc Research data gathering with a portable monitor and a stationary device
TWI404419B (zh) * 2004-04-07 2013-08-01 Nielsen Media Res Inc 與壓縮過音頻/視頻資料一起使用之資料插入方法、系統、機器可讀取媒體及設備
TW200603632A (en) * 2004-05-14 2006-01-16 Nielsen Media Res Inc Methods and apparatus for identifying media content
EP1779297A4 (de) 2004-07-02 2010-07-28 Nielsen Media Res Inc Verfahren und vorrichtungen zum mischen komprimierter digitaler bitströme
CN101077014B (zh) 2004-08-09 2013-09-25 尼尔森(美国)有限公司 用于监视来自各种源的音频/视觉内容的方法及装置
MX2007002071A (es) * 2004-08-18 2007-04-24 Nielsen Media Res Inc Metodos y aparatos para generar firmas.
CA2581982C (en) 2004-09-27 2013-06-18 Nielsen Media Research, Inc. Methods and apparatus for using location information to manage spillover in an audience monitoring system
EP1684265B1 (de) * 2005-01-21 2008-07-16 Unlimited Media GmbH Verfahren zur Einbettung eines digitalen Wasserzeichens in ein Nutzsignal
EP1864493B1 (de) * 2005-03-08 2017-07-05 Nielsen Media Research, Inc. Vorrichtungen und verfahren zur variablen codierung und detektion
US7796565B2 (en) 2005-06-08 2010-09-14 Polycom, Inc. Mixed voice and spread spectrum data signaling with multiplexing multiple users with CDMA
US8199791B2 (en) 2005-06-08 2012-06-12 Polycom, Inc. Mixed voice and spread spectrum data signaling with enhanced concealment of data
US8126029B2 (en) 2005-06-08 2012-02-28 Polycom, Inc. Voice interference correction for mixed voice and spread spectrum data signaling
WO2007022250A2 (en) 2005-08-16 2007-02-22 Nielsen Media Research, Inc. Display device on/off detection methods and apparatus
CN103000210A (zh) 2005-10-21 2013-03-27 尼尔逊媒介研究股份有限公司 用于计量便携式媒体播放器的方法和装置
US9015740B2 (en) 2005-12-12 2015-04-21 The Nielsen Company (Us), Llc Systems and methods to wirelessly meter audio/visual devices
WO2007073484A2 (en) * 2005-12-20 2007-06-28 Arbitron Inc. Methods and systems for conducting research operations
GB2433592A (en) 2005-12-23 2007-06-27 Pentapharm Ag Assay for thrombin inhibitors
KR101583268B1 (ko) 2006-03-27 2016-01-08 닐슨 미디어 리서치 인코퍼레이티드 무선통신장치에 표현되는 미디어 컨텐츠의 미터링 방법 및 시스템
JP4760539B2 (ja) * 2006-05-31 2011-08-31 大日本印刷株式会社 音響信号に対する情報の埋め込み装置
JP4760540B2 (ja) * 2006-05-31 2011-08-31 大日本印刷株式会社 音響信号に対する情報の埋め込み装置
KR20090031771A (ko) 2006-07-12 2009-03-27 아비트론 인코포레이티드 휴대용 조사 장치의 사용자에 의한 사용을 모니터링하기 위한 방법 및 시스템
US8463284B2 (en) * 2006-07-17 2013-06-11 Telecommunication Systems, Inc. Short messaging system (SMS) proxy communications to enable location based services in wireless devices
EP2958106B1 (de) 2006-10-11 2018-07-18 The Nielsen Company (US), LLC Verfahren und vorrichtung zur einbettung von codes in komprimierte audiodatenströme
US10885543B1 (en) 2006-12-29 2021-01-05 The Nielsen Company (Us), Llc Systems and methods to pre-scale media content to facilitate audience measurement
CA2676516C (en) 2007-01-25 2020-02-04 Arbitron, Inc. Research data gathering
AU2008218716B2 (en) 2007-02-20 2012-05-10 The Nielsen Company (Us), Llc Methods and apparatus for characterizing media
US8494903B2 (en) 2007-03-16 2013-07-23 Activated Content Corporation Universal advertising model utilizing digital linkage technology “U AD”
WO2008137385A2 (en) 2007-05-02 2008-11-13 Nielsen Media Research, Inc. Methods and apparatus for generating signatures
US9466307B1 (en) 2007-05-22 2016-10-11 Digimarc Corporation Robust spectral encoding and decoding methods
US9071859B2 (en) 2007-09-26 2015-06-30 Time Warner Cable Enterprises Llc Methods and apparatus for user-based targeted content delivery
AU2008308442B2 (en) 2007-10-06 2015-01-22 Arbitron, Inc. Gathering research data
US8099757B2 (en) 2007-10-15 2012-01-17 Time Warner Cable Inc. Methods and apparatus for revenue-optimized delivery of content in a network
CA2858944C (en) 2007-11-12 2017-08-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8108681B2 (en) * 2007-12-03 2012-01-31 International Business Machines Corporation Selecting bit positions for storing a digital watermark
US8051455B2 (en) 2007-12-12 2011-11-01 Backchannelmedia Inc. Systems and methods for providing a token registry and encoder
US8930003B2 (en) 2007-12-31 2015-01-06 The Nielsen Company (Us), Llc Data capture bridge
AU2008347134A1 (en) 2007-12-31 2009-07-16 Arbitron, Inc. Survey data acquisition
KR101224165B1 (ko) * 2008-01-02 2013-01-18 삼성전자주식회사 데이터 처리 모듈 제어 방법 및 장치
US8457951B2 (en) 2008-01-29 2013-06-04 The Nielsen Company (Us), Llc Methods and apparatus for performing variable black length watermarking of media
CN102982810B (zh) * 2008-03-05 2016-01-13 尼尔森(美国)有限公司 生成签名的方法和装置
US8805689B2 (en) 2008-04-11 2014-08-12 The Nielsen Company (Us), Llc Methods and apparatus to generate and use content-aware watermarks
JP5556075B2 (ja) * 2008-07-30 2014-07-23 ヤマハ株式会社 演奏情報出力装置、及び演奏システム
WO2010013752A1 (ja) 2008-07-29 2010-02-04 ヤマハ株式会社 演奏関連情報出力装置、演奏関連情報出力装置を備えるシステム、及び電子楽器
JP5556074B2 (ja) * 2008-07-30 2014-07-23 ヤマハ株式会社 制御装置
JP5556076B2 (ja) * 2008-08-20 2014-07-23 ヤマハ株式会社 シーケンスデータ出力装置、音声処理システム、および電子楽器
JP5604824B2 (ja) * 2008-07-29 2014-10-15 ヤマハ株式会社 テンポ情報出力装置、音声処理システム、および電子楽器
CN101983513B (zh) 2008-07-30 2014-08-27 雅马哈株式会社 音频信号处理装置、音频信号处理系统以及音频信号处理方法
US9094721B2 (en) 2008-10-22 2015-07-28 Rakuten, Inc. Systems and methods for providing a network link between broadcast content and content located on a computer network
US8160064B2 (en) 2008-10-22 2012-04-17 Backchannelmedia Inc. Systems and methods for providing a network link between broadcast content and content located on a computer network
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8121830B2 (en) * 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
AU2013203820B2 (en) * 2008-10-24 2016-08-04 The Nielsen Company (Us), Llc Methods and Apparatus to Extract Data Encoded in Media
US9124769B2 (en) 2008-10-31 2015-09-01 The Nielsen Company (Us), Llc Methods and apparatus to verify presentation of media content
US8508357B2 (en) 2008-11-26 2013-08-13 The Nielsen Company (Us), Llc Methods and apparatus to encode and decode audio for shopper location and advertisement presentation tracking
US8199969B2 (en) 2008-12-17 2012-06-12 Digimarc Corporation Out of phase digital watermarking in two chrominance directions
US9117268B2 (en) 2008-12-17 2015-08-25 Digimarc Corporation Out of phase digital watermarking in two chrominance directions
US20110066437A1 (en) * 2009-01-26 2011-03-17 Robert Luff Methods and apparatus to monitor media exposure using content-aware watermarks
US10008212B2 (en) * 2009-04-17 2018-06-26 The Nielsen Company (Us), Llc System and method for utilizing audio encoding for measuring media exposure with environmental masking
US20100268573A1 (en) * 2009-04-17 2010-10-21 Anand Jain System and method for utilizing supplemental audio beaconing in audience measurement
US8826317B2 (en) 2009-04-17 2014-09-02 The Nielson Company (Us), Llc System and method for determining broadcast dimensionality
AU2010242814B2 (en) 2009-05-01 2014-07-31 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
CN102461066B (zh) 2009-05-21 2015-09-09 数字标记公司 鉴别内容信号的方法
US8813124B2 (en) 2009-07-15 2014-08-19 Time Warner Cable Enterprises Llc Methods and apparatus for targeted secondary content insertion
US9178634B2 (en) 2009-07-15 2015-11-03 Time Warner Cable Enterprises Llc Methods and apparatus for evaluating an audience in a content-based network
US8245249B2 (en) * 2009-10-09 2012-08-14 The Nielson Company (Us), Llc Methods and apparatus to adjust signature matching results for audience measurement
US8855101B2 (en) 2010-03-09 2014-10-07 The Nielsen Company (Us), Llc Methods, systems, and apparatus to synchronize actions of audio source monitors
US8768713B2 (en) 2010-03-15 2014-07-01 The Nielsen Company (Us), Llc Set-top-box with integrated encoder/decoder for audience measurement
US8355910B2 (en) 2010-03-30 2013-01-15 The Nielsen Company (Us), Llc Methods and apparatus for audio watermarking a substantially silent media content presentation
JP5782677B2 (ja) 2010-03-31 2015-09-24 ヤマハ株式会社 コンテンツ再生装置および音声処理システム
US8701138B2 (en) 2010-04-23 2014-04-15 Time Warner Cable Enterprises Llc Zone control methods and apparatus
US8885842B2 (en) 2010-12-14 2014-11-11 The Nielsen Company (Us), Llc Methods and apparatus to determine locations of audience members
US9380356B2 (en) 2011-04-12 2016-06-28 The Nielsen Company (Us), Llc Methods and apparatus to generate a tag for media content
US9515904B2 (en) 2011-06-21 2016-12-06 The Nielsen Company (Us), Llc Monitoring streaming media content
US9209978B2 (en) 2012-05-15 2015-12-08 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
KR101767301B1 (ko) 2011-09-09 2017-08-10 라쿠텐 인코포레이티드 대화형 텔레비전 노출에 대한 소비자 제어를 위한 시스템들 및 방법들
EP2573761B1 (de) 2011-09-25 2018-02-14 Yamaha Corporation Anzeigen von inhalt im verhältnis zur musikreproduktion mittels einer informationsverarbeitungsvorrichtung unabhängig von der musikreproduktionsvorrichtung
CA2859560A1 (en) 2011-12-19 2013-06-27 The Nielsen Company (Us), Llc Methods and apparatus for crediting a media presentation device
JP5494677B2 (ja) 2012-01-06 2014-05-21 ヤマハ株式会社 演奏装置及び演奏プログラム
US9692535B2 (en) 2012-02-20 2017-06-27 The Nielsen Company (Us), Llc Methods and apparatus for automatic TV on/off detection
US8768003B2 (en) 2012-03-26 2014-07-01 The Nielsen Company (Us), Llc Media monitoring using multiple types of signatures
US9078040B2 (en) 2012-04-12 2015-07-07 Time Warner Cable Enterprises Llc Apparatus and methods for enabling media options in a content delivery network
US9854280B2 (en) 2012-07-10 2017-12-26 Time Warner Cable Enterprises Llc Apparatus and methods for selective enforcement of secondary content viewing
US9282366B2 (en) 2012-08-13 2016-03-08 The Nielsen Company (Us), Llc Methods and apparatus to communicate audience measurement information
US8862155B2 (en) 2012-08-30 2014-10-14 Time Warner Cable Enterprises Llc Apparatus and methods for enabling location-based services within a premises
US9106953B2 (en) 2012-11-28 2015-08-11 The Nielsen Company (Us), Llc Media monitoring based on predictive signature caching
US9131283B2 (en) 2012-12-14 2015-09-08 Time Warner Cable Enterprises Llc Apparatus and methods for multimedia coordination
US9313544B2 (en) 2013-02-14 2016-04-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9021516B2 (en) 2013-03-01 2015-04-28 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by measuring a crest factor
US9118960B2 (en) 2013-03-08 2015-08-25 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by detecting signal distortion
US9219969B2 (en) 2013-03-13 2015-12-22 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by analyzing sound pressure levels
US9191704B2 (en) 2013-03-14 2015-11-17 The Nielsen Company (Us), Llc Methods and systems for reducing crediting errors due to spillover using audio codes and/or signatures
US9325381B2 (en) 2013-03-15 2016-04-26 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor mobile devices
WO2014144589A1 (en) 2013-03-15 2014-09-18 The Nielsen Company (Us), Llc Systems, methods, and apparatus to identify linear and non-linear media presentations
US9294815B2 (en) 2013-03-15 2016-03-22 The Nielsen Company (Us), Llc Methods and apparatus to discriminate between linear and non-linear media
US9185435B2 (en) 2013-06-25 2015-11-10 The Nielsen Company (Us), Llc Methods and apparatus to characterize households with media meter data
US20150039321A1 (en) 2013-07-31 2015-02-05 Arbitron Inc. Apparatus, System and Method for Reading Codes From Digital Audio on a Processing Device
US9711152B2 (en) 2013-07-31 2017-07-18 The Nielsen Company (Us), Llc Systems apparatus and methods for encoding/decoding persistent universal media codes to encoded audio
US8768714B1 (en) 2013-12-05 2014-07-01 The Telos Alliance Monitoring detectability of a watermark message
US9824694B2 (en) 2013-12-05 2017-11-21 Tls Corp. Data carriage in encoded and pre-encoded audio bitstreams
US8918326B1 (en) 2013-12-05 2014-12-23 The Telos Alliance Feedback and simulation regarding detectability of a watermark message
US8768005B1 (en) 2013-12-05 2014-07-01 The Telos Alliance Extracting a watermark signal from an output signal of a watermarking encoder
US8768710B1 (en) 2013-12-05 2014-07-01 The Telos Alliance Enhancing a watermark signal extracted from an output signal of a watermarking encoder
US9426525B2 (en) 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
US9277265B2 (en) 2014-02-11 2016-03-01 The Nielsen Company (Us), Llc Methods and apparatus to calculate video-on-demand and dynamically inserted advertisement viewing probability
JP6383000B2 (ja) 2014-03-03 2018-08-29 サムスン エレクトロニクス カンパニー リミテッド 帯域幅拡張のための高周波復号方法及びその装置
CN106463133B (zh) 2014-03-24 2020-03-24 三星电子株式会社 高频带编码方法和装置,以及高频带解码方法和装置
US9699499B2 (en) 2014-04-30 2017-07-04 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9686031B2 (en) 2014-08-06 2017-06-20 The Nielsen Company (Us), Llc Methods and apparatus to detect a state of media presentation devices
US10028025B2 (en) 2014-09-29 2018-07-17 Time Warner Cable Enterprises Llc Apparatus and methods for enabling presence-based and use-based services
US10219039B2 (en) 2015-03-09 2019-02-26 The Nielsen Company (Us), Llc Methods and apparatus to assign viewers to media meter data
US9924224B2 (en) 2015-04-03 2018-03-20 The Nielsen Company (Us), Llc Methods and apparatus to determine a state of a media presentation device
US9130685B1 (en) 2015-04-14 2015-09-08 Tls Corp. Optimizing parameters in deployed systems operating in delayed feedback real world environments
US9762965B2 (en) 2015-05-29 2017-09-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9848222B2 (en) 2015-07-15 2017-12-19 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover
US9454343B1 (en) 2015-07-20 2016-09-27 Tls Corp. Creating spectral wells for inserting watermarks in audio signals
US9626977B2 (en) 2015-07-24 2017-04-18 Tls Corp. Inserting watermarks into audio signals that have speech-like properties
US10115404B2 (en) 2015-07-24 2018-10-30 Tls Corp. Redundancy in watermarking audio signals that have speech-like properties
US9848224B2 (en) 2015-08-27 2017-12-19 The Nielsen Company(Us), Llc Methods and apparatus to estimate demographics of a household
US10586023B2 (en) 2016-04-21 2020-03-10 Time Warner Cable Enterprises Llc Methods and apparatus for secondary content management and fraud prevention
US11212593B2 (en) 2016-09-27 2021-12-28 Time Warner Cable Enterprises Llc Apparatus and methods for automated secondary content management in a digital network
US10911794B2 (en) 2016-11-09 2021-02-02 Charter Communications Operating, Llc Apparatus and methods for selective secondary content insertion in a digital network
US10791355B2 (en) 2016-12-20 2020-09-29 The Nielsen Company (Us), Llc Methods and apparatus to determine probabilistic media viewing metrics
US10895848B1 (en) * 2020-03-17 2021-01-19 Semiconductor Components Industries, Llc Methods and apparatus for selective histogramming
EP4336496A1 (de) * 2022-09-08 2024-03-13 Utopia Music AG Digitale dateneinbettung und -extraktion in/aus musik und anderen audiosignalen

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3845391A (en) 1969-07-08 1974-10-29 Audicom Corp Communication including submerged identification signal
US4025851A (en) 1975-11-28 1977-05-24 A.C. Nielsen Company Automatic monitor for programs broadcast
US4313197A (en) 1980-04-09 1982-01-26 Bell Telephone Laboratories, Incorporated Spread spectrum arrangement for (de)multiplexing speech signals and nonspeech signals
US4703476A (en) 1983-09-16 1987-10-27 Audicom Corporation Encoding of transmitted program material
JPS61169088A (ja) 1985-01-22 1986-07-30 Nec Corp オ−デイオシンクロナイザ装置
US4937873A (en) 1985-03-18 1990-06-26 Massachusetts Institute Of Technology Computationally efficient sine wave synthesis for acoustic waveform processing
DE3678717D1 (de) 1986-04-30 1991-05-16 Ibm Verfahren und einrichtung zur tonerkennung.
US4945412A (en) 1988-06-14 1990-07-31 Kramer Robert A Method of and system for identification and verification of broadcasting television and radio program segments
US4931871A (en) 1988-06-14 1990-06-05 Kramer Robert A Method of and system for identification and verification of broadcasted program segments
GB8824969D0 (en) * 1988-10-25 1988-11-30 Emi Plc Thorn Identification codes
US4972471A (en) 1989-05-15 1990-11-20 Gary Gross Encoding system
US5630011A (en) * 1990-12-05 1997-05-13 Digital Voice Systems, Inc. Quantization of harmonic amplitudes representing speech
US5349549A (en) 1991-09-30 1994-09-20 Sony Corporation Forward transform processing apparatus and inverse processing apparatus for modified discrete cosine transforms, and method of performing spectral and temporal analyses including simplified forward and inverse orthogonal transform processing
FR2681997A1 (fr) 1991-09-30 1993-04-02 Arbitron Cy Procede et dispositif d'identification automatique d'un programme comportant un signal sonore.
GB2292506B (en) 1991-09-30 1996-05-01 Arbitron Company The Method and apparatus for automatically identifying a program including a sound signal
US5319735A (en) 1991-12-17 1994-06-07 Bolt Beranek And Newman Inc. Embedded signalling
NZ259776A (en) 1992-11-16 1997-06-24 Ceridian Corp Identifying recorded or broadcast audio signals by mixing with encoded signal derived from code signal modulated by narrower bandwidth identification signal
CA2106143C (en) * 1992-11-25 2004-02-24 William L. Thomas Universal broadcast code and multi-level encoded signal monitoring system
US5517511A (en) * 1992-11-30 1996-05-14 Digital Voice Systems, Inc. Digital transmission of acoustic signals over a noisy communication channel
DE4316297C1 (de) 1993-05-14 1994-04-07 Fraunhofer Ges Forschung Frequenzanalyseverfahren
JP3500667B2 (ja) 1993-08-18 2004-02-23 ソニー株式会社 テレビ会議システムおよび同期方法
WO1995027349A1 (en) * 1994-03-31 1995-10-12 The Arbitron Company, A Division Of Ceridian Corporation Apparatus and methods for including codes in audio signals and decoding
US5450490A (en) 1994-03-31 1995-09-12 The Arbitron Company Apparatus and methods for including codes in audio signals and decoding
US5838664A (en) * 1997-07-17 1998-11-17 Videoserver, Inc. Video teleconferencing system with digital transcoding
US5629739A (en) 1995-03-06 1997-05-13 A.C. Nielsen Company Apparatus and method for injecting an ancillary signal into a low energy density portion of a color television frequency spectrum
FR2734977B1 (fr) 1995-06-02 1997-07-25 Telediffusion Fse Systeme de diffusion de donnees.
JPH099213A (ja) 1995-06-16 1997-01-10 Nec Eng Ltd データ伝送システム
US5822360A (en) 1995-09-06 1998-10-13 Solana Technology Development Corporation Method and apparatus for transporting auxiliary data in audio signals
US5719937A (en) * 1995-12-06 1998-02-17 Solana Technology Develpment Corporation Multi-media copy management system
US5687191A (en) 1995-12-06 1997-11-11 Solana Technology Development Corporation Post-compression hidden data transport
US6167550A (en) * 1996-02-09 2000-12-26 Overland Data, Inc. Write format for digital data storage
US5931968A (en) * 1996-02-09 1999-08-03 Overland Data, Inc. Digital data recording channel
US6091767A (en) * 1997-02-03 2000-07-18 Westerman; Larry Alan System for improving efficiency of video encoders
US6052384A (en) * 1997-03-21 2000-04-18 Scientific-Atlanta, Inc. Using a receiver model to multiplex variable-rate bit streams having timing constraints
US5940135A (en) * 1997-05-19 1999-08-17 Aris Technologies, Inc. Apparatus and method for encoding and decoding information in analog signals
KR100438693B1 (ko) * 1997-06-04 2005-08-17 삼성전자주식회사 음성및영상다중전송시스템
KR100247964B1 (ko) * 1997-07-01 2000-03-15 윤종용 자동 문턱값 제어를 이용한 피크 검출기와 그 방법
US6081299A (en) * 1998-02-20 2000-06-27 International Business Machines Corporation Methods and systems for encoding real time multimedia data

Also Published As

Publication number Publication date
US6621881B2 (en) 2003-09-16
AU2004201423B8 (en) 2007-05-24
EP1843496A3 (de) 2007-10-24
US20020034224A1 (en) 2002-03-21
EP1463220A3 (de) 2007-10-24
AU1308999A (en) 2000-02-07
EP1843496A2 (de) 2007-10-10
AU2003204499A1 (en) 2003-07-17
AU2007200368B2 (en) 2009-08-27
JP2002521702A (ja) 2002-07-16
HK1040334A1 (en) 2002-05-31
CA2332977C (en) 2010-02-16
DE69838401D1 (de) 2007-10-18
JP4030036B2 (ja) 2008-01-09
EP1463220A2 (de) 2004-09-29
US20030194004A1 (en) 2003-10-16
WO2000004662A1 (en) 2000-01-27
CA2819752A1 (en) 2000-01-27
US6807230B2 (en) 2004-10-19
HK1066351A1 (en) 2005-03-18
US6504870B2 (en) 2003-01-07
EP1095477B1 (de) 2007-09-05
AR013810A1 (es) 2001-01-10
AU2007200368A1 (en) 2007-03-01
AU2004201423A1 (en) 2004-04-29
CN1303547A (zh) 2001-07-11
AR022781A2 (es) 2002-09-04
US6272176B1 (en) 2001-08-07
CA2685335A1 (en) 2000-01-27
CA2332977A1 (en) 2000-01-27
CA2685335C (en) 2013-08-27
AU2004201423B2 (en) 2007-04-26
AU771289B2 (en) 2004-03-18
ES2293693T3 (es) 2008-03-16
EP1095477A1 (de) 2001-05-02
US20010053190A1 (en) 2001-12-20
CN1148901C (zh) 2004-05-05

Similar Documents

Publication Publication Date Title
DE69838401T2 (de) Verfahren und vorrichtung zur kodierung von tonsignalen, in dem am tonsignal eine unhörbare kode hinzugefügt wird, für verwendung in programmidentifikationssystemen
EP0875107B1 (de) Codierverfahren zur einbringung eines nicht hörbaren datensignals in ein audiosignal, decodierverfahren, codierer und decodierer
AT410047B (de) Vorrichtung und verfahren zum einfügen von kodes in audiosignale und zum dekodieren
DE10084633B3 (de) Dekodieren von Informationen in Audiosignalen
EP0290581B1 (de) Verfahren zum übertragen digitalisierter tonsignale
US7006555B1 (en) Spectral audio encoding
EP1269669B1 (de) Vorrichtung und verfahren zum einfügen eines unhörbaren kodesignals in ein tonsignal
EP1864279B1 (de) Vorrichtung und verfahren zum erzeugen eines datenstroms und zum erzeugen einer multikanal-darstellung
DE10393776B4 (de) Verfahren und Systeme zur Kodierung von mehreren Nachrichten in Audiodaten und zur Detektion derselben
EP0251028B1 (de) Verfahren zur Übertragung eines Audiosignales
DE19640825C2 (de) Codierer zur Einbringung eines nicht hörbaren Datensignals in ein Audiosignal und Decodierer zum decodieren eines nicht hörbar in einem Audiosignal enthaltenen Datensignals
DE102007029381A1 (de) Digitalsignal-Verarbeitungsvorrichtung, Digitalsignal-Verarbeitungsverfahren, Digitalsignal-Verarbeitungsprogramm, Digitalsignal-Wiedergabevorrichtung und Digitalsignal-Wiedergabeverfahren
DE60031767T2 (de) Verfahren zur qualitätsüberwachung von einem digitaltonsignal das mit einem rundfunkprogramm übertragen wird
DE10227431A1 (de) Nachrichtenübermittlungssystem
MXPA01000433A (en) System and method for encoding an audio signal, by adding an inaudible code to the audio signal, for use in broadcast programme identification systems

Legal Events

Date Code Title Description
8364 No opposition during term of opposition