DE69434182T2 - Videosignalverarbeitung mit arithmetischem Processor und Interrupt - Google Patents

Videosignalverarbeitung mit arithmetischem Processor und Interrupt Download PDF

Info

Publication number
DE69434182T2
DE69434182T2 DE69434182T DE69434182T DE69434182T2 DE 69434182 T2 DE69434182 T2 DE 69434182T2 DE 69434182 T DE69434182 T DE 69434182T DE 69434182 T DE69434182 T DE 69434182T DE 69434182 T2 DE69434182 T2 DE 69434182T2
Authority
DE
Germany
Prior art keywords
data
processing
signal
product sum
register
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69434182T
Other languages
English (en)
Other versions
DE69434182D1 (de
Inventor
Kazuki Kadoma-shi Ninomiya
Shirou Toyonaka-shi Yoshioka
Tamotsu Hirakata-shi Nishiyama
Jiro Shijonawate-shi Miyake
Katsuya Suita-shi Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP08471293A external-priority patent/JP3527259B2/ja
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69434182D1 publication Critical patent/DE69434182D1/de
Publication of DE69434182T2 publication Critical patent/DE69434182T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • H04N9/7925Processing of colour television signals in connection with recording for more than one processing mode for more than one standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/642Multi-standard receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/06Transmission systems characterised by the manner in which the individual colour picture signal components are combined
    • H04N11/12Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only
    • H04N11/14Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only in which one signal, modulated in phase and amplitude, conveys colour information and a second signal conveys brightness information, e.g. NTSC-system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/08Separation of synchronising signals from picture signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/46Receiver circuitry for the reception of television signals according to analogue transmission standards for receiving on more than one standard at will
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • H04N7/0152High-definition television systems using spatial or temporal subsampling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/16Picture reproducers using cathode ray tubes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Description

  • Diese Erfindung betrifft einen Videosignalprozessor, welcher in der Lage ist, eine Prozess-Umschaltfunktion mittels Software durchzuführen, und dessen Videosignalverarbeitungstechnik.
  • Es gab bereits Forderungen nach einem Fernsehsystem, das in der Lage ist, eine hohe Auflösung bereitzustellen. Um derartige Forderungen zu befriedigen, wurde ein als EDTV (Extended Definition Television) genanntes Fernsehsystem eingeführt und zum praktischen Einsatz gebracht. Das MUSE (Multiple Sub-Nyquist Sampling Encoding) System, welches eines der HDTV (High Definition Television) Systeme ist, wurde bereits vorgeschlagen, und einige von den MUSE Systemen wurden auch bereits praktisch eingesetzt. Es wird erwartet, dass fortschrittliche Fernsehsysteme, wie z. B. ein EDTV II-System (d. h., das EDTV der zweiten Generation) und ein digitales Fernsehsystem in naher Zukunft zum praktischen Einsatz kommen werden. Angesichts dieser Entwicklungen müssen auf dem Gebiet des TV-Rundfunksystems Fernsehempfänger und Videobandrekorder einschließende Videosignalprozessoren so ausgelegt werden, dass sie Rundfunksignale unterschiedlicher Fernsehsysteme einschließlich des existierenden NTSC (National Television System Committee) System empfangen können. Ein herkömmlicher TV-Empfänger besitzt mehrere unterschiedliche Leiterplatten, wovon jede einem jeweiligen Fernsehsystem entspricht. Diese Leiterplatten werden abhängig von dem empfangenen Signal ausgetauscht. Diese Technik wird als eine Hintergrundtechnik von "Scan Line Conversion LSI for Wide Screen TV Receiver", ITEJ Technical Report, Vol. 16, No. 71, pp. 19–24, BCS' 92–41 (Ost., 1992) bei Toshichika Satoh et al. eingeführt.
  • Es wird beschrieben, wie herkömmliche TV-Empfänger mit einer MUSE Signal Verarbeitungsleiterplatte und einer NTSC Signal Verarbeitungsleiterplatte arbeiten. Bei dem MUSE Systemstandard ist die Abtastrate 16,2 MHz; die Anzahl von Pixeln (pro Abtastzeile) 480; und die Anzahl der Abtastzeilen ist 1125. Andererseits ist bei dem NTSC Sy stemstandard die Abtastrate 14,3 MHz; die Anzahl der Pixel (pro Abtastzeile) 910; und die Anzahl der Abtastzeilen 525.
  • Zuerst wird das MUSE Signal betrachtet. Die MUSE Signal Verarbeitungsleiterplatte trennt das empfangene MUSE Signal in ein Y Signal, ein R-Y Signal und ein B-Y Signal. In dem MUSE System werden, um hoch auflösende Bildsignale in den spezifizierten Übertragungsbandbreitenbereich fallen zu lassen, Pixeldaten Band-komprimiert, indem von dem Umstand Gebrauch gemacht wird, dass Pixel eines vorausgehenden Halbbildes (field) mit Pixeln eines aktuellen Halbbildes in dem Falle eines Bildes ohne Bewegung übereinstimmen, und dem Umstand, dass das menschliche Auge eine schlechte Auflösungsfähigkeit für ein Bild mit Bewegung besitzt. Daher führt die MUSE Verarbeitungsleiterplatte unterschiedliche Prozesse abhängig von dem Bildtyp durch. Ein Bild ohne Bewegung wird anhand einer Prozedur verarbeitet, welche hauptsächlich aus zwei Prozessen besteht; nämlich einer Interpolation zwischen spezifizierten Einzelbildern (frames) (Zwischen-Einzelbild-Interpolation) und einer Interpolation zwischen spezifizierten Halbbildern (fields) (Intra-Halbbild-Interpolation). Für den Fall von Bildern ohne Bewegung werden Daten jedes einzelnen Bildes (Einzelbild) übertragen, nachdem es in vier Halbbilder unterteilt ist, in diesen Halbbildern enthaltene Pixel synthetisiert sind, und das Ergebnis des Synthesevorgangs ausgegeben ist. Andererseits wird ein Bild mit Bewegung gemäß einer Prozedur verarbeitet, welche hauptsächlich aus zwei Prozessen besteht; nämlich einer Intra-Halbbild-Interpolation und einer Frequenzumwandlung. In dem Falle von Bildern mit einer Bewegung ist es nicht möglich, von Daten eines vorhergehenden Halbbildes Gebrauch zu machen. Dieses bedeutet, dass die gewünschten Pixel aus Daten eines aktuellen Halbbildes mittels einer Interpolationstechnik erzeugt werden müssen.
  • Andererseits trennt die NTSC Signalverarbeitungsleiterplatte ein empfangenes NTSC Signal in ein Y Signal, ein R-Y Signal und ein B-Y Signal. Ein NTSC Signal wird in der Form eines Gemisches eines Luminanzsignals Y und eines Chrominanzsignals C geliefert, und somit ist es erforderlich, einen Y/C Abtrennungsprozess durchzuführen, welcher die Hauptfunktion des NTSC Signalverarbeitungsleiterplatte ist. Das Signal C ist ein Signal, das eine Phasenumkehrung für jede Abtastzeile und für jedes Einzelbild durchführt. Dieses macht es möglich, nur das Signal Y zu gewinnen, indem ein aktuelles Pixel und ein Pixel einer Abtastzeile davor addiert werden, und es ist auch möglich, nur das Signal C mittels einer Subtraktion zu gewinnen. Es besteht jedoch tatsächlich eine Lagedifferenz zwischen einem Pixel und einem Pixel einer Abtastzeile davor, was verhindert, dass die Y/C Abtrennung erfolgreich ausgeführt wird. Zur Behandlung dieses Problems wird ein Pixel an derselben Stelle wie ein aktuelles Pixel zuerst aus einem Mittelwert vertikaler Zeilen pseudo-gefunden, um danach Additions/Subtraktions-Operationen für die vollständig durchzuführende Y/C Abtrennung, auszuführen. Für den Fall von Bildern ohne Bewegung kann die vollständige Y/C Abtrennung ausgeführt werden, indem von einem Pixel eines Bildes vor einem aktuellen Pixel Gebrauch gemacht wird.
  • Wie es vorstehend beschrieben wurde, müssen herkömmliche TV-Empfänger eine Vielzahl von Signalverarbeitungsleiterplatten für die Kompatibilität mit unterschiedlichen Arten von TV-Rundfunksystemen enthalten. Dieses führt zu einem Anstieg der Kosten. Zusätzlich müssen, um für neue TV-Rundfunksysteme gerüstet zu sein, welche erwartungsgemäß in der Zukunft zum praktischen Einsatz gebracht werden, neue Signalverarbeitungsleiterplatten entwickelt werden, welche diesen neuen Systemen entsprechen. Dieses erfordert viel Entwicklungsarbeit, und erhöht dadurch die Entwicklungskoten.
  • Der herkömmliche TV-Empfänger hat einige Probleme. Beispielsweise ist es, um eine vertikale/horizontale Synchronisation bei der Ausgabe eines Bildes auf einer Kathodenstrahlröhre (CRT) durchzuführen, erforderlich, den gesamten TV-Empfänger bei unterschiedlichen Systemtaktsignalen mit unterschiedlichen Frequenzen abhängig von dem Typ des Eingangsvideosignals zu betreiben. D. h., eine Systemtaktfrequenz von 16,2 MHz wird im Falle des MUSE Systems verwendet, und von 14,3 MHz in dem Falle des NTSC Systems. Wenn auf das Erzielen einer Hochgeschwindigkeitsbildverarbeitung abgezielt wird, wird die Abtasttaktverarbeitung für die Phasensynchronisierung zu einer Grenze gegen die Erhöhung der Systemtaktfrequenz (d. h., der Verarbeitungsfrequenz). Es kann vielleicht einen Weg geben, welcher in der Lage ist, eine Hochgeschwindigkeitsverarbeitung ohne Erhöhung der Systemtaktsignalfrequenz zu realisieren, wie z. B. durch eine parallele Verarbeitung. Dieser Weg erzeugt jedoch das Problem, dass der Hardwareanteil zunimmt.
  • Zusammenfassung der Erfindung
  • Es ist eine erste Aufgabe der vorliegenden Erfindung, einen Videosignalprozessor und eine Videosignalverarbeitungstechnik bereitzustellen, damit eine gemeinsame Hardware für unterschiedliche Rundfunksysteme und Prozess-Umschaltfunktionen durch Software realisiert wird.
  • Es ist eine zweite Aufgabe der vorliegenden Erfindung, ein Videosignal bei einer Frequenz bereitzustellen, die höher als eine Abtastrate des Videosignals ist, während gleichzeitig eine Eingabe/Ausgabe-Synchronisation erhalten bleibt.
  • In dem Artikel "Video Signal Processing for HDTV-Receiver" von Seki et al., veröffentlicht in IEEE Transactions on Consumer Electronic, Vol. 36, No. 3, August 30, 1999, pages 198–205 ist ein Videosignalprozessor zur Verwendung in einem Dualsystem TV Empfänger beschrieben. Der beschriebene TV-Empfänger ist in der Lage, entweder NTSC oder HDTV Rundfunksignale zu decodieren. Der Decoder weist eine Vielzahl von Komponenten auf, welche für die Decodierung beider Signalarten verwendet werden. Diese gemeinsamen Komponenten umfassen einen A/D Wandler, einen Inter-Einzelbild-Prozessor, eine Mischschaltung, einen Bewegungsdetektor und einen D/A Wandler. Zusätzlich weist der Decoder spezielle Schaltungen auf, welche nur für die Decodierung eines einzelnen von beiden Rundfunksignalen verwendet werden. Der Empfänger verwendet einen Abtastwandler für eine Umwandlung des Aspektverhältnisses von einem NTSC Bild mit einem Aspektverhältnis von 4 : 3 für eine Anzeige auf einer 16 : 9 Breitbild HDTV-Anzeige. Eine Intra-Halbbild-Interpolationsschaltung ist nur für MUSE Signale vorgesehen, und eine Intra-Halbbild-Y/C-Trennschaltung wird nur für NTSC Signale verwendet. Die gemeinsam verwendeten Schaltungen des Decoders umfassen einen Einzelbildspeicher für digitalisierte Eingangsdaten, Ausgangszeilenspeicher für verarbeitete Videodaten, und eine HDTV-Anzeige für die Wiedergabe verarbeiteter Bilder.
  • Die Quelle EP-A-0 529 442 bezieht sich auf einen Fernsehempfänger, welcher einen DSP (digitalen Signalprozessor) für die Signalverarbeitung verwendet. Die Signalverarbeitung ist für ein automatisches Umschalten zwischen unterschiedlichen Fernsehstandards (NTSC, PAL, SECAM) ausgelegt. Auf der Basis eines detektierten Fernsehstandards in einer Systemunterscheidungsschaltung, wird ein spezielles Verarbeitungsprogramm für die Verarbeitung des empfangenen TV-Signals durch den DSP in den DSP aus einem Programmspeicher geladen. Spezielle Verarbeitungsfunktionen des DSP umfassen eine Matrixverarbeitungsstruktur. Das in einer derartigen Matrix DSP Konfiguration verarbeitete Bildsignal umfasst Luminanz- und Chrominanz-Komponenten, welche einem Multiplikations- und Summierschritt unterworfen werden. Die sich ergebenden primären Farbkomponenten werden an einen CRT Ausgang angelegt.
  • Eine bekannte Signalverarbeitungsvorrichtung für die Verarbeitung von MUSE und NTSC Signalen ist in der Quelle EP A-0 371 677 beschrieben. Die Verarbeitungsvorrichtung verwendet gemeinsame erste und zweite Einzelbildspeicher für beide Signale. Zusätzlich sind gemeinsame Bewegungs-Detektionsschaltungen und Bewegtbild-Verarbeitungsschaltungen vorgesehen. Abhängig von der detektierten Bewegung werden gefilterte Signalkomponenten unterschiedlich für NTSC und MUSE Signale kombiniert.
  • Die Quelle "A New Multiplier-Adder LSI für Digital Video Processing", veröffentlicht von S. Iwase et al. in SMPTE Journal, September 1984, beschreibt eine für digitale Videoverarbeitung entwickelte C-MOS Vielzweckschaltung. Das IC-Design basiert auf einer Grundbetriebsstruktur eines Multiplizierers-Addierers. Die Grundstruktur eines Multiplizierers-Addierers kann für Innenprodukt- bzw. Skalarprodukt-Operationen verwendet werden. Derartige Skalarprodukt-Operationen sind für eine digitale Filterung wichtig, wie sie zur NTSC Codierung oder RGB-YIQ Umwandlung verwendet wird.
  • EP-A-0 444 947 beschreibt ein Fernsehempfangssystem, das einen Videoprozessor verwendet, welcher eine Anzahl von denselben Befehl zur selben Zeit ausführenden Verarbeitungselementen besitzt. Jedes von den Verarbeitungselementen umfasst ein Dateneingaberegister, eine Arithmetikeinheit, und ein Datenausgaberegister. Ferner umfasst das Fernsehempfangssystem eine Steuereinheit für den Empfang externer Signale, wie z. B. denen aus einer Fernsteuerung. Diese Signale werden decodiert und an andere Empfängerkomponenten weitergeleitet.
  • Es ist die Aufgabe der Erfindung, einen verbesserten Signalprozessor bereitzustellen, der als eine gemeinsame Hardware mit unterschiedlichen Rundfunksystemen zu verwenden ist.
  • Diese wird durch die Lehren des Anspruches 1 gelöst.
  • Diese Konfigurationen ermöglichen, dass nur eine Parallel-Produktsummen-Arithmetikeinrichtung gemeinsam zwischen Signalverarbeitungen verschiedener Rundfunksysteme genutzt wird. Die Bereitstellung der eingabe- und ausgabeseitigen Speichereinrichtung macht es möglich, Differenzen zwischen der Verarbeitungsgeschwindigkeit der Verarbeitungseinrichtung und der Eingabe/Ausgabe-Rate zu kompensieren.
  • 1 ist eine Blockdarstellung eines ersten TV Empfängers der vorliegenden Erfindung, welcher sowohl ein MUSE Signal als auch ein NTSC Signal empfangen kann.
  • 2 ist eine Blockdarstellung, welche die internen Strukturen eines Parallel-Produktsummen-Arithmetikeinheitabschnittes, einen Eingabe/Ausgaberegisterabschnitt, und ein Produktsummenfaktor-Register von 1 darstellt.
  • 3 ist ein Betriebsflussdiagramm der Hauptroutine des ersten TV-Empfängers.
  • 4 ist ein Betriebsflussdiagramm der Unterbrechungs- bzw. Interrupt-Bearbeitungsroutine des ersten TV-Empfängers.
  • 5 ist ein Betriebsflussdiagramm des ersten TV-Empfängers, welcher ein Abruf- bzw. Polling-Verfahren verwendet.
  • 6 stellt eine Struktur von durch den ersten TV-empfangenen NTSC Eingabepixeldaten dar.
  • 7 stellt eine Struktur eines Produktsummenfaktors für die NTSC Y Abtrennung in dem ersten TV-Empfänger dar.
  • 8 stellt eine Struktur eines Produktsummenfaktors für die NTSC C Abtrennung in dem ersten TV-Empfänger dar.
  • 9 stellt eine Dateneinstellung für den Eingabe/Ausgabe-Registerabschnitt sowie für den Produktsummenfaktor-Registerabschnitt dar, wenn Produktsummen-Arithmetikoperationen für die NTSC Y Abtrennung in dem ersten TV-Empfänger durchgeführt werden.
  • 10 stellt eine Dateneinstellung für den Eingabe/Ausgabe-Registerabschnitt sowie für den Produktsummenfaktor-Registerabschnitt dar, wenn Produktsummen-Arithmetikoperationen für die NTSC C Abtrennung in dem ersten TV-Empfänger durchgeführt werden.
  • 11 stellt im Detail die NTSC Y/C Abtrennungsprozedur in dem ersten TV-Empfänger dar.
  • 12 stellt den Zeittakt einer zentralen Verarbeitungseinheit und des Produktsummenfaktor-Registerabschnittes bezüglich der Verarbeitung von "A" von 11 dar.
  • 13 stellt den Ablauf der MUSE Bildverarbeitung in dem ersten TV-Empfänger dar.
  • 14 stellt eine Dateneinstellung für den Eingabe/Ausgabe-Registerabschnitt sowie für den Produktsummenfaktor-Registerabschnitt zur Intra-Halbbild-Interpolation und Bewegungsdetektion von 13 dar, und die Arithmetikoperations-Ergebnisspeicherung.
  • 15 stellt einen Bewegtbild-Identifikationsprozess auf der Basis des Ergebnisses der Bewegungsdetektion von 14 dar.
  • 16 stellt eine Löschung einer Verfälschungsverzerrung und eine Komponentenextraktion einer Verfälschungsverzerrung von 13 dar.
  • 17 stellt einen Grössenvergleichsprozess zwischen einer Inter-Einzelbildverfälschungs-Verzerrungskomponente und einer Inter-Halbbildverfälschungs-Verzerrungskomponente auf der Basis des Ergebnisses der Arithmetikoperation von 16 dar.
  • 18 ist ein Flussdiagramm, welches im Detail eine MUSE Verarbeitungsprozedur in dem ersten TV-Empfänger darstellt.
  • Die vorliegende Erfindung betrifft einen TV-Empfänger mit der Fähigkeit, sowohl ein MUSE Signal als auch ein NTSC Signal zu empfangen. Bevorzugte Ausführungsformen der vorliegenden Erfindung werden unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Unter Bezugnahme auf 1 wird nun ein erster TV-Empfänger der Ausführungsform beschrieben. Ein Prozessor 100 von 1 besitzt einen Produktsummenfaktor-Arithmetikabschnitt (PSAS) 101; einen Komparator 102; einen Eingabe/Ausgabe-(I/O)-Registerabschnitt 103; einen Produktsummenfaktor-Registerabschnitt (SFRS) 104; eine zentrale Verarbeitungseinheit (CPU) 105; einen Befehlszwischenspeicher bzw. Befehlscache 106; einen Datenspeicher 107; eine Bussteuerung 108; einen Interrupt-Steuerabschnitt 112; und eine Direkt-Speicherzugriffs- bzw. DMA-Steuerung 113. Von diesen Komponenten bilden der PSAS 101, der Komparator 102, der I/O-Registerabschnitt 103 und der SFRS 104 zusammen einen Coprozessor für die CPU 105. Die CPU 105, der Befehlscache 106, und die Bussteuerung 108 sind miteinander über einen Befehlsbus 109 verbunden. Der von den Elementen 101104 gebildete Coprozessor, die CPU 105 und der Datenspeicher 107 und die Bussteuerung 108 sind über einen Datenbus 110 verbunden.
  • Mit dem Empfang eines MUSE Signals führt eine MUSE Synchronisationsschaltung 114 eine Analog/Digital-Wandlung des empfangenen MUSE Signals bei einer Abtastrate von 16,2 MHz durch, und dieses umgewandelte Signal wird zusammen mit einem Synchronisationssignal ausgegeben. Andererseits führt bei dem Empfang eines NTSC Signals eine NTSC Synchronisationsschaltung 115 eine Analog/Digital-Wandlung des empfangenen NTSC Signals mit einer Abtastrate von 14,3 MHz durch, und dieses umgewandelte Signal wird zusammen mit einem Synchronisationssignal ausgegeben. Jede von den Synchronisationsschaltungen 114 und 115 hat die Fähigkeit, das empfangene Signal zu synchronisieren, und ein Videosignal aus einem ausgewählten Kanal herauszuholen. Ein Selektor 120 ist in der Lage, zwischen zwei unterschiedlichen Signalen (d. h., dem MUSE Signal und dem NTSC Signal) auszuwählen und ein ausgewähltes Signal an einen Einzelbildspeicher 116 auszugeben, welcher auf der Eingangsseite angeordnet ist. D. h., dieser Einzelbildspeicher 116 dient als ein Speicher für die Speicherung von Eingabepixeln. Ein Rahmenspeicher 117 ist auf der Ausgangsseite vorgesehen, welcher Bilddaten für die Anzeige speichert. Ein CRT-Anzeige-Steuerabschnitt 118 führt eine Steuerung aus, damit die Daten des Einzelbildspeichers 117 auf einer CRT 131 darge stellt werden, während er (der Speicher 117) eine Funktion einer Veränderung der Abmessungen des Einzelbildes abhängig von den Synchronisationssignalen aus der MUSE Synchronisationsschaltung 114 und der NTSC Synchronisationsschaltung 115 ändert. Mit anderen Worten, die auf den Eingangs- und Ausgangsseiten vorgesehenen Einzelbildspeicher 116 und 117 werden gemeinsam zwischen dem MUSE System und dem NTSC System genutzt. In der vorliegenden Erfindung wird verarbeitete Videoinformation an die CRT 131 ausgegeben, wo sie dargestellt wird. Jedoch kann eine derartige Videoinformation beispielsweise auf einer Festplatte gespeichert werden.
  • Ein Steuersignaleingabeabschnitt 121 sendet ein Interruptsignal an den Prozessor 100 als Reaktion auf ein, beispielsweise von einer TV-Fernsteuerung ausgegebenes, externes Steuersignal, welches Anforderungen, wie z. B. eine Anforderung nach einem Kanalwechsel und eine Anforderung nach einer Lautstärkeänderung, transportiert. Der Steuersignaleingabeabschnitt 121 besitzt ein internes Register zum Speichern eines Kanalnummernsatzes oder dergleichen. Ein Programmspeicher 122 speichert von dem Prozessor 100 auszuführende Befehle. Ein Audioverarbeitungsabschnitt 123 empfängt ein Audiosignal von dem eingabeseitigen Einzelbildspeicher 116. Die Lautstärke wird mittels eines Signals aus dem Prozessor 100 an die Audioverarbeitungsschaltung 123 eingestellt. Das Bezugszeichen 132 bezeichnet einen Lautsprecher. Der Prozessor 100, die MUSE Synchronisationsschaltung 114, die NTSC Synchronisationsschaltung 115, der Selektor 120, der Einzelbildspeicher 116, der Einzelbildspeicher 117, der Steuersignaleingabeabschnitt 121, der Programmspeicher 122 und die Audioverarbeitungsschaltung 123 sind über einen Systembus 119 verbunden.
  • 2 ist eine Blockdarstellung, welche den PSAS 101, den I/O-Registerabschnitt 103 und den SFRS 104 von 1 darstellt. 16 Eingangsregister 201 bis 216 sind vorgesehen. Diese Eingangsregister 201 bis 216 bilden zusammen einen Teil des I/O-Registerabschnittes 103 und sie sind (8-Bit-Register für die Speicherung von Pixeldaten. Es ist möglich, die Eingangsregister 201 bis 216 das Ausgangssignal des PSAS 101 oder das Ausgangssignal des Komparators 102, zugeführt über den Datenbus 110, speichern zu lassen. Ein Ausgaberegister 282 bildet einen Teil des I/O-Registers 103. Dieses Ausgaberegister 282 speichert das Ergebnis der von dem PSAS 101 durchgeführten Operation. Es sind 16 Faktorenregister 241256 vorgesehen. Diese Faktorenregister 241256 bilden zusammen einen Teil des SFRS 104, und sie sind 4-Bit-Register zum Speichern von Faktoren, welche verwendet werden, wenn Produktsummen-Arithmetikoperationen durchgeführt werden.
  • Es sind 16 Multiplizierer 221236 vorgesehen, welche zusammen einen Teil des PSAS 101 bilden. Diese 16 Multiplikatoren 221236 führen Multiplikationsoperationen von durch die 16 Eingangsregister 210216 gespeicherten Daten und von durch die 16 Faktorenregister 241256 gespeicherten Daten durch. D. h., von einem Eingangsregister gespeicherte Daten werden mit von einem entsprechenden Faktorenregister gespeicherten Daten multipliziert. 15 Addierer 261275 sind vorgesehen, welche in einer Baumstruktur miteinander verbunden sind und welche zusammen einen Teil des PSAS 101 bilden. Diese Addierer werden dazu verwendet, um von Multiplizierern 221236 gefundene Produkte zu summieren.
  • Eine Parallelübertragsschaltung (CLA) 281 ist vorgesehen, welche einen Teil des PSAS 101 bildet. Diese CLA 281 hat die Fähigkeit, das durch eine redundante binäre Zahl dargestellte Additionsergebnis in eine einfachere binäre Zahl umzuwandeln. Jeder von den Addierern 261275 hat einen Aufbau, der in der Lage ist, direkt das Ergebnis der arithmetischen Operation in die I/O-Register 103 über den Datenbus 110 zu schreiben ohne es durch die CLA 281 zu führen.
  • Unter Bezugnahme auf die 3 und 4 wird die Betriebsweise des ersten TV-Empfängers beschrieben. 3 ist ein Betriebsflussdiagramm der Hauptroutine des ersten TV-Empfängers. 4 ist ein Betriebsflussdiagramm der Interrupt-Bearbeitungsroutine des ersten TV-Empfängers.
  • Gemäß Darstellung in 3 erfolgt, wenn die Energieversorgung eingeschaltet wird, ein Rücksetzen des Prozessors 100 (Schritt 1000). Dann beginnt der Prozessor 100 mit dem Ausführung eines Programms bei der Anfangsadresse des Programmspeichers 122. Dieses initialisiert alle von dem PSAS 101, dem Komparator 102, dem I/O-Registerabschnitt 103, dem SFRS 104, der CPU 105, dem Befehlscache 106, dem Datenspeicher 107, der Bussteuerung 108, dem Interrupt-Steuerabschnitt 112, und der DMA-Steuerung 113 (Schritt 1001). Einzelne das Programm bildende Befehle werden in die CPU 105 aus dem Programmspeicher 122 durch die Bussteuerung 108 und den Befehlsbus 109 übernommen, während gleichzeitig diese Befehle in dem Befehlscache 106 gespeichert werden. Daher kann das Auslesen von Befehlen mit hoher Geschwindigkeit beim nächsten Zeitpunkt durchgeführt werden und es wird eine sehr schnelle Bildverarbeitung möglich.
  • Anschließend wird das Rundfunksystem abhängig von dem zum Initialisierungszeitpunkt eingestellten Kanal detektiert (Schritt 1002). Dann verzweigt das Programm zu einem MUSE Verarbeitungsschritt (Schritt 1005) oder zu einem NTSC Verarbeitungsschritt (Schritt 1004) abhängig von dem Ergebnis des Schrittes 1003, der ein Schritt zur Identifikation des Rundfunksystems ist. Danach geht jede Bildverarbeitung in eine Endlosschleife über, bis ein Interruptsignal angelegt wird.
  • Wenn eine Anforderung für einen Kanalwechsel während der MUSE Verarbeitung (Schritt 1005) erfolgt, legt diese ein Steuersignal an den Steuersignaleingabeabschnitt 121 an. Demzufolge wird die angeforderte Kanalnummer in einem internen Register des Steuersignaleingabeabschnittes 121 gesetzt. Dann gibt der Steuersignaleingabeabschnitt 121 ein Interruptsignal an den Interrupt-Steuerabschnitt 112 innerhalb des Prozessors 100 aus. Anschließend gibt der Interrupt-Steuerabschnitt 112 an die CPU 105 ein Signal mit einem zum Initialisierungszeitpunkt eingestellten Interruptpegel aus. Dieses bewirkt einen Interrupt (Schritt 1015) und das Programm verzweigt zu einem Interrupt-Bearbeitungsroutinenschritt (Schritt 1006 von 4). Selbst wenn eine Anforderung für eine Kanaländerung während der NTSC Verarbeitung ausgegeben wird (Schritt 1004), bewirkt dieses ebenfalls eine Unterbrechung (Schritt 1014), so dass das Programm zum Schritt 1006 verzweigt (d. h., zu dem Interrupt-Bearbeitungsschritt).
  • In der Interrupt-Bearbeitungsroutine von 4 geht das Programm zu einem Systemsteuerungs-Verarbeitungsschritt (Schritt 1007) über, um beispielsweise die Lautstärke einzustellen. Dann geht das Programm zu einem Kanalwechselroutineschritt (Schritt 1008) über um zu prüfen, ob der Interruptfaktor eine Kanaleinstellungsveränderung ist. Vom Schritt 1008 verzweigt dann das Programm zu dem Schritt 1002. Bei dem Schritt 1002 wird das Rundfunksystem gemäß der eingestellten Kanalnummer, die in dem internen Register des Steuersignaleingabeabschnittes 121 gesetzt ist, identifiziert. Abhängig von dem Ergebnis des Rundfunkidentifikationsschrittes (Schritt 1003) verzweigt das Programm zu dem Schritt 1005 (d. h., dem MUSE Verarbeitungsschritt) oder zum Schritt 1004 (dem NTSC Verarbeitungsschritt). Wie es vorstehend beschrieben wurde, sind sowohl die MUSE Verarbeitung als auch die NTSC Verarbeitung eine Endlosschleife, so dass dieselbe Routine wiederholt durchgeführt wird, bis der nächste Interrupt auftritt.
  • Wenn eine Anforderung für eine Lautstärkenänderung während der MUSE Verarbeitung (Schritt 1005) oder während der NTSC Verarbeitung (Schritt 1004) ausgegeben wird, bewirkt dieses ebenfalls einen Interrupt (Schritte 1015 und 1014). Dann verzweigt das Programm zu dem Schritt 1006. Bei dem Schritt 1006 wird ein Lautstärkeeinstellsignal über den Schritt 1007 an den Audioverarbeitungsabschnitt 123 angelegt. In diesem Falle wird anders als bei dem Kanalwechsel ein RÜCKSPRUNG-Befehl des Schrittes 1001 ausgeführt, da die Verarbeitung, die zum Zeitpunkt des Auftrittes eines Interrupts in durchgeführt wird, fortgesetzt werden muss. Wenn der Interruptfaktor "Ausschalten" ist, geht das Programm zu einem Ausschalte-Prüfschritt (Schritt 1009) über. Dann wird eine Endverarbeitung ausgeführt und das Programm ist fertig (siehe 4).
  • Der Betriebsablauf des ersten TV-Empfängers, welcher eine Interrupt-Verarbeitungstechnik verwendet, wurde beschrieben. Anstelle der Verwendung der Interrupt-Verarbeitungstechnik kann eine in 5 dargestellte Abfrage- bzw. Polling-Technik nützlich sein, obwohl dieses keine Ausführungsform der Erfindung ist. In 5 sind die Schritte 1201 und 1200 eine Steuersignal-Identifikationsroutine. In der Abfragetechnik liest nach dem Schritt 1005 oder dem Schritt 1005 die CPU 105 ein internes Register des Steuersignaleingabeabschnittes 121 aus, um so auf das Anlegen von Steuersignalen (beispielsweise das Vorhandensein oder Fehlen einer Anforderung für einen Kanalwechsel) zu prüfen (Schritte 1201 und 1200). Gleichzeitig fährt die CPU 105 mit der Verarbeitung fort. Die ausgelesene Operation des internen Registers des Steuersignaleingaberegisters 121 wird über den Systembus 119 ausgeführt. Beispielsweise verzweigt, wenn der Steuersignaleingabeabschnitt 121 ein Steuersignal während der MUSE Verarbeitung (Schritt 1005) empfängt, das Programm vom Schritt 1201 auf einen Systemsteuerungs-Verarbeitungsschritt (Schritt 1007). Als Folge einer derartigen Anordnung kann dieselbe Funktion, wie sie durch das Interrupt-Verarbeitungsverfahren realisiert wird, realisiert werden.
  • Der interne Betrieb des Prozessors 100 wird in Hinblick auf den MUSE Verarbeitungsschritt (Schritt 1005) und den NTSC Bearbeitungsschritt (Schritt 1004) mittels Beispielen detailliert. In der Beschreibung der MUSE Bearbeitung werden eine Intra-Halbbild-Interpolation und eine Verfälschungsverzerrungslöschung erläutert. In der Beschreibung der NTSC Verarbeitung wird eine Y/C Abtrennung erläutert.
  • Mit Hilfe der 6 bis 12 wird die Y/C Abtrennung in Hinblick auf das NTSC System beschrieben. 6 stellt eine Eingabepixeldatenstruktur des NTSC Systems dar. 7 stellt eine Struktur eines Produktsummenfaktors für die NTSC Y Abtrennung dar. 8 stellt eine Struktur eines Produktsummenfaktors für NTSC C Abtrennung dar. Jedes Pixel wird mit einer Abtastrate von 4 fsc (= 14,3 MHz, d. h., dem Vierfachen der Chrominanz-Unterträgerfrequenz) abgetastet.
  • 6 stellt Pixeldatenelemente p1–p5, p6–p10 und p11–p15 dar, wobei jede Gruppe eine Abtastzeile darstellt. Zur Durchführung einer Y/C Abtrennungsoperation wird jedes Pixel mit einem entsprechenden Faktor multipliziert und diese Produkte werden addiert. 7 stellt Produktsummenfaktorwerte der Y Abtrennung des Luminanzsignals dar, in welcher das Mittenpixel-Datenelement p8 ein Pixeldatenelement ist, das arithmetischen Operationen unterworfen wird. Weitere Pixeldatenelemente ohne Produktsummenfaktorwertangaben besitzen Produktsummenfaktorwerte von Null. Diese Produktsummen-Arithmetikoperation kann wie folgt geschrieben werden: p1 + 2*p3 + p5 + 2*p6 + 4*p8 + 2*p10 + p11 + 2*p13 + p15 (1)
  • Folglich wird die Y Signalabtrennung durchgeführt. 8 stellt Produktsummenfaktorwerte für die C Abtrennung des Chrominanzsignals dar. Diese Produktsummen-Arithmetikoperation kann wie folgt geschrieben werden: p1 – 2*p3 + p5 – 2*p6 + 4*p8 – 2*p10 + p11 – 2*p13 + p15 (2)
  • Folglich wird die C Signalabtrennung durchgeführt. Hier sind acht Pixeldatenelemente, welche unmittelbar neben dem Pixeldatenelement p8 liegen, in den Formeln (1) und (2) enthalten, was die Kontinuität des Pixeldatenelementes p8 zu jedem seiner benachbarten Pixeldatenelemente berücksichtigt.
  • 9 stellt das Setzen von Daten bei der Durchführung der Formel (1) für die Y Abtrennung dar. Die Eingaberegister 201215 speichern entsprechende Pixeldatenelemente (d. h., p1–p15 von 6). Die Faktorenregister 241255 speichern entsprechende Produktsummenfaktoren (siehe 7). Entsprechende Produktsummenfaktoren für die Pixeldatenelemente p2, p4, p7, p9, p12 und p14 sind Null. Das Eingaberegister 216, das ein sechzehntes Eingaberegister ist, wird nicht verwendet, und somit wird seinem entsprechenden Faktorenregister (d. h., dem Faktorenregister 256) ein Produktsummenfaktor von 0 zugewiesen. Zum Zeitpunkt der Ausführung der Formel (2) für die C Abtrennung werden die Inhalte der Faktorenregister 241255 auf die Produktsummenfaktoren von 8 gemäß Darstellung in 10 verändert.
  • Die Prozedur der NTSC Verarbeitung (d. h., Schritt 1004 von 3) durch den Prozessor 100 wird in der Form eines Problemanalysediagramms (PAD) von 11 detailliert dargestellt. Damit Pixeldaten für drei Abtastzeilen per DMA von dem eingabeseitigen Einzelbildspeicher 116 (d. h., dem externen Speicher) zu dem Datenspeicher 107 (d. h., dem internen Speicher) über die Bussteuerung 108 übertragen werden, setzt die CPU 105 eine Übertragungsstartadresse und einen Übertragungsdatenzähler in einem Befehlsregister. Dieses initialisiert den Datenspeicher 107 für eine spätere Bearbeitung. Der Abschluss der Übertragung der Daten wird durch ein Interruptsignal aus der DMA-Steuerung 113 an die CPU 105 über den Interrupt-Steuerabschnitt 112 gemeldet.
  • Ferner werden Befehle an die DMA-Steuerung 113 gesendet, damit diese Pixeldaten für eine Abtastzeile per DMA von dem eingabeseitigen Einzelbildspeicher 116 zu dem Datenspeicher 107 übertragen werden. Anschließend aktiviert die CPU 105 den PSAS 101, der dann die Arithmetikoperationen für Y/C Abtrennung durchführt. D. h., Pixeldatenelemente werden in den Eingaberegistern 201215 des I/O-Registerabschnittes 103 gesetzt, Produktsummenfaktoren werden in den Faktorenregistern 241256 des SFRS 104 gesetzt (siehe 9), und der PSAS 101 führt Produktsummenoperationen für die Y Abtrennung durch. Dann wird die Einstellung des Produktsummenfaktor geändert (siehe 10) und der PSAS 101 führt Produktsummenoperationen für die C Abtrennung durch. Die einzelnen Arithmetikoperationsergebnisse werden aus dem I/O-Registerabschnitt 103 ausgelesen und in dem Datenspeicher 107 gespeichert (d. h., Verarbeitung "A" von 11). Diese Verarbeitung "A" wird für jedes Pixel einer einzelnen Abtastzeile wiederholt. Nach Abschluss der Y/C Abtrennung für eine Abtastzeile gibt die CPU 105 einen Befehl an die DMA-Steuerung 113 aus, damit das Arithmetikoperationsergebnis für jede einzelne Abtastzeile aus dem Datenspeicher 107 in den ausgabeseitigen Einzelbildspeicher 117 (d. h., in den externen Speicher) übertragen wird. Die vorstehend beschriebene Verarbeitung wird für alle Abtastzeilen eines Einzelbildes wiederholt.
  • 12 stellt einen Zeittakt der CPU 105 und des PSAS 101 in Hinblick auf die Verarbeitung "A" von 11 dar. Die Ausführung eines COexe Befehls (d. h., eines Koprozessorsaktivierungsbefehls) aktiviert den PSAS 101, und die Pixeldatenelemente werden aus dem Datenspeicher 107 in die Eingaberegister 201215 ausgelesen. Bei dem nächsten Zyklus werden Arithmetikoperationen für die Y Abtrennung durch den PSAS 101 ausgeführt. Bei dem nachfolgenden Zyklus werden Abtrennungs-Arithmetikoperationen für die C Abtrennung durch den PSAS 101 ausgeführt. Während der PSAS 101 diese Operationen für die Y/C Abtrennung durchführt, führt die CPU 105 ein Adresseninkrement durch einen ADD (Additions) Befehl aus, und prüft, mittels eines BNE (bedingten Verzweigungs) Befehls ob die Pixelverarbeitung für eine Abtastzeile abgeschlossen ist. Bei Abschluss der Arithmetikoperation für die Y/C Abtrennung gibt die CPU 105 einen ST (Speicher) Befehl aus, damit das Arithmetikoperationsergebnis in dem Datenspeicher 107 gespeichert wird. Durch Wiederholung der vorstehend beschriebenen Operation kann eine sehr schnelle NTSC Y/C Abtrennung realisiert werden.
  • Die Y/C Abtrennung der vorliegenden Ausführungsform ist zweidimensional; jedoch kann die vorliegende Erfindung Anwendung in einer dreidimensionalen Y/C Abtrennung finden, in welcher Intra-Halbbild-Arithmetikoperationen durchgeführt werden.
  • Anschließend wird unter Bezugnahme auf die 1318 ein MUSE Luminanzsignal Y Prozess detailliert beschrieben.
  • 13 stellt den Ablauf der MUSE Bildverarbeitung dar. Um die Verarbeitung zu vereinfachen, wird das MUSE Eingabesignal einem Intra-Halbbild-Prozess 601 unabhängig von dem Bildtyp unterworfen. In diesem Falle tritt eine Verfälschungsstörung an Bildern ohne Bewegung auf. Deshalb wird ein Verfälschungsverzerrungs-Löschprozess 602 durchgeführt. Parallel zu diesem Verfälschungsverzerrungs-Löschprozess 602 wird ein Bewegungsdetektionsprozess 603 zum Identifizieren des Bildtyps durchgeführt (d. h., eines Bildes mit Bewegung oder eines Bildes ohne Bewegung). Wenn das Ergebnis des Bewegungsdetektionsprozesses 603 ein Bild mit Bewegung ist, wird das Ergebnis des Intra-Halbbild-Interpolationsprozesses 601 bei einem späteren Schritt ausgewählt, d. h., in einem Syntheseprozess 604. Wenn das Ergebnis des Bewegungsdetektionsprozesses 603 ein Bild ahne Bewegung ist, wird das Ergebnis des Verfälschungsverzerrungs-Löschprozesses 602 ausgewählt.
  • Eine Dateneinstellung für den Intra-Halbbild-Interpolationsprozess 601 und den Bewegungsdetektionsprozess 603, und die Speicherung des Arithmetikoperationsergebnisses sind in 14 dargestellt. Hier werden Pixeldaten nur in 8 Eingangsregistern der 16 Eingangsregister 201216 gesetzt. Das Pixel p8 ist an derselben Stelle angeordnet, wie ein Pixel p0 zwei Einzelbilder vor dem Pixel p8. Die folgenden Produktsummenoperationen werden durchgeführt. q1 = p1 + 2*p3 + p3 (3) q4 = p7 + 2*p8 + p9 (4) m = p0 – p8 (5)
  • Diese Arithmetikoperationsergebnisse q1, q4 und m werden in drei Ausgangsregistern 283285 gespeichert, welche einen Teil des I/O-Registerabschnittes 103 bilden. "q1" und "q4" sind die Ergebnisse des Intra-Halbbild-Interpolationsprozesses. "m" ist das Bewegungsdatenelement.
  • 15 stellt ein Bild mit/ohne Bewegungsidentifikationsprozess dar. Der Komparator 102 führt einen Vergleich zwischen einem Absolutwert m aus dem Register 285 und einem Absolutwert m0, der ein Schwellenwert ist, durch, um den Bildtyp zu identifizieren.
  • 16 stellt eine Dateneinstellung für den Verfälschungsverzerrungs-Löschprozess 602 und einen Extraktionsprozess von Verfälschungsverzerrungskomponenten und eine Speicherung des Arithmetikoperationsergebnisses dar. Hier werden das Ergebnis der Intra-Halbbild-Interpolation 601 enthaltenden Daten nur in 10 von den 16 Eingangsregistern 210216 gesetzt. Die nachstehenden Produktsummen-Arithmetikoperationen werden durchgeführt. r1 = q1 + 2*q2 + p5 (6) r2 = q1 + q4 (7) s1 = –q1 + 2*q4 – p5 (8) s2 = –q1 + q4 (9)
  • Diese Ergebnisse r1, r2, s1 und s2 werden in den vier Ausgaberegistern 287290 gespeichert, welche einen Teil des I/O-Registerabschnittes 103 bilden. "r1" und "r2" sind die Ergebnisse des Verfälschungsverzerrungs-Löschprozesses (zwischen Einzelbildern und Halbbildern). "s1" und "s2" sind extrahierte Verfälschungsverzerrungskomponenten (zwischen Einzelbildern und zwischen Halbbildern). 17 stellt eine vergleichende Größe zwischen einer Verfälschungsverzerrungskomponente und einer weiteren dar. Insbesondere führt der Komparator 102 einen Vergleich zwischen einem Absolutwert von s1 aus dem Register 289 und einem Absolutwert von s2 aus dem Register 290 durch, um zu ermitteln, welche von der Inter-Einzelbild-Verfälschungsverzerrungskomponente und der Inter-Halbbild-Verfälschungsverzerrungskomponente größer als die andere ist.
  • Ein Programm für die vorstehend beschriebene MUSE Verarbeitung kann in Assembler-Sprache wie folgt geschrieben werden.
    LD Daten lesen
    COexe1 Intra-Halbbild-Interpolation
    A: COexe2 Verfälschungsverzerrungslöschung
    COexe3 Identifikation von Bildern mit/ohne Bewegung
    BL Verzweigung auf C, wenn ein Bild mit Bewegung detektiert wird.
    NOP Keine Operation
    COexe4 Größenvergleich zwischen Verfälschungsverzerrungskomponenten
    BL Verzweigung auf B, wenn Inter-Halbbild-Verfälschungsverzerrungskomponente größer als Inter-Einzelbild-Verfälschungsverzerrungskomponente ist
    LD Daten lesen
    STr2 Speichern der Daten ohne Zwischen-Einzelbild-Verfälschungsverzerrung
    JMP Verzweigung nach A
    COexe1 Intra-Halbbild-Interpolation
    B: STr1 Speichern von Daten ohne Inter-Einzelbild-Verfälschungsverzerrung
    JMP Verzweigung nach A
    COexe1 Intra-Halbbild-Interpolation
    C: LD Daten lesen
    STr5 Speichern von Interpolationsdaten
    JMP Verzweigung nach A
    COexe1 Intra-Halbbild-Interpolation
  • Der in eine Zeile anschließend an den JMP Befehl (d. h., einen unbedingten Verzweigungsbefehl) geschriebene COexe1 Befehl wird zum Zeitpunkt der fraglichen Verzweigung ausgeführt.
  • 18 stellt dieses Programm in der Form eines Flussdiagramms dar. An erster Stelle gibt die CPU 105 Daten durch den LD (Lade) Befehl ein (Schritt 901). Anschließend führt die CPU 105 eine Intra-Halbbild-Interpolation und Bewegungsdetektion von 14 durch den COexe1 Befehl (Schritte 902 und 904) aus. Dann führt die CPU 105 eine Verfälschungsverzerrungslöschung und eine Extraktion der Verfälschungsverzerrungskomponenten (Schritt 903) von 16 durch den COexe2 Befehl aus. Anschließend führt die CPU 105 eine Bewegungsdetektion von 15 durch den COexe3Befehl (Schritt 905) aus. Ferner führt die CPU 105 auf der Basis des Ergebnisses dieser Bewegungsdetektion eine Verzweigungssteuerung mittels des BL Befehls (d. h., des bedingten Verzweigungsbefehls) aus (Schritt 906). Mit anderen Worten, wenn das Bewegungsdetektionsergebnis ein Bild mit Bewegung ist, geht das Programm zu dem Schritt 907. Wenn andererseits das Bewegungsdetektionsergebnis eine Bewegung ohne Bewegung ist, läßt dieses das Programm zum Schritt 910 übergehen.
  • Im Falle der Detektion eines Bildes mit Bewegung wird der Lesevorgang der anschließenden Daten durch den LD Befehl (Schritt 907) durchgeführt und Interpolationsdaten des Arithmetikoperationsergebnisses von 14 werden durch den ST Befehl in den Datenspeicher 107 (Schritt 908) geschrieben. Dann wird der JMP Befehl ausgeführt, um einen Intra-Halbbild-Interpolationsprozess (Schritt 909) auszuführen, worauf dann das Programm zum Schritt 903 zurückkehrt.
  • Wenn ein Bild ohne Bewegung detektiert wird, wird ein Grössenvergleich zwischen einer Inter-Einzelbild-Verfälschungsverzerrungskomponente und einer Inter-Halbbild-Verfälschungsverzerrungskomponente durch den COexe4 Befehl (Schritt S910 von 13) durchgeführt. Unter Nutzung des Ergebnisses dieser Vergleichsoperation wird die Verzweigungssteuerung durch den BL Befehl (Schritt 911) ausgeführt. Mit anderen Worten, wenn die Inter-Halbbild-Verfälschungsverzerrungskomponente größer als die Inter-Einzelbild-Verfälschungsverzerrungskomponente ist, geht das Programm zu dem Schritt 912 und ansonsten zu dem Schritt 915 über.
  • Wenn die Zwischen-Halbbild-Verfälschungsverzerrung größer als die Inter-Einzelbild-Verfälschungsverzerrung ist, werden dann die nächsten Daten durch die Ausführung des LD Befehls bei einem Verzögerungsschlitz (Schritt 912) eingegeben. Danach werden Daten ohne Inter-Halbbild-Verfälschungsverzerrung in den Datenspeicher 107 durch den ST Befehl (Schritt 913) eingeschrieben. Dann wird der JMP Befehl ausgeführt, um den Intra-Halbbild-Interpolationsprozess (Schritt 914) auszuführen, worauf das Programm zu dem Schritt 903 zurückkehrt.
  • Wenn die Inter-Einzelbild-Verfälschungsverzerrung größer als die Inter-Halbbild-Verfälschungsverzerrung ist, werden die nächsten Daten durch Ausführung des LD-Befehls (Schritt 915) eingegeben. Danach werden Daten ohne Inter-Einzelbild-Verfälschungsverzerrung in den Datenspeicher 107 durch den ST Befehl (Schritt 916) eingeschrieben. Dann wird der JMP Befehl ausgeführt, um einen Intra-Halbbild-Interpolationsprozess (Schritt 917) auszuführen, worauf das Programm zu dem Schritt 903 zurückkehrt.
  • Durch Wiederholung der vorstehend beschriebenen Operationen kann eine schnelle MUSE Bildverarbeitung erreicht werden.
  • In dieser Ausführungsform wird die Übertragung von Befehlen und die Übertragung von Daten über einen einzigen Systembus, nämlich den Systembus 119 ausgeführt. Der Prozessor 100 kann zwei Ports enthalten, um zwei unterschiedliche Busleitungen verfügbar zu machen. Von diesen zwei Busleitungen wird die eine für die Übertragung von Befehlen und Daten aus dem Programmspeicher 122 an die CPU 105 und der andere für die DMA Übertragung von Daten zwischen den Rahmenspeichern 116, 117 und dem Datenspeicher 107 verwendet. Dieses ermöglicht eine sehr schnelle Steuerung ohne eine wechselseitige Störung zu bewirken. Ferner kann die DMA Steuerung 113 eliminiert werden, wobei in diesem Falle die Übertragung von Daten zwischen den Einzelbildspeichern 116, 117 und dem Datenspeicher 107 direkt durch die CPU 105 erledigt wird. Ferner können anstelle der Verwendung der Rahmenspeicher 116 und 117 Zeilenspeicher oder FIFO-Speicher nützlich sein.
  • Ein Geisterbild-Kompensator oder ein Wellenformentzerrer können zwischen einer von den Synchronisationsschaltungen 114 und 115 und dem ausgabeseitigen Rahmenspeicher 116 vorgesehen sein. Zusätzlich kann eine Filterverarbeitungsschaltung zwischen dem Prozessor 100 und dem ausgabeseitigen Rahmenspeicher 117 vorgesehen sein.
  • In der vorliegenden Ausführungsform werden die Y Abtrennung und die C Abtrennung von nur einem Prozessor (d. h., dem Prozessor 100) durchgeführt. Mehrere Prozessoren können verwendet werden, um beides parallel durchzuführen. Die vorstehend beschriebene NTSC Y/C Abtrennungsprozedur findet Anwendungen in solchen TV-Rundfunksystemen wie z. B. EDTV und EDTV II, welche die Y/C Abtrennung erfordern. PAL (Phase Alternation Line) Videosignale können durch Veränderung des Programms und Umschaltung des Produktsummenfaktors verarbeitet werden.
  • Die vorliegende Erfindung findet nicht nur Anwendung in TV-Empfängern, sondern auch in Videosignalprozessoren einschließlich VTR's (Videobandrekordern). Der PSAS 101 kann als ein Filter für die Audiosignalverarbeitung verwendet werden. Durch Veränderung der Faktoreneinstellung für den SFRS 104 kann ein Audiofilter mit variabler Kennlinie realisiert werden. Zusätzlich ermöglicht das Anlegen digitaler Signale aus digitalen TV's, VTR's oder CDROM's an den Systembus 119 deren Multimediaverarbeitung wie in der vorstehend beschriebenen Videosignalverarbeitung. Ferner können, anstelle der Verwendung der Addierer 261275 des PSAS 101 mit einer Baumstruktur, verschiedene Typen von Addierern, wie z. B. Addierer eines Schnellübertragungstyps nützlich sein. In dieser Ausführungsform haben die Eingaberegister 201216 und die Faktorenregister 241256 eine 8-Bit-Konfiguration bzw. ein 4-Bit-Konfiguration, was jedoch nicht als TEXT FEHLT

Claims (4)

  1. Signalprozessor, der umfasst: eine Vielzahl von Synchroneinrichtungen (114, 115), die Rundfunksignale ausgeben, die synchron zu Videosignalen oder Audiosignalen zu verarbeiten sind, und einen Selektor (120), der selektiv ein bestimmtes der Rundfunksignale von der Vielzahl von Synchroneinrichtungen (114, 115) ausgibt, einen ersten Bildspeicher (116), der Pixel-Daten des selektiv ausgegebenen Rundfunksignals speichert, einen zweiten Bildspeicher (117), der ein Verarbeitungsergebnis als Ausgabedaten speichert, Ausgabeeinrichtungen (131, 132), die Daten auf Basis von aus dem einen zweiten Bildspeicher (117) ausgelesenen Daten ausgeben, ein Datenregister (103), das einen Daten-Vektor p = (p0, p1, ... pn), der aus Daten gebildet ist, die aus dem ersten Bildspeicher (116) ausgelesen werden, und ein Produktsummenergebnis einer arithmetischen Operation auf Basis des Daten-Vektors p speichert, ein Produktsummenfaktor-Register (104), das einen Produktsummenfaktor-Vektor a = (a0, a1, ... an) speichert, eine Parallel-Produktsummen-Arithmetikeinrichtung (PSAM) (101), die eine Produktsummen-Arithmetikoperation durchführt, um ein inneres Produkt des Daten-Vektors p und des Produktsummenfaktor-Vektors a zu berechnen, das durch p·a = a0*p0 + a1*p1 + ... + an*pn bezeichnet wird, und das Ergebnis einer Produktsummen-Arithmetikoperation in das Datenregister (103) schreibt, eine Verarbeitungseinrichtung (105), die die Funktionen der mehreren Synchroneinrichtungen (114, 115) und des Selektors (120) steuert, den Daten-Vektor p in das Datenregister (103) stellt, den Produktsummenfaktor-Vektor a in das Produktsummenfaktor-Register (104) stellt und die Produktsummen-Arithmetikoperation der PSAM (101) steuert, eine Programmspeichereinrichtung (122), die ein Programm mit einer Beschreibung des Inhalts einer Operation speichert, die von der Verarbeitungseinrichtung (105) auszuführen ist, eine Steuersignal-Eingabeeinrichtung (121), die ein externes Steuersignal hält, und eine Interrupt-Steuereinrichtung (112), die in Reaktion auf das externe Steuersignal, das von der Steuersignal-Eingabeeinrichtung (121) empfangen und gehalten wird, ein Interrupt-Signal erzeugt, um die Operationen der Verarbeitungseinrichtung (105) zu steuern, wobei der Signalprozessor so eingerichtet ist, dass er die folgenden Schritte durchführt: Empfangen von Pixel-Daten für wenigstens eine Abtastzeile von einem ersten Bildspeicher (116), Verarbeiten der empfangenen Pixel-Daten, und Ausgeben der Pixel-Daten, die der Signalverarbeitung unterzogen worden sind, an den zweiten Bildspeicher (117), wobei jeder der Schritte wiederholt an entsprechenden Pixel-Daten für ein Einzelbild durchgeführt wird.
  2. Signalprozessor nach Anspruch 1, wobei der Verarbeitungsschritt ausgeführt wird, indem ein Pixel-Verarbeitungsvorgang wiederholt an jedem Pixel vorgenommen wird.
  3. Signalprozessor nach Anspruch 1 oder Anspruch 2, wobei der Verarbeitungsschritt einen Schritt des Durchführens eines Prozesses (603) zum Identifizieren eines Bildes mit/ohne Bewegung durch Anstellen eines Vergleiches zwischen den Pixel-Daten für wenigstens eine Abtastzeile und Pixel-Daten einer Abtastzeile eines Halbbildes davor einschließt.
  4. Signalprozessor nach einem der Ansprüche 1 bis 3, wobei der Verarbeitungsschritt einen Schritt des Auswählens (604) zwischen einem Intra-Halbbild-Prozess und einem Inter-Halbbild-Prozess entsprechend einem Ergebnis des Prozesses zum Identifizieren eines Bildes mit/ohne Bewegung einschließt.
DE69434182T 1993-04-12 1994-04-12 Videosignalverarbeitung mit arithmetischem Processor und Interrupt Expired - Lifetime DE69434182T2 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP08471293A JP3527259B2 (ja) 1993-04-12 1993-04-12 映像信号処理装置及び処理方法
JP8471293 1993-04-12
JP18383693 1993-07-26
JP18383693 1993-07-26
JP19219593 1993-08-03
JP19219593 1993-08-03

Publications (2)

Publication Number Publication Date
DE69434182D1 DE69434182D1 (de) 2005-01-20
DE69434182T2 true DE69434182T2 (de) 2005-05-04

Family

ID=27304637

Family Applications (3)

Application Number Title Priority Date Filing Date
DE69433392T Expired - Lifetime DE69433392T2 (de) 1993-04-12 1994-04-12 Videodatenprozessor und Videosignaldatenverarbeitung
DE69434182T Expired - Lifetime DE69434182T2 (de) 1993-04-12 1994-04-12 Videosignalverarbeitung mit arithmetischem Processor und Interrupt
DE69435195T Expired - Lifetime DE69435195D1 (de) 1993-04-12 1994-04-12 Videosignalprozessor und Videosignalverarbeitung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69433392T Expired - Lifetime DE69433392T2 (de) 1993-04-12 1994-04-12 Videodatenprozessor und Videosignaldatenverarbeitung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE69435195T Expired - Lifetime DE69435195D1 (de) 1993-04-12 1994-04-12 Videosignalprozessor und Videosignalverarbeitung

Country Status (5)

Country Link
US (1) US5555197A (de)
EP (7) EP0883293A1 (de)
KR (2) KR0140674B1 (de)
CN (2) CN1096045C (de)
DE (3) DE69433392T2 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU695967B2 (en) * 1994-06-23 1998-08-27 Koninklijke Philips Electronics N.V. Television signal receiver
US5926229A (en) * 1994-10-18 1999-07-20 Matsushita Electric Industrial Co., Ltd. Development supporting method and device for signal processing system and signal processing device and method
KR100305874B1 (ko) * 1995-06-02 2001-11-30 모리시타 요이찌 다방식 텔레비전수상기
DE19618351A1 (de) * 1996-05-08 1997-11-13 Thomson Brandt Gmbh Verfahren und Schaltungsanordnung zum speicheroptimierten Verarbeiten eines FBAS-Signals
US5844623A (en) * 1996-09-27 1998-12-01 Sony Corporation Television with integrated receiver decoder
US6243141B1 (en) * 1997-05-06 2001-06-05 Matsushita Electric Industrial Co., Ltd. Video signal processing device
US6353460B1 (en) * 1997-09-30 2002-03-05 Matsushita Electric Industrial Co., Ltd. Television receiver, video signal processing device, image processing device and image processing method
TW424227B (en) * 1999-04-08 2001-03-01 Via Tech Inc Signal decoding device and method thereof
JP2002165150A (ja) * 2000-11-28 2002-06-07 Mitsubishi Electric Corp 受信装置
JP3840966B2 (ja) * 2001-12-12 2006-11-01 ソニー株式会社 画像処理装置およびその方法
KR100561462B1 (ko) * 2003-07-09 2006-03-16 삼성전자주식회사 화상형성시스템에 있어서 영상처리방법 및 장치
JP2005182499A (ja) * 2003-12-19 2005-07-07 Matsushita Electric Ind Co Ltd 並列演算装置
US9292904B2 (en) 2004-01-16 2016-03-22 Nvidia Corporation Video image processing with parallel processing
US7869666B2 (en) 2005-01-13 2011-01-11 Nvidia Corporation Video processing system and method with dynamic tag architecture
US20060152627A1 (en) * 2005-01-13 2006-07-13 Ruggiero Carl J Video processing system and method with dynamic tag architecture
CN101394516B (zh) * 2007-09-17 2010-09-15 普诚科技股份有限公司 影像处理装置
US9641854B2 (en) * 2014-05-19 2017-05-02 Mediatek Inc. Count table maintenance apparatus for maintaining count table during processing of frame and related count table maintenance method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1576621A (en) * 1976-03-19 1980-10-08 Rca Corp Television synchronizing apparatus
US4602285A (en) * 1983-04-08 1986-07-22 Ampex Corporation System and method for transforming and filtering a video image
JPS6079895A (ja) * 1983-10-06 1985-05-07 Nec Corp デイジタルメモリカラ−フレ−ミング回路
US4718057A (en) * 1985-08-30 1988-01-05 Advanced Micro Devices, Inc. Streamlined digital signal processor
GB8612453D0 (en) * 1986-05-22 1986-07-02 Inmos Ltd Multistage digital signal multiplication & addition
US4745463A (en) * 1986-09-25 1988-05-17 Rca Licensing Corporation Generalized chrominance signal demodulator for a sampled data television signal processing system
JPS63123130A (ja) * 1986-11-12 1988-05-26 Fanuc Ltd パイプライン制御方式
GB2197766B (en) * 1986-11-17 1990-07-25 Sony Corp Two-dimensional finite impulse response filter arrangements
FR2626691B1 (fr) * 1988-02-02 1990-05-25 France Etat Multiplieur numerique generalise et filtre numerique mettant en oeuvre ce multiplieur
JPH0225987A (ja) * 1988-07-15 1990-01-29 Fuji Xerox Co Ltd 画像処理集積回路装置
JP2706495B2 (ja) * 1988-11-22 1998-01-28 松下電器産業株式会社 画像信号処理装置
JPH07122868B2 (ja) * 1988-11-29 1995-12-25 日本電気株式会社 情報処理装置
CA2008000A1 (en) * 1989-01-18 1990-07-18 Takahiko Masumoto Decoder for subsampled video signal
KR930002316B1 (ko) * 1989-05-10 1993-03-29 미쯔비시덴끼 가부시끼가이샤 버스제어방법 및 화상처리 장치
EP0444368B1 (de) * 1990-02-28 1997-12-29 Texas Instruments France Ein SIMD-Prozessor als digitales Filter
DE69116902T2 (de) * 1990-03-01 1996-10-17 Texas Instruments Inc Fernsehen mit verbesserter Auflösung
JPH03283976A (ja) * 1990-03-30 1991-12-13 Toshiba Corp 画像再生装置
JPH0449781A (ja) * 1990-06-19 1992-02-19 Sony Corp テレビジョン画像表示装置
JP2673386B2 (ja) * 1990-09-29 1997-11-05 シャープ株式会社 映像表示装置
CA2065979C (en) * 1991-06-10 1999-01-19 Stephen Patrick Thompson Mode dependent minimum fifo fill level controls processor access to video memory
DE69226994T2 (de) * 1991-07-19 1999-02-18 Matsushita Electric Ind Co Ltd Verarbeitungsvorrichtung für Videosignale zur Aliasinginterferenzminderung
JPH0556372A (ja) * 1991-08-27 1993-03-05 Toshiba Corp Dsp使用テレビジヨン受像機

Also Published As

Publication number Publication date
EP1320258A1 (de) 2003-06-18
US5555197A (en) 1996-09-10
CN1359232A (zh) 2002-07-17
CN1254085C (zh) 2006-04-26
EP0620681B1 (de) 2004-12-15
EP0876056A1 (de) 1998-11-04
DE69433392T2 (de) 2004-05-27
EP0620681A3 (de) 1995-03-01
CN1099173A (zh) 1995-02-22
DE69435195D1 (de) 2009-04-16
CN1096045C (zh) 2002-12-11
EP0620681A2 (de) 1994-10-19
KR940025337A (ko) 1994-11-19
EP1271942A1 (de) 2003-01-02
KR0140553B1 (ko) 1998-06-15
DE69434182D1 (de) 2005-01-20
KR0140674B1 (ko) 1998-06-15
EP1271943A1 (de) 2003-01-02
DE69433392D1 (de) 2004-01-15
EP0876056B1 (de) 2003-12-03
EP0883293A1 (de) 1998-12-09
EP1271941B1 (de) 2009-03-04
EP1271941A1 (de) 2003-01-02

Similar Documents

Publication Publication Date Title
DE69434182T2 (de) Videosignalverarbeitung mit arithmetischem Processor und Interrupt
DE69734176T2 (de) Fernsehapparat mit Textdatenverarbeitungsfunktion
DE4345015C2 (de) Digitale Signalverarbeitungsvorrichtung
DE69735034T2 (de) Vorrichtung zum Verarbeiten eines Videosignals
DE69034167T2 (de) Fernsehgerät
DE69731334T2 (de) Videosignalumsetzer und Fernsehsignalverarbeitungsvorrichtung
DE3720163C2 (de) Verfahren und Anordnung zum Einfrieren eines Fernsehbildes
DE3617924A1 (de) Verarbeitungsschaltung zur fortlaufenden abtastung
US5751375A (en) Processing of pixel data at an operating frequency higher than the sampling rate of the input signal
DE19713635B4 (de) Videokameravorrichtung vom digitalen Aufzeichnungstyp
DE69533374T2 (de) Digitaler Fernsehempfänger
DE69938024T2 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfarhen und Bereitstellungsmedium mit einem Programm für die Ausführung des Verfahrens
DE69824503T2 (de) Verfahren und Vorrichtung zur Gewinnung von Zeilensynchronisations-Informationsposten aus einem Videosignal
DE3916802A1 (de) Fernsehgeraet
EP0318760A2 (de) Fernsehempfänger mit einer Einrichtung zur Unterdrückung von Flimmerstörungen
EP0421017A1 (de) Schaltungsanordnung zur Bild-in-Bild-Einblendung in einem Fernsehgerät mit nur einem Tuner
DE69936957T2 (de) Videosignalprozessor zum Verarbeiten eines Videosignals mittels mehreren datengesteuerten Prozessoren und damit ausgerüsteter Fernsehempfänger
DE60013968T2 (de) Verarbeitung von progressiven Videosignalen in digitalen Fernsehempfängern
WO1990006037A1 (de) Bildverarbeitungssystem
DE4243804C2 (de) Empfänger zur Verarbeitung von nach dem Letterbox-Verfahren übertragenen Fernsehsignalen
DE3844118C2 (de)
DE69718780T2 (de) Verfahren und vorrichtung zur dekodierung zusammengesetzter videosignale
EP0551314B1 (de) Fernsehübertragungssystem und decoder für ein fernsehübertragungssystem
DE60005068T2 (de) Verfahren und vorrichtung zur verhinderung der datenverfälschung durch videobezogene verbesserungen
DE60034539T2 (de) Verfahren zur dynamischen Berechnung von Interpolationsphasen in einem Videonormwandler

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP