DE69433392T2 - Videodatenprozessor und Videosignaldatenverarbeitung - Google Patents

Videodatenprozessor und Videosignaldatenverarbeitung Download PDF

Info

Publication number
DE69433392T2
DE69433392T2 DE69433392T DE69433392T DE69433392T2 DE 69433392 T2 DE69433392 T2 DE 69433392T2 DE 69433392 T DE69433392 T DE 69433392T DE 69433392 T DE69433392 T DE 69433392T DE 69433392 T2 DE69433392 T2 DE 69433392T2
Authority
DE
Germany
Prior art keywords
signal
processing
input
data
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69433392T
Other languages
English (en)
Other versions
DE69433392D1 (de
Inventor
Kazuki Ninomiya
Shirou Yoshioka
Tamotsu Nishiyama
Jiro Shijonawate-shi Miyake
Katsuya Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP08471293A external-priority patent/JP3527259B2/ja
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Application granted granted Critical
Publication of DE69433392D1 publication Critical patent/DE69433392D1/de
Publication of DE69433392T2 publication Critical patent/DE69433392T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • H04N9/7925Processing of colour television signals in connection with recording for more than one processing mode for more than one standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/642Multi-standard receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/06Transmission systems characterised by the manner in which the individual colour picture signal components are combined
    • H04N11/12Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only
    • H04N11/14Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only in which one signal, modulated in phase and amplitude, conveys colour information and a second signal conveys brightness information, e.g. NTSC-system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/08Separation of synchronising signals from picture signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/46Receiver circuitry for the reception of television signals according to analogue transmission standards for receiving on more than one standard at will
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • H04N7/0152High-definition television systems using spatial or temporal subsampling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/16Picture reproducers using cathode ray tubes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Description

  • Es besteht ein Bedarf für ein Fernsehsystem, das eine hohe Auflösung vorsehen kann. Um diesen Bedarf zu erfüllen, wurde das als EDTV (Extended Definition Television) bezeichnete System eingeführt und praktisch umgesetzt. Das MUSE (Multiple Sub-nyquist Sampling Encoding)-System, das eines der HDTV (High-definition Television)-Systeme ist, wurde vorgeschlagen, und es wurden einige der MUSE-Systeme praktisch umgesetzt. Es ist zu erwarten, dass weiterentwickelte Fernsehsysteme wie etwa das EDTV II-System (d. h. das EDTV der zweiten Generation) und ein digitales Fernsehsystem in der nächsten Zukunft praktisch umgesetzt werden. Angesichts dieser Entwicklungen auf dem Gebiet von Fernsehübertragungssystemen müssen Videosignalverarbeitungseinrichtungen wie etwa Fernsehempfänger und Videorekorder derart ausgebildet werden, dass sie Sendesignale von unterschiedlichen Fernsehsystemen einschließlich des bestehenden NTSC (National Television System Committee)-Systems empfangen können. Ein herkömmlicher Fernsehempfänger weist verschiedene Leiterplatten auf, die jeweils einem bestimmten Fernsehsystem entsprechen. Es wird je nach dem empfangenen Signal zwischen den verschiedenen Leiterplatten gewechselt. Diese Technik wird als Hintergrundtechnik für „Scan Line Conversion LSI for Wide Screen TV Receiver" in ITEJ Technical Report, vol. 16, No. 71 auf den Seiten 19–24, BCS' 92–41 (Oktober 1992) von Toshichika Satoh et al. eingeführt.
  • Dort wird beschrieben, wie herkömmliche Fernsehempfänger mit einer MUSE-Signalverarbeitungs-Leiterplatte und einer NTSC-Signalverarbeitungs-Leiterplatte betrieben werden. In Übereinstimmung mit dem MUSE-Systemstandard ist die Abtastrate gleich 16,2 MHz, ist die Anzahl der Bildpunkte (pro Abtastzeile) gleich 480 und ist die Anzahl der Abtastzeilen gleich 1125. In Übereinstimmung mit dem NTSC-Systemstandard ist die Abtastrate gleich 14,3 MHz, ist die Anzahl der Bildpunkte (pro Abtastzeile) gleich 910 und ist die Anzahl der Abtastzeilen gleich 525.
  • Zuerst wird das MUSE-Signal betrachtet. Die MUSE-Signalverarbeitungs-Leiterplatte trennt ein empfangenes MUSE-Signal in ein Y-Signal, ein R-Y-Signal und ein B-Y-Signal. Damit in dem MUSE-System High-Vision-Signale in den spezifizierten Übertragungsbandbreitenbereich fallen, werden die Bildpunktdaten Band-komprimiert, wobei die Tatsache genutzt wird, dass bei einem Bild ohne Bewegung Bildpunkte eines vorausgehenden Teilbildes mit Bildpunkten eines aktuellen Bildpunktes übereinstimmen und dass das menschliche Auge eine schlechte Auflösungsleistung in Bezug auf ein Bild mit Bewegung aufweist. Deshalb führt die MUSE-Verarbeitungs-Leiterplatte je nach dem Bildtyp verschiedene Prozesse durch. Ein Bild ohne Bewegung wird in Übereinstimmung mit einer Prozedur verarbeitet, die hauptsächlich aus zwei Prozessen besteht: nämlich einer Interpolation zwischen spezifizierten Vollbildern (Zwischen-Vollbild-Interpolation) und einer Interpolation zwischen spezifizierten Teilbildern (Zwischen-Teilbild-Interpolation). Bei Bildern ohne Bewegung werden die Daten für jedes Einzelbild (Vollbild) übertragen, nachdem dieses in vier Teilbilder unterteilt wurde, wobei die in diesen Teilbildern enthaltenen Bildpunkte synthetisiert werden und das Ergebnis der Syntheseoperation dann ausgegeben wird. Dagegen wird ein Bild mit Bewegung in Übereinstimmung mit einer Prozedur verarbeitet, die hauptsächlich aus zwei Prozessen besteht: nämlich einer Intra-Teilbild-Interpolation und einer Frequenzumwandlung. Bei Bildern mit Bewegung können die Daten zu einem vorausgehenden Teilbild nicht verwendet werden. Das bedeutet, dass gewünschte Bildpunkte aus Daten zu einem aktuellen Teilbild durch eine Interpolationstechnik erzeugt werden müssen.
  • Im Gegensatz dazu trennt die NTSC-Signalverarbeitungs-Leiterplatte ein empfangenes NTSC-Signal in ein Y-Signal, ein R-Y-Signal und ein B-Y-Signal. Ein NTSC-Signal wird in der Form einer Mischung aus einem Luminanzsignal Y und einem Chrominanzsignal C zugeführt, sodass ein Y/C-Separationsprozess durchgeführt werden muss, der die Hauptfunktion der NTSC-Signalverarbeitungs-Leiterplatte ist. Das Signal C ist ein Signal, das eine Phasenumkehrung für jede einzelne Abtastzeile und für jedes einzelne Vollbild vorsieht. Deshalb kann nur das Signal Y erhalten werden, indem ein aktueller Bildpunkt und ein Bildpunkt von einer vorausgehenden Abtastzeile addiert werden. Außerdem kann nur das Signal C erhalten werden, indem eine Subtraktion vorgenommen wird. Es ist jedoch tatsächlich eine Positionsdifferenz zwischen einem Bildpunkt und einem um eine Abtastzeile vorausgehenden Bildpunkt vorhanden, die eine erfolgreiche Durchführung der Y/C-Trennung verhindert. Um dieses Problem zu lösen, wird ein Bildpunkt an derselben Position des aktuellen Bildpunktes zuerst aus dem Mittel von vertikalen Zeilen pseudo-gefunden und werden danach Additions-/Subtraktionsoperationen für die vollständig durchzuführende Y/C-Trennung durchgeführt. Bei Bildern ohne Bewegung kann die vollständige Y/C-Trennung durchgeführt werden, indem ein Bildpunkt aus einem dem aktuellen Bildpunkt vorausgehenden Vollbild verwendet wird.
  • Wie oben beschrieben müssen herkömmliche Fernsehempfänger eine Vielzahl von Signalverarbeitungs-Leiterplatten enthalten, um eine Kompatibilität für verschiedene Typen von Fernsehübertragungssystemen vorzusehen. Dies hat höhere Kosten zur Folge. Um außerdem mit neuen Fernsehübertragungssystemen Schritt zu halten, deren Umsetzung in der Zukunft zu erwarten ist, müssen neue Signalverarbeitungs-Leiterplatten für diese neuen Systemen entwickelt werden. Dies erfordert viel Entwicklungsarbeit und damit hohe Entwicklungskosten.
  • Ein herkömmlicher Fernsehempfänger weist einige Probleme auf. Um zum Beispiel eine vertikale/horizontale Synchronisation bei der Ausgabe eines Bildes zu einer Bildröhre (CRT) durchzuführen, muss der gesamte Fernsehempfänger mit verschiedenen Systemtaktsignalen mit jeweils unterschiedlichen Frequenzen je nach dem eingehenden Videosignaltyp betrieben werden. Das heißt, es wird eine Systemtaktfrequenz von 16,2 MHz für das MUSE-System und von 14,3 MHz für das NTSC-System verwendet. Wenn eine Hochgeschwindigkeits-Bildverarbeitung angestrebt wird, beschränkt die Abtasttaktverarbeitung für die Phasensperre eine Erhöhung der Systemtakt-Signalfrequenz (d. h. der Verarbeitungsfrequenz). Es kann Möglichkeiten zur Realisierung einer Hochgeschwindigkeitsverarbeitung ohne eine Erhöhung der Systemtaktsignalfrequenz geben, wie etwa eine parallele Verarbeitung. Dies bringt jedoch das Problem einer Erhöhung des Hardwarebedarfs mit sich.
  • Die Referenz EP-A2-0 449 075 beschreibt einen Fernsehempfänger mit einer DSP-Signalverarbeitungseinrichtung, die Luminanz- und Chrominanzvideosignal für die Anzeige auf einer Kathodenstrahlröhre (CRT) verarbeiten kann. Das empfangene Eingangsvideosignal wird abgetastet und in einem Videospeicher gespeichert. Die Speicherung der abgetasteten Videodaten wird in Übereinstimmung mit einem Adressensignal durchgeführt, das durch einen Adresszähler vorgesehen wird. Die bestimmte Schreibadresse wird durch den Adresszähler auf der Basis eines empfangenen Taktsignals von einem Takterzeuger erzeugt. Der Takterzeuger gibt mehrere Taktsignale aus, die jeweils einem anderen Vielfachen der Trägerfrequenz des Videosignals entsprechen. In Reaktion auf eine Auswahl von einem Steuersignalerzeuger wird eine der Taktfrequenzen ausgewählt, um aufeinanderfolgend die Videoabtastungen im Videospeicher zu speichern.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein verbessertes Verfahren zum Verarbeiten eines Videosignals und eine verbesserte Speichersteuereinrichtung anzugeben.
  • Diese Aufgabe wird durch ein Verfahren zum Verarbeiten eines Videosignals mit den Merkmalen von Anspruch 1 sowie durch eine Speichersteuereinrichtung mit den Merkmalen von Anspruch 5 gelöst.
  • 1 ist ein Blockdiagramm eines Fernsehempfängers, der sowohl ein MUSE-Signal als auch ein NTSC-Signal empfangen kann.
  • 2 ist ein Blockdiagramm, das den internen Aufbau eines Parallel-Produktsummen-Arithmetikeinheitsabschnittes, eines Eingangs-/Ausgangsregisterabschnitts und eines Produktsummen-Faktorregisters von 1 zeigt.
  • 3 ist ein Operationsflussdiagramm der Hauptroutine des Fernsehempfängers.
  • 4 ist ein Operationsflussdiagramm der Unterbrechungshandhabungsroutine des Fernsehempfängers.
  • 5 ist ein Operationsflussdiagramm des Fernsehempfängers, der ein Abfrageverfahren verwendet.
  • 6 zeigt den Aufbau von NTSC-Eingangsbildpunktdaten, die durch den Fernsehempfänger empfangen werden.
  • 7 zeigt den Aufbau eines Produktsummen-Faktors für die NTSC-Y-Trennung in dem Fernsehempfänger.
  • 8 zeigt den Aufbau eines Produktsummen-Faktors für die NTSC-C-Trennung in dem Fernsehempfänger.
  • 9 zeigt die Dateneinstellung für den Eingangs-/Ausgangsregisterabschnitt sowie für den Produktsummen-Faktorregister-Abschnitt bei der Durchführung von Produktsummen-Arithmetikoperationen für die NTSC-Y-Trennung in dem Fernsehempfänger.
  • 10 zeigt die Dateneinstellung für den Eingangs-/Ausgangsregisterabschnitt sowie für den Produktsummen-Faktorregister-Abschnitt bei der Durchführung von Produktsummen-Arithmetikoperationen für die NTSC-C-Trennung in dem Fernsehempfänger.
  • 11 zeigt im Detail die NTSC-Y/C-Trennungsprozedur in dem Fernsehempfänger.
  • 12 zeigt den Zeitablauf einer zentralen Verarbeitungseinheit und des Parallel-Produktsummen-Arithmetikeinheitsabschnitts für die Verarbeitung von „A" in 11.
  • 13 zeigt den Fluss der MUSE-Bildverarbeitung in dem Fernsehempfänger.
  • 14 zeigt die Dateneinstellung für den Eingangs-/Ausgangsregisterabschnitt sowie für den Produktsummen-Faktorregisterabschnitt für die Intra-Teilbild-Interpolation und die Bewegungsfeststellung von 13 und den Arithmetikoperations-Eregebnisspeicher.
  • 15 zeigt einen Bewegtbild-Identifikationsprozess auf der Basis des Ergebnisses der Bewegungsfeststellung von 14.
  • 16 zeigt eine Aliasing-Verzerrungsbeseitigung und eine Aliasing-Verzerrungskomponenten-Extraktion von 13.
  • 17 zeigt einen Vergleichsprozess bezüglich der Größe zwischen einer Zwischen-Vollbild-Aliasing-Verzerrungskomponente und einer Zwischen-Teilbild-Aliasing-Verzerrungskomponente auf der Basis des Ergebnisses der arithmetischen Operation von 16.
  • 18 ist ein Flussdiagramm, das im Detail eine MUSE-Bildverarbeitungsprozedur in dem Fernsehempfänger zeigt.
  • 19 in ein Blockdiagramm einer Ausführungsform des Fernsehempfängers der vorliegenden Erfindung.
  • 20 ist ein Diagramm der Adressabbildung eines Eingangsseite-Vollbildspeichers von 19.
  • 21 ist ein Operationsflussdiagramm der Eingangsseite-Vollbildspeichersteuereinrichtung von 19.
  • 22 ist ein Operationszeitdiagramm des Fernsehempfängers von 19.
  • 23 ist eine Modifikation des Diagramms der Adressabbildung des Eingangsseite-Vollbildspeichers von 20.
  • 24 ist ein Blockdiagramm einer anderen Ausführungsform eines Fernsehempfängers der vorliegenden Erfindung.
  • 25 ist ein Blockdiagramm einer Ausführungsform eines Fernsehempfängers der vorliegenden Erfindung.
  • 26 ist ein Blockdiagramm der internen Struktur einer Verarbeitungseinrichtung von 19.
  • 27 ist ein Schaltdiagramm eines Vertikalfilterabschnitts von 26.
  • 28 ist ein Teilschaltdiagramm eines Horizontalfilterabschnitts von 26.
  • 29 ist ein Flussdiagramm, das den Inhalt der durch die Verarbeitungseinrichtung von 26 durchgeführten Verarbeitung zeigt.
  • 30 ist eine Modifikation von 29.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Die vorliegende Erfindung betrifft einen Femsehempfänger mit einer Fähigkeit zum Empfangen von sowohl einem MUSE-Signal als auch einem NTSC-Signal. Bevorzugte Ausführungsformen der vorliegenden Erfindung werden mit Bezug auf die beigefügten Zeichnungen beschrieben.
  • Mit Bezug auf 1 wird im Folgenden ein erster Fernsehempfänger der ersten Ausführungsform beschrieben. Eine Verarbeitungseinrichtung 100 von 1 umfasst einen Parallel-Produktsummen-Arithmetikabschnitt (PSAS) 101, einen Komparator 102; einen Eingangs-/Ausgangsregisterabschnitt (E/A-Registerabschnitt) 103, einen Produktsummen-Faktorregisterabschnitt (SFRS) 104; eine zentrale Verarbeitungseinheit (CPU) 105, einen Befehlscache 106, einen Datenspeicher 107, einen Bus-Controller 108, einen Unterbrechungssteuerabschnitt 112 und eine DMA-Controller 113. Von diesen Komponenten bilden der PSAS 101, der Komparator 102, der E/A-Registerabschnitt 103 und der SFRS 104 zusammen einen Koprozessor für die CPU 105. Die CPU 105, der Befehlscache 106 und der Bus-Controller 108 sind über einen Befehlsbus 109 miteinander verbunden. Der durch die Elemente 101104 gebildete Koprozessor, die CPU 105, der Datenspeicher 107 und der Bus-Controller 108 sind über einen Datenbus 110 miteinander verbunden.
  • Bei Empfang eines MUSE-Signals führt eine MUSE-Synchronisationsschaltung 114 eine Analog-Digital-Wandlung des empfangenen MUSE-Signals mit einer Abtastrate von 16,2 MHz durch, wobei das umgewandelte Signal zusammen mit einem Synchronisationssignal ausgegeben wird. Bei Empfang eines NTSC-Signals führt eine NTSC-Synchronisationsschaltung 115 eine Analog-Digital-Wandlung des empfangenen NTSC-Signals mit einer Abtastrate von 14,3 MHz durch, wobei das umgewandelte Signal dann zusammen mit einem Synchronisationssignal ausgegeben wird. Beide Synchronisationsschaltungen 114 und 115 weisen eine Fähigkeit zum Synchronisieren des empfangenen Signals und zum Erhalten eines Videosignals aus einem ausgewählten Kanal auf. Ein Selektor 120 kann zwischen zwei unterschiedlichen Signalen wählen (d. h. zwischen dem MUSE-Signal und dem NTSC-Signal) und ein ausgewähltes Signal an einen auf der Eingangsseite vorgesehenen Vollbildspeicher 116 ausgeben. Das heißt, dieser Vollbildspeicher 116 dient als Speicher zum Speichern von Eingangsbildpunkten. Ein Vollbildspeicher 117 ist auf der Ausgangsseite vorgesehen, um Bilddaten für die Anzeige zu speichern. Ein CRT-Anzeige-Steuerabschnitt 118 sieht eine Steuerung vor, um Daten des Vollbildspeichers 117 auf einer CRT 131 anzuzeigen, während der Speicher 117 eine Funktion zum Ändern der Dimensionen des Vollbildes in Abhängigkeit von den Synchronisationssignalen aus der MUSE-Synchronisationsschaltung 114 und der NTSC-Synchronisationsschaltung 115 durchführt. Mit anderen Worten werden die Vollbildspeicher 116 und 117 auf der Eingangs- und Ausgangsseite gemeinsam durch das MUSE- und das NTSC-System verwendet. In der vorliegenden Erfindung wird die verarbeitete Videoinformation zu der CRT 131 ausgegeben, wo sie angezeigt wird. Die Videoinformation kann jedoch auch beispielsweise auf einer Platte gespeichert werden.
  • Ein Steuersignaleingangsabschnitt 121 sendet ein Unterbrechungssignal zu der Verarbeitungseinrichtung 100 in Reaktion auf ein externes Steuersignal, das beispielsweise von einer Fernbedienung ausgegeben wird und eine Anforderung für einen Kanalwechsel oder eine Lautstärkeänderung enthält. Der Steuersignaleingangsabschnitt 121 weist ein internes Register zum Speichern von einem Kanalnummernsatz oder ähnlichem auf. Ein Programmspeicher 122 speichert Befehle, die durch die Verarbeitungseinrichtung 100 auszuführen sind. Ein Audioverarbeitungsabschnitt 123 empfängt ein Audiosignal von dem Eingangsseite-Vollbildspeicher 116. Die Lautstärke wird durch ein Signal von der Verarbeitungseinrichtung 100 an den Audioverarbeitungsabschnitt 123 gesetzt. Das Bezugszeichen 132 gibt einen Lautsprecher an. Die Verarbeitungseinrichtung 100, die MUSE-Synchronisa tionsschaltung 114, die NTSC-Synchronisationsschaltung 115, der Selektor 120, der Vollbildspeicher 116, der Vollbildspeicher 117, der Steuersignaleingangsabschnitt 121, der Programmspeicher 122 und der Audioverarbeitungsabschnitt 123 sind über einen Systembus 119 miteinander verbunden.
  • 2 ist ein Blockdiagramm, das den PSAS 101, den E/S-Registerabschnitt 103 und den SFRS 104 von 1 zeigt. Es sind 16 Eingangsregister 201216 vorgesehen. Diese Eingangsregister 201216 bilden zusammen einen Teil des E/A-Registerabschnitts 103, wobei es sich um 8-Bit-Register zum Speichern von Bildpunktdaten handelt. Es ist möglich, dass die Eingangsregister 201216 die Ausgabe des PSAS 101 oder die Ausgabe des Komparators 102 speichern, die über den Datenbus 110 zugeführt wird. Ein Ausgangsregister 282 ist Teil des E/A-Registers 103. Dieses Ausgangsregister 282 speichert das Ergebnis der durch den PSAS 101 durchgeführten arithmetischen Operation. Es sind 16 Faktorregister 241256 vorgesehen. Diese Faktorregister 241256 bilden zusammen einen Teil des SFRS 104, wobei es sich um 4-Bit-Register zum Speichern von Faktoren handelt, die bei der Durchführung von arithmetischen Produktsummenoperationen verwendet werden.
  • Es sind 16 Multiplizierer 221236 vorgesehen, die zusammen einen Teil des PSAS 101 bilden. Diese 16 Multiplizierer 221236 führen Multiplikationsoperationen zu den durch die 16 Eingangsregister 210216 gespeicherten Daten und zu den durch die 16 Faktorregister 241-256 gespeicherten Daten durch. Das heißt, die durch ein Eingangsregister gespeicherten Daten werden mit den durch ein entsprechendes Faktorregister gespeicherten Daten multipliziert. Es sind 15 Addierer 261275 vorgesehen, die in einer Baumstruktur verbunden sind und zusammen einen Teil des PSAS 101 bilden. Diese Addierer werden verwendet, um die durch die Multiplizierer 221236 erhaltenen Produkte zu summieren.
  • Es ist eine Übertrag-Vorausschau-Schaltung (CLA-Schaltung) 281 vorgesehen, die einen Teil des PSAS 101 bildet. Diese CLA-Schaltung 281 kann das Ergebnis der Additionsoperation, das durch eine redundante Binärzahl wiedergegeben wird, zu einer einfacheren Binärzahl wandeln. Jeder der Addierer 261275 weist einen Aufbau auf, mit dem das Ergebnis der arithmetischen Operation direkt über den Datenbus 110 in das E/A-Register 103 geschrieben werden kann, ohne durch die CLA-Schaltung 281 geführt zu werden.
  • Mit Bezug auf 3 und 4 wird im Folgenden der Betrieb des ersten Fernsehempfängers beschrieben. 3 ist ein Operationsflussdiagramm der Hauptroutine des ersten Fernseh empfängers. 4 ist ein Operationsflussdiagramm der Unterbrechungshandhabungsroutine des ersten Fernsehempfängers.
  • Wenn wie in 3 gezeigt das Gerät eingeschaltet wird, wird die Verarbeitungseinrichtung 100 zurückgesetzt (Schritt 1000). Dann beginnt die Verarbeitungseinrichtung 100 mit der Ausführung eines Programms an der anfänglichen Adresse des Programmspeichers 122. Dadurch werden der PSAS 101, der Komparator 102, der E/A-Registerabschnitt 103, der SFRS 104, die CPU 105, der Befehlscache 106, der Datenspeicher 107, der Bus-Controller 108, der Unterbrechungssteuerabschnitt 112 und der DMA-Controller 113 initialisiert (Schritt 1001). Einzelne Befehle des Programms werden aus dem Programmspeicher 122 über den Bus-Controller 105 und den Befehlsbus 109 in die CPU 105 gegeben, wobei diese Befehle gleichzeitig in dem Befehlscache 106 gespeichert werden. Deshalb kann ein Auslesen der Befehle beim nächsten Mal mit hoher Geschwindigkeit vorgenommen werden, wodurch eine Hochgeschwindigkeits-Bildverarbeitung ermöglicht wird.
  • Dann wird das Übertragungssystem in Abhängigkeit von dem zum Initialisierungszeitpunkt gesetzten Kanal festgestellt (Schritt 1002). Dann verzweigt das Programm in Übereinstimmung mit dem Ergebnis von Schritt 1003 für die Identifizierung des Übertagungssystems zu einem MUSE-Verarbeitungsschritt (Schritt 1005) oder zu einem NTSC-Verarbeitungsschritt (Schritt 1004). Danach tritt die Bildverarbeitung in eine Endlosschleife ein, die andauert, bis ein Unterbrechungssignal vorgesehen wird.
  • Wenn eine Anforderung für einen Kanalwechsel während der MUSE-Verarbeitung (Schritt 1005) gemacht wird, wird ein Steuersignal an den Steuersignaleingangsabschnitt 121 gegeben. Daraufhin wird die angeforderte Kanalnummer in einem internen Register des Steuersignaleingangsabschnitts 121 gesetzt. Dann gibt der Steuersignaleingangsabschnitt 121 ein Unterbrechungssignal zu dem Unterbrechungssteuerabschnitt 112 in der Verarbeitungseinrichtung 100 aus. Als nächstes gibt der Unterbrechungssteuerabschnitt 112 an die CPU 105 ein Signal mit dem zum Initialisierungszeitpunkt gesetzten Pegel aus. Dadurch wird eine Unterbrechung veranlasst (Schritt 1015), und das Programm verzweigt zu einem Unterbrechungshandhabungsroutineschritt (Schritt 1006) von 4. Auch wenn eine Anforderung für einen Kanalwechsel während der NTSC-Verarbeitung (Schritt 1004) ausgegeben wird, wird eine Unterbrechung veranlasst (Schritt 1014), sodass das Programm zu Schritt 1006 (d. h. zu dem Unterbrechungshandhabungsschritt) verzweigt.
  • In der Unterbrechungshandhabungsroutine von 4 schreitet das Programm zu einem Systemsteuerverarbeitungsschritt (Schritt 1007) fort, um beispielsweise die Lautstärke einzustellen. Dann schreitet das Programm zu einem Kanalwechselroutineschritt (Schritt 1008) fort, um zu prüfen, ob der Unterbrechungsfaktor eine Kanaleinstellungsänderung ist. Von Schritt 1008 verzweigt das Programm dann zu Schritt 1002. In Schritt 1002 wird das Übertragungssystem in Übereinstimmung mit der Kanalnummer identifiziert, die in dem internen Register des Steuersignaleingangsabschnitt 121 gesetzt ist. In Abhängigkeit von dem Ergebnis des Übertragungsidentifizierungsschrittes (Schritt 1003) verzweigt das Programm zu Schritt 1005 (d. h. zu dem MUSE-Verarbeitungsschritt) oder zu Schritt 1004 (dem NTSC-Verarbeitungsschritt). Wie oben beschrieben folgen die MUSE-Verarbeitung und die NTSC-Verarbeitung einer Endlosschleife, sodass dieselbe Routine wiederholt durchgeführt wird, bis die nächste Unterbrechung auftritt.
  • Wenn eine Anforderung für eine Lautstärkenänderung während der MUSE-Verarbeitung (Schritt 1005) oder während der NTSC-Verarbeitung (Schritt 1004) ausgegeben wird, veranlasst auch dies eine Unterbrechung (Schritte 1015 und 1014). Dann verzweigt das Programm zu Schritt 1006. In Schritt 1006 wird ein Lautstärkeeinstellsignal durch Schritt 1007 an dem Audioverarbeitungsabschnitt 123 angelegt. In diesem Fall wird im Gegensatz zu einem Kanalwechsel ein RETURN-Befehl des Schritts 1001 ausgeführt, weil die zum Zeitpunkt der Unterbrechung ausgeführte Verarbeitung fortgesetzt werden muss. Wenn der Unterbrechungsfaktor „ausschalten" ist, geht das Programm zu einem Ausschalten-Prüfschritt (Schritt 1009). Dann wird die Verarbeitung abgeschlossen und das Programm ist beendet (siehe 4).
  • Es wurde der Betrieb des ersten Fernsehempfängers beschrieben, der eine Unterbrechungshandhabungstechnik verwendet. Anstelle der Unterbrechungshandhabungstechnik kann eine in 5 gezeigte Abruftechnik nützlich sein. In 5 bilden die Schritte 1201 und 1200 eine Steuersignalidentifikationsroutine. In der Abruftechnik liest die CPU 105 nach dem Schritt 1005 oder 1004 ein internes Register des Steuersignaleingangsabschnitts 121, um die Anwendung von Steuersignalen (z. B. das Vorhandensein bzw. die Abwesenheit einer Anforderung für den Kanalwechsel) zu prüfen (Schritte 1201 und 1200). Gleichzeitig schreitet die CPU 105 mit der Verarbeitung fort. Die Leseoperation des internen Registers des Steuersignaleingangsabschnitts 121 wird durch den Systembus 119 durchgeführt. Wenn zum Beispiel der Steuersignaleingangsabschnitt 121 ein Steuersignal währen der MUSE-Verarbeitung empfängt (Schritt 1005), verzweigt das Programm von Schritt 1201 zu einem Systemsteuerverarbeitungsschritt (Schritt 1007). Durch diese Anordnung kann dieselbe Funktion realisiert werden, die durch die Unterbrechungshandhabungsmethode realisiert wird.
  • Der interne Betrieb der Verarbeitungseinrichtung 100 wird mit Bezug auf die MUSE-Verarbeitung (Schritt 1005) und die NTSC-Verarbeitung (Schritt 1004) anhand von Beispielen erläutert. Bei der Beschreibung der MUSE-Verarbeitung werden eine Intra-Teilbild-Interpolation und eine Aliasing-Verzerrungsbeseitigung erläutert. Bei der Beschreibung der NTSC-Verarbeitung wird eine Y/C-Trennung erläutert.
  • Mithilfe der 612 wird die Y/C-Trennung für das NTSC-System beschrieben. 6 zeigt den Aufbau der Eingangsbildpunktdaten des NTSC-Systems. 7 zeigt den Aufbau eines Produktsummenfaktors für die NTSC-Y-Trennung. 8 zeigt den Aufbau eines Produktsummenfaktors für die NTSC-C-Trennung. Jeder Bildpunkt wird mit einer Abtastrate von 4 fsc (= 14,3 MHz) (d. h. der vierfachen Chrominanzteilträgerfrequenz) abgetastet.
  • 6 zeigt die Bildpunktdatenelemente p1–p5, p6–p10 und p11–p15, wobei jede Gruppe eine Abtastzeile wiedergibt. Um eine Y/C-Trennungsoperation durchzuführen, wird jeder Bildpunkt mit einem entsprechenden Faktor multipliziert und werden diese Produkte addiert. 7 zeigt Produktsummenfaktorwerte für die Luminanzsignal-Y-Trennung, wobei das zentrale Bildpunktdatenelement p8 ein Bildpunktdatenelement ist, das arithmetischen Operationen unterworfen wird. Andere Bildpunktdatenelemente ohne Angaben zum Produktsummenfaktorwert weisen Produktsummenfaktorwerte von null auf. Diese arithmetische Produktsummenoperation kann wie folgt geschrieben werden: p1 + 2*p3 + p5 + 2*p6 + 4*p8 + 2*p10 + p11 + 2*p13 + p15 (1)
  • Daraus resultiert eine Durchführung der Y-Signal-Trennung. 8 zeigt Produktsummenwerte für die Chrominanzsignal-C-Trennung. Diese arithmetische Produktsummenoperation kann wie folgt geschrieben werden: p1 – 2*p3 + p5 – 2*p6 + 4*p8 – 2*p10 + p11 – 2*p13 + p15 (2)
  • Daraus resultiert eine Durchführung der C-Signal-Trennung. Hier sind acht Bildpunktdatenelemente in Nachbarschaft zu dem Bildpunktdatenelement p8 in den Formeln (1) und (2) eingeschlossen, wobei die Kontinuität des Bildpunktdatenelements p8 zu jedem benachbarten Bildpunktdatenelement berücksichtigt wird.
  • 9 zeigt die Dateneinstellung für die Durchführung der Formel (1) für die Y-Trennung. Die Eingangsregister 201215 speichert entsprechende Bildpunktdatenelemente (d. h. p1–p15 von 6). Die Faktorregister 241255 speichern Produktsummenfaktoren (siehe 7).
  • Entsprechende Produktsummenfaktoren für die Bildpunktdatenelemente p2, p4, p7, p9, p12 und p14 sind Nullen. Das sechzehnte Eingangsregister 216 wird nicht verwendet, sodass dem entsprechenden Faktorregister (d. h. dem Faktorregister 256) ein Produktsummenfaktor von 0 zugeordnet wird. Wenn die Formel (2) für die C-Trennung durchgeführt wird, wird der Inhalt der Faktorregister 241255 wie in 10 gezeigt zu den Produktsummenfaktoren von 8 geändert.
  • Die Prozedur der NTSC-Verarbeitung (d. h. Schritt 1004 von 3) durch die Verarbeitungseinrichtung 100 wird in der Form eines Problemanalysediagramms (PAD) von 11 dargestellt. Damit Bildpunktdaten für drei Abtastzeilen von dem Eingangsseite-Vollbildspeicher 116 (d. h. dem externen Speicher) zu dem Datenspeicher 107 (d. h. dem internen Speicher) über den Bus-Controller 108 DMA-übertragen werden, setzt die CPU 105 eine Übertragungsstartadresse und eine Übertragungsdatenzählung in einem Befehlsregister. Dadurch wird der Datenspeicher 107 für die spätere Verarbeitung initialisiert. Die Beendigung der Übertragung der Daten wird durch ein Unterbrechungssignal von dem DMA-Controller 113 an die CPU 105 über den Unterbrechungssteuerabschnitt 112 angegeben.
  • Weiterhin werden Befehle zu dem DMA-Controller 113 gesendet, damit Bildpunktdaten für eine Abtastzeile von dem Eingangsseite-Vollbildspeicher 116 zu dem Datenspeicher 107 DMA-übertragen werden. Dann aktiviert die CPU 105 den PSAS 101, der dann arithmetische Operationen für die Y/C-Trennung durchführt. Das heißt, es werden Bildpunktdatenelemente in den Eingangsregistern 201215 des E/A-Registerabschnitts 103 gesetzt und Produktsummenfaktoren in den Faktorregistern 241256 des SFRS 104 gesetzt (siehe 9), und der PSAS 101 führt Produktsummenoperationen für die Y-Trennung durch. Dann wird die Produktsummenfaktoreinstellung geändert (siehe 10), und der PSAS 101 führt Produktsummenoperationen für die C-Trennung durch. Einzelne Ergebnisse der arithmetischen Operationen werden aus dem E/A-Registerabschnitt 103 ausgelesen und in dem Datenspeicher 107 gespeichert (d. h. die Verarbeitung „A" von 11). Diese Verarbeitung „A" wird für jeden Bildpunkt einer einzelnen Abtastzeile wiederholt. Wenn die Y/C-Trennung für eine Abtastzeile abgeschlossen ist, gibt die CPU 105 einen Befehl an den DMA-Controller 113 aus, damit das arithmetische Operationsergebnis für eine Abtastzeile aus dem Datenspeicher 107 zu dem Ausgangsseite-Vollbildspeicher 117 (d. h. zu dem externen Speicher) übertragen wird. Die oben beschriebene Verarbeitung wird wiederholt für alle Abtastzeilen eines Vollbildes durchgeführt.
  • 12 zeigt den Zeitablauf der CPU 105 und des PSAS 101 für die Verarbeitung „A" von 11. Die Ausführung eines COexe Befehls (d. h. eines Koprozessor-Aktivierungsbefehls) aktiviert den PSAS 101, wobei Bildpunktdatenelemente aus dem Datenspeicher 107 zu den Eingangsregistern 201215 ausgelesen werden. In dem nächsten Zyklus werden arithmetische Operationen für die Y-Trennung durch den PSAS 101 durchgeführt. In dem folgenden Zyklus werden arithmetische Trennungsoperationen für die C-Trennung durch den PSAS 101 durchgeführt. Während der PSAS 101 diese Operationen für die Y/C-Trennung durchführt, führt die CPU 105 eine Adresseninkrementierung durch einen ADD-Befehl (Additionsbefehl) durch und prüft, ob die Bildpunktverarbeitung für eine Abtastzeile durch einen BNE-Befehl (bedingten Verzweigungsbefehl) abgeschlossen wird. Bei Abschluss der arithmetischen Operation für die Y/C-Trennung gibt die CPU 105 einen ST-Befehl (Speicherbefehl) aus, damit das Ergebnis der arithmetischen Operation in dem Datenspeicher 107 gespeichert wird. Durch eine Wiederholung der oben beschriebenen Operation kann eine Hochgeschwindigkeits-NTSC-Y/C-Trennung realisiert werden.
  • Die Y/C-Trennung der vorliegenden Ausführungsform ist zweidimensional: die vorliegende Ausführungsform kann jedoch auch für die dreidimensionale Y/C-Trennung angewendet werden, wobei arithmetische Intra-Teilbild-Operationen durchgeführt werden.
  • Im Folgenden wird mit Bezug auf 1318 ein MUSE-Luminanzsignal-Y-Prozess erläutert.
  • 13 zeigt den Ablauf der MUSE-Bildverarbeitung. Um die Verarbeitung zu vereinfachen, wird ein Eingangs-MUSE-Signal einem Intra-Teilbild-Interpolationsprozess 601 unabhängig vom Bildtyp unterworfen. In diesem Fall tritt eine Aliasing-Verzerrung bei Bildern ohne Bewegung auf. Deshalb wird ein Aliasing-Verzerrungs-Beseitigungsprozess 602 durchgeführt. Parallel zu diesem Aliasing-Verzerrungs-Beseitigungsprozess 602 wird ein Bewegungsfeststellungsprozess 603 zum Identifizieren des Bildtyps (d. h. eines Bildes mit Bewegung oder eines Bildes ohne Bewegung) durchgeführt. Wenn das Ergebnis des Bewegungsfeststellungsprozesses 603 ein Bild mit Bewegung angibt, wird das Ergebnis des Intra-Teilbild-Interpolationsprozesses 601 in einem späteren Schritt, d. h. in einem Syntheseprozess 604, gewählt. Wenn das Ergebnis des Bewegzungsfeststellungsprozesses 603 ein Bild ohne Bewegung angibt, wird das Ergebnis des Aliasing-Verzerrungs-Beseitigungsprozesses 602 gewählt.
  • Die Dateneinstellung für den Intra-Teilbild-Interpolationsprozess 601 und den Bewegungsfeststellungsprozess 603 sowie die Speicherung des arithmetischen Operationsergebnisses sind in 14 gezeigt. Dabei werden Bildpunktdaten nur für acht Eingangsregister der 16 Eingangsregister 201216 gesetzt. Der Bildpunkt p8 ist an derselben Stelle wie der Bildpunkt p0 zwei Vollbilder vor dem Bildpunkt p8 positioniert. Es werden die folgenden Produktsummenoperationen durchgeführt. q1 = P1 + 2*P2 + P3 (3) 44 = p7 + 2*p8 + p9 (4) m = p0 – p8 (5)
  • Diese arithmetischen Operationsergebnisse q1, q4 und m werden in den drei Ausgangsregistern 283285 gespeichert, die einen Teil des E/A-Registerabschnitts 103 bilden. „q1" und „q4" sind die Ergebnisse des Intra-Teilbild-Interpolationsprozesses. „m" gibt die Bewegungsfeststellungsdaten wieder.
  • 15 zeigt einen Prozess zum Identifizieren von Bildern mit/ohne Bewegung. Der Komparator 102 nimmt einen Vergleich zwischen einem absoluten Wert von m aus dem Register 285 und einem als Schwellwert dienenden absoluten Wert von m0 vor, um den Bildtyp zu identifizieren.
  • 16 zeigt die Dateneinstellung für den Aliasing-Verzerrungs-Beseitigungsprozess 602 und einen Aliasing-Verzerrungskomponenten-Extraktionsprozess sowie die Speicherung des arithmetischen Operationsergebnisses. Dabei werden die Daten mit dem Ergebnis der Intra-Teilbild-Interpolation 601 nur in zehn der sechzehn Eingangsregister 201216 gesetzt. Es werden die folgenden arithmetischen Produktsummenoperationen durchgeführt: r1 = q1 + 2*q4 + p5 (6) r2 = q1 + q4 (7) s1 = –q1 + 2*q4 – p5 (8) s2 = –q1 + q4
  • Diese Ergebnisse r1, r2, s1 und s2 werden in den vier Ausgangsregistern 287290 gespeichert, die einen Teil des E/A-Registerabschnitts 103 bilden. „r1" und „r2" sind die Ergebnisse der Aliasing-Verzerrungs-Beseitigungsprozesse (zwischen Vollbildern und zwischen Teilbildern). „s1" und „s2" sind extrahierte Aliasing-Verzerrungskomponenten (zwischen Vollbildern und zwischen Teilbildern).
  • 17 zeigt einen Größenvergleich zwischen einer Aliasing-Verzerrungskomponente und einer anderen. Insbesondere macht der Komparator 102 einen Vergleich zwischen einem absoluten Wert s1 aus dem Register 289 und einem absoluten Wert s2 aus dem Register 290, um zu bestimmen, ob die Zwischen-Vollbild-Aliasing-Verzerrungskomponente oder die Zwischen-Teilbild-Aliasing-Verzerrungskomponente größer ist.
  • Ein Programm für die oben beschriebene MUSE-Verarbeitung kann mit der folgenden Assembliersprache wie folgt geschrieben werden.
  • Figure 00140001
  • Der in einer Zeile neben dem JMP-Befehl (d. h. neben einem nicht bedingten Verzweigungsbefehl) geschriebene COexe-Befehl wird zum Zeitpunkt der betreffenden Verzweigung ausgeführt.
  • 18 zeigt dieses Programm in der Form eines Flussdiagramms. Zuerst gibt die CPU 105 Daten durch den LD-Befehl (Ladebefehl) ein (Schritt 901). Dann führt die CPU 105 eine Intra-Teilbild-Interpolation und eine Bewegungsfeststellung von 14 durch den COexe-Befehl durch (Schritt 902 und 904). Dann führt die CPU 105 eine Aliasing-Verzerrungs-Beseitigung und eine Aliasing-Verzerrungskomponenten-Extraktion (Schritt 903) von 16 durch den COexe2-Befehl durch. Darauf führt die CPU 105 die Bewegungsfeststellung von 15 durch den COexe3-Befehl durch (Schritt 905). Weiterhin übt die CPU 105 auf der Basis der Bewegungsfeststellung eine Verzweigungskontrolle durch den BL-Befehl (d. h. den bedingten Verzweigungsbefehl) aus (Schritt 906). Wenn mit anderen Worten das Ergebnis der Bewegungsfeststellung ein Bild mit Bewegung angibt, schreitet das Programm zu Schritt 907 fort. Wenn das Ergebnis der Bewegungsfeststellung dagegen ein Bild ohne Bewegung angibt, schreitet das Programm zu Schritt 910 fort.
  • Bei einer Feststellung eines Bildes mit Bewegung wird die Leseoperation der nächsten Daten durch den LD-Befehl durchgeführt (Schritt 907), wobei die Interpolationsdaten des arithmetischen Operationsergebnisses von 14 durch den ST-Befehl in den Datenspeicher 107 geschrieben werden (Schritt 908). Dann wird der JMP-Befehl ausgeführt, um einen Intra-Teilbild-Interpolationsprozess durchzuführen (Schritt 908). Danach kehrt das Programm zu Schritt 903 zurück.
  • Wenn ein Bild ohne Bewegung festgestellt wird, wird ein Größenvergleich zwischen einer Zwischen-Vollbild-Aliasing-Verzerrungskomponente und einer Zwischen-Teilbild-Aliasing-Verzerrungskomponente durch den COexe4-Befehl vorgenommen (Schritt 910 von 17). Unter Verwendung des Ergebnisses dieser Vergleichsoperation wird eine Verzweigungssteuerung durch den BL-Befehl durchgeführt (Schritt 911). Wenn mit anderen Worten die Zwischen-Teilbild-Aliasing-Verzerrungskomponente größer als die Zwischen-Vollbild-Aliasing-Verzerrungskomponente ist, schreitet das Programm zu Schritt 912 und ansonsten zu Schritt 915 fort.
  • Wenn die Zwischen-Teilbild-Aliasing-Verzerrungskomponente größer als die Zwischen-Vollbild-Aliasing-Verzerrungskomponente ist, dann werden die nächsten Daten durch die Ausführung des LD-Befehls in einem Verzögerungsschlitz eingegeben (Schritt 912). Danach werden Daten ohne eine Zwischen-Teilbild-Aliasing-Verzerrung in den Datenspeicher 107 durch den ST-Befehl geschrieben (Schritt 913). Dann wird der JMP-Befehl ausgeführt, um einen Intra-Teilibld-Interpolationsprozess durchzuführen (Schritt 914). Danach kehrt das Programm zu Schritt 903 zurück.
  • Wenn die Zwischen-Vollbild-Aliasing-Verzerrung größer als die Zwischen-Teilbild-Aliasing-Verzerrung ist, werden die nächsten Daten durch die Ausführung des LD-Befehls eingegeben (Schritt 915). Danach werden Daten ohne Zwischen-Vollbild-Aliasing-Verzerrung in den Datenspeicher 107 durch den ST-Befehl geschrieben (Schritt 916). Dann wird der JMP- Befehl ausgeführt, um einen Intra-Teilbild-Interpolationsprozess durchzuführen (Schritt 917). Danach kehrt das Programm zu Schritt 903 zurück.
  • Durch eine Wiederholung der oben beschriebenen Operationen kann eine Hochgeschwindigkeits-MUSE-Bildverarbeitung bewerkstelligt werden.
  • In dieser Ausführungsform werden die Übertragung der Befehle und die Übertragung der Daten über einen einzigen Systembus, nämlich den Systembus 119, vorgenommen. Die Verarbeitungseinrichtung 100 kann zwei Anschlüsse aufweisen, um zwei verschiedene Busleitungen verfügbar zu machen. Eine dieser zwei Busleitungen wird für die Übertragung der Befehle und der Daten von dem Programmspeicher 122 zu der CPU 105 verwendet, und die andere Busleitung wird für die DMA-Übertragung von Daten zwischen den Vollbildspeichern 116, 117 und dem Datenspeicher 107 verwendet. Dadurch wird eine Hochgeschwindigkeitssteuerung ohne gegenseitige Störungen ermöglicht. Weiterhin kann auf den DMA-Controller 113 verzichtet werden, wobei in diesem Fall die Übertragung von Daten zwischen den Vollbildspeichern 116, 117 und dem Datenspeicher 107 direkt durch die CPU 105 erfolgt. Weiterhin können anstelle der Verwendung der Vollbildspeicher 116 und 117 Zeilenspeicher oder FIFO-Speicher nützlich sein.
  • Ein Geisterbildbeseitiger oder ein Wellenformausgleicher können zwischen einer der Synchronisationsschaltungen 114 und 115 und dem Ausgangsseite-Vollbildspeicher 116 vorgesehen sein. Außerdem kann eine Filterverarbeitungsschaltung zwischen der Verarbeitungseinrichtung 100 und dem Ausgangsseite-Vollbildspeicher 117 vorgesehen sein.
  • In der vorliegenden Ausführungsform werden die Y-Trennung und die C-Trennung durch eine einzige Verarbeitungseinrichtung durchgeführt (d. h. durch die Verarbeitungseinrichtung 100). Eine Vielzahl von Verarbeitungseinrichtungen kann verwendet werden, um beide Prozesse paiallel auszuführen. Die oben beschriebene NTSC-Y/C-Trennungsprozedur kann in Fernsehübertragungssystemen wie EDTV und EDTV II angewendet werden, die eine Y/C-Trennung erfordern. PAL-Videosignale (Phase Alternation Line) können verarbeitet werden, indem das Programm gewechselt wird und in dem der Produktsummenfaktor geändert wird.
  • Die vorliegende Erfindung kann nicht nur in Fernsehempfängern, sondern auch in Videosignalverarbeitungseinrichtungen wie etwa Videorekordern angewendet werden. Der PSAS 101 kann als ein Filter für die Audiosignalverarbeitung verwendet werden. Indem die Faktoreinstellung für den SFRS 104 geändert wird, kann ein Audiofilter mit variablen Eigenschaften realisiert werden. Außerdem ermöglicht die Anwendung von digitalen Signalen von digitalen Fernsehgeräten, Videorekordern oder CD-ROMs auf den Systembus 119 eine Multimediaverarbeitung wie in der oben beschriebenen Videosignalverarbeitung. Weiterhin können anstelle der Verwendung der Addierer 261275 des PSAS 101 mit einer Baumstruktur verschiedene Typen von Addierern wie etwa Addierer des Schnellübertragungstyps nützlich sein. In dieser Ausführungsform weisen die Eingangsregister 201216 und die Faktorregister 241256 jeweils eine 8-Bi-Konfiguration und eine 4-Bit-Konfiguration auf. Es können auch andere Bit-Konfiguration für diese Register verwendet werden.
  • Ausführungsform der Erfindung
  • Mit Bezug auf 19 wird im Folgenden die Organisation eines Fernsehempfängers der vorliegenden Erfindung beschrieben. Dabei ist zu beachten, dass das NTSC-Signal derartige Signale wie etwa EDTV-Signale und EDTV II-Signale umfasst, die einem Y/C-Trennungsprozess unterworfen werden. 19 zeigt eine MUSE-Synchronistaionsschaltung 1, einen Eingangsseite-Vollbildspeicher 2 mit drei Anschlüssen, eine Verarbeitungseinrichtung 3 des Gespeichertes-Programm-Typs, einen Ausgangsseite-Vollbildspeicher 4 mit zwei Anschlüssen, eine NTSC-Sycnhronisationsschaltung 6, einen Eingangsseite-Speichercontroller 10, einen ROM 11 zum Speichern eines Programms für die Verarbeitungseinrichtung 3, eine Datenleitung 20, eine NTSC-Vorverarbeitungseinheit 21, eine MUSE-Vorverarbeitungseinheit 22, eine Nachverarbeitungseinheit 23, einen Anzeigesteuerabschnitt 24, der das CRT-SYNC-Signal 18 empfängt, und eine CRT 25. 19 zeigt weiterhin eine Schreibadresse 12, die von der Verarbeitungseinrichtung 3 zu dem Ausgangsseite-Vollbildspeicher 4 gegeben wird, einen Ausgangsseite-Speichercontroller 13, eine Schreibadresse 14, die von dem Speichercontroller 10 zu dem Eingangsseite-Vollbildspeicher 2 gegeben wird, eine Leseadresse 15, die von dem Speichercontroller 13 zu dem Ausgangsseite-Vollbildspeicher 4 gegeben wird, ein Zeitsignal 18, das von dem Eingangsseite-Speichercontroller 10 zu dem Ausgangsseite-Speichercontroller 13 gegeben wird, eine Leseadresse 17, die von der Verarbeitungseinrichtung 3 zu dem Eingangsseite-Vollbildspeicher 2 gegeben wird, ein CRT-Synchronisationssignal 18, das von dem Ausgangsseite-Speichercontroller 13 ausgegeben wird, und eine Leseadresse 19, die von der Verarbeitungseinrichtung 3 zu dem ROM 11 gegeben wird.
  • Externe Signale (d. h. MUSE- und NTSC-Signale), die von außen eingegeben werden, enthalten Synchronisationssignale und Videosignale. Das Synchronisationssignal ist in ein horizontales Synchronisationssignal und ein vertikales Synchronisationssignal unterteilt. Während das horizontale Synchronisationssignal für jede Abtastzeile eingefügt wird, wird das vertikale Synchronisationssignal für jedes Teilbild eingefügt. Bei gewöhnlichen Fernsehempfängern ist es erforderlich, dass empfangene Übertragungssignale mittels eines Empfängers synchronisiert werden, um Signale eines ausgewählten Kanals zu extrahieren. Eine derartige Operation wird in dieser Ausführungsform durch die MUSE-Synchronisationsschaltung 1 und die NTSC-Synchronisationsschaltung 6 durchgeführt, und die Auswahl eines bestimmten Kanals wird durch ein externes Steuersignal getroffen.
  • Das MUSE-Signal wird an dem Eingangsseite-Speichercontroller 10 sowie an der MUSE-Synchronisationsschaltung 1 angelegt. Das NTSC-Signal dagegen wird an dem Eingangsseite-Speichercontroller 10 und an der NTSC-Synchronisationsschaltung 6 angelegt. Die MUSE-Synchronisationsschaltung 1 gibt eine Ausgabe an die MUSE-Vorverarbeitungseinheit 22, über welche die Ausgabe der Schaltung 1 mit dem Eingangsseite-Vollbildspeicher 2 verbunden wird. Dagegen wird der Ausgang der NTSC-Synchronisationsschaltung 6 mit dem Eingangsseite-Vollbildspeicher 2 über die NTSC-Vorverarbeitungsschaltung 21 verbunden. Die MUSE-Vorverarbeitungsschaltung 22 wird durch einen Wellenformausgleicher 21 oder einen Entzerrungsfilter gebildet. Die NTSC-Vorverarbeitungseinheit 21 wird durch einen Geistbildbeseitiger gebildet. Sowohl die MUSE-Vorverarbeitungseinheit 22 als auch die NTSC-Vorverarbeitungseinheit 21 verbessern die Bildqualität. Der Eingangsseite-Vollbildspeicher 2 ist mit der Verarbeitungseinrichtung 3 verbunden. Die Verarbeitungseinrichtung 3 ist mit dem ROM 11, dem Eingangsseite-Speichercontroller 10 und dem Ausgangsseite-Speichercontroller 13 über die Datenleitung 20 verbunden. Der Ausgang der Verarbeitungseinrichtung 3 ist mit dem Ausgangsseite-Vollbildspeicher 4 über die Nachverarbeitungseinheit 23 verbunden, die durch ein vertikales Filter gebildet werden kann. Die Ausgabe des Ausgangsseite-Vollbildspeichers 4 wird zu dem Anzeigesteuerabschnitt 24 gegeben, der mit der CRT 25 verbunden ist.
  • Ein von außen eingegebnes MUSE-Signal wird durch die MUSE-Synchronisationsschaltung 1 mit einer Abtastrate von 16,2 MHz abgetastet, und das Ergebnis der Abtastoperation wird in dem Eingangsseite-Vollbildspeicher 2 über die MUSE-Vorverarbeitungseinheit 22 gespeichert. Ein von außen eingegebenes NTSC-Signal wird durch die NTSC-Synchronisationsschaltung 6 mit einer Abtastrate von 14,3 MHz abgetastet, und das Ergebnis der Abtastoperation wird in dem Eingangsseite-Vollbildspeicher 2 über die NTSC-Vorverarbeitungseinheit 21 gespeichert. Die Bildpunktdaten des MUSE-Signals und die Bildpunktdaten des NTSC-Signals werden in entsprechende Zonen des Eingangsseite-Vollbildspeichers 2 geschrieben, und die MUSE-Bildpunkt oder NTSC-Bildpunkt wird zum Datenauslesezeitpunkt ausgewählt.
  • Die MUSE- und NTSC-Signale werden auch durch den Eingangsseite-Speichercontroller 10 empfangen. Der Eingangsseite-Speichercontroller 10 führt eine Suche nach einem Synchronisationssignal durch. Bei Feststellung eines horizontalen Synchronisationssignals setzt der Eingangsseite-Speichercontroller 10 die Schreibadresse 14 des Eingangsseite-Vollbildspeichers 2. Diese Verarbeitung wird mit Bezug auf 20 beschrieben.
  • 20 ist ein Beispiel für die Adressabbildung des Eingangsseite-Vollbildspeichers 2. Die Adresspositionen von a0 bis a3ff sind Bildpunktspeicherzonen für eine Abtastzeile. Die Adresspositionen von 0 bis 3ff werden hexadezimal angegeben und können innerhalb eines 10-Bit-Bereichs wiedergegeben werden. Wenn in diesem Beispiel ein horizontales Synchronisationssignal eingegeben wird, werden die letzten zehn Bits der Schreibadresse 14 des Vollbildspeichers 2 auf Nullen gesetzt, während die verbleibenden Bits einem Inkrementierprozess unterworfen werden.
  • Im Fall des NTSC-Signals zum Bespiel beträgt die horizontale Abtastzählung insgesamt 910 Abtastungen bei einer Abtastrate von 14,3 MHz. Dies entspricht im hexadezimalen Zahlensystem einem Wert von 0-38d. Wenn also die Schreiboperation während einer bildpunktweisen Adressinkrementoperation durchgeführt wird, nachdem die niederwertigen und höherwertigen Adressen auf Nullen gesetzt wurden, werden 910 Datenelemente für eine Abtastzeile an den Positionen a0 bis a38d gespeichert. Wenn ein horizontales Synchronisationssignal eingegeben wird, werden die letzten zehn Bits der Schreibadresse 14 auf Nullen gesetzt und werden die verbleibenden Bits einem Inkrementierprozess unterzogen. Daraus resultiert, dass die nächste Abtastzeile an den Positionen b0 bis b38d gespeichert wird. Die Wiederholung dieses Prozesses gestattet, dass die letzten zehn Bits der Speicheradresse Positionen von Bildpunkten für eine Abtastzeile identifizieren, während die verbleibenden Bits eine Abtastzeilennummer angeben können.
  • Wenn die Bildpunktdaten in der oben beschriebenen Weise in den Eingangsseite-Vollbildspeicher 2 geschrieben wurden, kann die Verarbeitungseinrichtung 3 automatisch eine Adresse, in der die letzten zehn Bits der Leseadresse 17 Nullen sind, als den Datenkopf von Bildpunktdaten für eine Abtastzeile erkennen, ohne dass ein in einem Eingangsvideosignal enthaltendes Synchronisationssignal eingegeben wird. Bei der gewöhnlichen Videoverarbeitung wird eine Synchronisation unter Verwendung eines Systemtaktsignals vorgenommen, dessen Frequenz der Eingangssignal-Abtastrate entspricht und das mit einem derartigen Eingangssignal phasengesperrt ist. Umgekehrt kann in der vorliegenden Erfindung eine Hochgeschwindigkeitsleistung asynchron realisiert werden, indem die Merkmale der Verarbeitungseinrichtung voll genutzt werden. Außerdem kann eine beliebige Anzahl von Bildpunkten aus einer beliebigen Adresse des Eingangsseite-Vollbildspeichers 2 für die Videoverarbeitung gelesen werden. Zum Beispiel kann ein beliebiger Teil der Bildpunktdaten für eine Abtastzeile (z. B. von a5 bis 1100) extrahiert und verarbeitet werden. Dadurch wird eine Umwandlung des Seitenverhältnisses oder eine Vergrößerung des Vollbilds erleichtert.
  • 21 ist ein schematisches Operationsflussdiagramm des Eingangsseite-Speichercontrollers 10. In Schritt 401 sucht der Eingangsseite-Speichercontroller 10 nach einem horizontalen Synchronisationssignal. In Schritt 402 wird das Ergebnis identifiziert. Wenn ein horizontales Synchronisationssignal festgestellt wird, dann werden in Schritt 405 die letzten zehn Bits der Schreibadresse 14 des Vollbildspeichers 2 auf Nullen gesetzt, während die verbleibenden Bits inkrementiert werden. Eine Unterbrechung wird vorgesehen, um der Verarbeitungseinrichtung 3 mitzuteilen, dass die Speicherung einer Abtastzeile abgeschlossen wurde (Schritt 406). Weil die Verarbeitungseinrichtung 3 schneller als der Eingangsseite-Vollbildspeicher 3 ist, kann die Verarbeitungseinrichtung 3 zur Durchführung seiner Verarbeitung einen Sprung über bereits eingegebene Bildpunkte vornehmen, außer wenn eine Unterbrechung vorgesehen wird. Das Unterbrechungssignal wird zu der Verarbeitungseinrichtung 3 über die Datenleitung 20 geführt. Bei Empfang des Unterbrechungssignals verarbeitet die Verarbeitungseinrichtung 3 910 Bildpunkte für eine Abtastzeile, wobei er dann in den Wartezustand eintritt. Während der Periode, in der keine horizontalen Synchronisationssignale festgestellt wurden, werden die niederwertigen Adressen der Schreibadresse 14 inkrementiert (Schritt 403), während gleichzeitig Bildpunktdaten sequentiell in den Eingangsseite-Vollbildspeicher 2 geschrieben werden (Schritt 404). Die Leseoperation aus dem Ausgangsseite-Vollbildspeicher 4 durch den Ausgangsseite-Speichercontroller 13 entspricht derjenigen von 21, wobei sie jedoch auf der Basis des Zeitsignals 16 aus dem Eingangsseite-Speichercontroller 10 durchgeführt wird. Anstelle eines Unterbrechungsschrittes (d. h. des Schrittes 406) kann ein Flag gesetzt werden, um Unterbrechungsinformation zu der Verarbeitungseinrichtung 3 zu senden.
  • Die Verarbeitungseinrichtung 3 steuert den Eingangsseite-Speichercontroller 10 und den Ausgangsseite-Speichercontroller 13 über die Datenleitung 20. Wenn ein Synchronisationssignal für die Synchronisation des Speichercontrollers 10 und des Ausgangsseite-Speichercontrollers 13 festgestellt wird, wird die Einstellung der Adresse unter Verwendung des Inhalts eines Adresseinstellungsregisters vorgenommen, der durch die Verarbeitungseinrichtung 3 vordefiniert ist. Außerdem gibt die Verarbeitungseinrichtung 3 Bildpunktdaten für eine Abtastzeile aus dem Eingangsseite-Vollbildspeicher 2 ein, um eine entsprechende Verarbeitung in Abhängigkeit von dem Übertragungssystem durchzuführen. Ein Signal verarbeitungsabschnitt ist in die Verarbeitungseinrichtung 3 integriert und umfasst Komponenten wie etwa ein horizontales Filter, ein vertikales Filter und einen Komparator für die Videoverarbeitung. Ein Busschalter wird verwendet, um die Verbindung zu dem horizontalen Filter, dem vertikalen Filter und dem Komparator zu ändern. Diese Komponenten werden durch einen Steuerabschnitt gesteuert, der durch ein Programm des ROM 11 betrieben wird, um die MUSE/NTSC-Signalverarbeitung durchzuführen. Das Ergebnis der durch die Verarbeitungseinrichtung 3 durchgeführten Verarbeitung wird zu dem Ausgangsseite-Vollbildspeicher 4 mittels derselben Abbildung wie in 20 ausgegeben.
  • Der Ausgangsseite-Speichercontroller 13 gibt in Reaktion auf das Zeitsignal 16 von dem Eingangsseite-Speichercontroller 10 die Leseadresse 15 für das Lesen der Bildpunktdaten aus dem Ausgangsseite-Vollbildspeicher 4 aus. Mit anderen Worten setzt der Ausgangsseite-Speichercontroller 13 wie der Eingangsseite-Speichercontroller 10 bei Empfang des Zeitsignals 16 die letzten zehn Bits der Leseadresse 15 auf Nullen. Die aus dem Ausgangsseite-Vollbildspeicher 4 ausgelesenen Bildpunktdaten werden zu dem Anzeigesteuerabschnitt 24 gesendet. Der Ausgangsseite-Speichercontroller 13 gibt das CRT-Synchronisationssignal 18 an den Anzeigesteuerabschnitt 24 für die horizontale/vertikale Synchronisation an der CRT 25. Daraus resultiert, dass die Beziehung der zu der CRT 25 gegebenen Bildpunktdaten zu dem CRT-Synchronisationssignal in einem entsprechenden Zustand gehalten wird.
  • 22 ist ein Zeitdiagramm, das den Betrieb des Fernsehempfängers der Erfindung zusammenfasst. Das Eingangsvideosignal enthält ein Synchronisationssignal, und wenn ein horizontales Synchronisationssignal festgestellt wird, dann werden die niederwertigen Adressen der Schreibadresse 14 des Vollbildspeichers 2 auf Nullen gesetzt. Danach wird durch diese Operation die Schreiboperation in den Vollbildspeicher 2 mittels einer bildpunktweisen Adressinkrementierung ausgeführt. Der Eingangsseite-Vollbildspeicher 2 schließt das Speichern der Bildpunktdaten für eine Abtastzeile ab, wenn das nächste horizontale Synchronisationssignal empfangen wird. Der Abschluss der Speicherung wird mittels einer Unterbrechung an die Verarbeitungseinrichtung 3 gemeldet. Die Verarbeitungseinrichtung 3 führt die Verarbeitung mittels einer derartigen Unterbrechung durch. In einem in 22 gezeigten Beispiel wird die Verarbeitungseinrichtung mit einem Systemtaktsignal betrieben, dessen Frequenz bei 60 MHz liegt und damit vier Mal schneller ist als die NTSC-Abtastrate (d. h. 14,3 MHz). Das Ergebnis der Verarbeitung wird in den Ausgangsseite-Vollbildspeicher 4 geschrieben. Die Leseoperation des Ausgangsseite-Vollbildspeichers 4 wird mit derselben Frequenz wie die Schreiboperation zu dem Eingangsseite-Vollbildspeicher 2 durchgeführt. Indem die niederwertigen Adressen durch ein extrahiertes Synchronisationssignal auf Nullen gesetzt werden und indem das CRT-Synchronisationssignal 18 zu dem Anzeigesteuerabschnitt 24 ausgegeben wird, wird die Synchronisation aufrechterhalten.
  • Die vorliegende Erfindung ist dadurch gekennzeichnet, dass die Schreiboperation zu dem Eingangsseite-Vollbildspeicher 2 durch den Eingangsseite-Speichercontroller 10 und die Leseoperation durch die Verarbeitungseinrichtung 3 asynchron durchgeführt werden können und dass die Schreiboperation zu dem Ausgangsseite-Vollbildspeicher 4 von der Verarbeitungseinrichtung 3 und die Leseoperation durch den Ausgangsseite-Speichercontroller 13 asynchron durchgeführt werden können. Das Zeitsignal 16 zu dem Ausgangsseite-Speichercontroller 13 wird ausschließlich verwendet, um eine Ausgabezeit für die Bildpunkt- Baten zu dem CRT 25 zu erzeugen. Die interne Erzeugung des CRT-Synchronisationssignals 18 kann wegen der Frequenzabweichung von der Sendestation Fehlfunktionen verursachen. Das Zeitsignal 16 wird verwendet, um eine derartige Abweichung zu korrigieren. Wenn es möglich ist, ein korrektes CRT-Synchronisationssignal 18 zu erzeugen, muss kein Zeitsignal 16 erzeugt werden. Wenn die Frequenz eines an der Verarbeitungseinrichtung 3 angelegten Systemtaktsignals bei Empfang des MUSE-Signals (d. h. 16,2 MHz) und des NTSC-Signals (d. h. 14,3 MHz) auf das Dreifache gesetzt wird, muss das Zeitsignal 16 aus dem Eingangsseite-Speichercontroller 10 nicht an dem Ausgangsseite-Speichercontroller 13 angelegt werden. Es ist möglich, die Frequenz des Systemtaktsignals auf 48,6 MHz zu ändern, wenn das MUSE-Signal empfangen wird, oder auf 42,9 MHz, wenn das NTSC-Signal empfangen wird. Dies gilt auch für den Fall, dass die Verarbeitungseinrichtung 3 eine Videosignalverarbeitung mit den üblichen mehrfachen Frequenzen durchführt.
  • 23 ist eine Modifikation der Abbildung des Eingangsseite-Vollbildspeichers z. Bei der Abbildung in 20 für das NTSC-Signal bleiben einige Speicherbereiche (d. h. von der niederwertigen Adresse 38d (hexadezimal) nach oben) unbenutzt, weil die Anzahl der Abtastungen nur 910 pro Abtastzeile beträgt. Umgekehrt erlaubt die Abbildung in 23 die Speicherung der Bildpunkte in einer Sequenz, wodurch ein verbessertes Verfahren zur effektiven Nutzung von Speicherbereichen vorgesehen wird. Wenn ein vertikales Synchronisationssignal festgestellt wird, werden die niederwertigen Adressen auf Nullen initialisiert. Wenn die Anzahl der Abtastungen in der horizontalen Richtung fixiert ist und wenn die Adresshinzufügung einer Anzahl von Abtastungen für eine Abtastzeile bei der Leseoperation durchgeführt wird, dann können die Positionen der Bildpunkte durch die Adresse identifiziert werden. Dieses Verfahren gestattet es der Verarbeitungseinrichtung 3, Bildpunkte für eine Abtastzeile nur durch die Adresse zu identifizieren und zu verarbeiten. Außerdem wird eine Videoverarbeitung ohne Synchronisation zu der Abtastverarbeitung ermöglicht.
  • Das Setzen der niederwertigen Adressen auf Nullen durch das vertikale Synchronisationssignal kann mit Intervallen von mehreren Teilbildern durchgeführt werden. Wenn außerdem die Speichermenge ein ganzzahliges Vielfaches der Anzahl von Abtastungen für eine Abtastzeile ist, dann können die Bildpunktpositionen nur durch das Synchronisationssignal bestimmt werden.
  • In der vorliegenden Erfindung ist es der Eingangsseite-Speichercontroller 10, der eine Suche nach einem Synchronisationssignal durchführt, wobei es jedoch auch möglich ist, diese Feststellungsaufgabe einer externen Einrichtung zuzuweisen, die das Ergebnis der Feststellungsoperation dann an den Eingangsseite-Speichercontroller 10 und an den Ausgangsseite-Controller 13 gibt. Es kann ein Aufbau nützlich sein, in dem das Ergebnis der Synchronisationssignalfeststellung in der MUSE-Synchronisationsschaltung 1 und der NTSC-Synchronisationsschaltung 6 gemeinsam durch alle Speichercontroller verwendet werden. Wenn der Eingangsseite-Speichercontroller 10 oder der Ausgangsseite-Speichercontroller 13 durch die Verarbeitungseinrichtung 3 gesteuert werden, kann auf die Steuerregister der Speichercontroller 10 und 13 zugegriffen werden, die einen Teil des Speichers der Verarbeitungseinrichtung 3 bilden. In der vorliegenden Ausführungsform werden die niederwertigen Adressen durch ein Eingangssynchronisationssignal auf Nullen gesetzt; sie können jedoch auf unterschiedliche Werte gesetzt werden. Weiterhin werden die niedennrertigen Adressen (zehn Bits) gesetzt. Eine andere Anzahl von Bits kann nützlich sein. Wenn beispielsweise nur das MUSE-Signal betrachtet wird, reichen neun Bit aus, weil die Anzahl der Abtastungen pro Abtastzeile gleich 480 ist. Die Bildpunktdaten einer Abtastzeile können separat in mehreren Bereichen des Speichers gespeichert werden, solange die Bildpunktpositionen durch die Adresse identifiziert werden können. Dies kann realisiert werden, indem zuerst die höherwertigen Adressen festgesetzt und dann die niederwertigen Adressen inkrementiert werden. Es kann jedoch auch eine Dekrementierung von Adressen oder eine Inkrementierung/Dekrementierung einer Adresse mit einer Distanz von 2 oder mehr verwendet werden. Entsprechend können Teilbildpositionen identifiziert werden, indem die niederwertigen Bits der höhenwertigen Adressen auf Nullen gesetzt werden, wenn das vertikale Synchronisationssignal festgestellt wird.
  • In der vorliegenden Ausführungsform führt die Verarbeitungseinrichtung 3 eine Verarbeitung für jede Abtastzeile durch. Die Verarbeitungseinrichtung 3 kann jedoch auch eine Verarbeitung für jeweils mehrere Abtastzeilen oder für jeweils mehrere Teilbilder durchführen. Die Funktionen der Vorverarbeitungseinheiten 21 und 22 und der Nachverarbeitungseinheit 23 können durch die Verarbeitungseinrichtung 3 durchgeführt werden. Auch wenn die Videoverarbeitung mittels des Gespeichertes-Programm-Verfahrens, das in dieser Ausführungsform durch die Verarbeitungseinheit 3 durchgeführt wird, durch eine dedizierte Hardware durchgeführt wird, kann die Verarbeitungsgeschwindigkeit über die Abtastrate gehoben werden. In dieser Ausführungsform werden MUSE und NTSC jeweils entsprechenden Zonen des Eingangsseite-Vollbildspeichers 2 für die Adressspeicherung zugewiesen, wobei der Wechsel zwischen denselben durch die Leseadresse vom Eingangsseite-Vollbildspeicher 2 vorgenommen wird. Alternativ hierzu kann ein Selektor zwischen der Vorverarbeitungseinheit 21, 22 und dem Eingangsseite-Vollbildspeicher 2 vorgesehen werden, um zwischen MUSE-Bildpunkten und NTSC-Bildpunkten zu wählen, um ein ausgewähltes Pixel zu dem Eingangsseite-Vollbildspeicher 2 zu geben. In der vorliegenden Erfindung wird die Ausgabe auf dem CRT 25 angezeigt. Die Ausgabe kann mit anderen Videobildverarbeitungseinrichtungen und Medien verbunden und dort gespeichert werden.
  • Es sind verschiedene digitale Filtertechniken bekannt. Zum Beispiel gibt der Artikel mit dem Titel „Consideration about a Chrominance Signal Processing for MUSE System" von Seüchi Gohshi et al in ITEJ Technical Report, vol. 16, No. 32 auf den Seiten 13–18 in ICS '92–40 (Juni 1992) eine digitale Filtertechnik für die Verwendung in Fernsehempfängern an, wobei die Ausgabe eines einzelnen horizontalen Filterabschnitts zu einem einzelnen vertikalen Filterabschnitt ausgegeben wird. Ein Zeilenspeicher für drei Abtastzeilen ist zwischen dem horizontalen Filterabschnitt und dem vertikalen Filterabschnitt vorgesehen. Bildpunktdaten für drei Zeilen werden aus dem horizontalen Filterabschnitt ausgegeben. Es ist möglich, den vertikalen Filterabschnitt zu aktivieren, wenn der Zeilenspeicher mit derartigen Bildpunktdaten gefüllt ist. Wenn umgekehrt ein besonderer Aufbau verwendet wird, in dem gleichzeitig aus einem Vollbildspeicher ausgelesene Datenelemente für drei Zeilen drei horizontalen Filterabschnitten zugewiesen werden und wenn die Ausgaben aus diesen drei horizontalen Filterabschnitten zu einem einzelnen vertikalen Filterabschnitt geführt werden, kann dadurch der Zeilenspeicher reduziert werden. Die Organisation einer Verarbeitungseinrichtung mit einer geeigneten Flexibilität für diese Lösung ist in 26 gezeigt.
  • 26 zeigt die interne Organisation der Verarbeitungseinrichtung 2 von 19 und dessen Verbindungen nach außen. Die Nachverarbeitungseinheit 23 von 19 ist in 26 nicht gezeigt.
  • 26 zeigt einen Eingangsanschluss 31 mit drei Eingängen, an denen Daten von einem Eingangsspeicherabschnitt 2 in der Form eines Vollbildspeichers eingegeben werden, einen vertikalen Filterabschnitt 32, einen horizontalen Filterabschnitt 33, Eingangs- und Ausgangs seite-Busschalter 51 und 52 zum Ändern der Verbindung des vertikalen Filterabschnitts 32 und der Verbindung des horizontalen Filterabschnitts 33 sowie einen Ausgangsabschnitt 53. Die Verarbeitungseinrichtung 3 umfasst einen Signalverarbeitungsabschnitt 42 auf, der durch den vertikalen Filterabschnitt 32 gebildet wird, den horizontalen Filterabschnitt 33, den Busschalter 51, den Busschalter 52 und den Ausgabeabschnitt 53. Das Bezugszeichen 54 ist ein Eingangsseite-Speichercontroller für die Verarbeitung. Das Bezugszeichen 55 ist eine zentrale Verarbeitungseinheit (CPU). Das Bezugszeichen 56 ist ein Ausgangsseite-Speichercontroller für die Verarbeitung. Die Verarbeitungseinrichtung 3 umfasst einen Steuerabschnitt 43, der durch die CPU 55 und die Speichercontroller 54 und 56 gebildet wird.
  • Der Eingangsanschluss 31 der Verarbeitungseinrichtung 3 ist mit dem Eingangsspeicherabschnitt 2 verbunden. Der Eingangsseite-Busschalter 51 ist derart aufgebaut, dass er Daten von dem Eingangsanschluss 31 sowie von dem Ausgangsseite-Busschalter 52 empfangen kann. Der vertikale Filterabschnitt 32 und der horizontale Filterabschnitt 33 filtern Daten, die von dem Eingangsseite-Busschalter 51 empfangen werden, und die Ergebnisse der Filteroperationen werden zu dem Ausgangsseite-Busschalter 52 gegeben. Der Ausgangsseite-Busschalter 52 führt nicht nur die empfangenen Daten zurück zu dem Eingangsseite-Busschalter 52, sondern gibt auch das endgültige Verarbeitungsergebnis zu dem Ausgangsabschnitt 53. Die Ausgabe des Ausgangsabschnitts 53 wird in einen Ausgangsspeicherabschnitt 4 geschrieben, der durch einen Vollbildspeicher gebildet wird.
  • Während das Zuführen der Leseadresse 17 zu dem Eingangsspeicherabschnitt 2 durch den Speichercontroller 54 gesteuert wird, wird das Zuführen der Schreibadresse 12 zu dem Ausgangsspeicherabschnitt 4 durch den Speichercontroller 56 gesteuert. Die Leseadresse 17 umfasst drei Adressen 44, 45 und 46, sodass Pixeldaten für drei Abtastzeilen gleichzeitig aus dem Eingangsspeicherabschnitt 2 gelesen werden können. Die CPU 55 ist mit dem ROM 11 von 19, der außerhalb der Verarbeitungseinrichtung 3 vorgesehen ist, dem vertikalen Filterabschnitt 32, dem horizontalen Filterabschnitt 33, den Busschaltern 51 und 52 und den Speichercontrollern 54 und 56 zum Steuern jedes Blockes verbunden.
  • Wie in 27 gezeigt, wird der vertikale Filterabschnitt 32 durch Faktorregister 301, Multiplizierer 302 und einen Addierer 303 gebildet. Der horizontale Filterabschnitt 3328 zeigt nur ein Drittel des Abschnitts 33 – wird durch die Faktorregister 301, die Multiplizierer 302, die Addierer 303 und die Zwischenspeicher 304 gebildet. Indem die Faktorregister 301 vorgesehen werden, können die Filterabschnitte 32 und 33 ihre Filtereigenschaften ändern. Insbesondere ist der vertikale Filterabschnitt 32 mit zwei Sätzen von Faktorregistern verwenden, um eine Hochgeschwindigkeits-Faktoränderung vorzusehen. Wenn Bildpunktdaten für mehrere Zeilen zu dem vertikalen Filterabschnitt 32 geführt werden, wird eine Verarbeitung zwischen Zeilen vorgesehen. Wenn dagegen Bildpunktdaten für mehrere Teilbilder zu dem vertikalen Filterabschnitt 32 geführt werden, wird eine Verarbeitung zwischen Teilbildern vorgesehen (d. h. eine Zeitfilterverarbeitung). Der vertikale Filterabschnitt 32 kann arithmetische Operationen zwischen beliebigen Bildpunktelementen durchführen. Außerdem kann der horizontale Filterabschnitt 33 mehrere Sätze von Faktorregistern aufweisen.
  • Wenn die Busschalter 51 und 52 derart gesetzt sind, dass (i) Bildpunktdaten für drei Zeilen, die von dem Eingangsspeicherabschnitt 2 über den Eingangsanschluss 31 erhalten werden, an dem horizontalen Filterabschnitt 33 angelegt werden, (ii) macht der horizontale Filterabschnitt 33 eine Ausgabe zu dem vertikalen Filterabschnitt 32 und (iii) wird die Ausgabe des vertikalen Filterabschnitts 32 zu dem Ausgangsabschnitt 53 geführt, wodurch der vorausgehende Zeilenspeicher reduziert und ein digitales Filter mit weniger Hardware realisiert werden kann.
  • Mit Bezug auf das Flussdiagramm von 29 werden im Folgenden andere Operationen der Verarbeitungseinrichtung 3 beschrieben. Vor der Ausführung des Programms von 29 führt die CPU 55 ein anderes Programm aus, um die Faktorregister 301, 301 innerhalb des vertikalen Filterabschnitts 32 und des horizontalen Filterabschnitts 33 zu setzen. Außerdem werden die Busschalter 51 und 52 durch eine Programmsteuerung voreingestellt, sodass durch den Eingangsanschluss 31 erhaltene Daten zu dem vertikalen Filterabschnitt 32 geführt werden, der vertikale Filterabschnitt seine Ausgabe zu dem horizontalen Filterabschnitt 33 gibt und der horizontale Filterabschnitt 33 zu dem Ausgangsabschnitt 53 ausgibt.
  • In Schritt 501 wird der Eingangsseite-Speichercontroller 54 durch die CPU 55 gesetzt, um Daten für mehrere Teilbilder oder mehrere Zeilen zu setzen, und die durch die Leseadressen 44, 45 und 46 spezifizierten Datenelemente werden aus dem Eingangsspeicherabschnitt 2 gelesen und anschließend zu dem Eingangsanschluss 31 gegeben. Dann werden die Datenelemente über den Eingangsseite-Busschalter 51 zu dem vertikalen Filterabschnitt 32 geführt. In Schritt 502 führt der vertikale Filterabschnitt 32 eine Verarbeitung zwischen Teilbilder oder eine Verarbeitung zwischen Zeilen durch. In Schritt 503 führt der horizontale Filterabschnitt 33, der eine Ausgabe des vertikalen Filterabschnitts 32 empfangene hat, eine weitere Signalverarbeitung durch. In Schritt 504 wird die Ausgabe des horizontalen Filterabschnitts 33 über den Ausgangsabschnitt 53 in den Ausgangsspeicherabschnitt 4 geschrieben. Es kann ein digitales Filter realisiert werden, das zuerst eine vertikale Filteroperation durchführen kann, um Bildpunktdaten für drei Zeilen mit Bildpunktdaten für eine Zeile zu vereinen, wobei dann eine horizontale Filteroperation durchgeführt wird.
  • 30 zeigt einen Algorithmus, der weiterhin einen Schritt für die Faktoränderung umfasst (Schritt 510). In diesem Algorithmus wird der Faktor einer Änderung unterworfen, um wiederholt durch dieselbe Hardware verwendet werden zu können. Zum Beispiel kann der horizontale Filterabschnitt 53 als ein 4-MHz-Tiefpassfilter und dann als ein 8-MHz-Tiefpassfilter verwendet werden, indem der Faktor geändert wird. Es kann ein beliebiger Zeitablauf für die Faktoränderung verwendet werden. Zum Beispiel kann eine derartige Änderung vorgesehen werden, nachdem mehrere zeilenweise Prozesse abgeschlossen wurden.
  • Der vertikale Filterabschnitt 33 kann durch einen Block zum Vergleichen von eingegebenen Datenelementen ersetzt werden. Weil die vertikale Filterverarbeitung und die horizontale Filterverarbeitung realisiert werden, indem arithmetische Produktsummenoperationen durchgeführt werden, können der vertikale Filterabschnitt 32 und der horizontale Filterabschnitt 33 durch arithmetische Produktsummeneinrichtungen mit derselben Hardwarekonfiguration gebildet werden. Wenn die Ausgabe einer einzelnen arithmetischen Produktsummeneinrichtung zu sich selbst zurückgeführt wird, um wiederholt arithmetische Produktsummenoperationen durchzuführen, können der vertikale Filterabschnitt 32 und der horizontale Filterabschnitt 33 zu einer einzigen arithmetischen Produktsummeneinrichtung integriert werden. Dadurch wird die Hardwaremenge weiter reduziert. Außerdem kann der Eingangsspeicherabschnitt 2 durch mehrere Verarbeitungseinrichtungen gemeinsam verwendet werden.
  • Eine weitere Ausführungsform der Erfindung
  • Mit Bezug auf 24 wird im Folgenden ein Femsehempfänger der vorliegenden Erfindung beschrieben. Der Fernsehempfänger von 24 und der Fernsehempfänger von 19 weisen einen ähnlichen Aufbau auf, wobei jedoch der erste Fernsehempfänger keine Steuerleitung für die Übertragung des Zeitsignals 16 zwischen dem Eingangsseite-Speichercontroller 10 und dem Ausgangsseite-Speichercontroller 13, sondern einen Takterzeuger 27 aufweist.
  • Der Takterzeuger 27 empfängt ein MUSE-Signal und ein NTSC-Signal, stellt ein Synchronisationssignal fest, um ein Taktsignal in Phase mit dem festgestellten Synchronisations signal zu erzeugen, und gibt das erzeugte Taktsignal zu der MUSE-Synchronisationsschaltung 1 sowie zu der NTSC-Synchronisationsschaltung 6 als Abtasttaktsignal aus. Der Takterzeuger 27 erzeugt auch ein Systemtaktsignal zum Betreiben der Verarbeitungseinrichtung 3. Ein derartiges Systemtaktsignal ist mit dem Synchronisationssignal phasengesperrt. Die Frequenz des Systemtaktsignals wird als ein ganzzahliges Mehrfaches der Frequenz des Taktsignals der MUSE-Synchronisationsschaltung 1 oder der NTSC-Synchronisationsschaltung 6 gesetzt. Dadurch kann die Verarbeitungseinrichtung 3 asynchron eine Verarbeitung durchführen, die schneller als die Abtastrate ist. Wenn der Zeitablauf für die Eingabe der Bildpunktdaten zu Beginn festgesetzt wird, muss kein Bericht dazu erstellt werden, dass Bildpunktdaten für eine Abtastzeile durch eine Unterbrechung eingegeben wurden, weil die Verarbeitungseinrichtung 3 den Eingabestatus der Bildpunkte mithilfe eines Adresszählers identifizieren kann.
  • Die Frequenz des Systemtaktsignals kann verdreifacht werden, sodass sie bei 48,2 MHz (bei Empfang des MUSE-Signals) oder bei 42,9 MHz (bei Empfang des NTSC-Signals) liegt. Es kann eine besondere Frequenz, die ein gewöhnliches Mehrfaches dieser Frequenzen ist, für die Verarbeitung verwendet werden.
  • Ausführungsform 4
  • 25 zeigt einen vierten Fernsehempfänger gemäß der vorliegenden Erfindung. Der vierte Fernsehempfänger ist dadurch gekennzeichnet, dass er zwei Verarbeitungseinrichtungen 3a und 3b verwendet und dass der Ausgangsspeicherabschnitt 5 durch drei Zeilenspeicher 5a, 5b und 5c gebildet wird.
  • Die Bildanzeige auf der CRT 25 erfordert gleichzeitig ein Chrominanzsignal und ein Luminanzsignal. In Übereinstimmung mit der Organisation von 19 werden diese Signale jedoch auf einer Zeitteilungsbasis verarbeitet. Deshalb muss eines dieser Signale gehalten werden, damit beide Signale gleichzeitig ausgegeben werden, wenn Bildpunktdaten zu dem Anzeigesteuerabschnitt 24 ausgegeben werden. Aus diesem Grund ist ein Teilbildspeicher oder ein Vollbildspeicher erforderlich. Umgekehrt ermöglicht in der vorliegenden Ausführungsform das Vorsehen von zwei Verarbeitungseinrichtungen, nämlich den Verarbeitungseinrichtungen 3a und 3b, die gleichzeitige Verarbeitung der Chrominanz- und Luminanzsignale. Dadurch wird nicht nur das Erfordernis zum Speichern dieser Signale beseitigt, sondern es wird auch die Verwendung der Zeilenspeicher 5a, 5b und 5c, ermöglicht, die jeweils eine kleine Speichergröße aufweisen, sodass auf den kostspieligen Ausgangsseite-Vollbildspeicher 4 von 19 verzichtet werden kann. In der vorliegenden Erfindung werden die zwei Verarbeitungseinrichtungen 3a und 3b verwendet. Es können jedoch auch drei oder mehr Verarbeitungseinrichtungen verwendet werden.
  • In den Ausführungsformen können der Eingangsseite-Speichercontroller 10 und der Ausgangsseite-Speichercontroller 13 durch einen einzigen Speichercontroller-Block gebildet werden. Es ist möglich, eine Verarbeitungseinrichtung mit dem internen Aufbau von 28 zu verwenden.

Claims (5)

  1. Verarbeitungsverfahren für ein Videosignal mit den Schritten: Abtasten eines Eingangsvideosignals, um Pixeldaten des Eingangsvideosignals zu erhalten, Erhöhen einer Schreibadresse zur sequentiellen Speicherung der erhaltenen Pixeldaten für zumindest eine Abtastzeile und Detektieren (401) eines horizontalen Synchronisationssignals in dem Eingangsvideosignal dadurch gekennzeichnet, dass beim Detektieren eines horizontalen Synchronisationssignals die Schreibadresse um eine ganze Zahl m, die von Null verschieden ist, erhöht wird (405), wobei eine vorbestimmte Zahl niederwertiger Schreibadressbits bestimmt ist, um einen ersten konstanten Wert darzustellen, und die Zahl, die durch die verbleibenden Schreibadressbits dargestellt wird, um einen zweiten konstanten Wert erhöht wird, und die Schreibadresse um eine ganze Zahl n, die von Null verschieden ist, erhöht wird (403), solange das Synchronisationssignal nicht detektiert worden ist.
  2. Videosignalverarbeitungsverfahren nach Anspruch 1, das außerdem einen Schritt (406) zur Erzeugung eines Unterbrechungssignals oder eines Flags umfasst, um die Pixeldatenverarbeitung bei Detektion des Synchronisationssignals zu starten.
  3. Videosignalverarbeitungsverfahren nach Anspruch 1, das außerdem umfasst: a) einen Schritt (501), bei dem Daten einer Mehrzahl von Halbbildern oder Daten einer Mehrzahl von Zeilen eingegeben werden; b) einen Schritt (502), bei dem eine Zwischen-Halbbild-Verarbeitung oder eine Zwischen-Zeilen-Verarbeitung mittels arithmetischer Operationen der Eingangsdaten durchgeführt wird; c) einen Schritt (503), bei dem ein Ergebnis der arithmetischen Operation einer Signalverarbeitung unterworfen wird, und d) einen Schritt (504), bei dem ein Ergebnis der Signalverarbeitung nach außen ausgegeben wird.
  4. Videosignalsignalverarbeitungsverfahren nach Anspruch 3, das außerdem einen Schritt (510) umfasst, bei dem Faktoren der arithmetischen Operation oder Faktoren der Signalverarbeitung umgeschaltet werden.
  5. Speichersteuerung für einen Videospeicher (2, 4) zur Speicherung von Pixeldaten eines abgetasteten Eingangsvideosignals, wobei die Speichersteuerung angepasst ist, um ein horizontales Synchronisationssignal in dem Eingangsvideosignal zu detektieren, dadurch gekennzeichnet, dass die Speichersteuerung außerdem angepasst ist, um: eine Schreibadresse um eine ganzzahlige Zahl m, die von Null verschieden ist, bei Detektion eines horizontalen Synchronisationssignals zu er höhen, wobei eine vorbestimmte Zahl von niederwertigen Schreibadressbits bestimmt ist, um einen ersten konstanten Wert darzustellen, und die Zahl, die durch die verbleibenden Schreibadressbits dargestellt wird, um einen zweiten konstanten Wert erhöht wird und die Schreibadresse zum sequentiellen Speichern der erhaltenen Pixeldaten in dem Videospeicher (2, 4) für zumindest eine Abtastzeile um eine ganzzahlige Zahl n, die von Null verschieden ist, erhöht wird, solange das Synchronisationssignal nicht detektiert ist.
DE69433392T 1993-04-12 1994-04-12 Videodatenprozessor und Videosignaldatenverarbeitung Expired - Lifetime DE69433392T2 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP08471293A JP3527259B2 (ja) 1993-04-12 1993-04-12 映像信号処理装置及び処理方法
JP8471293 1993-04-12
JP18383693 1993-07-26
JP18383693 1993-07-26
JP19219593 1993-08-03
JP19219593 1993-08-03

Publications (2)

Publication Number Publication Date
DE69433392D1 DE69433392D1 (de) 2004-01-15
DE69433392T2 true DE69433392T2 (de) 2004-05-27

Family

ID=27304637

Family Applications (3)

Application Number Title Priority Date Filing Date
DE69433392T Expired - Lifetime DE69433392T2 (de) 1993-04-12 1994-04-12 Videodatenprozessor und Videosignaldatenverarbeitung
DE69434182T Expired - Lifetime DE69434182T2 (de) 1993-04-12 1994-04-12 Videosignalverarbeitung mit arithmetischem Processor und Interrupt
DE69435195T Expired - Lifetime DE69435195D1 (de) 1993-04-12 1994-04-12 Videosignalprozessor und Videosignalverarbeitung

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE69434182T Expired - Lifetime DE69434182T2 (de) 1993-04-12 1994-04-12 Videosignalverarbeitung mit arithmetischem Processor und Interrupt
DE69435195T Expired - Lifetime DE69435195D1 (de) 1993-04-12 1994-04-12 Videosignalprozessor und Videosignalverarbeitung

Country Status (5)

Country Link
US (1) US5555197A (de)
EP (7) EP0883293A1 (de)
KR (2) KR0140674B1 (de)
CN (2) CN1096045C (de)
DE (3) DE69433392T2 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU695967B2 (en) * 1994-06-23 1998-08-27 Koninklijke Philips Electronics N.V. Television signal receiver
US5926229A (en) * 1994-10-18 1999-07-20 Matsushita Electric Industrial Co., Ltd. Development supporting method and device for signal processing system and signal processing device and method
KR100305874B1 (ko) * 1995-06-02 2001-11-30 모리시타 요이찌 다방식 텔레비전수상기
DE19618351A1 (de) * 1996-05-08 1997-11-13 Thomson Brandt Gmbh Verfahren und Schaltungsanordnung zum speicheroptimierten Verarbeiten eines FBAS-Signals
US5844623A (en) * 1996-09-27 1998-12-01 Sony Corporation Television with integrated receiver decoder
US6243141B1 (en) * 1997-05-06 2001-06-05 Matsushita Electric Industrial Co., Ltd. Video signal processing device
US6353460B1 (en) * 1997-09-30 2002-03-05 Matsushita Electric Industrial Co., Ltd. Television receiver, video signal processing device, image processing device and image processing method
TW424227B (en) * 1999-04-08 2001-03-01 Via Tech Inc Signal decoding device and method thereof
JP2002165150A (ja) * 2000-11-28 2002-06-07 Mitsubishi Electric Corp 受信装置
JP3840966B2 (ja) * 2001-12-12 2006-11-01 ソニー株式会社 画像処理装置およびその方法
KR100561462B1 (ko) * 2003-07-09 2006-03-16 삼성전자주식회사 화상형성시스템에 있어서 영상처리방법 및 장치
JP2005182499A (ja) * 2003-12-19 2005-07-07 Matsushita Electric Ind Co Ltd 並列演算装置
US9292904B2 (en) 2004-01-16 2016-03-22 Nvidia Corporation Video image processing with parallel processing
US7869666B2 (en) 2005-01-13 2011-01-11 Nvidia Corporation Video processing system and method with dynamic tag architecture
US20060152627A1 (en) * 2005-01-13 2006-07-13 Ruggiero Carl J Video processing system and method with dynamic tag architecture
CN101394516B (zh) * 2007-09-17 2010-09-15 普诚科技股份有限公司 影像处理装置
US9641854B2 (en) * 2014-05-19 2017-05-02 Mediatek Inc. Count table maintenance apparatus for maintaining count table during processing of frame and related count table maintenance method

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1576621A (en) * 1976-03-19 1980-10-08 Rca Corp Television synchronizing apparatus
US4602285A (en) * 1983-04-08 1986-07-22 Ampex Corporation System and method for transforming and filtering a video image
JPS6079895A (ja) * 1983-10-06 1985-05-07 Nec Corp デイジタルメモリカラ−フレ−ミング回路
US4718057A (en) * 1985-08-30 1988-01-05 Advanced Micro Devices, Inc. Streamlined digital signal processor
GB8612453D0 (en) * 1986-05-22 1986-07-02 Inmos Ltd Multistage digital signal multiplication & addition
US4745463A (en) * 1986-09-25 1988-05-17 Rca Licensing Corporation Generalized chrominance signal demodulator for a sampled data television signal processing system
JPS63123130A (ja) * 1986-11-12 1988-05-26 Fanuc Ltd パイプライン制御方式
GB2197766B (en) * 1986-11-17 1990-07-25 Sony Corp Two-dimensional finite impulse response filter arrangements
FR2626691B1 (fr) * 1988-02-02 1990-05-25 France Etat Multiplieur numerique generalise et filtre numerique mettant en oeuvre ce multiplieur
JPH0225987A (ja) * 1988-07-15 1990-01-29 Fuji Xerox Co Ltd 画像処理集積回路装置
JP2706495B2 (ja) * 1988-11-22 1998-01-28 松下電器産業株式会社 画像信号処理装置
JPH07122868B2 (ja) * 1988-11-29 1995-12-25 日本電気株式会社 情報処理装置
CA2008000A1 (en) * 1989-01-18 1990-07-18 Takahiko Masumoto Decoder for subsampled video signal
KR930002316B1 (ko) * 1989-05-10 1993-03-29 미쯔비시덴끼 가부시끼가이샤 버스제어방법 및 화상처리 장치
EP0444368B1 (de) * 1990-02-28 1997-12-29 Texas Instruments France Ein SIMD-Prozessor als digitales Filter
DE69116902T2 (de) * 1990-03-01 1996-10-17 Texas Instruments Inc Fernsehen mit verbesserter Auflösung
JPH03283976A (ja) * 1990-03-30 1991-12-13 Toshiba Corp 画像再生装置
JPH0449781A (ja) * 1990-06-19 1992-02-19 Sony Corp テレビジョン画像表示装置
JP2673386B2 (ja) * 1990-09-29 1997-11-05 シャープ株式会社 映像表示装置
CA2065979C (en) * 1991-06-10 1999-01-19 Stephen Patrick Thompson Mode dependent minimum fifo fill level controls processor access to video memory
DE69226994T2 (de) * 1991-07-19 1999-02-18 Matsushita Electric Ind Co Ltd Verarbeitungsvorrichtung für Videosignale zur Aliasinginterferenzminderung
JPH0556372A (ja) * 1991-08-27 1993-03-05 Toshiba Corp Dsp使用テレビジヨン受像機

Also Published As

Publication number Publication date
DE69434182T2 (de) 2005-05-04
EP1320258A1 (de) 2003-06-18
US5555197A (en) 1996-09-10
CN1359232A (zh) 2002-07-17
CN1254085C (zh) 2006-04-26
EP0620681B1 (de) 2004-12-15
EP0876056A1 (de) 1998-11-04
EP0620681A3 (de) 1995-03-01
CN1099173A (zh) 1995-02-22
DE69435195D1 (de) 2009-04-16
CN1096045C (zh) 2002-12-11
EP0620681A2 (de) 1994-10-19
KR940025337A (ko) 1994-11-19
EP1271942A1 (de) 2003-01-02
KR0140553B1 (ko) 1998-06-15
DE69434182D1 (de) 2005-01-20
KR0140674B1 (ko) 1998-06-15
EP1271943A1 (de) 2003-01-02
DE69433392D1 (de) 2004-01-15
EP0876056B1 (de) 2003-12-03
EP0883293A1 (de) 1998-12-09
EP1271941B1 (de) 2009-03-04
EP1271941A1 (de) 2003-01-02

Similar Documents

Publication Publication Date Title
DE69433392T2 (de) Videodatenprozessor und Videosignaldatenverarbeitung
DE10212911B4 (de) Elektroendoskopsystem mit Elektroendoskopen mit verschiedenen Pixelanzahlen
DE2746285C2 (de) Fernseh-Bildverarbeitungssystem
DE3244808C2 (de)
DE3910052C2 (de)
DE2712025C3 (de) Anordnung zur Änderung des Formats eines Fernsehbildes
DE69034167T2 (de) Fernsehgerät
DE4231158C5 (de) Verfahren und Einrichtung für die Zusammensetzung und Anzeige von Bildern
DE3804705C2 (de) Anordnung zur Erzeugung eines Bild-im-Bild-Videosignals
DE3720163C2 (de) Verfahren und Anordnung zum Einfrieren eines Fernsehbildes
DE3010990A1 (de) Digitales stehbildspeichersystem
DE19713635B4 (de) Videokameravorrichtung vom digitalen Aufzeichnungstyp
DE3637018C2 (de) Adaptive Filteranordnung
DE69533374T2 (de) Digitaler Fernsehempfänger
DE69839079T2 (de) System und verfahren für 2-abgriff/3-abgriff flimmerfiltern
DE3128727C1 (de) Verfahren und Anordnung zum Erhoehen der Bildwiedergabefrequenz
DE2836582A1 (de) Fernsehkamera
DE19545919B4 (de) Verfahren zum Erzeugen von Bildsignalen im PAL-Format aus Signalen im NTSC-Format
EP0318760A2 (de) Fernsehempfänger mit einer Einrichtung zur Unterdrückung von Flimmerstörungen
DE4192565C2 (de) Bildfluktuationserfassungseinrichtung
DE69836453T2 (de) Vorrichtung und Verfahren zum Vergrössern oder Verkleinern von Bildern
DE4210111C2 (de) Fernsehstandardumwandlungseinrichtung
DE69936957T2 (de) Videosignalprozessor zum Verarbeiten eines Videosignals mittels mehreren datengesteuerten Prozessoren und damit ausgerüsteter Fernsehempfänger
DE3505358C2 (de)
EP0400286B1 (de) Schaltungsanordnung zur Normwandlung von Videosignalen für die Darstellung an einem Wiedergabegerät mit einer matrixförmigen Anzeigeeinrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP