DE69827703T2 - Verfahren und Vorrichtung zum Einstellen der Farbe - Google Patents

Verfahren und Vorrichtung zum Einstellen der Farbe Download PDF

Info

Publication number
DE69827703T2
DE69827703T2 DE69827703T DE69827703T DE69827703T2 DE 69827703 T2 DE69827703 T2 DE 69827703T2 DE 69827703 T DE69827703 T DE 69827703T DE 69827703 T DE69827703 T DE 69827703T DE 69827703 T2 DE69827703 T2 DE 69827703T2
Authority
DE
Germany
Prior art keywords
color
image data
pixels
correspondence relationship
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69827703T
Other languages
English (en)
Other versions
DE69827703D1 (de
Inventor
Naoki Suwa-shi Kuwata
Yoshihiro Suwa-shi Nakami
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP16015897A external-priority patent/JP3893669B2/ja
Priority claimed from JP31212697A external-priority patent/JP3918257B2/ja
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Publication of DE69827703D1 publication Critical patent/DE69827703D1/de
Application granted granted Critical
Publication of DE69827703T2 publication Critical patent/DE69827703T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/628Memory colours, e.g. skin or sky

Description

  • Technisches Gebiet, zu dem die Erfindung gehört
  • Die vorliegende Erfindung betrifft eine Bildverarbeitungsvorrichtung und ein Bildverarbeitungsverfahren zum Eingeben von fotografischen Digitalbilddaten, welche Punktmatrixpixel enthalten, und Umwandeln jedes Pixels der Bilddaten gemäß einer vorgegebenen Korrespondenzbeziehungsinformation, und sie beschäftigt sich auch mit einem Farbeinstellungsgerät und einem Farbeinstellungsverfahren zum Ausführen einer optimalen Farbeinstellung.
  • Allgemeiner Stand der Technik
  • Beschreibung des Standes der Technik
  • Es gibt eine Vielfalt von herkömmlichen Bildverarbeitungstechniken zum Verarbeiten von fotografischen Digitalbilddaten, insbesondere solche Bildverarbeitungstechniken wie zum Beispiel zur Kontrastverstärkung, Farbartkorrektur und Helligkeitskorrektur. Jedes Pixel von Bilddaten wird in diesen herkömmlichen Bildverarbeitungstechniken gemäß einer vorgegebenen Korrespondenzbeziehungsinformation umgewandelt. In einem Beispiel einer Farbartkorrektur wird im Voraus eine Farbumwandlungstabelle vorbereitet und, wenn Originalbilddaten eingegeben werden, wird auf die Farbumwandlungstabelle Bezug genommen, um Ausgabebilddaten zu erzeugen. Auf diese Weise wird zum Beispiel bei der Fleischfarbkorrektur ein Fleischfarbteil eines Bildes bei der Ausgabe lebendig gemacht.
  • Bei den zuvor erwähnten herkömmlichen Bildverarbeitungstechniken kann jedoch, wenn eine Korrektur einer bestimmten Farbart erfolgt, ein ganzes Bild durch die Korrektur beeinflusst werden, was ein nicht zufrieden stellendes Bildeinstellungsergebnis verursacht. Wenn zum Beispiel versucht wird, eine bleiche Gesichtsfarbe des Bildes einer Person so zu machen, dass sie rot aussieht, kann ein ganzes Bild rötlich werden. Obwohl nämlich eine bestimmte Art von Bildeinstellung eine gewünschte Wirkung auf einem Bild erzielt, kann sie eine unerwünschte Nebenwirkung darauf verursachen.
  • EP 0481525A offenbart eine Farbumwandlungsvorrichtung, bei welcher Farbe innerhalb einer bestimmten Region eines Bildes in eine andere Farbe umgewandelt werden kann, ohne die Gradationen von Farbe und Helligkeit in der Region zu ändern.
  • US 5497431 offenbart ein Verfahren zum Extrahieren von charakteristischen Bilddaten, bei welchem ein Bild in Farbregionen geteilt wird und Regionen, welche möglicherweise Gesichtsregionen sind, extrahiert werden. Dichtedaten oder dergleichen der extrahierten Region werden zum Kopieren des Bildes verwendet. Es offenbart auch ein Farbdatenumwandlungsgerät, bei welchem die Farbdaten, welche aus einem Bild erhalten werden, in Farbtonwerte, Sättigungswerte und Helligkeitswerte umgewandelt werden.
  • EP 0354490A offenbart ein Verfahren und eine Vorrichtung zum Einstellen von Farbtrennlinien. Wenn die Anzahl von Stichprobenpixeln in einem Bild, das so festgelegt wurde, dass es eine vorgegebene Erinnerungsfarbe aufweist, größer als ein Schwellenwert ist, wird eine vorgegebene Farbtrennlinie demgemäß korrigiert.
  • Offenbarung der Erfindung
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, eine Bildverarbeitungsvorrichtung gemäß Anspruch 1 bereitzustellen, welche imstande ist, eine ungünstige Nebenwirkung bei der Einstellung von Bilddaten auf ein Minimum herabzusetzen.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird eine Bildverarbeitungsvorrichtung bereitgestellt, welche zum Eingeben von fotografischen Bilddaten, die Punktmatrixpixel enthalten, und Umwandeln von Pixeln der Bilddaten gemäß einer vorgegebenen Korrespondenzbeziehung ausgelegt und gekennzeichnet ist durch:
    eine Einheit zur Speicherung von Korrespondenzbeziehungsinformation, welche zum Speichern von Information für eine Mehrzahl von Korrespondenzbeziehungen zur Umwandlung der Bilddaten zusammen mit anwendbarer Objektinformation davon ausgelegt ist, wobei die anwendbare Objektinformation zum Bestimmen von Objektpixeln in den Bilddaten ist, auf welche die Korrespondenzbeziehung angewendet werden kann;
    eine Einstelleinheit, welche zum Durchführen eines statistischen Berechnungsvorgangs in Bezug auf Objektpixel in den Bilddaten ausgelegt ist, um einen Grad einzustellen, um welchen die Bilddaten gemäß der Korrespondenzbeziehung umgewandelt werden, wobei der Grad gemäß dem Verhältnis der Anzahl von Pixeln, welche zur Durchführung der statistischen Berechnung verwendet werden, zur Gesamtanzahl von Pixeln der Bilddaten bestimmt wird;
    eine Korrespondenzbeziehungsbeurteilungseinheit, welche zum Bilden eines Urteils über jede Korrespondenzbeziehung zur Umwandlung jedes Pixels der Bilddaten gemäß der Korrespondenzbeziehung und der anwendbaren Objektinformation, welche auf diese Weise gespeichert werden, ausgelegt ist; und
    eine Bilddatenumwandlungseinheit, welche zum Umwandeln von Pixeln der Bilddaten um den Grad gemäß dem auf diese Weise gebildeten Urteil ausgelegt ist, wobei:
    der statistische Berechnungsvorgang einen Durchschnittswert der Pixel, welche zur Durchführung der statistischen Berechnung verwendet werden, erzielt;
    die Korrespondenzbeziehung eine Beziehung zwischen dem Durchschnittswert und einem vorgegebenen Optimalwert ist;
    die Umwandlung durchgeführt wird, um die Differenz zwischen dem Durchschnittswert und dem Optimalwert um den Grad, welcher durch die Einstelleinheit bestimmt wird, zu verringern;
    der Grad ein Wert zwischen 0, wobei die Differenz zwischen dem Durchschnittswert und dem Optimalwert unverändert ist, und einem Maximalwert, wobei nach der Umwandlung keine Differenz zwischen dem Durchschnittswert und dem Optimalwert vorliegt, ist.
  • Wenn ein Bild Punktmatrixpixel enthält und jedes Pixel in einer Bilddatendarstellung angezeigt wird, wird in der zuvor erwähnten Anordnung der vorliegenden Erfindung jedes Pixel gemäß einer vorgegebenen Korrespondenzbeziehungsinformation umgewandelt. Bei dieser Bildverarbeitung werden eine Mehrzahl von Korrespondenzbeziehungsinformationen zur Bilddatenumwandlung und anwendbare Objektinformation zusammen gespeichert. Gemäß dieser Information wird ein Urteil über jede Korrespondenzbeziehung zur Umwandlung jedes Pixels von Bilddaten gebildet, und basierend auf dem Ergebnis des Urteils wird die Umwandlung jedes Pixels von Bilddaten ausgeführt.
  • Insbesondere werden mehrfache Korrespondenzbeziehungen zur Bilddatenumwandlung bereitgestellt, und es wird beurteilt, welche Korrespondenzbeziehung auf jedes Pixel anzuwenden ist. Dann wird die Bilddatenumwandlung durch Anwenden einer geeigneten Korrespondenzbeziehung auf jedes Pixel durchgeführt. Zum Beispiel wird eine Korrespondenzbeziehung, um die grüne Farbe von Baumblättern lebendiger zu machen, auf die Pixel grüner Farbe, welche die Baumblätter anzeigen, angewendet, und eine Korrespondenzbeziehung, um eine Ge sichtsfarbe rot zu machen, wird auf Fleischfarbpixel angewendet. Auf diese Weise wird jede Korrespondenzbeziehung nach Bedarf flexibel angewendet.
  • Gemäß einem anderen Aspekt der vorliegenden Erfindung wird ein Bildverarbeitungsverfahren, wie in Patentanspruch 11 dargelegt, bereitgestellt, welches fotografische Bilddaten, die Punktmatrixpixels enthalten, eingibt, jedes Pixel der Bilddaten gemäß einer vorgegebenen Korrespondenzbeziehung umwandelt und durch die folgenden Schritte gekennzeichnet ist:
    Speichern von Information für eine Mehrzahl von Korrespondenzbeziehungen zur Umwandlung der Bilddaten zusammen mit anwendbarer Objektinformation davon, wobei die anwendbare Objektinformation zum Bestimmen von Objektpixeln in den Bilddaten ist, auf welche die Korrespondenzbeziehung angewendet wird;
    Durchführen eines Summiervorgangs in Bezug auf Objektpixel in den Bilddaten und Erhalten eines Durchschnittswerts der Pixel, welche zum Durchführen des Summiervorgangs verwendet werden, um einen Grad einzustellen, um welchen die Bilddaten gemäß der Korrespondenzbeziehung umgewandelt werden, wobei der Grad gemäß dem Verhältnis der Anzahl von Pixeln, welche zum Durchführen des Summiervorgangs verwendet werden, zur Gesamtanzahl von Pixeln in den Bilddaten bestimmt wird;
    Bilden eines Urteils über jede Korrespondenzbeziehung zum Umwandeln jedes Pixels der Bilddaten gemäß der Korrespondenzbeziehung und der anwendbaren Objektinformation, welche auf diese Weise gespeichert werden; und
    Umwandeln von Pixeln der Bilddaten um den Grad gemäß dem auf diese Weise gebildeten Urteil, wobei
    die Korrespondenzbeziehung eine Beziehung zwischen dem Durchschnittswert und einem vorgegebenen Optimalwert ist;
    die Umwandlung durchgeführt wird, um die Differenz zwischen dem Durchschnittswert und dem Optimalwert um den Grad, welcher durch die Einstelleinheit bestimmt wird, zu verringern; und
    der Grad ein Wert zwischen 0, wobei die Differenz zwischen dem Durchschnittswert und dem Optimalwert unverändert ist, und einem Maximalwert, wobei nach der Umwandlung keine Differenz zwischen dem Durchschnittswert und dem Optimalwert vorliegt, ist.
  • Da die Korrespondenzbeziehungsinformation für die Bilddatenumwandlung für jedes Pixel geändert werden kann, ist es möglich, ein Bildverarbeitungsverfahren bereitzustellen, welches die Ausführung einer gewünschten Bildverarbeitung erlaubt, ohne nicht spezifizierten Teilen eines Bildes eine ungünstige Wirkung zu verleihen.
  • Die zuvor erwähnten und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden Beschreibung von Ausführungsformen unter Bezugnahme auf die beiliegenden Zeichnungen besser ersichtlich.
  • Kurze Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, welches eine Bildverarbeitungsvorrichtung in einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt;
  • 2 ist ein Blockdiagramm, welches konkrete Hardwarebeispiele für die Bildverarbeitungsvorrichtung gemäß der vorliegenden Erfindung darstellt;
  • 3 ist ein schematisches Blockdiagramm, welches ein anderes Anwendungsbeispiel der Bildverarbeitungsvorrichtung gemäß der vorliegenden Erfindung darstellt;
  • 4 ist ein schematisches Blockdiagramm, welches ein anderes Anwendungsbeispiel der Bildverarbeitungsvorrichtung gemäß der vorliegenden Erfindung darstellt;
  • 5 ist ein Ablaufdiagramm der Bildverarbeitung in der Bildverarbeitungsvorrichtung gemäß der vorliegenden Erfindung;
  • 6 ist ein Diagramm, welches einen Zustand darstellt, in dem ein Verarbeitungsobjektpixel bewegt wird;
  • 7 ist ein Diagramm, welches ein Anzeigefenster zum Spezifizieren eines Verarbeitungsobjektbereichs und eines Verarbeitungselements darstellt;
  • 8 ist ein Diagramm, welches zeigt, dass zwei Verarbeitungsobjektbereiche ausgewählt sind;
  • 9 stellt eine Regionenreferenztabelle dar, welche zum Speichern von spezifizierten Regionen und Bildverarbeitungsobjekten verwendet wird;
  • 10 ist ein Diagramm, welches ein Fenster zum Auswählen eines Verarbeitungsobjekts und eines Verarbeitungselements darstellt;
  • 11 ist ein Diagramm, welches rechteckige Regionen darstellt, die mit der Farbart „x-y" spezifiziert werden;
  • 12 ist ein Diagramm, welches zeigt, dass Mittelpunkte mit der Farbart „x-y" spezifiziert werden;
  • 13 ist ein Ablaufdiagramm einer Anwendbarkeitseinstellung;
  • 14 ist ein Graph, welcher eine Änderung der Anwendbarkeit bei Spezifizierung eines Mittelpunkts mit der Farbart „x-y" darstellt;
  • 15 ist ein Graph, welcher einen Leuchtdichteverteilungsbereich in Ausdehnung darstellt;
  • 16 stellt eine Umwandlungstabelle zur Ausdehnung eines Leuchtdichteverteilungsbereichs dar;
  • 17 ist ein Graph, welcher eine Umwandlungsbeziehung zur Ausdehnung eines Leuchtdichteverteilungsbereichs darstellt;
  • 18 ist ein Graph, welcher eine konzeptionelle Bedingung für die Zunahme der Leuchtdichte durch eine Korrektur der γ-Kurve darstellt;
  • 19 ist ein Graph, welcher eine konzeptionelle Bedingung für die Abnahme der Leuchtdichte durch eine Korrektur der γ-Kurve darstellt;
  • 20 ist ein Graph, welcher eine Korrespondenzbeziehung von Leuchtdichte, die einer γ-Korrektur unterzogen wird, darstellt;
  • 21 ist ein Diagramm, welches eine unscharfe Maske, die 5 × 5 Pixel umfasst, darstellt;
  • 22 ist ein Graph, welcher eine statistische Bedingung der Sättigungsverteilung darstellt;
  • 23 ist ein Graph, welcher eine Beziehung zwischen der Minimalsättigung 'A' und dem Sättigungsindex 'S' darstellt;
  • 24 ist ein Diagramm, welches ein Anzeigefenster darstellt, das einen bei Gesamtbildverarbeitung zu verarbeitenden Bereich und einen bei Teilbildverarbeitung zu verarbeitenden Bereich enthält;
  • 25 ist ein Blockdiagramm, welches ein Farbeinstellungsgerät in einer bevorzugten Ausführungsform der vorliegenden Erfindung darstellt;
  • 26 ist ein Ablaufdiagramm der Farbeinstellungsverarbeitung in dem Farbeinstellungsgerät gemäß der vorliegenden Erfindung;
  • 27 ist eine grafische Veranschaulichung, welche Tonkurven zum Umwandeln von Gradationsdaten mit vorgegebenen Verstärkungsgraden darstellt;
  • 28 ist ein Ablaufdiagramm der Farbeinstellungsverarbeitung in einer modifizierten Ausführungsform gemäß der vorliegenden Erfindung;
  • 29 ist ein Diagramm, welches ein Fenster zum Auswählen eines Farbeinstellungsobjekts für die Farbeinstellungsverarbeitung darstellt; und
  • 30 ist ein Diagramm, welches ein fotografisches Originalbild veranschaulicht, das der Farbeinstellungsverarbeitung zu unterziehen ist.
  • Beschreibung einer speziellen Ausführungsform
  • Die vorliegende Erfindung wird nun zur Veranschaulichung unter Bezugnahme auf die beiliegenden Zeichnungen ausführlich beschrieben.
  • 1 stellt ein Blockdiagramm eines Bildverarbeitungsschemas dar, welches eine Bildverarbeitungsvorrichtung in einer bevorzugten Ausführungsform der vorliegenden Erfindung verwendet, und 2 stellt ein schematisches Blockdiagramm dar, welches ein konkretes Beispiel einer Hardwarekonfiguration veranschaulicht.
  • Unter Bezugnahme auf 1 gibt ein Bildeingabegerät 10 fotografische Bilddaten, welche Punktmatrixpixel eines fotografischen oder aufgenommenen Bildes enthalten, in eine Bildverarbeitungsvorrichtung 20 ein, auf welcher ein Objekt, das zur Bildverarbeitung anwendbar ist, und Bedingungen davon spezifiziert werden und dann eine Bildverarbeitung für Objektpixel erfolgt. Danach liefert die Bildverarbeitungsvorrichtung 20 die auf diese Weise verarbeiteten Bilddaten an ein Bildausgabegerät 30, auf welchem das verarbeitete Bild in einer Punktmatrixpixelform ausgegeben wird.
  • Wie in 2 dargestellt, sind ein konkretes Beispiel für das Bildeingabegerät 10 ein Scanner 11, eine digitale Standbildkamera 12 oder ein Video-Camcorder 14, ein konkretes Beispiel für eine Bildverarbeitungsvorrichtung 20 ein Computersystem, welches einen Computer 21, eine Festplattenlaufwerk 22, eine Tastatur 23, eine Maus 27, ein CD-ROM-Laufwerk 24, ein Diskettenlaufwerk 25, ein Modem 26 usw. umfasst, und ein konkretes Beispiel für das Bildausgabegerät 30 ein Drucker 31 oder ein Anzeigebildschirm 32. In der vorliegenden bevorzugten Ausführungsform sind die fotografischen Bilddaten als Eingabedaten am besten geeignet, da Objektpixel zum Korrigieren von Fehlern in einem Bild spezifiziert werden und die Bildverarbeitung gemäß einer vorgegebenen Korrespondenzbeziehung erfolgt. Das Modem 26 kann mit einer öffentlichen Telekommunikationsleitung zum Herunterladen von Software und Daten von einem externen Netzwerk durch die öffentliche Telekommunikationsleitung verbunden sein.
  • In der vorliegenden bevorzugten Ausführungsform stellen der Scanner 11 oder die digitale Standbildkamera 12, welche als das Bildeingabegerät 10 dienen, RGB-Gradationsbilddaten (Rot, Grün, Blau) bereit, benötigt der Drucker 31, welcher als das Bildausgabegerät 30 dient, die Eingabe von binären CMY- oder CMYK-Gradationsdaten (Cyan, Magenta, Gelb bzw. Cyan, Magenta, Gelb, Schwarz), und benötigt der Anzeigebildschirm 32 die Eingabe von RGB-Gradationsdaten. Im Computer 21 werden ein Druckertreiber 21b für den Drucker 31 und ein Anzeigetreiber 21c für den Anzeigebildschirm 32 unter Kontrolle eines Betriebssystems 21a betrieben.
  • Außerdem wird eine Bildverarbeitungsanwendung 21d durch das Betriebssystem 21a zur Ausführung der Verarbeitung davon gesteuert, und die Bildverarbeitungsanwendung 21d führt eine vorgegebene Bildverarbeitung je nach Bedarf in Verbindung mit dem Druckertreiber 21b oder dem Anzeigetreiber 21 aus. Daher wird der Computer 21, welcher als die Bildverarbeitungsvorrichtung 20 dient, zum Empfangen von RGB-Gradationsdaten und Erzeugen von optimal bildverarbeiteten RGB-Gradationsdaten durch Bildauswertung zur Ausgabe auf dem Anzeigebildschirm 32 mittels des Anzeigetreibers 21c verwendet. Der Computer 21 wird auch zum Umwandeln von RGB-Gradationsdaten in binäre CMY-Daten (oder CMYK-Daten) zur Ausgabe auf dem Drucker 31 mittels des Druckertreibers 21b verwendet.
  • Wie bereits erwähnt, ist das Computersystem zum Ausführen der Bildauswertung und der Bildverarbeitung in der vorliegenden bevorzugten Ausführungsform zwischen dem Bildeingabegerät und dem Bildausgabegerät angeordnet. Das Computersystem ist jedoch nicht immer erforderlich. Es versteht sich von selbst, dass die Erfindung auf eine Vielfalt von Bilddatenverarbeitungsvorrichtungen anwendbar ist. Wie zum Beispiel in 3 dargestellt, kann solch eine Systemanordnung bereitgestellt werden, dass eine Bildverarbeitungs vorrichtung zum Ausführen von Bildverarbeitung für jedes vorgegebene anwendbare Objekt in einer digitalen Standbildkamera 12a eingebaut ist und umgewandelte Bilddaten auf einem Anzeigebildschirm 32a abgebildet oder auf einem Drucker 31a gedruckt werden. Darüber hinaus kann, wie in 4 dargestellt, für einen Drucker 31b, welcher zum Empfangen von Bilddaten und Drucken von Bildern ohne Verwendung eines Computersystems imstande ist, solch eine Anordnung bereitgestellt werden, dass die Bilddaten von einem Scanner 11b, einer digitalen Standbildkamera 12b oder einem Modem 26b in den Drucker 31b eingegeben werden, in welchem die Bildverarbeitung durch Beurteilung, ob jedes Pixel zu einem anwendbaren Objekt gehört oder nicht, ausgeführt wird.
  • In den zuvor erwähnten Ausführungsformen werden die Bildauswertung und die Bildverarbeitung mittels eines Bildverarbeitungsprogramms realisiert, dessen Ablauf in 5 in Diagrammform dargestellt ist und das zum Beispiel auf dem Computer 21 ausgeführt wird. Unter Bezugnahme auf 5 wird das Bildverarbeitungsprogramm durch die folgende Schritte ausgeführt: Beim ersten Schritt S100 wird ein anwendbares Objekt für jede Bildverarbeitung spezifiziert.
  • Bei Schritt S110 bis S140 wird eine vorgegebene Bildverarbeitungsoperation durch Bewegen eines Objektpixels für jedes Punktmatrixpixel durchgeführt, wie in 6 dargestellt. Konkret wird bei Schritt S110 beurteilt, ob jedes Objektpixel zu den bei S100 spezifizierten Bildverarbeitungsbedingungen anwendbar ist. Bei Schritt S120 werden die Bilddaten gemäß dem Ergebnis der Beurteilung umgewandelt.
  • Bei dieser Umwandlung wird eigentlich die Bildverarbeitung vollbracht. Bei Schritt S130 und S140 wird jedes Objektpixel nach Bedarf bewegt. Im Folgenden wird dieser Bildverarbeitungsablauf ausführlicher beschrieben.
  • In Abhängigkeit von den Bildverarbeitungsbedingungen wird bestimmt, welche Pixel einer Bildverarbeitung zu unterziehen sind. In der vorliegenden bevorzugten Ausführungsform wird ein zu verarbeitender Bildteil spezifiziert, wie in 7 und 8 dargestellt. Unter Bezugnahme auf 7 sind ein Operationsbereich 41 entlang einer oberen Seite eines Fensters 40 für Fensterrahmenoperationen, ein Anzeigebereich 42 in einem Mittelteil des Fensters 40 und ein Verarbeitungsmenübereich 43 an einer unteren Seite des Fensters 40 für Bildverarbeitungsmenüelemente vorgesehen.
  • Ein zu verarbeitendes Bild ist im Anzeigebereich 42 dargestellt, eine rechteckige Region wird unter Verwendung einer Maus 27 spezifiziert, und ein Bildverarbeitungsmenüelement wird im Verarbeitungsmenübereich 43 unter Verwendung der Maus 27 ausgewählt. Der Verarbeitungsmenübereich 43 enthält ausführbare Bildverarbeitungselemente, welche Elemente zur Einstellung von ,CONTRAST' (Kontrast), ,BRIGHTNESS' (Helligkeit), ,SHARPNESS' (Schärfe) und ,SATURATION' (Sättigung) umfassen, wobei jedes mit Pfeilen zum Spezifizieren eines Einstellungsgrads versehen ist. Zum Beispiel spezifiziert Anklicken eines Aufwärtspfeils des ,CONTRAST'-Einstellungselements mit der Maus 27 eine Bildverarbeitung zur Steigerung des Kontrasts, und Anklicken eines Abwärtspfeils davon spezifiziert eine Bildverarbeitung zur Verringerung des Kontrasts.
  • Für jede spezifizierte Bildregion kann eine Mehrzahl von Bildverarbeitungselementen ausgewählt werden. Wenn das Element ,LIST DISPLAY/EDIT' (Listenanzeige/Editieren) im Verarbeitungsmenübereich 43 angeklickt wird, wird Information über ein ausgewähltes Bildverarbeitungselement abgebildet, wie in einer in 9 veranschaulichten Regionenreferenztabelle dargestellt, d. h. es werden ein Koordinatenpunkt der oberen linken Ecke und ein Koordinatenpunkt der unteren rechten Ecke jeder spezifizierten Region, eine spezifizierte Bildverarbeitungsart und eine spezifizierte Einstellstufe angezeigt. Ein Stufenwert zeigt einen Bildverarbeitungseinstellungsgrad an, welcher durch Anklicken eines Aufwärts/Abwärtspfeils jedes Bildverarbeitungselements im Verarbeitungsmenübereich 43 so oft als nötig gesteigert/verringert werden kann. Ein Verarbeitungsart-Code zeigt eine bestimmte Art von Bildverarbeitung folgendermaßen an: In dem Beispiel, das in 9 dargestellt ist, ist das CONTRAST-Einstellungselement als ,1' angegeben, das BRIGHTNESS-Einstellungselement ist als ,2' angegeben, das SHARPNESS-Einstellungselement ist als ,3' angegeben und das SATURATION-Einstellungselement ist als ,4' angegeben. Die Bildverarbeitungsarten und Einstellstufen werden zusammen mit der Beschreibung von Bildverarbeitungsbedingungen ausführlicher beschrieben. Zum Entfernen eines Bildverarbeitungselements aus der Regionenreferenztabelle brauchen nur das Bildverarbeitungselement durch Anklicken mit der Maus hervorgehoben und eine DELETE-Taste (Löschen) auf der Tastatur 23 gedrückt werden. Außerdem können die Inhalte der Regionenreferenztabelle auf andere Arten und Weisen, welche jenen in gewöhnlicher Anwendungssoftware ähneln, editiert werden.
  • In der vorliegenden bevorzugten Ausführungsform kann, da die Bildverarbeitungsanwendung 21d auf einer Anwendungsebene des Betriebssystems 21a ausgeführt wird, ein zu verarbeitendes Bild im Fenster 40 dargestellt werden, und es kann eine Region von Interesse darin spezifiziert werden. In einem Falle jedoch, in dem dieselbe Bildverarbeitungsfunktionalität auf einer Treiberebene des Betriebssystems 21a realisiert wird, z. B. im Druckertreiber 21b, kann ein zu verarbeitendes Bild nicht in einem Fenster abgebildet werden.
  • 10 stellt ein Beispiel dar, in welchem ein Bildverarbeitungsobjekt ungeachtet dessen, ob eine Fensteranzeige bereitgestellt wird oder nicht, spezifiziert wird. Wenn der Druckertreiber 21b aktiviert wird, ist ein Fenster 50 als eine Option auswählbar. Während in den Beispielen, die in 7 bis 9 dargestellt sind, ein zu verarbeitender Bildteil spezifiziert wird, werden in diesem Beispiel zu verarbeitende Pixel durch Spezifizieren der Bildfarbart ausgewählt. Im Folgenden wird die in der Erfindung verwendete Farbart beschrieben.
  • Als ein Beispiel für die Darstellung in Farbart wird im Folgenden eine „x-y"-Farbartberechnung durchgeführt. In der Annahme, dass die RGB-Gradationsdaten, welche im RGB-Farbschema zu verarbeitende Pixel enthalten, (R, G, B) sind, werden die folgenden Ausdrücke vorgegeben: r = R/(R + G + B) (1) g = G/(R + G + B) (2)
  • Dann wird im XYZ-Farbschema die folgende Korrespondenzbeziehung zwischen den Farbartkoordinaten „x" und „y" festgelegt. x = (1,1302 + 1,6387 r + 0,6215 g)/(6,7846 – 3,0157 r – 0,3857 g) (3) y = (0,0601 + 0,9399 r + 4,5306 g)/(6,7846 – 3,0157 r – 0,3857 g) (4)
  • Da ein Farbartwert in der psychophysikalischen Farbspezifikation ein absolutes Verhältnis darstellt, welche nicht von der Helligkeit abhängt, ist es möglich, ein Objekt zu identifizieren, zu welchem die Pixel von Interesse gemäß der Farbart davon gehören.
  • Zum Beispiel ist es bei einem Objektbild einer Person notwendig, Pixel in einem Fleischfarbteil zu extrahieren.
  • Ein Farbartwert von Fleischfarbe liegt in einem Bereich, der im Folgenden ausgedrückt wird. 0,35 < x < 0,40 (5) 0,33 < y < 0,36 (6)
  • Infolgedessen kann, wenn ein bestimmter Farbartwert jedes Pixels innerhalb des zuvor angegebenen Bereichs liegt, angenommen werden, dass das Pixel von Interesse in den meisten Fällen einem Punkt der Haut des Bildes einer Person entspricht. Auf ähnliche Weise ist im Hinblick auf solche Objektbilder, wie blauen Himmel und grüne Blätter von Bäumen, die Farbart auch in der Beurteilung anwendbar.
  • Ungeachtet der Helligkeit können Pixel von blauem Himmel und grünen Blättern von Bäumen ungefähr identifiziert werden. 11 stellt ein Verteilungsverhältnis der „x-y"-Farbart dar, wobei anwendbare rechteckige Regionen angezeigt sind, welche Fleischfarbe, himmelblauer Farbe und der grünen Farbe von Blättern entsprechen. Wie in 10 dargestellt, kann solch eine Anordnung bereitgestellt werden, dass ein Bereichswert der „x-y"-Farbartverteilung direkt für eine individuelle Definition spezifiziert werden kann.
  • 12 stellt eine Technik zur Spezifizierung eines Mittelpunkts bei der Bestimmung jeder anwendbaren Region dar.
  • Im Falle von Fleischfarbe wird ein Mittelpunkt seiner anwendbaren Region so gefunden, wie im Folgenden unter Verwendung von Gleichung (5) und (6) ausgedrückt. X = 0,375 (7) Y = 0,345 (8)
  • Dann wird in Bezug auf diesen Mittelpunkt geprüft, ob ein Farbartwert innerhalb eines Bereichs eines vorgegebenen Radius liegt oder nicht. Wenn diese Bedingung erfüllt wird, wird geurteilt, dass jedes Pixel von Interesse zu einer bestimmten anwendbaren Region gehört.
  • In dem Fenster 50, welches unter Verwendung einer wahlweisen Funktion des Druckertreibers 21b auswählbar ist, sind Einstellungselemente vorgesehen, die praktische Beispiele anzeigen, welche vordefinierten Farbartbereichen entsprechen, die für ein Objekt zu spezifizieren sind, so dass ein menschlicher Bediener eine Farbe für blauen Himmel oder grüne Blätter von Bäumen leicht nach Wunsch einstellen kann. Außerdem sind Pfeilschaltflächen vorgesehen, welche zum Steigern oder Verringern der Farbart von Pixeln von Interesse verwendet werden.
  • In dem Beispiel, das in 10 dargestellt ist, wird ein Bereich von Pixeln mit Farbart spezifiziert, und es wird bestimmt, ob die Farbart bei der Bildverarbeitung zu verstärken ist oder nicht. Es ist jedoch nicht immer notwendig, die farbartbasierte Pixelauswahl mit der durchzuführenden Bildverarbeitung in Einklang stehen zu lassen. Zum Beispiel ist es bei der Bildverarbeitung möglich, die Helligkeit von Fleischfarbpixeln oder den Kontrast von Pixeln grüner Farbe zu steigern. Die Farbart wird nämlich nur als ein Index verwendet, der anzeigt, ob Pixel von Interesse zu verarbeiten sind oder nicht. In diesem Beispiel wird die Farbart nur zum Zweck der Pixelauswahl bei der Bildverarbeitung verwendet.
  • Wie bereits erwähnt, umfasst der Schritt S100, bei dem ein anwendbares Objekt für jede Bildverarbeitung spezifiziert wird, die Einheit zum Spezifizieren einer Korrespondenzbeziehung. Es versteht sich jedoch von selbst, dass der Schritt S100 nicht auf diese Funktion beschränkt ist, sondern modifiziert werden kann, um je nach Bedarf die Einheit zum Spezifizieren eines Bildteils oder eines Farbartwerts bereitzustellen. Es kann auch solch eine Anordnung bereitgestellt werden, dass andere Faktoren, welche Helligkeit und Schärfe umfassen, spezifiziert werden. Wie in 9 dargestellt, wird die Regionenreferenztabelle zum Anzeigen einer spezifizierten Region und Speichern ihrer Bildverarbeitung in einer Korrespondenzbeziehung in der vorliegenden bevorzugten Ausführungsform in einem Speicherbereich des Computersystems gespeichert. Für Fachleute ist zu erkennen, dass die Regionenreferenztabelle verwendet wird, um die Einheit zum Speichern einer Korrespondenzbeziehung zusammen mit einer (später zu beschreibenden) Farbumwandlungstabelle zur Bildverarbeitung bereitzustellen.
  • Bei Schritt S110 und den darauf folgenden Schritten wird jedes Objektpixel bewegt, und es wird beurteilt, ob jedes Objektpixel für eine spezifizierte Bildverarbeitungsoperation anwendbar ist, wie zuvor erwähnt. Zur Überprüfung, ob jedes Objektpixel einer Bildverarbeitung zu unterziehen ist oder nicht, wird die in 9 dargestellte Regionenreferenztabelle verwendet. Eine Koordinatenstelle jedes Objektpixels wird mit den Koordinaten der oberen linken Ecke und der unteren rechten Ecke verglichen, welche in jedem Feld der Regionenreferenztabelle angegeben sind. Wenn die Koordinatenstelle jedes Objektpixels mit einem Koordinatenwert, der in irgendeinem Feld angegeben ist, übereinstimmt, wird geurteilt, dass das Objektpixel von Interesse zur Bildverarbeitung anwendbar ist. Wenn sie mit keinem Koordinatenwert, der in irgendeinem Feld angegeben ist, übereinstimmt, wird geurteilt, dass das Objektpixel von Interesse nicht zur Bildverarbeitung anwendbar ist. Falls die Farbart zur Beurteilung verwendet wird, wie in 190 dargestellt, wird die Objektpixelfarbart unter Verwendung der Gleichungen (1) bis (4) berechnet, und es wird beurteilt, ob ein berechneter Wert innerhalb eines Farbartbereichs liegt, der unter Verwendung einer wahlfreien Funktion des Druckertreibers 21b ausgewählt wurde.
  • Ob ein Objekt zur Bildverarbeitung anwendbar ist oder nicht, wird gemäß einem Bildteil oder der Farbart beurteilt, wie bereits erwähnt. Wenn jedoch eine Alternativwahlbeurteilung erfolgt, um festzustellen, ob ein bestimmter Bereich eingehalten wird oder nicht, besteht die Tendenz, dass jegliche visuelle graduelle Differenz in einer benachbarten Region auftritt. Wenn zum Beispiel die Helligkeit einer bestimmten rechteckigen Region gesteigert wird, während die Helligkeit eines Teils unmittelbar außerhalb davon nicht gesteigert wird, tritt eine graduelle Helligkeitsdifferenz auf einer Grenze dazwischen auf und führt dazu, dass die rechteckige Region wahrnehmbar klar ist.
  • Um diese ungünstige Wirkung zu verhindern, verwendet die vorliegende bevorzugte Ausführungsform einen Parameter der Bildverarbeitungsanwendbarkeit k. Unter Bezugnahme auf 13 wird, wenn bei Schritt S111 geurteilt wird, dass ein Objekt zu einer spezifizierten Region gehört, die Anwendbarkeit k bei Schritt S112 auf ,1' gesetzt. Für eine Übergangsregion an einem Umfang der spezifizierten Region wird die Anwendbarkeit k in einem Bereich von ,0' bis ,1' geändert. Insbesondere, wenn bei Schritt S113 geurteilt wird, dass das Objekt innerhalb der Übergangsregion liegt, wird die Anwendbarkeit k bei Schritt S114 zu ,1' hin eingestellt, falls das Objekt nahe der spezifizierten Region liegt, oder sie wird zu ,0' hin eingestellt, falls das Objekt von der spezifizierten Region entfernt ist. Wenn geurteilt wird, dass das Objekt weder zur spezifizierten Region noch zu Übergangsregion gehört, wird die Anwendbarkeit bei Schritt 115 auf ,0' gesetzt. Obwohl ein Farbartmittelpunkt spezifiziert wird, wie in 12 veranschaulicht ist, kann solch eine Anordnung bereitgestellt werden, wie in 14 dargestellt. Unter Bezugnahme auf 14 wird die Anwendbarkeit k für ein Bildverarbeitungsobjekt, das dem Radius ,r0' entspricht, auf ,1' gesetzt, und unter der Bedingung, dass eine Übergangsregion in einem Radiusbe reich von ,r0' bis ,r1' bereitgestellt wird, wird die Anwendbarkeit k in einer Umfangsregion stufenweise zu ,0' hin eingestellt.
  • Bei Schritt S110 wird eine anwendbare Korrespondenzbeziehung beurteilt, und bei Schritt S111 bis S115 wird die Anwendbarkeit k bestimmt, wie bereits erwähnt. Gemäß der vorliegenden bevorzugten Ausführungsform wird die Einheit zur Beurteilung einer Korrespondenzbeziehung unter Verwendung von Softwareverarbeitung, die solche Verfahrensschritte wie die zuvor erwähnten Schritte S110 bis S115 umfasst, und von Hardware zur Realisierung davon bereitgestellt. Obwohl die Anwendbarkeit k in der vorliegenden bevorzugten Ausführungsform als ein Ergebnis der Beurteilung in jeder Bildverarbeitung bestimmt wird, ist für die Fachleute zu erkennen, dass eine Alternativwahlbeurteilung in der Anwendung ebenso durchführbar ist.
  • Bei Schritt S120 erfolgt eine Bildverarbeitung für jedes Objektpixel gemäß der Anwendbarkeit k. Im Folgenden werden spezifischere Bildverarbeitungsbedingungen bei der Umsetzung der vorliegenden Erfindung beschrieben.
  • Der Kontrast zeigt eine Leuchtdichtebreite in einem ganzen Bild an, und in den meisten Fällen von Kontrasteinstellung wird gewünscht, eine Kontrastbreite zu steigern. Unter Bezugnahme auf 15 ist ein Histogramm der statistischen Leuchtdichteverteilung eines bestimmten Bildes dargestellt.
  • Im Falle einer Kurve mit durchgehender Linie von enger Verteilung ist die Differenz in der Leuchtdichte zwischen hellen und dunklen Pixeln verhältnismäßig klein. Im Falle einer Kurve mit gestrichelter Linie von weiter Verteilung ist die Differenz in der Leuchtdichte zwischen hellen und dunklen Pixeln verhältnismäßig groß, was bedeutet, dass eine Kontrastbreite gesteigert wird. Unter Bezugnahme auf 17 ist ein Graph dargestellt, welcher eine Leuchtdich teumwandlungsoperation zur Verstärkung des Kontrasts anzeigt. In der Annahme, dass die folgende Gleichung für eine Beziehung zwischen der nicht umgewandelten Originalleuchtdichte y und der umgewandelten Leuchtdichte Y gilt, ist Y = ay + b (9)
  • Durch Umwandlung unter der Bedingung „a > 1" wird eine Differenz zwischen einem Maximalwert der Leuchtdichte ,ymax' und einem Minimalwert der Leuchtdichte ,ymin' vergrößert, was zur einer weiten Leuchtdichteverteilung führt, wie in 15 dargestellt. In diesem Fall ist es vorzuziehen, eine Steilheit ,a' und eine Versetzung ,b' gemäß der Leuchtdichteverteilung zu bestimmen. Zum Beispiel werden die folgenden Gleichungen vorgegeben: a = 255/(ymax – ymin) (10) b = – a·ymin oder 255 – a·ymax (11)
  • Unter den zuvor angegebenen Bedingungen kann eine bestimmte enge Leuchtdichteverteilung bis zu einem reproduzierbaren Ausmaß ausgedehnt werden. Wenn sie jedoch bis zu einem äußersten Ende eines reproduzierbaren Bereichs ausgedehnt wird, können Hervorhebungen bis ins Weiße ausgelöscht werden, und Schatten können sich bis ins Schwarze aufstauen. Um dies zu verhindern, wird ein nicht ausdehnbarer Rand, der einem Leuchtdichtewert von ungefähr ,5' entspricht, an jeder der oberen und unteren Grenzen des reproduzierbaren Bereichs bereitgestellt. Daraus resultierend werden Umwandlungsparameter folgendermaßen ausgedrückt: a = 245/(ymax – ymin) (12) b = 5 – a·ymin oder 250 – a·ymax (13)
  • In diesem Fall wird in Bereichen, in welchen „y < 5" und „y > 250" ist, keine Umwandlung durchgeführt.
  • Bei der Bilddatenumwandlung ist es nicht notwendig, jedes Mal eine Berechnung durchzuführen. Wenn ein Leuchtdichtewertbereich ,0' bis ,255' ist, wird ein Umwandlungsergebnis für jeden Leuchtdichtewert vorgegeben, und es wird eine Umwandlungstabelle erstellt, wie in 16 dargestellt. In diesem Fall ist die Umwandlungstabelle nur für die Leuchtdichte verwendbar. In einem Fall, in dem Bilddaten direkte Leuchtdichteelemente enthalten, kann die Umwandlungstabelle verwendet werden. Dagegen kann die Umwandlungstabelle in einem Fall, in dem die Bilddaten nur indirekte Leuchtdichteelemente enthalten, nicht verwendet werden. In den meisten Computersystemen werden rote, grüne und blaue Elemente von Bilddaten in Gradation von Helligkeit angegeben, d. h. es werden Farbgradationsdaten (R, G, B) verwendet. Da solche Gradationsdaten (R, G, B) keine direkten Leuchtdichtewerte bereitstellen, ist es notwendig, eine Umwandlung in ein Luv-Farbraumschema durchzuführen, um die Leuchtdichte zu bestimmten. Dieses Verfahren ist jedoch unvorteilhaft, da ein großer Berechnungsumfang erforderlich ist. Daher wird der folgende Umwandlungsausdruck verwendet, welcher üblicherweise in der Fernsehsignalverarbeitung zum direkten Bestimmen der Leuchtdichte aus RGB-Daten angewendet wird: y = 0,30 R + 0,59 G + 0,11 B (14)
  • Auf einem Prinzip, dass eine lineare Umwandlung zwischen den Gradationsdaten und der Leuchtdichte y durchgeführt werden kann, wie zuvor angegeben, ist die Gleichung (9) auf eine Beziehung zwischen nicht umgewandelten Originalgradationsdaten (R0, G0, B0) und umgewandelten Gradationsdaten (R1, G1, B1) anwendbar. Danach werden folgende Ausdrücke vorgegeben: R1 = aR0 + b (15) G1 = aG0 + b (16) B1 = aB0 + b (17)
  • Folglich ist die Umwandlungstabelle, die in 16 dargestellt ist, auf die Gradationsdatenumwandlung anwendbar.
  • Im Folgenden wird eine Datenverarbeitungstechnik zur Einstellung der Helligkeit beschrieben. Wie bei dem zuvor erwähnten Fall der Kontrasteinstellung wird ein Histogramm der Helligkeitsverteilung angenommen. Unter Bezugnahme auf 18 zeigt eine Kurve mit durchgehender Linie eine Leuchtdichteverteilung, welche ihre Spitze so aufweist, dass sie zu einem dunklen Niveau geneigt ist. In diesem Fall wird die ganze Verteilungsspitze zur hellen Seite verschoben, wie durch eine Kurve mit gestrichelter Linie angezeigt. Unter Bezugnahme auf 19 zeigt eine Kurve mit durchgehender Linie eine Leuchtdichteverteilung an, welche ihre Spitze so aufweist, dass sie zu einer hellen Seite geneigt ist. In diesem Fall wird die ganze Verteilungsspitze zur dunklen Seite verschoben, wie durch die gestrichelte Linie angezeigt. In diesen Fällen erfolgt keine lineare Leuchtdichteumwandlung, wie in 17 dargestellt, aber es erfolgt eine γ-Kurven-Leuchtdichteumwandlung, wie in 20 dargestellt.
  • Bei der γ-Kurvenkorrektur wird die gesamte Helligkeit gesteigert, wenn „γ < 1", und sie wird verringert, wenn „γ > 1". Ein Grad dieser Korrektur kann bei Schritt S100 durch Anklicken eines Aufwärtspfeils oder Abwärtspfeils des BRIGHTNESS-Einstellungselements im Verarbeitungsmenübereich 43, der in 7 dargestellt ist, so oft als nötig stufenweise eingestellt werden.
  • Wie bei der Kontrasteinstellung ist es auch hier möglich, einen Wert von γ automatisch festzulegen. Als ein Ergebnis unserer zahlreichen Versuche stellte sich heraus, dass die folgende Annäherung vorteilhaft ist: Bei einer Leuchtdichteverteilung wird ein Medianwert ,ymed' vorgegeben. Wenn er kleiner als ,85' ist, wird geurteilt, dass ein Bild von Interesse zu dunkel ist, und es erfolgt eine γ-Korrektur gemäß einem γ-Wert, der im Folgenden angegeben wird. γ = ymed/85 (18)oder γ = (ymed/85)**(1/2) (19)
  • Es ist jedoch zu erwähnen, dass selbst wenn „γ < 0,7" ist, ein Wert von γ zwangsläufig auf 0,7 gesetzt wird. Wenn diese Art von Grenze nicht bereitgestellt wird, erscheint das Bild einer Nachtszene als wäre es bei Tag. Wenn ein Bild übermäßig aufgehellt wird, wird es zur Gänze weißlich, was zu einem geringen Kontrast führt. In diesem Fall ist es vorzuziehen, solche eine Verarbeitungsoperation als Sättigungsverstärkung in Kombination durchzuführen.
  • Wenn der Medianwert ,ymed' größer als ,128' ist, wird geurteilt, dass ein Bild zu hell ist, und es erfolgt eine γ-Korrektur gemäß einem γ-Wert, der im Folgenden angegeben wird. γ = γmed/128 (20)oder γ = (γmed/128)**(1/2) (21)
  • In diesem Fall wird ebenfalls eine Grenze bereitgestellt, so dass der Wert von γ zwangsläufig auf 1,3 gesetzt wird, selbst wenn „γ > 1,3", um zu verhindern, dass das Bild von Interesse zu dunkel wird.
  • Für diese γ-Korrektur wird vorzugsweise solche eine Umwandlungstabelle bereitgestellt, wie in 16 dargestellt.
  • Bei der Randverstärkungsverarbeitung zur Einstellung der Schärfe eines Bildes in Bezug auf die nicht verstärkte Originalleuchtdichte Y jedes Pixels wird die verstärkte Leuchtdichte Y' so berechnet, wie im Folgenden ausgedrückt. Y' = Y + Eenhance·(Y – Yunsharp) (22)wobei ,Eenhance' einen Randverstärkungsgrad anzeigt und ,Yunsharp' eine Verarbeitung mit unscharfer Maske für jedes Pixel von Bilddaten anzeigt. Im Folgenden wird die Verarbeitung mit der unscharfen Maske beschrieben: Unter Bezugnahme auf 21 ist ein Beispiel für eine unscharfe Maske 60 mit 5 × 5 Pixeln dargestellt. Die unscharfe Maske 60 wird bei Summierung derart verwendet, dass ein Mittelwert von ,100' als eine Wertigkeit einem Verarbeitungsobjektpixel ,Y(x, y)' in den Punktmatrixbilddaten zugeordnet wird und eine Wertigkeit, die einem Wert in jedem Datenfeldkästchen der unscharfen Maske 60 entspricht, jedem Umfangspixel davon zugeordnet wird. Bei Verwendung der unscharfen Maske 60 erfolgt die Summierung basierend auf dem folgenden Ausdruck: Yunsharp (x, y) = (1/396)Σ(Mij X Y (x + i, y + j)) (23)
  • In der Gleichung (23) zeigt ,396' einen Gesamtwert von Bewertungsfaktoren an. Für eine unscharfe Maske mit einer anderen Größe wird eine Summe von Werten in Datenfeldkästchen davon angegeben. ,Mij' stellt einen Bewertungsfaktor dar, der in jedem Datenfeldkästchen einer unscharfen Maske angegeben ist, und ,Y(x, y)' stellt jedes Pixel von Bilddaten dar. In der unscharfen Maske 60 zeigen ,i' und ,j' Koordinaten auf horizontalen und vertikalen Achsen davon an.
  • Die Randverstärkungsberechnung, die auf der Gleichung (22) basiert, stellt die folgende Funktionsbedeutung bereit: ,Yunsharp(x, y)' ist das Ergebnis einer Addition, bei welcher eine Wertigkeit, die jedem Umfangspixel zugeordnet wird, in Bezug auf ein Pixel von Interesse herabgesetzt wird, und demgemäß wird ein Bild durch Verarbeitung unscharf gemacht. Solche eine Operation des Unscharfmachens entspricht funktionell einer Tiefpassfilterung. Daher bedeutet „Y(x, y) – Yunsharp(x, y)", dass eine niederfrequente Komponente von jeder Originalkomponente subtrahiert wird, d. h. dies entspricht funktionell einer Hochpassfilterung. Wenn eine hochfrequente Komponente, welche einer Hochpassfilterung unterzogen wird, mit einem Randverstärkungsgrad ,Eenhance' multipliziert wird und ein Ergebniswert dieser Multiplikation zu „Y(x, y)" addiert wird, bedeutet dies, dass eine hochfrequente Komponente in Proportion zum Randverstärkungsgrad ,Eenhance' vergrößert wird. Auf diese Weise wird eine Randverstärkung erreicht.
  • Da die Randverstärkung nur für einen Randteil eines Bildes erforderlich ist, ist es möglich, den Verarbeitungsumfang wesentlich zu reduzieren, indem nur dann ausgeführt wird, wenn eine große Differenz zwischen benachbarten Pixeln von Bilddaten besteht.
  • In diesem Fall kann der Randverstärkungsgrad ,Eenhance' bei Schritt S100 durch Anklicken eines Aufwärtspfeils oder eines Abwärtspfeils des SHARPNESS-Einstellungselements im Verarbeitungsmenübereich 43, das in 7 dargestellt ist, so oft als nötig eingestellt werden. Darüber hinaus ist es möglich, den Randverstärkungsgrad ,Eenhance' auch automatisch festzulegen.
  • An einem Randteil eines Bildes vergrößert sich die Differenz der Gradationsdaten zwischen benachbarten Pixeln.
  • Diese Differenz stellt einen Leuchtdichtegradienten dar, der als ein Randausbildungsgrad bezeichnet wird. In einem Bild kann ein Leuchtdichteschwankungsgrad durch Bestimmen jeder von horizontal gerichteten und vertikal gerichteten Vektorkomponenten berechnet werden. Obwohl ein Objektpixel in einem Bild, das Punktmatrixpixel enthält, gegenüber acht Pixeln benachbart ist, wird ein Schwankungsgrad nur in Bezug auf benachbarte Pixel in horizontalen und vertikalen Richtungen bestimmt, um die Berechnung zu vereinfachen. Die Summierung wird an Längenwerten von jeweiligen Vektoren durchgeführt, um einen Randausbildungsgrad ,g' für das Objektpixel von Interesse darzustellen, und ein Randausbildungsgradsummenwert wird durch die Anzahl von Pixeln dividiert, um einen Durchschnittswert zu erhalten. In der Annahme, dass die Anzahl von Pixeln als ,E(I)pix' angegeben ist, kann ein Schärfegrad ,SL' eines Objektbildes so berechnet werden, wie im Folgenden ausgedrückt. SL = Σ|g|/E(I)pix (24)
  • In diesem Fall nimmt der Schärfegrad bei einem abnehmenden Wert von ,SL' ab (Verwischen). Bei einem zunehmenden Wert von ,SL' nimmt der Schärfegrad zu (scharfes Bild).
  • Da die Schärfe eines Bildes von einer visuellen Wahrnehmung einer einzelnen Person abhängt, wird ein Schärfegrad ,SL' auf ähnliche Weise unter Verwendung von Bilddaten bestimmt, die eine optimale Schärfe aufweisen, welche experimentell erreicht wurde. Ein Wert, der auf diese Weise bestimmt wurde, wird als eine Idealstufe von Schärfe ,SLopt' eingestellt, und ein Randverstärkungsgrad ,Eenhance' wird so bestimmt, wie im Folgenden ausgedrückt. Eenhance = ks·(SLopt – SL)**(1/2) (25)wobei der Koeffizient ,ks' mit einer Bildgröße variiert.
  • Falls die Bilddaten ,height'-Punkte (Höhe) und ,width'-Punkte (Breite) in vertikalen beziehungsweise horizontalen Richtungen enthalten, kann der Koeffizient ,ks' so bestimmt werden, wie im Folgenden angegeben. ks = min (height, width)/A (26)wobei ,min (height, width)' die Anzahl von ,height'-Punkten oder die Anzahl von ,width'-Punkten, welche auch immer kleiner sein mögen, anzeigt, und ,A' ein konstanter Wert von ,768' ist.
  • Es versteht sich von selbst, dass der zuvor angegebene Wert aus Versuchsergebnissen erhalten wurde und nach Bedarf geändert werden kann. Grundsätzlich empfiehlt es sich, bei zunehmender Bildgröße den Randverstärkungsgrad zu erhöhen.
  • Auf die zuvor erwähnte Weise kann eine Randverstärkungsverarbeitung bei manueller oder automatischer Einstellung erfolgen.
  • Im Folgenden wird eine Bildverarbeitungstechnik zur Einstellung der Sättigung beschrieben. Im Falle der Sättigungseinstellung unter Verwendung eines Sättigungsverstärkungsparameters ,Sratio' kann der Parameter für solche Bilddaten, welche Sättigungsparameter aufweisen, nach Bedarf geändert werden. Zum Erreichen eines Sättigungswerts aus Gradationsdaten, welche nur RGB-Komponentenwerte enthalten, ist es in erster Linie notwendig, eine Umwandlung in ein Farbraumschema durchzuführen, in dem Sättigungswerte als direkte Komponentenwerte verwendet werden. Bei dieser Verarbeitung jedoch werden RGB-Bilddaten in Luv-Raumbilddaten umgewandelt, und nach der Sättigungsverstärkung werden sie dann wieder in RGB-Bilddaten zurück umgewandelt, was zu einer Zunahme des Berechnungsumfangs führt. Daher werden die RGB-Gradationsdaten direkt einer Sättigungsverstärkung unterzogen.
  • Im RGB-Farbraumschema, in dem Komponenten durch Farbtonkomponentenwerte mit ungefähr gleichwertigen Beziehungen dargestellt werden, bedeutet die Bedingung „R = G = B" Grau ohne Sättigung. Es wird daher angenommen, dass ein Minimalwert jeder Komponente nur eine Abnahme in der Sättigung anzeigt, ohne den Farbton jedes Pixels zu beeinflussen.
  • Basierend auf diesem Prinzip kann die Sättigung durch Subtrahieren eines Minimalwerts jeder Komponente von allen Komponentenwerten und Erhöhen eines resultierenden Subtraktionsdifferenzwertes verstärkt werden.
  • Wenn ein Komponentenwert von Blau (B) in den Gradationsdaten, welche rote, grüne und blaue Komponenten (R, G, B) enthalten, minimal ist, erfolgt die Umwandlung so, wie im Folgenden dargestellt, wobei der Sättigungsverstärkungsparameter ,Sratio' verwendet wird. R' = B + (R – B) X Sratio (27) G' = B + (G – B) X Sratio (28) B' = B (29)
  • Auf diese Weise kann, da keine Notwendigkeit zur Durchführung einer Umwandlung und Rückumwandlung zwischen dem RGB-Farbraumschema und dem Luv-Raumschema besteht, die zur Verarbeitung erforderliche Zeit wesentlich verkürzt werden.
  • Obwohl die vorliegende bevorzugte Ausführungsform eine Technik des Subtrahierens eines Minimalkomponentenwerts von einem anderen Komponentenwert im Hinblick auf eine nicht gesättigte Komponente verwendet, kann eine andere Umwandlungsgleichung zum Subtrahieren eines Wertes einer nicht gesättigten Komponente verwendet werden. Falls nur ein Minimalwert subtrahiert wird, wie in Gleichung (27) bis (29), ist der Verarbeitungsumfang verhältnismäßig gering, da keine Multiplikation oder Division damit verbunden ist.
  • Bei der Sättigungseinstellung unter Verwendung der Gleichungen (27) bis (29) kann eine zufrieden stellende Umwandlung durchgeführt werden, aber es besteht eine Tendenz dazu, dass ein Bild infolge einer Zunahme in der Leuchtdichte bei Verstärkung der Sättigung insgesamt heller wird.
  • Daher wird eine Umwandlung für einen Differenzwert durchgeführt, der durch Subtrahieren eines Wertes, welcher der Leuchtdichte entspricht, von jedem Komponentenwert erhalten wurde. In der Annahme, dass die Sättigungsverstärkung so ausgedrückt wird, wie im Folgenden dargestellt, R' = R + ΔR (30) G' = G + ΔG (31) B' = B + ΔB (32)kann jeder der zuvor angegebenen Operanden ΔR, ΔG und ΔB gemäß einem Differenzwert in Bezug auf die Leuchtdichte bestimmt werden, wie im Folgenden dargestellt. ΔR = (R – Y) X Sratio (33) ΔG = (G – Y) X Sratio (34) ΔB = (B – Y) X Sratio (35)
  • Infolgedessen kann eine Umwandlung so ausgeführt werden, wie im Folgenden dargestellt. R' = R + (R – Y) X Sratio (36) G' = G + (G – Y) X Sratio (37) B' = B + (B – Y) X Sratio (38)
  • Im Hinblick auf die Beibehaltung der Leuchtdichte (engl. luminance) sind folgende Gleichungen anwendbar: Y' = Y + ΔY (39) ΔY = 0,30 ΔR + 0,59 ΔG + 1,11 ΔB = Sratio ((0,30R + 0,59 G + 0,11 B) – Y) = 0 (40)
  • Im Falle einer Eingabe von Grau (R = G = B) wird eine Bedingung „luminance Y = R = G = B" festgelegt, was zu einer Bedingung „operand ΔR = ΔG = ΔB = 0" führt. Auf diese Weise wird im Falle von Nichtsättigung keine Farbe vorgegeben. Bei Verwendung von Gleichung (36) bis (38) kann die Leuchtdichte beibehalten werden, und ein Bild wird selbst bei Verstärkung der Sättigung insgesamt nicht heller.
  • In diesem Fall kann der Sättigungsverstärkungsparameter ,Sratio' bei Schritt S100 durch Anklicken eines Aufwärtspfeils oder eines Abwärtspfeils des SATURATION-Einstellungselements im Verarbeitungsmenübereich 43, der in 7 dargestellt ist, so oft als nötig eingestellt werden.
  • Darüber hinaus ist es möglich, den Sättigungsverstärkungsparameter ,Sratio' automatisch festzulegen.
  • Ein Pixelsättigungswert kann auf eine vereinfachte Weise bestimmt werden. Zu diesem Zweck wird ein Substitutionswert ,X' von Sättigung so berechnet, wie im Folgenden dargestellt. X = |G + B – 2 X R| (41)
  • Im Wesentlichen wird ein Sättigungswert unter der Bedingung „R = G = B" ,0', und er wird maximal, wenn eine einzige Farbe von Rot, Grün und Blau festgelegt wird oder zwei Farben davon in einem vorgegebenen Verhältnis gemischt werden. Basierend auf dieser Eigenschaft ist es möglich, einen Sättigungswert direkt darzustellen. Außerdem wird bei Verwenden der einfachen Gleichung (41) ein maximaler Sättigungswert für eine einzige Farbe von Rot oder eine Mischfarbe von Cyan, die durch Mischen von Grün und Blau erzeugt wird, bereitgestellt, und ein Sättigungswert wird als ,0' angegeben, wenn jede Komponente gleichmäßig ist. Für eine einzige Farbe von Grün oder Blau wird ungefähr eine halbe Maximalstufe bereitgestellt. Es ist offensichtlich, dass Substitution in die folgenden Gleichungen ebenfalls möglich ist. X' = |R + B – 2 X G| (42) X'' = |G + R – 2 X B| (43)
  • In einer Histogrammverteilung im Hinblick auf den Substitutionswert ,X' von Sättigung werden die Sättigungsstufen in einem Bereich von minimal ,0' bis maximal ,511' verteilt, wie in 22 schematisch dargestellt. Dann wird gemäß der statistischen Sättigungsverteilung, die in 22 dargestellt ist, ein Sättigungsindex ,S' eines Bildes von Interesse bestimmt. In der Sättigungsverteilung wird ein Bereich von oberen ,16%' definiert, und es wird ein minimaler Sättigungswert ,A' in dem definierten Bereich herangezogen, um die Sättigung des Bildes von Interesse darzustellen.
  • Wenn A < 92, dann S = –A X (10/92) + 50 (44)
  • Wenn 92 ≤ 184, dann S = –A X (10/46) + 60 (45)
  • Wenn 184 ≤ 230, dann S = –A X (10/23) + 100 (46)
  • Wenn 230 ≤ A, dann S = 0 (47)
  • Auf diese Weise wird der Sättigungsindex ,S' bestimmt.
  • Unter Bezugnahme auf 23 ist deine Beziehung zwischen der minimalen Sättigung ,A' und dem Sättigungsindex ,S' dargestellt. Wie in dieser Figur dargestellt, nimmt der Sättigungsindex ,S' bei abnehmender Sättigung ,A' in einem Bereich von maximal ,50' bis minimal ,0' zu, und er nimmt bei zunehmender Sättigung ,A' ab. Zur Umwandlung vom Sättigungsindex ,S' in den Sättigungsverstärkungsparameter ,Sratio' ist die folgende Gleichung anwendbar: Sratio = (S + 100)/100 (48)
  • In diesem Fall wird, wenn der Sättigungsindex ,S' ,0' ist, der Sättigungsverstärkungsparameter ,Sratio' ,1', um keine Sättigungsverstärkung zu ermöglichen.
  • Im Folgenden wird eine Technik zum Verstärken der Farbart beschrieben, während ein Bereich von Pixeln gemäß der Farbart spezifiziert wird, wie in 10 dargestellt. Im Prinzip wird eine Annäherung zur Steigerung der Leuchtdichte von Pixeln bei der Farbartverstärkung eingesetzt.
  • Daher wird eine γ-Korrektur-Tonkurve verwendet, wie in 20 dargestellt. Gemäß einem Farbartverstärkungsgrad kann ein Wert von γ eingestellt werden, und es ist auch möglich, einen γ-Wert automatisch festzulegen, was später beschrieben wird.
  • In der vorliegenden bevorzugten Ausführungsform werden solche Bildverarbeitungstechniken bereitgestellt, wie zuvor hierin bereits erwähnt. Da eine Korrespondenzbeziehung, die auf einem Objektpixel anwendbar ist, bei Schritt S110 beurteilt wird und die Anwendbarkeit k bei Schritt S111 bis S115 bestimmt wird, erfolgt die Bilddatenumwandlung bei Schritt S120 gemäß dem Beurteilungsergebnis.
  • Wie bereits erwähnt, wird im Verarbeitungsmenübereich 43, der in 7 dargestellt ist, eine Bildverarbeitungsart ausgewählt, und es wird eine Verstärkungsstufe spezifiziert. Daher wird bei Schritt S100 eine Bildverarbeitungsumwandlungstabelle basierend auf jeweiligen Verstärkungsstufen zur Bildverarbeitung erstellt und in einem vorgegebenen Speicherbereich des Computersystems gespeichert. Dann wird bei Schritt S120 auf die Bildverarbeitungsumwandlungstabelle Bezug genommen, um die Umwandlung so auszuführen, wie im Folgenden beschrieben.
  • Unter der Bedingung, dass Komponenten von vorher umgewandelten RGB-Gradationsdaten (Rpre, Gpre, Bpre) sind, Komponenten von nachher umgewandelten RGB-Gradationsdaten, welche durch Bezugnahme auf eine vorgegebene Umwandlungstabelle erhalten werden, (Rpost, Gpost, Bpost) sind und Komponenten von Endbilddaten (Rfin1, Gfin1, Bfin1) sind, wird die Umwandlung so durchgeführt, wie im Folgenden ausgedrückt. Rfin1 = k·Rpost + (1 – k)·Rpre (49) Gfin1 = k·Gpost + (1 – k)·Gpre (50) Bfin1 = k·Bpost + (1 – k)·Bpre (51)
  • Bei Bildverarbeitung basierend auf diesen Gleichungen erfolgt eine stufenweise Zunahme in der Wertigkeitszuordnung in einer Übergangsregion, in welcher die Anwendbarkeit k von ,0' bis ,1' variiert, was zur Beseitigung einer graduellen Differenz führt.
  • Die Gleichungen (49) bis (51) werden der Reihe nach für alle Bildverarbeitungsumwandlungstabellen verwendet, auf welche das Objektpixel anwendbar ist. Wenn die Anwendbarkeit k ,0' ist, ist es nicht notwendig, eine Bilddatenumwandlung durchzuführen. Im Hinblick auf Gleichung (49) bis (51) wird jede von roten, grünen und blauen Komponenten einer Berechnung unterzogen, aber in manchen Fällen können auch nur eine oder zwei dieser Komponenten berechnet werden. Darüber hinaus kann in solch einer Situation, in welcher die Anwendbarkeit k nicht verwendet wird, jede Komponente (Rpost, Gpost, Bpost) von RGB-Gradationsdaten, welche nur durch Ändern einer Art von Umwandlungstabelle erhältlich sind, unverändert verwendet werden.
  • In der vorhergehenden Beschreibung wird ein anwendbares Objekt für jede Bildverarbeitung spezifiziert, d. h. es wird nur eine bestimmte Region hinsichtlich eines ganzen Bildes einer Bildverarbeitung unterzogen. Es ist jedoch möglich, eine zusätzliche Bildverarbeitungsoperation in einer bestimmten Region durchzuführen, während eine bestimmte Bildverarbeitungsoperation im ganzen Bild ausgeführt wird.
  • Unter der Bedingung, dass jede Komponente (Rtotal, Gtotal, Btotal) als ein Ergebnis einer Bildverarbeitungsumwandlung für das ganze Bild erreicht werden kann und jede Komponente (Rpart, Gpart, Bpart) als ein Ergebnis einer Bildverarbeitungsumwandlung für irgendeine bestimmte Region erreicht werden kann, erfolgt eine gewichtete Addition unter Verwen dung der Anwendbarkeit k' ähnlich der Anwendbarkeit, welche im Folgenden dargestellt ist. Rfin1 = k'·Rpart + (1 – k')·Rtotal (52) Gfin1 = k'·Gpart + (1 – k')·Gtotal (53) Bfin1 = k'·Bpart + (1 – k')·Btotal (54)
  • Unter Bezugnahme auf 24 ist ein schematisches Beispiel dargestellt, in welchem ein Bild einer leicht gegenbeleuchteten Person in einer Szene ausgewählt wird, um seine Helligkeit zu verstärken, während die gesamte Farbintensität verstärkt wird. Ein Ergebnis einer Umwandlung in einer Region des ganzen Bildes (Rtotal, Gtotal, Btotal), schraffiert durch nach vorne geneigte Diagonallinien, wird gemäß der Anwendbarkeit k' über ein Ergebnis einer Umwandlung in einer Region des Bildes der Person (Rpart, Gpart, Bpart), schraffiert durch nach hinten geneigte Diagonallinien, gelegt. In diesem Fall wird in der Region des Bildes der Person die Anwendbarkeit k' auf eine Maximalstufe von 0,5 gesetzt, und in einer Übergangsregion an einem Umfang davon wird die Anwendbarkeit k' in einem Bereich von 0 < k' < 0,5 eingestellt. Darüber hinaus kann, wenn die Anwendbarkeit k' in der Region des Bildes der Person auf eine Maximalstufe von 1,0 gesetzt wird und die Anwendbarkeit k' in der Übergangsregion an einem Umfang davon in einem Bereich von 0 < k' < 1,0 eingestellt wird, die Umwandlung für das ganze Bild von der Region des Bildes der Person ausgeschlossen werden. Auf dieselbe Weise kann eine Vielzahl von Bildverarbeitungsergebnissen angewendet werden.
  • Danach wird bei Schritt S130 das Objektpixel bewegt, und bei Schritt S140 wird geprüft, ob alle Objektpixel einer Verarbeitung unterzogen wurden. Wenn die Verarbeitung für alle Objektpixel abgeschlossen ist, kommt der Bildverarbeitungsablauf zu einem Ende.
  • Nachdem die vorliegende bevorzugte Ausführungsform in Bezug auf Techniken zur automatischen Festlegung eines Verstärkungsgrads in den jeweiligen Bildverarbeitungsoperationen beschrieben wurde, kann auch solch eine Anordnung bereitgestellt werden, dass Bilddaten zur statistischen Berechnung bei einem Schritt vor der Bewegung eines Objektpixels, wie zuvor erwähnt, gleichmäßig abgetastet werden und ein Verstärkungsgrad gemäß dem Ergebnis der statistischen Berechnung automatisch festgelegt wird, während eine Umwandlungstabelle erstellt wird.
  • In einem Fall, in dem ein Farbartbereich unter Verwendung einer wahlweisen Funktion des Druckertreibers 21b ausgewählt wird, kann eine Verstärkungsstufe auf solch eine Weise, wie zuvor erwähnt, automatisch festgelegt werden, wodurch es möglich gemacht wird, die Funktionsfähigkeit zu verbessern.
  • Im Folgenden werden Operationen in der bevorzugten Ausführungsform beschrieben, die ausgelegt ist, wie zuvor dargelegt.
  • Es wird angenommen, dass ein fotografischer Bild unter Verwendung des Scanners 11 eingelesen wird und unter Verwendung des Druckers 31 ausgedruckt wird. Zuerst wird unter der Bedingung, dass das Betriebssystem 21a auf dem Computer 21 laufen gelassen wird, die Bildverarbeitungsanwendung 21d in Gang gesetzt, um den Scanner 11 das fotografische Bild einlesen zu lassen. Wenn das auf diese Weise eingelesene fotografische Bild in die Bildverarbeitungsanwendung 21d unter Kontrolle des Betriebssystems 21a genommen wird, führt die Bildverarbeitungsanwendung 21d Bildverarbeitungsoperationen aus, wie in 5 in Form eines Ablaufdiagramms dargestellt.
  • Bei Schritt S100 wird das eingelesene fotografische Bild im Anzeigebereich 42 des Fensters gezeigt, wie in 7 dargestellt, so dass ein anwendbares Objekt spezifiziert werden kann. In diesem Zustand spezifiziert eine Bedienungsperson unter Verwendung der Maus 27 eine rechteckige Region eines himmelblauen Teils und klickt den Aufwärtspfeil des SATURATION-Einstellungselements im Verarbeitungsmenübereich 43 zur Sättigungsverstärkung so oft an, wie gewünscht. Darüber hinaus spezifiziert der Bediener eine rechteckige Region des Bildteils einer Person in der Mitte und klickt den Aufwärtspfeil des BRIGHTNESS-Einstellungselements im Verarbeitungsmenübereich 43 zur Helligkeitsverstärkung so oft an, wie gewünscht. Während des Spezifizierens einer Bildverarbeitungsoperation zur Sättigungsverstärkung in einer rechteckigen Region, welche dem Himmelteil des Hintergrunds entspricht, spezifiziert der Bediener nämlich eine Bildverarbeitungsoperation zur Helligkeitsverstärkung in einer rechteckigen Region, welche dem Bildteil einer Person entspricht.
  • Wenn das Fenster 40 nach Abschluss der Spezifikationen geschlossen wird, wird eine Umwandlungstabelle gemäß den Spezifikationen erstellt. Das heißt, es wird eine Bildverarbeitungsart in Bezug auf einen Verarbeitungsart-Code, der in der in 9 dargestellten Regionenreferenztabelle angegeben ist, bestimmt, und es wird ein Verstärkungsgrad gemäß einem darin angegebenen Verstärkungsstufenwert zur Umwandlungstabellenerstellung beurteilt. In diesem Beispiel werden eine Umwandlungstabelle zur Sättigungsverstärkungsverarbeitung und eine Umwandlungstabelle zur Helligkeitsverstärkungsverarbeitung erstellt.
  • Danach wird ein Objektpixel, das zur Verarbeitung anwendbar ist, in einer Anfangsposition eingestellt, und bei Schritt S110 wird beurteilt, ob eine Koordinatenstelle des Objektpixels in der Regionenreferenztabelle, die in 9 dargestellt ist, enthalten ist oder nicht. In diesem Fall wird auch eine Übergangsregion berücksichtigt, und eine Anwendbarkeit k wird erreicht. Wenn das Objektpixel in einer schraffierten Region, wie in 8 dargestellt, enthalten ist, wird die Anwendbarkeit auf ,1' gesetzt. Dann werden bei Schritt S120 in Bezug auf eine Umwandlungstabelle für die anwendbare Bildverarbeitung die Bilddaten gemäß Gleichung (49) bis (51) umgewandelt. In einem Beispiel, das in 8 dargestellt ist, werden die rechteckige Region, welche den Hintergrundteil spezifiziert, und die rechteckige Region, welche den Bildteil der Person spezifiziert, teilweise überlappt, und ein überlappter Teil wird einer Bilddatenumwandlung durch zwei Schritte unterzogen, wobei die Gleichungen (49) bis (51) verwendet werden. In einer Übergangsregion wird ebenfalls eine Bilddatenumwandlung durchgeführt, um eine graduelle Differenz entlang eines nicht spezifizierten Umfangsteils zu beseitigen.
  • Die zuvor erwähnten Operationen werden wiederholt, während jedes Objektpixel, das zur Verarbeitung anwendbar ist, bei Schritt S130 bewegt wird, bis bei Schritt S140 geurteilt wird, dass alle Pixel verarbeitet wurden. Auf diese Weise wird die Sättigung im Teil des blauen Himmels verstärkt, um ein klares Bild eines blauen Himmels bereitzustellen, während der Teil der Person aufgehellt wird, um ein Bild bereitzustellen, das so hell ist, wie mit Blitzlicht. fotografiert, selbst wenn das Bild der Person in der Szene gegenbeleuchtet ist. Es versteht sich von selbst, dass der Teil des blauen Himmels infolge der Helligkeitsverstärkung des Teiles der Person nicht aufgehellt wird und die Sättigung des Teils der Person infolge der Sättigungsverstärkung des Teils des blauen Himmels nicht verstärkt wird.
  • Danach werden die auf diese Weise verarbeiteten Bilddaten auf dem Anzeigebildschirm 32 durch den Anzeigetreiber 21c dargestellt und, wenn das auf diese Weise dargestellte Bild zufrieden stellend ist, wird es auf dem Drucker 31 durch den Druckertreiber 21b ausgedruckt. Konkret empfängt der Druckertreiber 21b RGB-Gradationsbilddaten, welche einer Bildverarbeitung unterzogen wurden, wie für jede spezifizierte Region spezifiziert, führt eine Auflösungsumwandlung durch, wie vorgegeben, und führt eine Rasterisierung gemäß einer Druckkopfregion des Druckers 31 aus. Dann werden die auf diese Weise rasterisierten Bilddaten einer RGB-CMYK-Farbumwandlung unterzogen, und danach werden die CMYK-Gradationsbilddaten zur Ausgabe auf dem Drucker 31 in binäre Bilddaten umgewandelt.
  • In einem Fall, in dem der Druckertreiber 21b durch eine Anforderung zur Druckverarbeitung von einer bestimmten Anwendung aktiviert wird, welche der zuvor erwähnten Bildverarbeitung durch die Bildverarbeitungsanwendung 21d nicht ähnlich ist, wird ein einzulesendes Bild möglicherweise nicht im Anzeigebereich 42 des Fensters 40 dargestellt. In diesem Fall kann der Druckertreiber 21b solch ein Optionswahlfenster darstellen, wie in 10 zu sehen ist. In diesem Fenster spezifiziert der Bediener ein gewünschtes Bildverarbeitungselement, um zum Beispiel einen klaren Fleischfarbteil des Bildes einer Person oder einen Teil des lebendigen Grüns von Baumblättern zu erreichen, während eine Originalfotografie oder dergleichen betrachtet wird.
  • Diese Bildverarbeitungsoperation entspricht dem Schritt S100 in 5, bei dem ein anwendbares Objekt spezifiziert wird.
  • Nach der Auswahl eines wahlweisen Verarbeitungselements erstellt der Druckertreiber 21b intern eine Umwandlungstabelle und beurteilt die Farbart jedes Pixels von eingegebenen Bilddaten. Auf diese Weise wird geprüft, ob die Farbart jedes Pixels auf das ausgewählte wahlweise Verarbeitungselement anwendbar ist. Wenn sie anwendbar ist, erfolgt eine Bildverarbeitungsumwandlung unter Verwendung der Gleichungen (49) bis (51) in Bezug auf die Umwandlungstabelle, und die auf diese Weise umgewandelten Bilddaten werden in CMYK- Bilddaten weiter umgewandelt, welche auf dem Drucker 31 ausgedruckt werden können.
  • Auf eine solche Weise, wie zuvor erwähnt, werden Fleischfarbpixel des Bildes einer Person und Pixel grüner Farbe von Baumbildern in einer Originalszene durch Einstellung verstärkt, was zu einer lebendigen Abbildung beim Ausdruck führt.
  • Somit wird auf dem Computer 21, der als der Nukleus der Bildverarbeitung dient, eine Region, welche zur Bildverarbeitung anwendbar ist, bei Schritt S100 spezifiziert, wird ein Objektpixel bewegt, um bei Schritt S110 bis S140 zu beurteilen, ob es zu der spezifizierten Region gehört oder nicht, und wird dann die spezifizierte Bildverarbeitungsoperation ausgeführt, wenn geurteilt wird, dass das Objektpixel zu der spezifizierten Region gehört. Daher hat die Einstellung von Bilddaten in einer bestimmten Region keine ungünstige Auswirkung auf Bilddaten in einer anderen Region aus, wodurch es möglich gemacht wird, mit Leichtigkeit eine zufrieden stellende Einstellung in einem ganzen Bild vorzunehmen.
  • Obwohl die Farbartverstärkung in einem Bereich von Pixeln erfolgt, die gemäß der Farbart in dem zuvor erwähnten Beispiel spezifiziert wurden, ist es auch möglich, einen Verstärkungsgrad automatisch festzulegen. Im Folgenden werden Einzelheiten eines Farbeinstellungsgeräts beschrieben, das zur automatischen Einstellung eines Verstärkungsrads realisiert wurde.
  • Unter Bezugnahme auf 25 ist ein Blockdiagramm eines Farbeinstellungsgeräts in einer bevorzugten Ausführungsform der vorliegenden Erfindung dargestellt. Ein konkretes Beispiel für eine Hardware-Konfiguration dieses Systems ähnelt dem in 2 veranschaulichten.
  • In 25 gibt ein Bildeingabegerät 70 fotografische Farbbilddaten, welche Punktmatrixpixel enthalten, in ein Farbeinstellungsgerät 80 ein, auf dem eine Verarbeitung zur optimalen Farbeinstellung für die Farbbilddaten ausgeführt wird. Dann liefert das Farbeinstellungsgerät 80 farblich eingestellte Bilddaten an ein Bildausgabegerät 90, auf welchem ein farblich eingestelltes Bild in einer Punktmatrixpixelform ausgegeben wird. In dieser Sequenz werden die farblich eingestellten Bilddaten, welche durch das Farbeinstellungsgerät 80 geliefert werden, durch Beurteilen eines Bildobjekts und einer Bildfarbe gemäß der Farbart jedes Pixels und Bestimmen eines Prinzips und eines Grades von optimaler Farbeinstellung vermittels der Farbkorrektur eines ganzen Bildes erzeugt. Zu diesem Zweck umfasst das Farbeinstellungsgerät 80 die Einheit zur Beurteilung der Farbart, die Einheit zur statistischen Berechnung von Objektfarbartpixeln, die Einheit zur Beurteilung eines Farbeinstellungsgrads und die Einheit zur Einstellung von Farbe.
  • Genauer gesagt, wird die Beurteilung eines Objekts und die Farbeinstellung davon durch ein Farbeinstellungsverarbeitungsprogramm, wie in 26 in Form eines Ablaufdiagramms dargestellt, ausgeführt, welches auf dem Computer 21 ausgeführt wird. Es ist zu erwähnen, dass ein Ablaufdiagramm, das in 26 veranschaulicht ist, für die Farbeinstellungsverarbeitung zur Bereitstellung von klarer Fleischfarbe ist.
  • Bei der Farbeinstellungsverarbeitung erfolgt eine statistische Berechnung von fleischfarbähnlichen Pixeln gemäß der Farbart jedes Pixels. Wie in 6 dargestellt, wird jedes Objektpixel zur statistischen Berechnung von allen Pixeln bewegt.
  • Zuerst wird bei Schritt S210 die Farbart „x-y" jedes Pixels berechnet. Wie im Falle des Beispiels der vorhergehenden Beschreibung wird Fleischfarbe identifiziert, wenn die folgenden Ausdrücke erfüllt werden. 0,35 < x < 0,40 (5) 0,33 < y < 0,36 (6)
  • Bei Schritt 220 wird beurteilt, ob die Farbart „x-y", welche gemäß jedem Pixel von RGB-Gradationsdaten umgewandelt wurde, in einem vordefinierten Fleischfarbbereich liegt. Wenn sie im Fleischfarbbereich liegt, erfolgt bei Schritt S230 eine statistische Berechnung von jedem Pixel von Farbbilddaten. Diese statistische Berechnung bedeutet eine einfache Addition von RGB-Gradationsdatenwerten. Es wird auch die Anzahl von Pixeln gezählt, um einen Durchschnittswert für Pixel zu bestimmen, die beurteilt wurden, Fleischfarbe zu haben, was später ausführlich beschrieben wird.
  • Danach wird bei Schritt S240 ungeachtet dessen, ob geurteilt wird, dass jedes Objektpixel Fleischfarbe hat oder nicht, jedes Objektpixel bewegt. Auf diese Weise wird der zuvor erwähnte Ablauf wiederholt, bis bei Schritt S250 geurteilt wird, dass die Verarbeitung für alle Pixel abgeschlossen ist. Bei Abschluss der Verarbeitung für alle Pixel wird Schritt S260 durchgeführt, um die statistischen Ergebnisdaten durch die Anzahl von Pixeln zu dividieren, um einen Durchschnittswert (rs.ave, Gs.ave, Bs.ave) zu bestimmen.
  • Die Software-Verarbeitung für die „x-y"-Farbartberechnung bei Schritt S210 und die Hardware zur Ausführung davon stellen die Einheit zur Beurteilung der Farbart bereit. Bei Schritt S220 wird beurteilt, ob die Farbart „x-y" in einem vorgegebenen Objektbereich liegt oder nicht, und, wenn der vorgegebene Objektbereich eingehalten wird, erfolgt bei Schritt S230 eine statistische Berechnung von Farbbildda ten. Dann wird bei Schritt S240 und S250 jedes Objektpixel bewegt, bis alle Pixel genommen werden. Bei Schritt S260 wird das statistische Ergebnis durch die Anzahl von Pixeln dividiert, um einen Durchschnittswert zu bestimmen. Diese Software-Verarbeitungsoperationen und die Hardware zur Ausführung davon stellen die Einheit zur statistischen Berechnung von Objektfarbartpixeln dar.
  • Im Hinblick auf Pixel mit einer wünschenswerten Fleischfarbe wird ein Idealwert (Rs.ideal, Gs.ideal, Bs.ideal) vordefiniert. Im Sinne der Erinnerungsfarbe in der Psychologie unterscheidet sich jeder Idealwert vom Ergebnis der tatsächlichen Messung. In einem Beispiel von Fleischfarbe neigt eine Person dazu, die optische Täuschung zu haben, dass eine leicht abweichende Fleischfarbe eher echt ist als Fleischfarbe, welche mit dem tatsächlichen Messergebnis übereinstimmt. Diese optische Täuschung basiert auf einem stereotypischen Erkennen von Fleischfarbe auf Fotografien und Bildern, d. h. dies wird in der Psychologie als ein Erinnerungsfarbe-Effekt bezeichnet. In der vorliegenden Erfindung wird ein Idealwert unter Berücksichtigung solch eines Erinnerungsfarbe-Effekts vordefiniert, so dass die Farbeinstellung erfolgt, um eine Differenz vom Idealwert zu beseitigen. Daher kann der Idealwert in einem weiten erwarteten Zielbereich liegen, ohne zur tatsächlichen Farbe zu neigen.
  • In Bezug auf Fleischfarbpixel stellt eine Differenz zwischen einem Durchschnittswert (rs.ave, Gs.ave, Bs.ave) von RGB-Gradationsdaten und einem Idealwert (Rs.ideal, Gs.ideal, Bs.ideal), welcher für eine wünschenswerte Fleischfarbe vordefiniert wurde, im Grunde einen Grad der Abweichung in den Farbbilddaten dar.
  • Es ist jedoch vorzuziehen, die Differenz nicht unverändert als einen Farbeinstellungsgrad anzuwenden. Wenn zum Beispiel derselbe Farbeinstellungsgrad auf alle Pixel angewen det wird, kann ein Fleischfarbteil zwar zufrieden stellend werden, können aber Farben von Pixeln in irgendwelchen anderen Teilen als dem Fleischfarbteil erheblich beeinflusst werden.
  • In der vorliegenden bevorzugten Ausführungsform wird daher bei Schritt S270 ein Verhältnis der Anzahl von Fleischfarbpixeln zur Gesamtanzahl von Pixeln (Fleischfarbe-Verhältnis) bestimmt, um einen Farbeinstellungsgrad zu regeln. Die Einstellungsgrade der Primärfarben ΔR, ΔG und ΔB werden so ausgedrückt, wie im Folgenden dargestellt. ΔR = ks (Rs.ideal – Rs.ave) (55) ΔG = ks (Gs.ideal – Gs.ave) (56) ΔB = ks (Bs.ideal – Bs.ave) (57)
  • Basierend auf diesen Gleichungen wird ein Wert des Fleischfarbverhältnisses ,ks' erreicht, wie im Folgenden angegeben. ks = (Anzahl von Fleischfarbpixeln/Gesamtanzahl von Pixeln)
  • Ein auf diese Weise erreichter Farbeinstellungsgrad wird nicht unverändert auf die Farbbilddateneinstellung angewendet. In der vorliegenden bevorzugten Ausführungsform wird bei Schritt S280 unter Verwendung des Farbeinstellungsgrads eine Tonkurve erzeugt. 27 ist eine grafische Veranschaulichung, welche Tonkurven darstellt, die in der vorliegenden Erfindung erzeugt wurden.
  • Eine Tonkurve stellt eine Eingabe-Ausgabe-Beziehung dar, wobei die RGB-Gradationsdaten mit einem geregelten Verstärkungsgrad umgewandelt werden. In einem Beispiel von 256 Gradationen, welche von den Stufen ,0' bis ,255' reichen, wird eine Spline-Kurve in Bezug auf drei identifizierte Ausgabewertpunkte gezeichnet, welche der Gradationsstufe ,0', der Gradationsstufe ,255' und einer bestimmten mittleren Gradationsstufe dazwischen entsprechen. In der Annahme, dass eine mittlere Gradationsstufe ,64' genommen wird und die Ausgabewerte ,0', ,64' und ,255' sind, gibt es eine Koinzidenz in einer Eingabe-Ausgabe-Beziehung, selbst wenn die Eingabepunkte ,0, ,64' und ,255' sind, was dazu führt, dass eine Tonkurve gerade gemacht wird. Wenn jedoch der Ausgabewert ,64' nicht für den Eingabewert ,64' bereitgestellt wird, wird eine leichte Kurve, wie in 27 dargestellt, gezeichnet, um eine Eingabe-Ausgabe-Beziehung festzulegen. In der vorliegenden bevorzugten Ausführungsform wird ein Kontrollpunkt, der dem Durchschnittswert (Rs.ave, Gs.ave, Bs.ave) von RGB-Gradationsdaten entspricht, als eine mittlere Gradationsstufe verwendet, und die jeweiligen Farbeinstellungsgrade ΔR, ΔG und ΔB werden in der Bildung einer Tonkurve widergespiegelt. Auf diese Weise wird der Kontrollpunkt geändert, so dass jeder Idealwert (Rs.ideal, Gs.ideal, Bs.ideal) getroffen wird, wenn das Fleischfarbverhältnis ,ks' ,1' ist.
  • Bei Schritt S290 werden Elementfarben von Farbbilddaten für alle Pixel umgewandelt, wobei erneut eine auf diese Weise erreichte Tonkurve verwendet wird, um die Farbeinstellung der Farbbilddaten zu bewerkstelligen.
  • Die Software-Verarbeitung bei Schritt S270, bei dem eine Farbeinstellung gemäß einem Verhältnis der Anzahl von Objektpixeln zur Gesamtanzahl von Pixeln erfolgt, während eine Differenz zwischen einem statistischen Ergebniswert und einem Idealwert bestimmt wird, die Software-Verarbeitung bei Schritt S280, bei dem eine Tonkurve gemäß einem bestimmten Farbeinstellungsgrad gebildet wird, und die Hardware zur Ausführung davon stellen die Einheit zur Beurteilung eines Farbeinstellungsgrads bereit. Die Software-Verarbeitung bei Schritt S290, bei dem Farbbilddaten umgewandelt werden, und die Hardware zur Ausführung davon stellen die Einheit zur Einstellung von Farbe bereit.
  • Nach der Beschreibung der vorliegenden bevorzugten Ausführungsform, die zur Vereinfachung der Erklärung hinsichtlich der Fleischfarbeinstellung erfolgte, versteht es sich von selbst, dass die Farbeinstellung nicht auf Fleischfarbe beschränkt ist. Unter Berücksichtigung des Erinnerungsfarbe-Effekts in der Psychologie wird häufig gewünscht, eine lebendigere grüne Farbe von Baumblättern und eine klarere blaue Farbe des Himmels zusätzlich zu einer klareren Fleischfarbe durch die Farbeinstellungsverarbeitung zu erreichen. Unter Bezugnahme auf 28 ist eine modifizierte Ausführungsform dargestellt, in welcher ein Einstellungsobjekt auswählbar ist.
  • In dem Beispiel, das in 28 dargestellt ist, wird zuerst bei Schritt S305 ein Farbeinstellungsobjekt ausgewählt. Bei Verwenden des Computers 21 wird auf dem Anzeigebildschirm 32 ein Fenster, das in 29 dargestellt ist, so wiedergegeben, dass eine Bedienungsperson ein Farbeinstellungsobjekt auswählen kann. Das Fenster, das in 29 veranschaulicht ist, ist mit einem Fleischfarbeinstellungselement für eine klarere Fleischfarbe, einem Grüneinstellungselement für eine lebendigere grüne Farbe von Baumblättern und einem Blaueinstellungselement für ein klareres Himmelblau versehen, wobei jedes ein Markierfeld aufweist, um eine individuelle Auswahl zu erlauben. In diesem Beispiel ist auch eine Doppelwahl erlaubt. Wenn der Bediener ein gewünschtes Markierfeld aktiviert und die ,OK'-Schaltfläche anklickt, wird für jedes auf die Weise spezifizierte Objekt eine Merker festgelegt, um eine Schleifenverarbeitung von Schritt S310 bis S350 zu starten.
  • Bei der Schleifenverarbeitung erfolgt während des Bewegens eines Objektpixels eine statistische Berechnung von jedem Pixel durch Bestimmen der Farbart wie in der vorhergehenden Beschreibung. Bei Schritt S310 wird die Objektpixelfarbart „x-y" unter Verwendung der Gleichungen (1) bis (4) bestimmt. Dann wird bei Schritt S315 auf einen Fleischfarbeinstellungsmerker, der bei Schritt S305 festgelegt wurde, Bezug genommen, um zu beurteilen, ob der Bediener das Fleischfarbeinstellungselement ausgewählt hat oder nicht.
  • Wenn er es ausgewählt hat, wird eine statistische Verarbeitung für Fleischfarbpixel durchgeführt. Diese statistische Verarbeitung wird auf dieselbe Weise wie bei Schritt S220 und S230 im vorhergehenden Beispiel ausgeführt. Wenn die Farbart „x-y", die bei Schritt S310 bestimmt wurde, in einem vordefinierten möglichen Farbartbereich liegt, welcher der Fleischfarbe entspricht, wird für jede Elementfarbe von RGB-Gradationsdaten eine statistische Berechnung durchgeführt.
  • Bei Schritt S325 wird auf einen Grüneinstellungsmerker Bezug genommen, um auf dieselbe Weise wie für die Fleischfarbeinstellung zu beurteilen, ob der Bediener das Grüneinstellungselement ausgewählt hat oder nicht. Wenn das Grüneinstellungselement ausgewählt wurde, wird die Objektpixelfarbart „x-y" geprüft, um zu beurteilen, ob sie in einem vordefinierten möglichen Farbartbereich liegt, welcher der grünen Farbe von Baumblättern entspricht. Wenn sie in dem entsprechenden vordefinierten Farbartbereich liegt, wird bei Schritt S330 eine statistische Berechnung durchgeführt.
  • Diese statistische Berechnung wird in einem Bereich ausgeführt, der sich von demjenigen, der der statistischen Fleischfarbberechnung unterzogen wurde, unterscheidet.
  • Dann wird bei Schritt S335 das Blaueinstellungselement geprüft, um auf dieselbe Weise ein Urteil zu bilden, und bei Schritt S340 erfolgt eine statistische Berechnung in einem anderen Bereich.
  • Bei Schritt S345 wird jedes Objektpixel bewegt, und der zuvor erwähnte Ablauf wird wiederholt, bis bei Schritt S350 geurteilt wird, dass die Verarbeitung für alle Pixel abgeschlossen ist. In dieser modifizierten Ausführungsform kann eine Mehrzahl von Objekten für die Farbeinstellung ausgewählt werden. Selbst in solch einer Situation wird bei Schritt S315 bis S340 eine statistische Berechnung durchgeführt, wenn die Farbart jedes Objektpixels in einem vordefinierten Farbartbereich liegt. Daher stellen diese Verarbeitungsoperationen die Einheit zur statistischen Berechnung von Objektfarbartpixeln bereit.
  • Bei Schritt S355 bis S365 wird nach Abschluss der statistischen Farbartberechnung von allen Pixeln ein Einstellungsgrad für jede Farbe gemäß dem Ergebnis der statistischen Berechnung berechnet. Im Gegensatz zum vorhergehenden Beispiel wird in dieser modifizierten Ausführungsform eine Verarbeitungsoperation zum Bestimmen eines Durchschnittswerts aus dem statistischen Berechnungsergebnis gleichzeitig mit der Berechnung eines Grades jeder Farbeinstellung durchgeführt, und es ist möglich, relevante Berechnungsverfahren nach Bedarf zu modifizieren. Wie im vorhergehenden Beispiel beschrieben, wird jede Einstellung von Fleischfarbe, grüner Farbe und blauer Farbe auf dieselbe Weise ausgeführt. Das heißt, es wird ein Durchschnittswert gemäß dem statistischen Berechnungsergebnis berechnet, eine Differenz zwischen ihm und einem Idealwert, der für eine wünschenswerte Farbe vordefiniert wurde, bestimmt und eine Multiplikation mit einem Fleischfarbe-Verhältnis, einem Grün-Verhältnis oder einem Blau-Verhältnis zur Regelung eines Grades jeder Farbeinstellung durchgeführt.
  • Bei Abschluss von Schritt S365 werden drei Arten von Farbeinstellungsgraden bereitgestellt, da durch die jeweiligen statistischen Berechnungen Fleischfarbeinstellungs-, Grüneinstellungs- und Blaueinstellungsgrade bestimmt wurden.
  • Daher erfolgt in der modifizierten Ausführungsform eine Addition, um die Ergebnisse dieser statistischen Berechnungen einschließlich widerzuspiegeln. Konkret werden in einer Situation einer umfassenderen Anwendung von Verarbeitungsobjekten Farbeinstellungsgrade für die jeweiligen Verarbeitungsobjekte ΔR, ΔG und ΔB so bestimmt, wie im Folgenden ausgedrückt.
    BITTE GLEICHUNG EINSETZEN (58)
    BITTE GLEICHUNG EINSETZEN (59)
    BITTE GLEICHUNG EINSETZEN (60)
    wobei
    BITTE GLEICHUNG EINSETZEN (61)
    i = 1: Fleischfarbe
    i = 2: grüne Farbe
    i = 3: blaue Farbe
  • In diesem Fall wird angenommen, dass keine Doppelzählung erfolgt.
  • Bei Schritt S370 wird eine Tonkurve gemäß jedem der auf diese Weise bestimmten Farbeinstellungsgrade ΔR, ΔG und ΔB gebildet, wie in 27 dargestellt. In diesem Fall werden die Kontrollpunkte durch Σ ki·Ri.ave, Σ ki·Gi.ave, Σ ki·Bi.ave angezeigt. Die Software-Verarbeitungsoperationen bei Schritt S355 bis S370 stellen die Einheit zur Beurteilung des Farbeinstellungsgrads bereit. Nach der Bildung jeder Tonkurve werden die Farbbilddaten bei Schritt S375 eingestellt.
  • Das zuvor erwähnte Farbeinstellungsgerät kann auch als ein Druckertreiber realisiert werden. In den meisten Fällen ist ein Druckertreiber nicht imstande, in einem Ausgabeprozess nach dem Verarbeiten von Eingabedaten vorübergehend Daten zu speichern. Infolgedessen besteht eine gewisse Einschränkung in der Funktionalität zur Änderung von Verarbeitungsbedingungen gemäß jeder nach Wunsch geteilten Region. Durch Festlegen von Farbeinstellungsgraden für eine Mehrzahl von Elementen, wie in Gleichung (58) bis (60) gezeigt, ist es jedoch selbst für einen Druckertreiber mit solch einer Funktionsbeschränkung möglich, eine wirksame Farbeinstellung auszuführen.
  • Im Folgenden werden Operationen einer bevorzugten Ausführungsform beschrieben, die mit einem Drucktreiber ausgelegt ist.
  • Wie in der vorhergehenden beispielhaften Ausführungsform wird angenommen, dass ein fotografisches Farbbild, das in 30 dargestellt ist, unter Verwendung des Scanners 11 eingelesen wird und unter Verwendung des Druckers 31 ausgedruckt wird. Zuerst wird unter der Bedingung, dass das Operationssystem 21a auf dem Computer 21 laufen gelassen wird, die Farbeistellungsanwendung 21d in Gang gesetzt, um den Scanner 11 das fotografische Bild einlesen zu lassen.
  • Wenn das auf diese Weise eingelesene fotografische Bild in die Farbeinstellungsanwendung 21 unter Kontrolle des Betriebssystems 21a genommen wird, wird ein Objektpixel, das zur Verarbeitung anwendbar ist, in einer Anfangsposition eingestellt. Dann wird bei Schritt S210 die Farbart „x-y" jedes Pixels berechnet, wobei die Gleichungen (1) bis (4) verwendet werden. Bei Schritt S220 wird beurteilt, ob jeder der Werte ,x' und ,y' in einem vordefinierten Farbartbereich von Fleischfarbe liegt. Wenn er im Farbartbereich von Fleischfarbe ist, wird bei Schritt S230 eine statistische Berechnung von jedem Pixel von Farbbilddaten für jede Elementfarbe durchgeführt. In dem fotografischen Bild, das in 30 dargestellt ist, wird geurteilt, dass Pixel der Hände, der Beine und des Gesichts einer Person Fleischfarbe aufweisen. In diesem Beispiel wird eine statistische Berechnung von einigen Prozent aller Pixel als Fleischfarbpixel durchgeführt. Dann wird bei Schritt S240 jedes Objektpixel bewegt. Auf diese Weise wird der zuvor erwähnte Ablauf wiederholt, bis bei Schritt S250 geurteilt wird, dass die Verarbeitung für alle Pixel abgeschlossen ist.
  • Nach Abschluss der Verarbeitung für alle Pixel werden die statistischen Ergebnisdaten durch die Anzahl von Fleischfarbpixeln dividiert, um bei Schritt S260 einen Durchschnittswert zu bestimmen. Bei Schritt S270 wird eine Differenz zwischen einem Idealwert von Fleischfarbe und dem Durchschnittswert von Fleischfarbpixeln bestimmt, und sie wird mit dem Fleischfarbe-Verhältnis, welches ein Verhältnis der Anzahl von Fleischfarbpixeln zur Gesamtanzahl von Pixeln darstellt, multipliziert. Bei Schritt S280 wird demgemäß eine Tonkurve gebildet. Dann wird bei Schritt S290 basierend auf der Tonkurve jede Elementfarbe von Farbbilddaten zur Farbeinstellung umgewandelt. Da ein Farbeinstellungsgrad in Bezug auf den Idealwert von Fleischfarbe unter Berücksichtigung des Verhältnisses der Anzahl von Fleischfarbpixeln zur Gesamtanzahl von Pixeln auf eine gemäßigte Stufe eingestellt wird, kann eine wünschenswerte Farbe durch die richtige Farbeinstellung erreicht werden.
  • In dem Beispiel, das in 30 dargestellt ist, wird eine Differenz zwischen einem Durchschnittswert von Fleischfarbpixeln, welcher in der statistischen Berechnung erreicht wurde, und einem Idealwert von Fleischfarbe mit einem Fleischfarbe-Verhältnis unter Angabe einiger Prozentwerte multipliziert, um einen Farbeinstellungsgrad zu regeln.
  • Gemäß dem geregelten Farbeinstellungsgrad wird eine Tonkurve gebildet, um die Farbeinstellung zu bewerkstelligen.
  • Darüber hinaus wird, wenn ein Fleischfarbeinstellungselement, ein Grüneinstellungselement und ein Blaueinstellungselement in Einstellungsobjektauswahl ausgewählt werden, wie zuvor veranschaulicht, die Farbart „x-y" für alle Pixel bei Schritt S310 berechnet. Dann wird bei Schritt S315 bis S340 eine individuelle statistische Berechnung für jedes Einstellungsobjekt durchgeführt. In dem Beispiel, das in 30 dargestellt ist, ist in einem Fleischfarbteil des Bildes einer Person, einem Teil von grüner Farbe von Baumblättern und einem Himmelblauteil eines Hintergrunds jede Farbart „x-y" auf jeden Objektbereich zur statistischen Berechnung anwendbar.
  • Nach Abschluss der Verarbeitung für alle Pixel wird bei Schritt S355 bis S365 ein Farbeinstellungsgrad für jedes Objekt unter Berücksichtigung eines Belegungsverhältnisses von Objektpixeln bestimmt. Bei Schritt S370 wird durch Regeln jedes auf diese Weise bestimmten Farbeinstellungsgrads eine Tonkurve gebildet. Dann wird bei Schritt S375 die Farbeinstellung für alle Pixel von Farbbilddaten ausgeführt. Auf diese Weise werden die Fleischfarbeinstellung zum Erreichen einer klareren Fleischfarbe, die Grüneinstellung zum Erreichen einer lebendigeren grünen Farbe von Baumblättern und die Blaueinstellung zum Erreichen eines klareren Himmelblaus im Hintergrund durch eine Regelung gemäß dem Belegungsverhältnis von Objektpixeln jeder Farbe ausgeführt.
  • Nachdem die Farbeinstellung auf diese Weise bewerkstelligt ist, wird ein Farbbild auf dem Anzeigebildschirm 32 durch den Anzeigetreiber 21c dargestellt, und, wenn das auf diese Weise dargestellte Farbbild zufrieden stellend ist, dann wird es auf dem Drucker 31 durch den Druckertreiber 21b ausgedruckt. Konkret empfängt der Druckertreiber 21b RGB-Gradationsbilddaten, welche der Farbeinstellung unterzogen wurden, führt eine Auflösungsumwandlung durch, wie vorgege ben, und führt eine Rasterisierung gemäß einer Druckkopfregion des Druckers 31 aus. Dann werden die auf diese Weise rasterisierten Bilddaten einer RGB-CMYK-Farbumwandlung unterzogen, und danach werden die CMYK-Gradationsbilddaten in binäre Bilddaten umgewandelt, um auf dem Drucker 31 ausgedruckt zu werden.
  • Durch die zuvor erwähnte Verarbeitung wird das fotografische Farbbild, das durch Verwenden des Scanners 11 eingelesen wurde, automatisch einer optimalen Farbeinstellung unterzogen. Danach wird es auf dem Anzeigebildschirm 32 dargestellt und dann auf dem Drucker 31 ausgedruckt.
  • Wie hierin zuvor dargelegt, wird auf dem Computer, der als der Nukleus der Farbeinstellung dient, bei Schritt S210 die Farbart „x-y" jedes Pixels berechnet, und bei Schritt S220 bis S230 wird eine statistische Berechung durchgeführt, wenn ein auf diese Weise berechneter Farbartwert in einem Farbartbereich liegt, der für jede Farbe vordefiniert wurde. Nach Abschluss der statistischen Berechnung von allen Pixeln wird bei Schritt S260 ein Durchschnittswert bestimmt, und bei Schritt S270 wird ein Grad jeder Farbeinstellung berechnet, während ein Belegungsverhältnis von Objektpixeln jeder Farbe in Betracht gezogen wird. Auf diese Weise erfolgt eine genaue statistische Berechnung von Farbpixeln, die unabhängig von der Helligkeit einzustellen sind, und ein Grad jeder Farbeinstellung wird geregelt, indem die Anzahl von Pixeln jeder Farbe hinsichtlich des Belegungsverhältnisses berücksichtigt wird, wodurch es möglich gemacht wird, eine Verarbeitung für optimale Farbeinstellung auszuführen, ohne den Farben von Pixeln, welche die Objektpixel umgeben, eine ungünstige Wirkung zu verleihen.
  • Die Erfindung kann in anderen bestimmten Formen verwirklicht werden, ohne sich von den wesentlichen Eigenschaften davon zu entfernen. Die vorliegenden Ausführungsformen sind daher in jeder Hinsicht als veranschaulichend und nicht einschränkend zu betrachten, wobei der Rahmen der Erfindung vielmehr durch die angehängten Patentansprüche als durch die vorangehende Beschreibung angezeigt wird, weshalb alle Änderungen, welche unter die Bedeutung und in den Bereich von Gleichwertigkeit der Ansprüche fallen, darin einzubeziehen sind.

Claims (33)

  1. Bildverarbeitungsvorrichtung, welche zum Eingeben von fotografischen Bilddaten, die Punktmatrixpixel enthalten, und Umwandeln von Pixeln der Bilddaten gemäß einer vorgegebenen Korrespondenzbeziehung ausgelegt und gekennzeichnet ist durch: eine Einheit zur Speicherung von Korrespondenzbeziehungsinformation, welche zum Speichern von Information für eine Mehrzahl von Korrespondenzbeziehungen zur Umwandlung der Bilddaten zusammen mit anwendbarer Objektinformation davon ausgelegt ist, wobei die anwendbare Objektinformation zum Bestimmen von Objektpixeln in den Bilddaten ist, auf welche die Korrespondenzbeziehung angewendet wird; eine Einstelleinheit, welche zum Durchführen eines statistischen Berechnungsvorgangs in Bezug auf Objektpixel in den Bilddaten ausgelegt ist, um einen Grad einzustellen, um welchen die Bilddaten gemäß der Korrespondenzbeziehung umgewandelt werden, wobei der Grad gemäß dem Verhältnis der Anzahl von Pixeln, welche zur Durchführung der statistischen Berechnung verwendet werden, zur Gesamtanzahl von Pixeln der Bilddaten bestimmt wird; eine Korrespondenzbeziehungsbeurteilungseinheit, welche zum Bilden eines Urteils über jede Korrespondenzbeziehung zur Umwandlung jedes Pixels der Bilddaten gemäß der Korrespondenzbeziehung und der anwendbaren Objektinformation, welche auf diese Weise gespeichert werden, ausgelegt ist; und eine Bilddatenumwandlungseinheit, welche zum Umwandeln von Pixeln der Bilddaten um den Grad gemäß dem auf diese Weise gebildeten Urteil ausgelegt ist, wobei: der statistische Berechnungsvorgang einen Durchschnittswert der Pixel, welche zur Durchführung der statistischen Berechnung verwendet werden, erzielt; die Korrespondenzbeziehung eine Beziehung zwischen dem Durchschnittswert und einem vorgegebenen Optimalwert ist; die Umwandlung durchgeführt wird, um die Differenz zwischen dem Durchschnittswert und dem Optimalwert um den Grad, welcher durch die Einstelleinheit bestimmt wird, zu verringern; der Grad ein Wert zwischen 0, wobei die Differenz zwischen dem Durchschnittswert und dem Optimalwert unverändert ist, und einem Maximalwert, wobei nach der Umwandlung keine Differenz zwischen dem Durchschnittswert und dem Optimalwert vorliegt, ist.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei: die Einstelleinheit zum Einstellen eines Grades in Bezug auf jede der Mehrzahl von Korrespondenzbeziehungen ausgelegt ist; und die Summe der jeweiligen Grade nicht größer als der Maximalwert ist.
  3. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass: jedes Objektpixel eine Mehrzahl von Informationsteilen umfasst; die Einheit zur Speicherung von Korrespondenzbeziehungsinformation eine Korrespondenzbeziehung zur Anwendung auf jeden Teil speichert; die anwendbare Objektinformation ferner zum Bestimmen ist, auf welche Informationsteile der Objektpixel die Korrespondenzbeziehungen angewendet werden; und dass in der Korrespondenzbeziehungsbeurteilungseinheit ein Teil der Bilddaten, welche jedem Pixel entsprechen, erfasst wird und jede Korrespondenzbeziehung zur Umwandlung durch Vergleichen des erfassten Teils der Bilddaten mit der Information über den Teil für jede Korrespondenzbeziehung beurteilt wird.
  4. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Einheit zur Speicherung von Korrespondenzbeziehungsinformation eine Mehrzahl von Korrespondenzbeziehungen mit Information über die Farbart, welche auf jede Korrespondenzbeziehung anwendbar ist, gespeichert wird; und dass in der Korrespondenzbeziehungsbeurteilungseinheit ein Farbartwert jedes Pixels erfasst wird und jede Korrespondenzbeziehung zur Umwandlung durch Vergleichen des erfassten Farbartwerts mit der Information über die Farbart für jede Korrespondenzbeziehung beurteilt wird.
  5. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Einheit zur Speicherung von Korrespondenzbeziehungsinformation eine Farbumwandlungstabelle vorgesehen ist, welche Information über die Korrespondenzbeziehung zwischen vorumgewandelten Originalbilddaten und nachumgewandelten Bilddaten speichert.
  6. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Einheit zur Speicherung von Korrespondenzbeziehungsinformation eine Mehrzahl von Korrespondenzbeziehungen durch Ändern des Grades der Korrespondenzbeziehungsanwendbarkeit realisiert wird.
  7. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Einheit zur Speicherung von Korrespondenzbeziehungsinformation eine Korrespondenzbeziehungsspezifiziereinheit umfasst, welche eine Mehrzahl von Korrespondenzbeziehungen, die auf die Bilddaten anwendbar sind, nach Bedarf hintereinander spezifiziert.
  8. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Einheit zur Speicherung von Korrespondenzbeziehungsinformation jede Korrespondenzbeziehung zum Einstellen der Helligkeit gemäß den Bilddaten gespeichert wird.
  9. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Einheit zur Speicherung von Korrespondenzbeziehungsinformation jede Korrespondenzbeziehung zum Einstellen der Farbart gemäß den Bilddaten gespeichert wird.
  10. Bildverarbeitungsvorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der Bilddatenumwandlungseinheit für Pixel in einer Übergangsregion zwischen Regionen, welche sich hinsichtlich der Korrespondenzbeziehung unterscheiden, bei der Bilddatenumwandlung schrittweise ein Korrespondenzbeziehungsniveau eingestellt wird.
  11. Bildverarbeitungsverfahren, welches fotografische Bilddaten, die Punktmatrixpixels enthalten, eingibt, jedes Pixel der Bilddaten gemäß einer vorgegebenen Korrespondenzbeziehung umwandelt und durch die folgenden Schritte gekennzeichnet ist: Speichern von Information für eine Mehrzahl von Korrespondenzbeziehungen zur Umwandlung der Bilddaten zusammen mit anwendbarer Objektinformation davon, wobei die anwendbare Objektinformation zum Bestimmen von Objektpixeln in den Bilddaten ist, auf welche die Korrespondenzbeziehung angewendet wird; Durchführen eines Summiervorgangs in Bezug auf Objektpixel in den Bilddaten und Erhalten eines Durchschnittswerts der Pixel, welche zum Durchführen des Summiervorgangs verwendet werden, um einen Grad einzustellen, um welchen die Bilddaten gemäß der Korrespondenzbeziehung umgewandelt werden, wobei der Grad gemäß dem Verhältnis der Anzahl von Pixeln, welche zum Durchführen des Summiervorgangs verwendet werden, zur Gesamtanzahl von Pixeln in den Bilddaten bestimmt wird; Bilden eines Urteils über jede Korrespondenzbeziehung zum Umwandeln jedes Pixels der Bilddaten gemäß der Korrespondenzbeziehung und der anwendbaren Objektinformation, welche auf diese Weise gespeichert werden; und Umwandeln von Pixeln der Bilddaten um den Grad gemäß dem auf diese Weise gebildeten Urteil, wobei die Korrespondenzbeziehung eine Beziehung zwischen dem Durchschnittswert und einem vorgegebenen Optimalwert ist; die Umwandlung durchgeführt wird, um die Differenz zwischen dem Durchschnittswert und dem Optimalwert um den Grad, welcher durch die Einstelleinheit bestimmt wird, zu verringern; und der Grad ein Wert zwischen 0, wobei die Differenz zwischen dem Durchschnittswert und dem Optimalwert unverändert ist, und einem Maximalwert, wobei nach der Umwandlung keine Differenz zwischen dem Durchschnittswert und dem Optimalwert vorliegt, ist.
  12. Bildverarbeitungsverfahren nach Anspruch 11, wobei: die Einstelleinheit zum Einstellen eines Grades in Bezug auf jede der Mehrzahl von Korrespondenzbeziehungen ausgelegt ist; und die Summe der jeweiligen Grade nicht größer als der Maximalwert ist.
  13. Bildverarbeitungsverfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass jedes Objektpixel eine Mehrzahl von Informationsteilen umfasst; eine Korrespondenzbeziehung zur Anwendung auf jeden Teil gespeichert wird; die anwendbare Objektinformation ferner zum Bestimmen ist, auf welche Informationsteile der Objektpixel die Korrespondenzbeziehungen angewendet werden; und dass ein Teil der Bilddaten, welche jedem Pixel entsprechen, erfasst wird und jede Korrespondenzbeziehung zur Umwandlung durch Vergleichen des erfassten Teils der Bilddaten mit der Information über den Teil für jede Korrespondenzbeziehung beurteilt wird.
  14. Bildverarbeitungsverfahren nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass eine Mehrzahl von Korrespondenzbeziehungen mit Information über die Farbart, welche auf jede Korrespondenzbeziehung anwendbar ist, gespeichert wird; und dass ein Farbartwert von jedem Pixel erfasst wird und jede Korrespondenzbeziehung zur Umwandlung durch Vergleichen des erfassten Farbartwerts mit der Information über die Farbart für jede Korrespondenzbeziehung beurteilt wird.
  15. Bildverarbeitungsverfahren nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, dass eine Farbumwandlungstabelle vorgesehen ist, welche Information über die Korrespondenzbeziehung zwischen vorumgewandelten Originalbilddaten und nachumgewandelten Bilddaten speichert.
  16. Bildverarbeitungsverfahren nach einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, dass eine Mehrzahl von Korrespondenzbeziehungen durch Ändern des Grades der Korrespondenzbeziehungsanwendbarkeit realisiert wird.
  17. Bildverarbeitungsverfahren nach einem der Ansprüche 11 bis 16, dadurch gekennzeichnet, dass eine Mehrzahl von Korrespondenzbeziehungen, welche auf die Bilddaten anwendbar sind, nach Bedarf hintereinander spezifiziert wird.
  18. Bildverarbeitungsverfahren nach einem der Ansprüche 11 bis 17, gekennzeichnet durch das Speichern jeder Korrespondenzbeziehung zum Einstellen der Helligkeit gemäß den Bilddaten.
  19. Bildverarbeitungsverfahren nach einem der Ansprüche 11 bis 18, gekennzeichnet durch das Speichern jeder Korrespondenzbeziehung zum Einstellen der Farbart gemäß den Bilddaten.
  20. Bildverarbeitungsverfahren nach einem der Ansprüche 11 bis 19, dadurch gekennzeichnet, dass für Pixel in einer Übergangsregion zwischen Regionen, welche sich hinsichtlich der Korrespondenzbeziehung unterscheiden, bei der Bilddatenumwandlung schrittweise ein Korrespondenzbeziehungsniveau eingestellt wird.
  21. Bildverarbeitungscomputerprogramm, welches fotografische Bilddaten, die Punktmatrixpixel enthalten, eingibt und auf einem Computer jedes Pixel der Bilddaten gemäß einer vorgegebenen Korrespondenzbeziehungsinformation umwandelt, wobei das Programm mit einer Mehrzahl von Korrespondenzbeziehungen zur Umwandlung der Bilddaten zusammen mit anwendbarer Objektinformation davon versehen ist und das Computerprogramm Computerprogrammcodiermittel zum Erreichen eines Verfahrens gemäß einem der Ansprüche 11 bis 20 auf dem Computer umfasst.
  22. Farbeinstellungsgerät, welches eine Farbtrennung von Farbbilddaten für jede vorgegebene Elementfarbe durchführt und die Farbbilddaten bei Verstärkung so einstellt, dass als Ergebnis einer Farbbildausgabe, welche für jede Elementfarbe durch ein Gerät, wie beispielsweise eine Bildausgabevorrichtung, geliefert wird, jede gewünschte Farbe bereitgestellt wird, wobei das Farbeinstellungsgerät umfasst: eine Bildverarbeitungsvorrichtung gemäß einem der Ansprüche 1 bis 10; und eine Farbartbeurteilungseinheit, welche zum Bestimmen eines Farbartwerts jedes Pixels gemäß den Farbbilddaten ausgelegt ist; wobei die Einstelleinheit eine Einheit zur statistischen Objektfarbartpixelberechnung umfasst, welche zum Durchführen einer statistischen Berechnung mit Pixeln mit Farbartwerten, welche vorgegeben wurden, um einem vordefinierten Farbartbereich zu entsprechen, ausgelegt ist; die Einstelleinheit ferner eine Einheit zur Beurteilung des Farbeinstellungsgrads umfasst, welche zum Bestimmen eines Farbeinstellungsgrads ausgelegt ist, um eine Differenz zwischen einem vorgegebenen Optimalwert für Pixel, welche dem vordefinierten Farbartbereich entsprechen, und einem Ergebniswert, welcher bei der statistischen Berechnung erhalten wird, aufzuheben; und die Bilddatenumwandlungseinheit eine Farbeinstelleinheit umfasst, welche eine Farbeinstellung der Bilddaten gemäß dem geregelten Farbeinstellungsgrad ausführt.
  23. Farbeinstellungsgerät nach Anspruch 22, dadurch gekennzeichnet, dass die Einheit zur Beurteilung des Farbeinstellungsgrads den Farbeinstellungsgrad gemäß einem Belegungsverhältnis von Pixeln, welche der statistischen Berechnung unterzogen werden, zur Gesamtanzahl von Pixeln regelt.
  24. Farbeinstellungsgerät nach Anspruch 22 oder 23, dadurch gekennzeichnet, dass in der Einheit zur statistischen Objektfarbartpixelberechnung ein Durchschnittswert von Pixeln, welche beurteilt werden, Objektpixel zu sein, für jede Elementfarbe von Farbbilddaten berechnet wird; dass in der Einheit zur Beurteilung des Farbeinstellungsgrads ein Optimalwert jeder Elementfarbe für Farbbild daten, welche dem vordefinierten Farbartbereich entsprechen, bereitgestellt wird; und dass ein Farbeinstellungsgrad gemäß dem Optimalwert jeder Elementfarbe bestimmt wird.
  25. Farbeinstellungsgerät nach einem der Ansprüche 22 bis 24, dadurch gekennzeichnet, dass in der Einheit zur statistischen Objektfarbartpixelberechnung eine statistische Berechnung mit Objektfarbartpixeln in einem möglichen Farbartbereich vermittels der Erinnerungsfarbe in der Psychologie durchgeführt wird.
  26. Farbeinstellungsgerät nach einem der Ansprüche 22 bis 25, dadurch gekennzeichnet, dass in der Farbeinstellungsbeurteilungseinheit eine Tonkurve, welche Information über die Eingabe-Ausgabe-Beziehung darstellt, zum Ändern eines Elementfarbverstärkungsgrads verwendet wird und eine Tonkurve gemäß dem Farbeinstellungsgrad gebildet wird.
  27. Farbeinstellungsverfahren, welches eine Farbtrennung von Farbbilddaten für jede vorgegebene Elementfarbe durchführt und die Farbbilddaten bei Verstärkung so einstellt, dass als Ergebnis einer Farbbildausgabe, welche für jede Elementfarbe durch ein Gerät, wie beispielsweise eine Bildausgabevorrichtung, geliefert wird, jede gewünschte Farbe bereitgestellt wird, wobei das Farbeinstellungsverfahren umfasst: Bestimmen eines Farbartwerts jedes Pixels gemäß den Farbbilddaten; und ein Verfahren gemäß einem der Ansprüche 11 bis 20; wobei der Schritt des Durchführens eines Summiervorgangs umfasst: Durchführen eines Summiervorgangs mit Pixeln mit Farbartwerten, welches bestimmt wurden, um einem vordefinierten Farbartbereich zu entsprechen, und Bestimmen eines Farbeinstellungsgrads, um eine Differenz zwischen einem vorgegebenen Optimalwert für Pixel, welche dem vordefinierten Farbartbereich entsprechen, und einem Ergebniswert, welcher bei der statistischen Berechnung erhalten wird, aufzuheben; und der Schritt des Umwandelns jedes Pixels das Ausführen einer Farbeinstellung der Bilddaten gemäß dem geregelten Farbeinstellungsgrad umfasst.
  28. Farbeinstellungsverfahren nach Anspruch 27, dadurch gekennzeichnet, dass der Farbeinstellungsgrad gemäß einem Belegungsverhältnis von Pixeln, welche der statistischen Berechnung unterzogen werden, zur Gesamtanzahl von Pixeln geregelt wird.
  29. Farbeinstellungscomputerprogramm, welches eine Farbtrennung von Farbbilddaten für jede vorgegebene Elementfarbe durchführt und auf einem Computer die Farbbilddaten bei Verstärkung so einstellt, dass als Ergebnis einer Farbbildausgabe, welche für jede Elementfarbe durch ein Gerät, wie beispielsweise eine Bildausgabevorrichtung, geliefert wird, jede gewünschte Farbe bereitgestellt wird, wobei das Computerprogramm Computerprogrammcodiermittel zum Erreichen eines Verfahren gemäß Anspruch 27 oder 28 auf dem Computer umfasst.
  30. Farbeinstellungsprogramm nach Anspruch 29, dadurch gekennzeichnet, dass der Farbeinstellungsgrad gemäß einem Belegungsverhältnis von Pixeln, welche der statistischen Berechnung unterzogen werden, zur Gesamtanzahl von Pixeln geregelt wird.
  31. Farbeinstellungsprogramm nach Anspruch 29 oder 28, dadurch gekennzeichnet, dass: ein Durchschnittswert von Pixeln, welche beurteilt werden, Objektpixel zu sein, für jede Elementfarbe von Farbbilddaten berechnet wird; ein Optimalwert jeder Elementfarbe für Farbbilddaten, welche dem vordefinierten Farbartbereich entsprechen, bereitgestellt wird; und dass ein Farbeinstellungsgrad gemäß dem Optimalwert jeder Elementfarbe bestimmt wird.
  32. Farbeinstellungsprogramm nach einem der Ansprüche 29 bis 31, dadurch gekennzeichnet, dass die statistische Berechnung mit Objektfarbartpixeln in einem möglichen Farbartbereich vermittels der Erinnerungsfarbe in der Psychologie durchgeführt wird.
  33. Farbeinstellungsprogramm nach einem der Ansprüche 29 bis 32, dadurch gekennzeichnet, dass eine Tonkurve, welche Information über die Eingabe-Ausgabe-Beziehung darstellt, zum Ändern eines Elementfarbverstärkungsgrads verwendet wird und eine Tonkurve gemäß dem Farbeinstellungsgrad gebildet wird.
DE69827703T 1997-06-17 1998-06-12 Verfahren und Vorrichtung zum Einstellen der Farbe Expired - Lifetime DE69827703T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP16015897 1997-06-17
JP16015897A JP3893669B2 (ja) 1997-06-17 1997-06-17 画像処理装置、画像処理方法および画像処理制御プログラムを記録した媒体
JP31212697 1997-11-13
JP31212697A JP3918257B2 (ja) 1997-11-13 1997-11-13 画像処理装置、画像処理方法、画像処理プログラムを記録した媒体

Publications (2)

Publication Number Publication Date
DE69827703D1 DE69827703D1 (de) 2004-12-30
DE69827703T2 true DE69827703T2 (de) 2005-05-25

Family

ID=26486736

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69827703T Expired - Lifetime DE69827703T2 (de) 1997-06-17 1998-06-12 Verfahren und Vorrichtung zum Einstellen der Farbe

Country Status (3)

Country Link
US (4) US6535301B1 (de)
EP (4) EP1619876A3 (de)
DE (1) DE69827703T2 (de)

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0891075A3 (de) 1997-06-09 2002-03-06 Seiko Epson Corporation Bildverarbeitungsgerät und -verfahren sowie Bildauswertungsvorrichtung und -verfahren
US7570282B1 (en) * 1998-12-09 2009-08-04 Aptina Imaging Corporation Color correction of multiple colors using a calibrated technique
US6961066B2 (en) * 1999-04-13 2005-11-01 Athentech Technologies, Inc. Automatic color adjustment for digital images
US6788812B1 (en) * 1999-06-18 2004-09-07 Eastman Kodak Company Techniques for selective enhancement of a digital image
JP4210026B2 (ja) * 1999-09-30 2009-01-14 セイコーエプソン株式会社 色修正装置、色修正方法および色修正制御プログラムを記録した記録媒体
US6829374B2 (en) * 2001-03-12 2004-12-07 Glaucoma Research, Inc. Methods for measuring iris color over time
JP2001292890A (ja) * 2000-04-11 2001-10-23 Nakahara Sanpodo:Kk 複数供養壇
EP1231777A1 (de) * 2001-02-09 2002-08-14 GRETAG IMAGING Trading AG Farbenkorrektur für fotographische Bilder
US6700627B2 (en) * 2001-03-15 2004-03-02 Eastman Kodak Company Method of characterizing a video display
US6952224B2 (en) * 2001-03-30 2005-10-04 Intel Corporation Object trackability via parametric camera tuning
JP3733873B2 (ja) * 2001-06-07 2006-01-11 ノーリツ鋼機株式会社 写真画像処理装置、方法及び写真処理装置
US7068841B2 (en) * 2001-06-29 2006-06-27 Hewlett-Packard Development Company, L.P. Automatic digital image enhancement
US7602991B2 (en) 2001-10-24 2009-10-13 Nik Software, Inc. User definable image reference regions
WO2003036558A1 (en) 2001-10-24 2003-05-01 Nik Multimedia, Inc. User definable image reference points
US7064740B2 (en) * 2001-11-09 2006-06-20 Sharp Laboratories Of America, Inc. Backlit display with improved dynamic range
TW533401B (en) * 2001-12-31 2003-05-21 Himax Tech Inc Gamma correction device and method in liquid crystal display
JP3989738B2 (ja) * 2002-01-16 2007-10-10 シャープ株式会社 画像形成方法および画像形成装置ならびにプログラム、記録媒体
US20030231321A1 (en) * 2002-03-25 2003-12-18 Tatsuya Aoyama Method of and system for image processing, method of and apparatus for image generation, and computer program
JP2003299116A (ja) * 2002-04-01 2003-10-17 Minolta Co Ltd 画像処理装置、およびプログラム
JP4060625B2 (ja) * 2002-04-02 2008-03-12 東芝テック株式会社 画像形成装置と画像形成方法
JP4031299B2 (ja) * 2002-06-21 2008-01-09 富士フイルム株式会社 カラー画像信号処理方法およびカラー画像出力装置並びに撮影装置
KR100490405B1 (ko) * 2002-07-02 2005-05-17 삼성전자주식회사 프린팅 시스템에 있어서 이미지의 색상 조정방법 및 이를위한 그래픽 사용자 인터페이스
EP1545135B1 (de) * 2002-09-26 2013-04-03 Seiko Epson Corporation Einstellung des ausgangsbildes von bilddaten
JP4045929B2 (ja) * 2002-11-18 2008-02-13 セイコーエプソン株式会社 被写体の大きさに応じた画質の自動調整
DE10256225B4 (de) * 2002-11-26 2005-02-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Automatische Qualitätsverbesserung eines nicht binären Bildes
KR100543698B1 (ko) 2002-12-14 2006-01-20 삼성전자주식회사 영상신호의 피부색 재현 장치 및 방법
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7453464B1 (en) * 2003-03-05 2008-11-18 Adobe Systems Incorporated Text modification
JP2006523343A (ja) * 2003-03-19 2006-10-12 ニック ソフトウエア インク ディジタル画像の選択的エンハンスメント
US20040208363A1 (en) * 2003-04-21 2004-10-21 Berge Thomas G. White balancing an image
KR100839959B1 (ko) * 2003-09-01 2008-06-20 삼성전자주식회사 디스플레이장치
JP2005117612A (ja) * 2003-09-18 2005-04-28 Fuji Photo Film Co Ltd 画像処理方法および装置
US7623105B2 (en) * 2003-11-21 2009-11-24 Sharp Laboratories Of America, Inc. Liquid crystal display with adaptive color
JP4480676B2 (ja) 2003-12-11 2010-06-16 富士通株式会社 画像処理方法及びプログラム、並びに装置
JP4143549B2 (ja) * 2004-01-28 2008-09-03 キヤノン株式会社 画像処理装置及び方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
EP1722327A4 (de) * 2004-02-25 2009-03-04 Panasonic Corp Bildverarbeitungseinrichtung, bildverarbeitungssystem, bildverarbeitungsverfahren, bildverarbeitungsprogramm und integriertes schaltungsbauelement
JP4602688B2 (ja) * 2004-04-19 2010-12-22 富士フイルム株式会社 画像処理方法、画像処理装置およびそのプログラム
US20050248553A1 (en) * 2004-05-04 2005-11-10 Sharp Laboratories Of America, Inc. Adaptive flicker and motion blur control
US7505018B2 (en) * 2004-05-04 2009-03-17 Sharp Laboratories Of America, Inc. Liquid crystal display with reduced black level insertion
US7532192B2 (en) * 2004-05-04 2009-05-12 Sharp Laboratories Of America, Inc. Liquid crystal display with filtered black point
US7602369B2 (en) * 2004-05-04 2009-10-13 Sharp Laboratories Of America, Inc. Liquid crystal display with colored backlight
US8395577B2 (en) * 2004-05-04 2013-03-12 Sharp Laboratories Of America, Inc. Liquid crystal display with illumination control
US7612757B2 (en) * 2004-05-04 2009-11-03 Sharp Laboratories Of America, Inc. Liquid crystal display with modulated black point
US7872631B2 (en) * 2004-05-04 2011-01-18 Sharp Laboratories Of America, Inc. Liquid crystal display with temporal black point
US7777714B2 (en) 2004-05-04 2010-08-17 Sharp Laboratories Of America, Inc. Liquid crystal display with adaptive width
JP2005328845A (ja) * 2004-05-06 2005-12-02 Oce Technologies Bv デジタルカラー画像を変換する方法、装置およびコンピュータプログラム
JP2005333230A (ja) * 2004-05-18 2005-12-02 Noritsu Koki Co Ltd 画像処理装置
KR100612494B1 (ko) * 2004-06-07 2006-08-14 삼성전자주식회사 칼러 영상의 채도 조절 장치 및 방법
JP2006086935A (ja) * 2004-09-17 2006-03-30 Canon Inc 色処理装置およびその方法、画像処理方法、並びに、プリンタドライバ
JP2006094297A (ja) * 2004-09-27 2006-04-06 Fuji Xerox Co Ltd 画像形成装置、画像処理装置、画像処理方法及びそのプログラム
JP4400739B2 (ja) * 2004-09-30 2010-01-20 セイコーエプソン株式会社 色変換方法、色変換装置、色変換プログラム、印刷制御方法、印刷制御装置および印刷制御プログラム
US7460181B2 (en) * 2004-10-15 2008-12-02 Genesis Microchip Inc. Blue stretch using restricted color range and soft transition boundary
US7898519B2 (en) 2005-02-17 2011-03-01 Sharp Laboratories Of America, Inc. Method for overdriving a backlit display
US8050511B2 (en) * 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
US7525528B2 (en) * 2004-11-16 2009-04-28 Sharp Laboratories Of America, Inc. Technique that preserves specular highlights
US8050512B2 (en) * 2004-11-16 2011-11-01 Sharp Laboratories Of America, Inc. High dynamic range images from low dynamic range images
JPWO2006059573A1 (ja) * 2004-12-02 2008-06-05 松下電器産業株式会社 色彩調整装置及び方法
JP4371069B2 (ja) * 2005-03-16 2009-11-25 セイコーエプソン株式会社 色かぶりの傾向に応じたカラーバランス補正
RU2413383C2 (ru) * 2005-04-04 2011-02-27 Конинклейке Филипс Электроникс Н.В. Блок цветового преобразования для уменьшения окантовки
KR100708129B1 (ko) * 2005-05-03 2007-04-16 삼성전자주식회사 칼라 프로파일 편집장치 및 방법
JP2006340012A (ja) * 2005-06-01 2006-12-14 Konica Minolta Medical & Graphic Inc 色調整方法
US20070002180A1 (en) * 2005-06-30 2007-01-04 Lexmark International, Inc. Strength parameter-based color conversion of digital images
JP4551836B2 (ja) * 2005-07-29 2010-09-29 株式会社東芝 映像信号処理装置及び映像信号処理方法
JP2007067977A (ja) * 2005-08-31 2007-03-15 Toshiba Corp 映像処理装置、映像表示装置および表示色調整方法
US7620243B2 (en) * 2005-12-14 2009-11-17 Seiko Epson Corporation Noise reduction for primary tones for image replication systems
US9143657B2 (en) * 2006-01-24 2015-09-22 Sharp Laboratories Of America, Inc. Color enhancement technique using skin color detection
US8121401B2 (en) * 2006-01-24 2012-02-21 Sharp Labortories of America, Inc. Method for reducing enhancement of artifacts and noise in image color enhancement
JP2009526335A (ja) * 2006-02-10 2009-07-16 ニック ソフトウエア インク デジタル画像の自己適応ブラシ
WO2007098497A1 (en) * 2006-02-22 2007-08-30 Nik Software, Inc. Multi-purpose digital editing tools using background processing
GB2437338A (en) * 2006-04-21 2007-10-24 Snell & Wilcox Ltd Detecting monochrome images from the skew of a statistical distribution of pixel values
JP4289371B2 (ja) * 2006-05-30 2009-07-01 コニカミノルタビジネステクノロジーズ株式会社 文書データ処理装置及び文書データ処理プログラム
WO2007147081A1 (en) 2006-06-14 2007-12-21 Nik Software, Inc. Graphical user interface and related method
JP4747970B2 (ja) * 2006-07-04 2011-08-17 オムロン株式会社 画像処理装置
JP2008028507A (ja) * 2006-07-19 2008-02-07 Sony Corp 画像補正回路、画像補正方法および画像表示装置
JP2008042617A (ja) * 2006-08-08 2008-02-21 Eastman Kodak Co デジタルカメラ
US7679786B2 (en) * 2006-09-06 2010-03-16 Eastman Kodak Company Color correction method
US8487931B2 (en) * 2006-09-07 2013-07-16 Adobe Systems Incorporated Dynamic feedback and interaction for parametric curves
US8111941B2 (en) 2006-11-22 2012-02-07 Nik Software, Inc. Method for dynamic range editing
US9053530B2 (en) 2006-11-27 2015-06-09 Google Inc. Method for sliced inpainting
US8941580B2 (en) 2006-11-30 2015-01-27 Sharp Laboratories Of America, Inc. Liquid crystal display with area adaptive backlight
US8837849B2 (en) 2007-06-26 2014-09-16 Google Inc. Method for noise-robust color changes in digital images
JP5262377B2 (ja) * 2007-08-09 2013-08-14 ペンタックスリコーイメージング株式会社 撮像装置
CN101796848A (zh) * 2007-09-03 2010-08-04 Nxp股份有限公司 颜色增强
EP2068569B1 (de) * 2007-12-05 2017-01-25 Vestel Elektronik Sanayi ve Ticaret A.S. Verfahren und Vorrichtung zum Erkennen und Anpassen von Farbwerten der Hautfarbenpixel
KR101362167B1 (ko) * 2007-12-31 2014-02-13 엘지디스플레이 주식회사 선호색 보정방법 및 장치와, 그를 이용한 액정 표시장치
US8130236B2 (en) * 2008-02-05 2012-03-06 Aptina Imaging Corporation Systems and methods to achieve preferred imager color reproduction
US8368716B2 (en) * 2008-09-29 2013-02-05 Hewlett-Packard Development Company, L.P. Processing pixel values of a color image
EP2382768A1 (de) * 2008-12-22 2011-11-02 Koninklijke Philips Electronics N.V. Verfahren zum ändern eines bilddatensignals, einrichtung zum ändern eines bilddatensignals, anzeigeeinrichtung
KR20100086229A (ko) * 2009-01-22 2010-07-30 삼성전자주식회사 색보정 장치, 색보정 방법, 화상형성장치 및 컴퓨터 기록 매체
US8462171B2 (en) * 2009-02-06 2013-06-11 Micrososft Corporation Saturation contrast image enhancement
US20100253551A1 (en) * 2009-04-07 2010-10-07 Sunrex Technology Corp. Keyboard with paint scheme
CN101576932B (zh) 2009-06-16 2012-07-04 阿里巴巴集团控股有限公司 近重复图片的计算机查找方法和装置
US20110115815A1 (en) * 2009-11-18 2011-05-19 Xinyu Xu Methods and Systems for Image Enhancement
US8553154B2 (en) * 2010-02-16 2013-10-08 Vixs Systems, Inc Method and/or apparatus for implementing a color management module
EP2383974B1 (de) * 2010-04-30 2012-10-03 Basler AG Bildverarbeitungsmittel, insbesondere in einer Farbkamera, mit universellem Farboperator
WO2017159460A1 (ja) * 2016-03-17 2017-09-21 セイコーエプソン株式会社 色補正テーブル作成方法、色補正テーブル作成装置、プログラム
CN109076167A (zh) * 2016-06-17 2018-12-21 索尼公司 图像处理器、摄像装置和图像处理系统
US9986128B1 (en) * 2017-03-10 2018-05-29 Kabushiki Kaisha Toshiba Image forming apparatus and image forming method facilitating processing color
US11030726B1 (en) * 2019-04-25 2021-06-08 Shutterstock, Inc. Image cropping with lossless resolution for generating enhanced image databases
GB2594474B (en) 2020-04-28 2022-05-11 Koenig & Bauer Banknote Solutions Sa Methods for designing and producing a security feature

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5130935A (en) * 1986-03-31 1992-07-14 Canon Kabushiki Kaisha Color image processing apparatus for extracting image data having predetermined color information from among inputted image data and for correcting inputted image data in response to the extracted image data
JPS6451888A (en) * 1987-08-24 1989-02-28 Sharp Kk Picture processor
JPH0250859A (ja) * 1988-08-11 1990-02-20 Dainippon Screen Mfg Co Ltd 色分解条件設定方法および装置
JP2746939B2 (ja) * 1988-09-26 1998-05-06 株式会社リコー 色変換装置
JPH02118680A (ja) * 1988-10-28 1990-05-02 Fuji Xerox Co Ltd 画像形成装置の下色除去方式
JPH06101799B2 (ja) * 1988-10-28 1994-12-12 富士ゼロックス株式会社 画像形成装置のグレイバランス制御方式
US5012333A (en) * 1989-01-05 1991-04-30 Eastman Kodak Company Interactive dynamic range adjustment system for printing digital images
JP2887158B2 (ja) * 1989-06-14 1999-04-26 富士ゼロックス株式会社 画像処理装置
US5287418A (en) * 1989-10-25 1994-02-15 Dainippon Screen Mfg. Co., Ltd. Method and apparatus for producing a corrected image from an original image
JPH0828786B2 (ja) * 1989-12-21 1996-03-21 富士ゼロックス株式会社 画像記録装置
GB9002477D0 (en) * 1990-02-05 1990-04-04 Crosfield Electronics Ltd Improvements relating to control data arrays
US5281995A (en) * 1990-07-27 1994-01-25 Fuji Photo Film Co., Ltd. Method of determining an exposure for use in an image forming apparatus
JPH04150689A (ja) 1990-10-15 1992-05-25 Minolta Camera Co Ltd 撮像装置
NL9002168A (nl) * 1990-10-05 1992-05-06 Blandikus Catharikus Jaspers E Holle elektrode voor een elektrochemische cel voorzien van ten minste een toe- en een afvoeropening voor gassen, alsmede elektrochemische cel die een dergelijke elektrode omvat.
JPH04156779A (ja) 1990-10-19 1992-05-29 Matsushita Electric Ind Co Ltd 色変換装置
JPH04243376A (ja) 1991-01-18 1992-08-31 Canon Inc カラー画像処理装置
JP2878855B2 (ja) 1991-02-21 1999-04-05 富士写真フイルム株式会社 画像処理装置
US5296945A (en) * 1991-03-13 1994-03-22 Olympus Optical Co., Ltd. Video ID photo printing apparatus and complexion converting apparatus
JP2998278B2 (ja) * 1991-05-14 2000-01-11 富士ゼロックス株式会社 カラー画像記録装置におけるモノカラー編集方法及び装置
JP2990306B2 (ja) * 1991-05-14 1999-12-13 富士ゼロックス株式会社 カラー画像記録装置のマーカドット検出方式
JP3317446B2 (ja) * 1991-05-14 2002-08-26 富士ゼロックス株式会社 画像処理装置
US5289295A (en) * 1991-07-04 1994-02-22 Matsushita Electric Industrial Co., Ltd. Color adjustment apparatus
JP3067304B2 (ja) * 1991-09-13 2000-07-17 富士ゼロックス株式会社 カラー画像処理装置のパターン発生方式
US5289297A (en) * 1991-10-02 1994-02-22 Xerox Corporation Converting lines to other colors
EP0536892B1 (de) * 1991-10-07 1997-02-05 Xerox Corporation Bildeditiersystem und Methode mit verbesserter Farbpaletteneditierung
DE69216207T2 (de) * 1991-10-30 1997-04-17 Fujitsu Ltd Farbeinstellung zur Glättung der Grenzen zwischen Farbbildern
US5335097A (en) * 1992-04-21 1994-08-02 Dainippon Screen Mfg. Co., Ltd. Color tone correcting apparatus
US5963201A (en) * 1992-05-11 1999-10-05 Apple Computer, Inc. Color processing system
CA2093448C (en) * 1992-07-17 1999-03-09 Albert D. Edgar Expert system for image enhancement
JPH0678320A (ja) * 1992-08-25 1994-03-18 Matsushita Electric Ind Co Ltd 色調整装置
JPH06121159A (ja) 1992-10-02 1994-04-28 Fujitsu Ltd カラー画像処理装置
US5557688A (en) * 1992-11-18 1996-09-17 Fuji Photo Film Co., Ltd. Method of extracting characteristic image data and color data conversion device for image processing apparatus
JPH06169395A (ja) 1992-11-27 1994-06-14 Sharp Corp 画像形成装置
JP3335240B2 (ja) * 1993-02-02 2002-10-15 富士写真フイルム株式会社 画像処理条件設定方法および装置
US5559903A (en) * 1993-04-08 1996-09-24 Linotype Hell Ag Method for generating geometric masks with a digital color computer
JP3393679B2 (ja) 1993-07-28 2003-04-07 株式会社リコー 色画像処理装置
JPH0789368A (ja) 1993-09-22 1995-04-04 Mitsubishi Motors Corp 自動車の走行制御装置
JP2800672B2 (ja) * 1994-01-31 1998-09-21 富士ゼロックス株式会社 文書処理装置
US5715377A (en) * 1994-07-21 1998-02-03 Matsushita Electric Industrial Co. Ltd. Gray level correction apparatus
JP2716370B2 (ja) * 1994-08-04 1998-02-18 株式会社エヌイーシー情報システムズ 配色支援方法およびその装置
KR0121134B1 (ko) * 1994-09-14 1997-11-10 문정환 반도체 메모리장치의 워드라인드라이버
US5982926A (en) * 1995-01-17 1999-11-09 At & T Ipm Corp. Real-time image enhancement techniques
JPH08293023A (ja) * 1995-02-22 1996-11-05 Fuji Photo Film Co Ltd イメージプロセッサ、プリンタ及びそれらを備えたプリンタシステム
EP0741492B1 (de) * 1995-05-03 1999-03-03 Agfa-Gevaert N.V. Farbtonbereiche angewandte selektive Farbkorrektur
US5754222A (en) * 1996-03-08 1998-05-19 Eastman Kodak Company Visual characterization using display model
JP3461626B2 (ja) * 1995-07-28 2003-10-27 シャープ株式会社 特定画像領域抽出方法及び特定画像領域抽出装置
JPH09116771A (ja) * 1995-10-18 1997-05-02 Mita Ind Co Ltd カラー画像生成機
JP3669448B2 (ja) * 1995-10-31 2005-07-06 富士写真フイルム株式会社 画像再生方法および装置
US5717838A (en) * 1995-10-31 1998-02-10 Seiko Epson Corporation Computer calibration of a color print image using successive refinement
JPH09181926A (ja) 1995-12-26 1997-07-11 Ricoh Co Ltd カラーマネージメント装置
JPH09238261A (ja) * 1996-02-28 1997-09-09 Minolta Co Ltd 画像形成装置
US6388768B2 (en) * 1996-04-22 2002-05-14 Minolta Co., Ltd. Image forming apparatus which excels in reproducibility of colors, fine lines and gradations even in a copy made from a copied image
JPH09298657A (ja) * 1996-04-30 1997-11-18 Fuji Photo Film Co Ltd 画像処理装置
US6151410A (en) * 1996-11-19 2000-11-21 Seiko Epson Corporation Image processing apparatus, image processing method and medium for storing image-processing control program
WO1999010866A1 (en) * 1997-08-25 1999-03-04 Imagicolor Corp A system for distributing and controlling color reproduction at multiple sites
US6008907A (en) * 1997-10-15 1999-12-28 Polaroid Corporation Printer calibration
US6906826B1 (en) * 1998-11-16 2005-06-14 Seiko Epson Corporation Medium on which image modifying program is recorded, image modifying apparatus and method
JP2000165647A (ja) * 1998-11-26 2000-06-16 Seiko Epson Corp 画像データ処理方法および画像データ印刷装置並びに画像データ処理プログラムを記録した記録媒体
JP2002016818A (ja) * 2000-04-28 2002-01-18 Fuji Photo Film Co Ltd 色補正方法および装置並びに記録媒体

Also Published As

Publication number Publication date
DE69827703D1 (de) 2004-12-30
US7072074B2 (en) 2006-07-04
EP1619876A3 (de) 2006-02-01
EP0886437A2 (de) 1998-12-23
US20060203297A1 (en) 2006-09-14
EP1489833A1 (de) 2004-12-22
EP1619875A1 (de) 2006-01-25
US20060203298A1 (en) 2006-09-14
US7292371B2 (en) 2007-11-06
EP1619876A2 (de) 2006-01-25
EP0886437A3 (de) 1999-04-14
EP0886437B1 (de) 2004-11-24
US6535301B1 (en) 2003-03-18
US20030043394A1 (en) 2003-03-06
US7286265B2 (en) 2007-10-23

Similar Documents

Publication Publication Date Title
DE69827703T2 (de) Verfahren und Vorrichtung zum Einstellen der Farbe
DE69735083T2 (de) Bildverarbeitungssystem und -verfahren
US8553285B2 (en) Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
DE60026258T2 (de) Bildverarbeitungsverfahren und Bildverarbeitungsvorrichtung
EP1231564B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
DE69914297T2 (de) Verfahren zur Umsetzung von Farbdaten
DE69634867T2 (de) Bildverarbeitungsgerät und -verfahren
DE69913534T2 (de) Verfahren und vorrichtung zur bilderzeugung
DE60009644T2 (de) Farbtonumsetzung unter Verwendung lokaler Information
DE60033484T2 (de) Umsetzung des Farbtonbereichs mit Erhaltung der lokalen Luminanzdifferenzen
DE69723802T2 (de) Bildverarbeitungsvorrichtung und -verfahren
DE4002298C2 (de) Verfahren und Vorrichtung zur automatischen Korrektur von Farbstichen bei der elektronischen Bildverarbeitung
DE60308472T2 (de) Bildverarbeitungsanordnung, elektronische Kamera, und Bildverarbeitungsprogramm
DE10246102A1 (de) Verfahren und Vorrichtung zum Filtern von Rauschen von einem digatalen Bild
DE19904997A1 (de) Automatische Farbausfällung unter Verwendung von Luminanz/Chrominanz-Zwischenraumverarbeitung
DE69929408T2 (de) Verfahren und Vorrichtung zur Bildqualitätsveränderung
DE69937302T2 (de) Montone konvertiervorrichtung, monotones konvertierverfahren und medium auf dem ein monotones konvertierbares programm aufgenommen werden kann
JP3918257B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムを記録した媒体
DE60005754T2 (de) Verfahren und Vorrichtung zum Drucken eines schwarz-weissen Bildes basiert auf Farbinformationen
DE60302201T2 (de) Bildverarbeitungsverfahren von gerastertern Bildern
JP4019204B2 (ja) 画像処理装置、画像処理方法、画像処理制御プログラムを記録した媒体
DE4420668A1 (de) Verfahren zur Farbreproduktion in einem Bildverarbeitungssystem unabhängig von den Eingabe- und Ausgabevorrichtungen
EP1231566B1 (de) Digitale lokale Bildeigenschaftssteuerung mittels Masken
JP3573143B2 (ja) 画像処理装置、画像処理方法、画像処理制御プログラムを記録した媒体
DE10209607A1 (de) Verfahren zur Kontrastverbesserung von Bildvorlagen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition