DE69731212T2 - Verfahren und vorrichtung zur verwendung von bildanalyse zur feststellung von fleisch- und schlachttierkörpereigenschaften - Google Patents

Verfahren und vorrichtung zur verwendung von bildanalyse zur feststellung von fleisch- und schlachttierkörpereigenschaften Download PDF

Info

Publication number
DE69731212T2
DE69731212T2 DE69731212T DE69731212T DE69731212T2 DE 69731212 T2 DE69731212 T2 DE 69731212T2 DE 69731212 T DE69731212 T DE 69731212T DE 69731212 T DE69731212 T DE 69731212T DE 69731212 T2 DE69731212 T2 DE 69731212T2
Authority
DE
Germany
Prior art keywords
rib
eye
carcass
image
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69731212T
Other languages
English (en)
Other versions
DE69731212D1 (de
Inventor
Kwai-Wah Alan TONG
John David ROBINSON
Tong Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agriculture and Agri Food Canada AAFC
Original Assignee
Agriculture and Agri Food Canada AAFC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agriculture and Agri Food Canada AAFC filed Critical Agriculture and Agri Food Canada AAFC
Publication of DE69731212D1 publication Critical patent/DE69731212D1/de
Application granted granted Critical
Publication of DE69731212T2 publication Critical patent/DE69731212T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • AHUMAN NECESSITIES
    • A22BUTCHERING; MEAT TREATMENT; PROCESSING POULTRY OR FISH
    • A22BSLAUGHTERING
    • A22B5/00Accessories for use during or after slaughtering
    • A22B5/0064Accessories for use during or after slaughtering for classifying or grading carcasses; for measuring back fat
    • A22B5/007Non-invasive scanning of carcasses, e.g. using image recognition, tomography, X-rays, ultrasound
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/02Food
    • G01N33/12Meat; fish
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die Erfindung bezieht sich auf die Bildverarbeitung und statistische Analyse von digitalisierten Bildern von Kadavern von Fleischtieren, um Grad und Ausbeuteparameter des Kadavers zu bestimmen.
  • Beschreibung des Stands der Technik
  • Fleischtier-Einstufung bei sowohl lebenden Tieren als auch Kadavern wurde typischerweise von menschlichen Einstufern durchgeführt, die eine beträchtliche Subjektivität in das Einstufungsverfahren einführen. Es gibt zwei Hauptaspekte für das Fleischeinstufen, Gütegrad und Ausbeutegrad. Der Gütegrad von jungen Tieren wird durch die Menge an intramuskulärem Fett (Marmorierung) in dem Fleisch bestimmt. Der Ausbeutegrad beschreibt den Anteil von magerem Gewebe in dem Kadaver.
  • In dem Kadaver wird die Einstufung gewöhnlich durch Beobachtung und Messung eines Querschnitts des longissimus dorsi durchgeführt (bei Rindern als der „Rib-Eye-Muskel" und bei Schweinen als der „Loin-Eye-Muskel" beschrieben). Der Gütegrad oder die Marmorierung wird typischerweise durch Vergleichen des Aussehens des Rib-Eyes mit Referenzphotographien von Rib-Eyes von Kadavern von bekannten Gütegraden bestimmt. Der Einstufer kann den Gütegrad durch Vergleichen der Menge an Marmorierung in dem geprüften Rib-Eye mit der Menge an Marmorierung, die in den Referenzphotographien ersichtlich ist, bewerten.
  • Das Anteil von magerem Gewebe in dem Kadaver (Ausbeutegrad) wird typischerweise aus der Fläche des Rib-Eyes und der Dicke von subkutanem Fett an verschiedenen Stellen um das Rib-Eye bestimmt. Ausbeutegrad-Berechnungen können ebenfalls Körperhöhlenfettmessungen und heißes Kadavergewicht beinhalten. Wie es ausführlicher hier erläutert wird, sind verschiedene Definitionen eines „Ausbeutegrads" möglich, da sie von bestimmten Kadaververarbeitungs-Standards abhängen. Ein besonderes nützliches Maß von Ausbeutegrad ist die „verkäufliche Ausbeute" des Kadavers, die den Anteil des Lebendgewichts des Tieres reflektiert, das durch die Summe des Gewichts von verkäuflichen Schnitten plus des Gewichts des Verschnitts hergestellt wird. Typischerweise wird die verkäufliche Ausbeute beim Schlachten des Kadavers in herkömmliche Schnitte von Fleisch bestimmt.
  • Eine Anzahl von automatisierten Fleischverarbeitungssystemen hat Nutzen aus den unterschiedlichen lichtreflektierenden Eigenschaften von Muskelgewebe versus fetthaltigem Gewebe gezogen. Das US-Patent Nr. 5 324 228 (Vogeley, erteilt 28. Juni 1994) beschreibt ein Verfahren und eine Vorrichtung zum Beleuchten eines Fischfilets mit einem Streifen von Licht, wenn es durch ein Paar von Videokameras betrachtet wird. Lichthelligkeitssignale von den Kameras werden durch einen Computer in elektrische Digitalsignale umgewandelt, die Beleuchtungshelligkeit darstellen. Der Computer vergleicht die Digitalsignale mit einem vorausgewählten Grenzwert von Grau-Skalenniveaus, um periphere Fettbereiche zu lokalisieren. Der Computer steuert dann den Betrieb einer Schneidevorrichtung, um die Fettbereiche zu entfernen. Ähnliche Systeme zum Unterscheiden von Licht-gefärbtem essbaren Lendenfleisch von dunkelgefärbten nicht essbaren Abfallfleisch in Thunfisch-Scheiben werden im US-Patent Nr. 3 800 363 (Lapeyre, erteilt 2. April 1974) und dem US-Patent 4 738 04 (Lapeyre, erteilt 19. April 1988) beschrieben.
  • Das US-Patent Nr. 3 154 625 (Kail, erteilt 27. Oktober 1964) beschreibt ein Verfahren zum Bestimmen der Marmorierung eines Kadaver-Rib-Eyes durch Messen der durchschnittlichen Reflektivität eines Rib-Eyes bezüglich der Reflektivität einer Fett-gefärbten Probenplatte mittels eines Photometers.
  • Das US-Patent Nr. 4 413 279 (Gorl, erteilt 1. November 1983) beschreibt ein verbessertes Verfahren zum Berechnen eines Helligkeitsgrenzwerts zum Unterscheiden von Fett von magerem Gewebe, um die Probleme beim Identifizieren von Geweben von dazwischenliegender Helligkeit, wie beispielsweise blutverschmiertem Fett, zur Verwendung bei Fleischeinstufungssystemen zu überwinden, wobei die relative Helligkeit von verschiedenen Geweben mit einer Videokamera aufgezeichnet wird.
  • Das US-Patent Nr. 5 352 153 (Burch u. a., erteilt am 4. Oktober 1994) beschreibt eine Vorrichtung zum Beleuchten und Erfassen von Videobildern von Fisch-Sektionen während der Verarbeitung.
  • Das US-Patent Nr. 4 226 540 (Barten u. a., erteilt am 7. Oktober 1980) beschreibt ein Verfahren zum Bestimmen von Fleischgütemerkmalen, bei dem das Verhältnis von Fetten zu magerem Gewebe durch Abtasten eines Fleischprodukts mit einem beweglichen Lichtstrahl und Unterscheiden von fettem von magerem Gewebe basierend auf den unterschiedlichen Helligkeitswerten von Fett und Gewebe bestimmt wird.
  • Eine Anzahl von Videobildaufbereitungs-Einstufungssystemen wurde beschrieben, bei denen eine Reihe von Bildern von lebenden Tieren genommen wird. Das US-Patent Nr. 5 483 441 (Scofield u. a., erteilt 9. Januar 1996) beschreibt ein Videobilderfassungs- und Analysesystem, bei dem eine Reihe von Videobildern erfasst und ausgewertet werden, wenn sieh ein lebendes Tier durch aufeinander folgende Blickfelder bewegt. Das US-Patent Nr. 4 745 472 (Hayes u. a., erteilt 17. Mai 1988) beschreibt ein Videobilderfassungs- und Analysesystem, bei dem Marken auf verschiedene anatomische Referenzpunkte auf dem Körper eines lebenden Tieres platziert werden. Das Tier wird dann in einen Schacht mit oberen und Seitenwänden positioniert, die Messgitter umfassen. Videoband-Aufzeichnungen werden von dem Tier in dem Schacht durchgeführt, und die Videoinformation wird mit einem Computer analysiert, um die Abstände zwischen den an dem Körper des Tieres manuell befestigten Marken zu bestimmen.
  • Andere Systeme haben Videobild-Aufbereitungsinformation mit anderer Information kombiniert, die beispielsweise durch Einfügen einer Sonde in den Kadaver erfasst wurde, um Einstufungsinformation zu liefern. Das US-Patent Nr. 4 939 574 (Petersen u. a., erteilt 3. Juli 1990) beschreibt eine Lichtabschirmkammer, bei der das Schattenbild eines Tierkadavers mit einer elektronischen Kamera aufgezeichnet und die Kontur des Kadavers mit einem Datenverarbeitungssystem bestimmt wird. Kadaver-Konturinformation wird in Verbindung mit einer vorherigen Kadaver-Farbauswertung und durch Einfügen einer Sonde in den Kadaver bestimmte Fleisch- und Fettdicken-Information verwendet, um eine Kadaverklassifizierung zu bestimmen.
  • Das US-Patent Nr. 4 439 037 (Northeved u. a., erteilt 27. März 1984) beschreibt eine optische Sonde zur Einfügung in einen Kadaver, um das Fleisch-Fett-Verhältnis des Kadavers zu auszuwerten.
  • Ultraschallbilder von lebenden Tieren wurden für den Zweck des Abschätzens der Marmorierung oder der subkutanen Fettdicke des Tieres analysiert. Das US-Patent Nr. 4 785 817 (Stouffer, erteilt 22. November 1988) beschreibt eine Vorrichtung und ein Verfahren zum Verwenden von Ultraschall zum Bestimmen der Dicke von Fett an verschiedenen Teilen eines Kadavers, von dem Einstufungsbestimmungen durchgeführt werden können. Auf ähnliche Weise lehrt das US-Patent Nr. 5 339 815 (Liu u. a., erteilt 23. August 1994), dass sich der Ultraschall-Bilderzeugung von Rindvieh widmet, die Zuordnung der Autokorrelationseigenschaft von Ultraschall-Speckrauschen mit Rindfleisch-Marmorierungswert.
  • Die internationale Anmeldung WO 93/21597 (Benn u. a., internationales Einreichungsdatum 13. April 1993) lehrt ein Verfahren zum Auffinden der Kontur eines digitalen Bildes eines Rib-Eye-Muskels eines Kadavers, bei dem Verknüpfungen zwischen Paaren von Konkavitäten in der Rib-Eye-Kontur definiert werden, um Bildsektionen auszuschneiden, die außerhalb von dem Rib-Eye sind.
  • Die internationale Anmeldung WO 92/00523 (Newman, internationales Einreichungsdatum 24. Juni 1991) beschreibt ein Verfahren zum Einstufen von Kadavern nach dem Schlachten, das die Schritte eines Prüfen auf die Anwesenheit eines Kadavers in dem Blickfeld einer Kamera, eines Prüfens, dass der Kadaver mit Bezug auf die Kamera geeignet orientiert ist, ein Erfassen von Bildern des Kadavers von einer Mehrzahl von Blickpunkten, ein Bestimmen einer Mehrzahl von Abmessungen des Kadavers aus den Bildern und ein Vergleichen der Abmessungen mit gespeicherten Werten, um einen Grad für den Kadaver zu bestimmen. Es gibt jedoch keine Beschreibung, wie die Abmessungen des Kadavers bestimmt werden können oder wie sie sich auf den Kadavergrad beziehen könnten.
  • Die internationale Anmeldung WO 91114180 (Benn, internationales Anmeldedatum 14. März 1991) beschreibt ein Verfahren zum Auswerten von Kadavern durch Objektbildverarbeitung, das die Schritte eines Aufzeichnens eines Bildes von einem Hintergrunds, eines Aufzeichnens eines zweiten Bildes eines vor dem Hintergrund positionierten Kadavers, ein Analysieren der ersten und zweiten Bilder, um den Kadaver von dem Hintergrund durch Subtrahieren des ersten oder zweiten Bildes von dem anderen für jede Farbkomponente zu differenzieren, um eine Reihe von Komponenten-Differenzbilder bereitzustellen, die rekombiniert werden, um ein absolutes Differenzbild bereitzustellen. Die Anmeldung gibt an, dass anatomische Punkte auf dem Kadaver durch Vergleichen der Fläche des Kadaverprofils mit einer Reihe von Referenzprofilen und Vergleichen der anatomischen Punkte der Bilder, die die ähnlichste Fläche aufweisen, identifiziert werden kann. Es wird angegeben, dass quantitative Dimensionsmessungen von anatomischen Punkten genommen werden können, um die Zusammensetzung vorherzusagen, wobei es jedoch keine Beschreibung gibt, wie die quantitativen Messungen durchzuführen sind, welche nützlich sein könnten oder wie eine Vorhersage basierend auf den Messungen durchzuführen ist.
  • Zusammenfassend ermöglichen die oben beschriebenen Systeme nicht, dass eine kontinuierliche Einstufung oder Ausbeuteberechnungen von Kadavern während der Schlachtprozedur durchgeführt werden können. Techniken werden benötigt, um genaue und wiederholbare Messungen von Kadaverabmessungen ohne manuelle Identifikation von anatomischen Merkmalen des Kadaver zuverlässig zu nehmen, und Ausbeutevorhersagen basierend auf diesen Kadavermessungen zu entwickeln. Dies erfordert die Identifikation von spezifischen festgelegten und wiederholbaren Kadavermessungen, die eng mit dem Grad oder dem Ausbeuteparameter von Interesse korreliert sind. Ausgefeilte Rib-Eye-Auffindungstechniken sind ebenfalls erforderlich, um genaue Rib-Eye-Messungen zu erhalten, die ebenfalls bei Grad- und Ausbeutebestimmungen verwendet werden können.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfinder haben ein schnelles und genaues Verfahren und eine Vorrichtung für die online-Einstufung von Kadavern entwickelt, die in einer Schlachteinrichtung verarbeitet werden. Videobilder im sichtbaren Spektren von abgehäuteten Kadaverhälften, die von einer Aufbereitungsschiene hängen, werden erhalten, digitalisiert und in einem Computer-Speicher zur Bildverarbeitung und -Analyse gespeichert. Die Kontur des Kadaverbildes wird aufgefunden, und anatomische Merkmale des Kadavers, wie beispielsweise des Schwanzes, werden als Vertiefungen oder Vorsprünge in der Kadaver-Bildkontur durch hier offenbarte Verfahren identifiziert. Während eine seitliche Sicht einer Kadaverhälfte vorzugsweise verwendet wird, können andere Kadaveransichten oder Bilder von intakten Kadavern nützlich sein.
  • Sobald ein oder mehrere anatomische Merkmale auf der Kadaver-Kontur identifiziert wurden, können zusätzliche Referenzpunkte auf dem Kadaverbild an vorbestimmten Positionen bezüglich den zuerst identifizierten ursprünglichen anatomischen Merkmalen angeordnet sein. Beispielsweise kann ein zusätzlicher Referenzpunkt einen spezifischen Prozentsatz der Länge entlang einer Linie angeordnet sein, die zwei anatomische Merkmale verbindet. Auf diese Art und Weise ist es durch Lokalisieren einer kleinen Anzahl von anatomischen Merkmalen des Kadavers möglich, schnell, genau und wiederholbar jede Anzahl von zusätzlichen Referenzpunkten auf oder innerhalb der Kadaver-Bildkontur zu identifizieren. Diese zusätzlichen Referenzpunkte können anatomische Merkmale des Kadavers reflektieren, die nicht ohne weiteres als klare Merkpunkte auf der Kadaver-Bildkontur identifiziert werden. Alternativ können die zusätzlichen Referenzpunkte willkürlich zugewiesene Punkte sein, die zum Bereitstellen einer Vielzahl von definierten reproduzierbaren Stellen sein können, von denen verschiedene ein- oder zweidimensionale Messungen durchgeführt werden können.
  • Mit den verschiedenen identifizierten Referenzpunkten kann eine Mehrzahl von Kadaver-Bildmessungen durchgeführt werden. Diese können unter anderem lineare Abstände zwischen Referenzpunkten, durch Referenzpunkte begrenzte Flächen, Winkelmessungen zwischen ausgewählten Sätzen von drei Referenzpunkten und Krümmungsmessungen entlang der Kadaver-Bildkontur umfassen. Mit bekannten statistischen Techniken, wie beispielsweise schrittweise Regression, wurden Vorhersagegleichungen entwickelt, bei denen ein ausgewählter Kadaver-Einstufungsparameter als eine abhängige Variable enthalten ist, und verschiedene Kadaver-Bildmessungen als unabhängige Variabeln enthalten sind. Der Wert von mindestens einem herkömmlichen Einstufungskriterium für das Rib-Eye des Kadavers ist als eine unabhängige Variable in der Einstufungsparameter-Vorhersagegleichung enthalten.
  • Bei dem veranschaulichten Fall, der sich auf Rinderkadaver bezieht, stellte sich als besonders nützlicher unabhängiger Variable der kürzesten Abstand von jedem einer Mehrzahl von Referenzpunkten entlang der Kadaver-Bildkontur zu einer parallel zu der Längsachse der Kadaver-Bildkontur festgelegten Mittellinie sind, die das Bild in ungefähr in Rücken- und Bauchabschnitte aufteilt, wobei die Breite der Kadaver-Bildkontur und die Breite von Regionen des Kadaverbildes, die Grenzen aufweisen, die diejenigen von herkömmlichen wesentlichen Kadaverschnitten aufweisen. Wesentliche Schnitte sind die Brutto-Schnitte, in die ein Kadaver zuerst während des Schlachtverfahrens geschnitten wird, und von denen die während des Fertigungsprozesses durchgeführten verbleibenden Schnitte abhängen. Die Erfinder haben ein Verfahren zur schnellen Näherung der herkömmlichen wesentlichen Schnitte auf dem Kadaverbild entwickelt, das das Aufteilen des Kadaverbildes in Sektionen begrenzt durch Linien beinhaltet, die vorbestimmte Referenzpunkte auf und innerhalb der Kadaver-Bildkontur verbinden. Die Fläche bestimmter wesentlicher Schnitte und das Verhältnis der Fläche dieser wesentlichen Schnitte zu der Gesamtkadaver-Bildfläche haben sich insbesondere als unabhängige Variablen bei Vorhersagegleichungen als nützlich erwiesen, um solche Sachen, wie die verkäufliche Ausbeute des Kadavers vorherzusagen.
  • Schrittweise Regressionstechniken werden verwendet, um das Grad der linearen Assoziation zwischen jeder der Messungen zu bestimmen, die von Kadaverbild erhalten wurden, und dem ausgewählten Einstufungsparameter des Kadavers, und um das beste Modell zum Vorhersagen des Werts des ausgewählten Einstufungsparameters des Kadavers zu bestimmen, bei dem eine Mehrzahl von Kadaver-Bildmessungen unabhängige Variablen bilden. Wenn eine Vorhersagegleichung entwickelt wurde, kann das System verwendet werden, um Kadaver-Bildmessungen von zusätzlichen Kadavern zu nehmen, und die Vorhersagegleichung kann für diese Messungen gelöst werden, um eine Ausgabe des Werts des ausgewählten Einstufungsparameters des Kadavers bereitzustellen. Obwohl Vorhersagegleichungen entwickelt werden können, um den Wert einer weiten Vielfalt von Kadaver-Einstufungsparametern vorherzusagen, ist eine besonders nützliche Anwendung der Erfindung die Vorhersage der verkäuflichen Ausbeute eines Kadavers. Die Definition von „verkäuflicher Ausbeute" wird sich unter unterschiedlichen Märkten für geschlachtete Fleischprodukte unterscheiden. Im Allgemeinen reflektiert sie die Summe des Gewichts von anfänglichen Kadaverschnitten bei einem definierten Fettabdeckungs-Niveau plus das im Gewicht von Haufen bei verschiedenen mageren Prozentanteilen. Bei den Beispielen hierin wurde „verkäufliche Ausbeute" als das Gesamtgewicht aller Schnitte mit einer 1/4 Zoll (6,25 mm) Fettabdeckung definiert, wobei alle Schnitte aus den acht wesentlichen Schnitten für Hüfte, Lende (Surloin, Loin), Rippe, Kamm, Flanke, Dünnung und Brust plus Randhaufen von 50%, 75% und 80% magerem Fleisch hergeleitet werden.
  • Allgemein gesagt liefert die Erfindung bei einer bevorzugten Ausführungsform ein Verfahren zum Bereitstellen eines Gütegrads von einem Tierkadaver, umfassend die Schritte:
    • (a) Erlangen eines Bildes, welches das Rib-Eye des Kadavers beinhaltet, wobei das Bild aus einer Anordnung von Pixeln zusammengesetzt ist, die Farbdaten liefern, die für Farbinformation vom entsprechenden Teil des Bildes repräsentativ sind,
    • (b) Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die Fettgewebe darstellen, auf Basis eines charakteristischen Pixelfarben-Grenzwerts und gegebenenfalls auch Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die kein Muskelgewebe oder Fettgewebe darstellen, auf Basis eines Pixelfarben-Sättigungsniveaugrenzwerts,
    • (c) Identifizieren eines Clusters von Muskelgewebepixeln im Bild, der das Rib-Eye darstellt, und Auffinden der Kontur des Rib-Eye-Muskels, um äußere Bildabschnitte auszuschließen, die Muskelgewebe darstellen, das angrenzt, aber nicht Teil des Rib-Eyes ist,
    • (d) Bestimmen des Verhältnisses von Pixeln innerhalb der Rib-Eye-Kontur, die Fett darstellen, relativ zur Gesamtzahl von Pixeln innerhalb der Rib-Eye- Kontur, um einen Wert des Prozentgehalts an intramuskulärem Fett in dem Rib-Eye zu erhalten,
    • (e) Wiederholen der Schritte (b) bis (d) für eine Mehrzahl von Referenzbildern von Rib-Eyes von Kadavern mit vorbestimmten Gütegrad, um eine Beziehung zwischen dem Prozentgehalt an intramuskulärem Fett in dem Rib-Eye und dem Gütegrad des Kadavers zu etablieren, gegebenenfalls aus Standardphotographien, die das Aussehen von Rib-Eyes von Kadavern bekannter Gütegrade zeigen, und
    • (f) Lösen der in Schritt (e) bestimmten Beziehung für den Wert des Prozentgehalts an intramuskulärem Fett in dem Rib-Eye, der in Schritt (d) bestimmt wird, um den Gütegrad des Kadavers zu bestimmen.
  • Während des Schlachtprozesses wird der Kadaver quer zwischen den Rippen im Allgemeinen zwischen den 12ten und 13ten Rippen geschnitten. Der Schnitt erstreckt sich nicht klar durch den Kadaver, so dass der Kadaver in einem Stück intakt gelassen wird, wobei er von der Aufbereitungsschiene hängt. Das Gewicht des Kadavers öffnet den Schnitt, was die Beobachtung eines Querschnitts des longissimus dorsi Muskels ermöglicht, der beim Rindvieh typischerweise das „Rib-Eye" und bei Schweinen das „Loin-Eye" genannt wird. Wie hier und in den Ansprüchen verwendet, umfasst der Begriff „Rib-Eye" den longissimus dorsi Muskel von Rindern und Schweinen, wie er typischerweise im Querschnitt während der Kadavereinstufung betrachtet wird. Das Rib-Eye stellt den wertvollsten Schnitt in Tieren mit rohem Fleisch, wie beispielsweise Schweinen, Lämmern und Rindern dar. Einstufungssysteme entwickelten sich überall in der Welt um Messungen, die von dem Rib-Eye hergeleitet wurden. Wie es zuvor mit Bezug auf den gesamten Kadaver beschrieben wurde, wird ein Videobild im sichtbaren Spektrum des Rib-Eyes des Kadavers erhalten, digitalisiert und im Computerspeicher zur Bildverarbeitung und Analyse gespeichert. Muskelgewebe darstellende Pixel werden von Fett darstellenden Pixeln auf der Grundlage eines charakteristischen Pixelfarbgrenzwerts, wie beispielsweise Helligkeitsniveau, unterschieden. Knorpel darstellende Pixel können durch ihr niedriges Farbsättigungsniveau identifiziert werden. Die Kontur des Rib-Eyes wird aufgefunden, und der Wert für derartige Variablen, wie der Prozentanteil von intramuskulärem Fett, die Rib-Eye-Fläche und die Dicke von subkutanem Fett an verschiedenen Punkten der Rib-Eye-Kontur werden bestimmt. Diese Variablen werden als unabhängige Variable in den Vorhersagegleichungen zum Vorhersagen von Kadaver-Einstufungsparametern basierend auf zuvor beschriebenen Kadaver-Bildmessungen aufgenommen.
  • Alternativ kann die Rib-Eye-Information unabhängig von Messungen verwendet werden, die von den Kadaverbildern genommen werden, um Vorhersagegleichungen zum Vorhersagen von Kadaver-Einstufungsparametern, die lediglich auf Rib-Eye-Bildmessungen basieren, zu entwickeln.
  • Genaue Einstufungsvorhersagen basierend auf Rib-Eye-Bildmessungen erfordern eine genaue Auffindung der Rib-Eye-Kontur. Muskelgewebe, das an den longissimus dorsi (Rib-Eye) angrenzt, jedoch nicht Teil des longissimus dorsi ist, muss unterschieden werden, um zu ermöglichen, dass genaue Rib-Eye-Messungen von dem aufgefundenen Bild genommen werden. Die vorliegende Erfindung erstreckt sich auf neuartige Rib-Eye-Auffindungstechniken, wobei äußere Bildabschnitte, die Muskelgewebe darstellen, das an das Rib-Eye angrenzt jedoch kein Teil des Rib-Eyes ist, genau identifiziert und ausgeschnitten werden, um überdurchschnittliche Rib-Eye-Auffindungsergebnisse bereitzustellen.
  • Wie oben erläutert, kann die von der aufgefundenen Rib-Eye-Kontur hergeleitete Information unabhängig von der Information verwendet werden, die von dem Kadaverbild hergeleitet wurde, um einen Kadaver-Einstufungsparameter, wie beispielsweise verkäufliche Ausbeute oder Gütegrad (Marmorierung), vorherzusagen. Bei einer bevorzugten Ausführungsform umfasst die Erfindung, die sich auf die Vorhersage von Marmorierung bezieht, ein Erfassen von Bildern von Referenzphotographien mit Standard-Gütegrad von Rib-Eyes, die gewöhnlich als ein Führer in Schlachteinrichtungen für menschliche Einstufer beim Bestimmen des Gütegrades verwendet werden. Die Photographien stellen Rib-Eyes mit einem Grad von Marmorierung an dem Grenzniveau für einen bestimmten Grad dar. Herkömmlicherweise vergleicht der menschliche Einstufer das Rib-Eye unter Prüfung mit den Referenzphotographien und weist einen Grad auf der Grundlage der Grenzmarmorierungsniveaus zu, zwischen die das Rib-Eye unter Prüfung zu fallen scheint. Bei einer Ausführungsform der vorliegenden Erfindung wird der tatsächliche Prozentanteil von intramuskulärem Fett in dem in den Referenzphotographien dargestellten Proben-Rib-Eyes durch Rib-Eye-Bildauffindungsanalyse bestimmt. Nach der Rib-Eye-Auffindungsanalyse können dann Ausbeutegrade den Kadavern als eine Funktion der für das Rib-Eye-Bild berechneten Prozentsatz der Marmorierung zugewiesen werden.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • In den Zeichnungen stellen Ausführungsformen der Erfindungen dar.
  • 1 ist ein Seitenaufriss des vor dem Backdrop positionierten Kadaverbildaufbereitungssystems. Ein von einem Überkopfförderer hängender Kadaver ist zwischen dem Backdrop und dem Kadaverbildaufbereitungssystem positioniert;
  • 2 ist ein Seitenaufriss der mit der CPU verbundenen Rib-Eye-Kamera;
  • 3 ist eine untere Draufsicht der Rib-Eye-Kamera, die die Positionierungsvorrichtung zeigt;
  • 4 veranschaulicht ein Bild einer gitterartigen weißen Platte, die zur Kamerakalibrierung verwendet wird;
  • 5 bis 7 veranschaulichen unterschiedliche Bildsuchmasken, die bei der vorliegenden Erfindung nützlich sind;
  • 8 veranschaulicht die Aufteilung des Kadaverbildes in eine Mehrzahl von getrennten Regionen zur Analyse;
  • 9 veranschaulicht eine zusätzliche Suchmaske, die bei der vorliegenden Erfindung nützlich ist;
  • 10 bis 14 veranschaulichen sukzessive Kadaverbildanalyse-Schritte der Erfindung;
  • 15 bis 18 veranschaulichen die Identifikation von anatomischen Referenzpunkten, die Schätzung von wesentlichen Schnitten, die Definition von linearen Messungen bzw. die Definition von Winkelmessungen;
  • 19 zeigt das allgemeine Aussehen eines Rib-Eyes in einem unverarbeiteten digitalen Bild;
  • 20 bis 30 veranschaulichen sukzessive Rib-Eye-Bildanalyseschritte der Erfindung;
  • 31 zeigt weitere Einzelheiten eines Rib-Eye-Bildes; und
  • 32 bis 35 veranschaulichen Schritte beim Durchführen von Einstufungsmessungen der aufgefundenen Rib-Eye-Kontur.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Die Erfindung wird am Besten mit Bezug auf die beigefügten Figuren verstanden.
  • I. Systemüberblick
  • A. Vorrichtung
  • Bilder werden zuerst von intakten Fleisch-Kadaverhälften erhalten, die von einer Aufbereitungsschiene hängen. Intakte Kadaverbilder können innerhalb weniger Stunden nach dem Schlachten genommen werden, wenn der Kadaver noch in der Nähe der Körpertemperatur ist, oder nachdem der Kadaver vor weiterer Verarbeitung abgekühlt wurde. Die Zeitsteuerung zum Durchführen von intakten Kadaverbildern ist nicht wesentlich. Wie in 1 gezeigt, kann ein Backdrop 10, der aus vier zusammenlegbaren Hintergrund-Panels 12 aufgebaut ist, auf einem rostfreien Stahlrahmen 14 angebracht und von Rollen getragen werden, können ungefähr 2 Fuß (60 cm) hinter dem auf einem Überkopfförderer getragenen Kadaver 16 und 10 Fuß (3 m) vor einer CCD-Kamera positioniert werden. Eines der Panels 12 kann mit einer Gitterausgestaltung an einer Seite und einer schwarzen Oberfläche auf der anderen umkehrbar sein. Das Gitter ist zum Kalibrieren einer Kamera nützlich. Fünf Quadrate in der Mittelspalte des Gitters, wobei eines jeweils schwarz, weiß, rot, grün und blau gefärbt ist, werden zur Farben-Kalibrierung bereitgestellt. Die Hintergrund-Panels 12 liefern einen nicht reflektiven blauen (oder andere Farbe mit einem Farbton, der sich von dem Farbton eines bedeutenden Abschnitts des Kadavers unterscheidet – wobei blau oder grün daher bevorzugt sind) Hintergrund hinter den Kadavern 16, um ein Auffinden der Kontur des Kadavers 16 zu ermöglichen. Eine oder mehrere Gleitstangen 18, die an dem Rahmen 14 befestigt und parallel zu der Richtung der Bewegung des Kadavers 16 orientiert sind, halten den Kadaver 16 an einem gewünschten Abstand von den Panels 12 in einer zu der Kamera senkrechten Ebene. Wenn sich ein Kadaver 16 zu der Mitte des Backdrop 10 bewegt, löst das System eine Kamera aus, um sein Bild einzufangen.
  • Das Kadaver-Bildaufbereitungssystem 20 umfasst eine CCD-Kamera 22, zwei Flutlichtanordnungen 24 (nur eine ist in 1 sichtbar), und eine CPU 26, die auf einer mobilen Basis 28 angebracht sind. Das heiße Kadaver-Bildaufbereitungssystem 20 ist an einem gewünschten Abstand vor dem Kadaver 16 positioniert, der sich entlang des Überkopfförderers bewegt, und der Backdrop 10 ist hinter dem Kadaver 16 ausgerichtet mit dem heißen Kadaver-Bildaufbereitungssystem 20 positioniert.
  • Die Flutlichtanordnungen 24 sind zu dem Backdrop 10 hin gerichtet. Jede Flutlichtanordnung 24 umfasst zwei 110 V 250 W Halogenlampen 30, die in wasserfestem rostfreien Stahlgehäusen angebracht sind. Vorzugsweise sind die Lampen 30 ungefähr 5 Fuß (1,5 m) vor dem Backdrop 10 positioniert. Obwohl Flutlichtanordnungen 24 auf einer mobilen Basis 28 angebracht gezeigt sind, können sie alternativ entweder an der Decke oder freistehend angebracht sein. Das vollständige heiße Kadaver-Bildaufbereitungssystem 20 ist vorzugsweise zur einfachen Bewegung und Lagerung zusammenlegbar.
  • Die CCD-Kamera 22 kann eine Panasonic 3-CCD industrielle Farbkamera (Model GP-US502) sein, die in einem rostfreien Stahlgehäuse angebracht und von einer 12 V Gleichstromversorgung angetrieben wird. Das von der Kamera 22 erzeugte RGB-Videosignal wird an eine Matrox-Bilddigitalisierungsplatine (Matrox Electronic Systems Ltd., Dorval, Quebec, Kanada) (nicht gezeigt) in der CPU 26 gespeist. Die CPU ist in einem rostfreien Stahlkasten (nicht gezeigt) enthalten, um sanitären Bestimmungen von Schlachthäusern zu entsprechen. Die CPU 26 kann ein Pentium 150 MHz Computer sein, der Software unter Microsoft Windows 95 Betriebssystemen laufen lässt. Die digitalisierende Platine greift ein Bild eines Kadavers 16, wenn sich der Kadaver 16 in Position vor dem Backdrop 10 bewegt. Die Kontur des Kadavers 16 wird aufgefunden, bestimmte anatomische Punkte werden bestimmt, eine Reihe von linearen, zweidimensionalen und Winkelmessungen werden durchgeführt und die Ergebnisse und das Bild werden gesichert.
  • Bilder der Rib-Eye-Fläche des Kadavers 16 werden im Allgemeinen genommen, nachdem der Kadaver 16 für 24 Stunden abgekühlt wurde. Obwohl Rib-Eye-Bilder von heißen Kadavern genommen werden könnten, würde es schwieriger sein, intramuskuläres Fett von magerem Muskelgewebe zu unterscheiden. Wie in 2 und 3 gezeigt, umfasst das Rib-Eye-Bildaufbereitungssystem 32 eine handgehaltene Rib-Eye-Kamera 34 und eine CPU 36. Rib-Eye-Bilder werden von einem Teilquerschnitt des Kadavers 16 zwischen den zwölften und dreizehnten Rippen genommen. Dies ist die Rib-Eye-Muskelstelle, die normalerweise von staatlichen Prüfern eingestuft wird. Daher sollte die Kamera 34 tragbar sein, so dass sie in den V-förmige Kerbe platziert werden kann, die zwischen den zwölften und dreizehnten Rippen des Kadavers geschnitten ist. Die handgehaltene Kamera 34 kann eine Panasonic 3-CCD-Kamera sein, die ähnlich wie die CCD-Kamera 24 in einem rostfreien Stahlgehäuse 38 angebracht ist. Zwei EXN 12 V, 50 W Niederspannungs-Anzeigelampen 40 sind an jeder Seite der Kamera 34 angebracht. Ein Kippschalter 42 an dem Kamerahandgriff 44 ist mit einer E/A-Platine an der CPU 36 verbunden, die ihrerseits die CPU 36 informiert, um ein Bild zu greifen.
  • Die handgehaltene Kamera 34 ist an einer Vorrichtung 46 mit einer Positionierungslasche 48 angebracht, die die Kamera 34 korrekt mit Bezug auf die Rib-Eye-Muskelfläche des Kadavers 16 positioniert. Alternativ kann ein leichter ferner Kamerakopf, der eine kleine Kamera und eine Linseneinheit mit einer Fernsteuerungseinheit (nicht gezeigt) verbindet, verwendet werden. Der Kamerakopf könnte direkt auf einer kleinen leichten Vorrichtung ähnlich wie die Vorrichtung 46 zur leichten Handhabung angebracht sein.
  • Die CPU 36 kann ein Pentium 150 MHz Computer sein, der in einem rostfreien Stahlgehäuse 38 angebracht ist. Die CPU 16 lässt Software unter dem Microsoft Windows 95 Betriebssystem laufen. Die Software greift ein Bild eines Rib-Eyes. Sie verfolgt die Kontur des Rib-Eye-Muskels, berechnet die Rib-Eye-Muskelfläche und die Länge und die Breite des Rib-Eyes, misst die Dicke von subkutanem Fett, die Farbe des Muskels und den Prozentanteil von intramuskulärem Fett. Die Software sichert dann die Ergebnisse und das Bild.
  • Die folgende zusätzliche Computer-Hardware und -Software kann mit dem oben beschriebenen heißen Kadaver-Bildaufbereitungssystem 20 und Rib-Eye-Muskelbildaufbereitungssystem 32 benutzt werden:
    • – ein Matrox MGA Millenium Video-Anzeigeadapter (Matrox Electronic Systems Ltd.) für die Bildschirmanzeige von Live(30 fps in 32 Bit-Farbe)-Video;
    • – ein Matrox Meteor Bilddigitalisierplatine (Matrox Electronic Systems Ltd.), um Bilder einzufangen;
    • – ein PC-TIO-10 E/A-Platine (National Instruments Corporation, Austin, Texas), die verwendet wird, um einen äußeren Trigger anzunehmen, um der Software zu signalisieren, ein Bild von dem Video-Digitalisierer zu erfassen;
    • – ein FASTCOM/IG232 Kommunikations-Port (Industrial Computer Source, San Diego, Kalifornien), das zur seriellen Kommunikation mit Verpackungsanlagen-Kommunikationssystemen verwendet wird;
    • – ein Minolta Spektrophotometer zur anfänglichen Programmkalibrierung und Prüfung;
    • – eine JVC 3-Chip RGB Kamera (Model GP-U5502), die als eine Video-Eingangsquelle verwendet wird;
    • – ein Microsoft Windows 95 Betriebssystem (Microsoft, Redmond, WA), unter dem die Entwicklung stattfand;
    • – Microsoft Visual C++ V4.0, das als die Hauptentwicklungsumgebung einschließlich C++ Sprache, Debugger, Schnittstellenaufbauer und Microsoft Foundation Classes verwendet wird;
    • – eine Matrox Imaging Library (MIL) Lite (Matrox Electronic Systems Ltd.) grundlegende Frame-Grabber-Schnittstelle zum Erfassen von RGB-Bildern von einer Videoquelle;
    • – eine NI-DAQ Function Library I/O-Platinenschnittstelle (National Instruments Corporation), die ermöglicht, dass Software durch eine äußere Taste getriggert wird, die an einer Hardware-Schnittstelle auf einem Computer angebracht ist; und,
    • – JPEG Library Version 6 (Independent JPEG Group) Programmcode zum Lesen und Schreiben von JPEG-formatierten Bildern in sekundäre Speichervorrichtungen.
  • B. Bildverarbeitung
  • Das System umfasst zwei Subsysteme, ein Kadaver-Bildverarbeitungssubsystem und ein Rib-Eye-Bildverarbeitungssubsystem. Die Kadavermessungen können von dem heißen Kadaver direkt während der Schlachtprozedur oder nach einer Abkühlungszeitspanne genommen werden. Rib-Eye-Messungen werden typischerweise nach einer Abkühlung von 24 Stunden genommen.
  • 1. Kadaver-Bildverarbeitung
  • Das Kadaver-Bildaufbereitungssystem 20 wird verwendet, um ein Bild im sichtbaren Spektrum einer vollständigen Hälfte eines Fleischkadavers zu erfassen, das sich entlang seiner Aufbereitungsschiene während der Schlachtprozedur bewegt. Der Kadaver wurde in zwei symmetrische Hälften entlang einer Rückenachse halbiert.
  • Zwei Kadaver-Orientierungen (Kadaverseite betrachtet) sind für jede der linken und rechten Hälften des Kadavers möglich, was zu vier möglichen Ansichten führt: (a) Knochenseite links; (b) Knochenseite rechts; (c) Hautseite links; und (d) Hautseite rechts. Die linke Hautseite des Kadavers wird bei dem kanadischen Fleischeinstufungssystem verwendet. Die anderen Ansichten werden bei dem kanadischen System nicht verwendet.
  • Wenn die Kadaverhälften die Straße herunterkommen, kann entweder die Knochenseite oder die Hautseite der Kamera gegenüberliegen. Ein stromaufwärts von dem Kadaver-Bildaufbereitungssystem 20 stehender Bediener kippt die Kadaverhälften in die Hautseiten-Orientierung. Das Kadaver-Bildaufbereitungssystem 20 unterscheidet zwischen den linken und rechten Kadaverhälften, und behält Bilder der ausgewählten Kadaverhälften zur Analyse.
  • Verschiedene lineare, zweidimensionale und Krümmungsmessungen des Kadavers werden durchgeführt, wie es hier ausführlich erläutert wird. Eine Gesamtzahl von ungefähr 400 Messungen wird durchgeführt. Vorhersagegleichungen können aus diesen Messungen entwickelt werden, um (i) Kadaver-Konformation vorherzusagen, (ii) Kadaver in Größengruppen zu sortieren und (iii) genaue Koordinaten zur automatisierten Herstellung von wesentlichen Schnitten durch Roboter-Maschinerie bereitzustellen.
  • 2. Rib-Eye-Bitdverarbeitung
  • Nach 24-stüngiger Abkühlung wird ein Schnitt zwischen den zwölften und dreizehnten Rippen des Kadavers durchgeführt, um den longissimus dorsi Muskel, ebenfalls Rib-Eye genannt, freizulegen. Manuelle Beobachtung eines Querschnitts des Rib-Eyes ist eine herkömmliche Kadaver-Einstufungstechnik. Das Gewicht des Kadavers öffnet den Schnitt, so dass die handgehaltene Kamera 34 in die resultierende Kerbe eingeführt und ein Bild genommen werden kann. Es gibt zwei Hauptgründe, dass das Rib-Eye für Fleischeinstufungszwecke geprüft wird. Zuerst sind Rib-Eye-Einstufungsmessungen bekannt, eng mit dem Grad des Rests des Kadavers zu korrelieren. Zweitens ist das Rib-Eye der kostspieligste Schnitt von Fleisch in dem Kadaver und ist daher von der größten Bedeutung für Einstufungszwecke.
  • Im Allgemeinen beinhaltet die Rib-Eye-Flächenanalyse die folgenden Schritte:
    • a. Der untere Rand der Rib-Eye-Fläche wird erfasst. Der untere Rand der Rib-Eye-Muskelfläche wird durch eine Fett/Luft-Grenze definiert. Sie stellt den äußeren Rand eines Querschnitts des Kadavers dar. Dieser Schritt wird genommen, um zu bestimmen, ob es irgendetwas in dem Bild gibt, das den Bildbegrenzungsschritt stören würde. Dieser Schritt ist optional.
    • b. Bestimmen von Grenzwert-Helligkeitsniveaus über der gesamten Kadaver-Bildfläche, um mageres Gewebe von Fett zu unterscheiden. Es wird angenommen, dass der Hintergrund sämtliche Bereiche des Bildes unter dem unteren Rand des bei Schritt a. bestimmten Rib-Eye-Fläche sind. Alle Pixel unter diesem Rand werden auf schwarz eingestellt.
    • c. Die Grenze des Rib-Eye-Muskels auffinden.
    • d. Bestimmen der Fläche der Prozentsatz-Marmorierung innerhalb der Rib-Eye-Muskelgrenze.
    • e. Bestimmen der längsten Achse der Rib-Eye-Muskelfläche.
    • f. Bestimmen der größten Breite der Rib-Eye-Muskelfläche senkrecht zu der längsten Achse.
    • g. Bestimmen der ungefähren Position der subkutanen Fettschicht. Das subkutane Fett wird in der Fläche zwischen der äußeren Kadavergrenze und dem Rand des Rib-Eye-Muskels gefunden.
    • h. Messen der Dicke des subkutanen Fetts durch Aufteilen der Längsachse der Rib-Eye-Muskelfläche in vier gleiche Quadranten und Messen der Dicke des Fetts an der Grenze zwischen jedem der Quadranten.
  • II. Farbanalyse von Fleischgeweben
  • Kadaveranalyse bei der vorliegenden Erfindung beinhaltet drei Grundarten von Gewebe, Fleisch (Muskel), Fett und Knorpel (Knorpelgewebe). Jede dieser Gewebearten weist unterscheidende Farbeigenschaften auf.
  • Die Farbe von Licht ist eine Funktion seiner elektromagnetischen Wellenlänge. Sieben unterschiedlich benannte Farben oder Farbtöne sind in dem sichtbaren Lichtspektrum unterscheidbar, die jeweils eine unterschiedliche Wellenlänge darstellen: rot, orange, gelb, grün, blau, indigo und violett. Lichtfarben arbeiten im Gegensatz von Pigmentfarben auf einer additiven Grundlage. Die Abwesenheit von Licht von irgendeiner Farbe erzeugt schwarz. Eine Kombination der drei primären Lichtfarben rot, grün und blau addiert sich, um weißes Licht zu erzeugen.
  • Es gibt drei Dimensionen oder Farbattribute: Farbton, Wert oder Helligkeit; und Chroma oder Sättigung. „Farbton" ist der spezifische Name einer Farbe. Der Farbton hängt von der dominanten sichtbaren Wellenlänge einer Farbe ab. Die dem bestimmten Farbton zugeordnete Wellenlänge gibt die Position des Farbtons innerhalb des spektralen Bereichs an. Die oben beschriebenen sieben Farbtöne werden als reine Farbtöne angesehen und können nicht in einfachere Farben getrennt werden. Andere sichtbare Farbtöne sind Kombinationen verschiedener unterschiedlicher Lichtwellenlängen (siehe beispielsweise Wallschlaeger C. und C Busic-Snyder, Basic Visual Concepts and Principles for Artists, Architects, and Designers, 1992, Wm. C. Brown Publishers): „Wert" oder „Helligkeit" ist die relative Helligkeit oder Dunkelheit einer Farbe, wie sie in einer schwarz/weiß Photographie aussehen würde. Der Wert einer Farbe hängt davon ab, wie viel Licht die Farbe reflektiert. Farbwerte werden als „Nuancen" oder „Schattierungen" bezeichnet. Nuancen sind im Wert heller. Schattierungen sind im Wert dunkler. „Chroma" oder „Sättigung" bezieht sich auf die Menge eines Farbtons in einer bestimmten Farbe oder der relativen Reinheit einer Farbe auf einer Skala von einem Farbton bis grau. Eine Farbe, die ein hohes Chroma aufweist, wird mit einem monochromatischen (einfarbigen) Farbton gesättigt genannt. Farbton, Wert und Chroma (Farbton, Helligkeit, Sättigung) sind miteinander verbunden. Beispielsweise ist es bei extrem hohen oder niedrigen Werten schwierig, den Farbton oder Chroma einer Farbe zu bestimmen, da alle Farben jeweils sehr hell (weiß) oder sehr dunkel (schwarz) aussehen werden. Ferner können für das menschliche Auge unterschiedliche Farbtöne ihr maximales Chroma bei unterschiedlichen Werten erreichen. Beispielsweise erreicht gelb sein maximales Chroma bei einem höheren Wert (Helligkeit) als lila-blau. Ein ausgezeichnete Erläuterung der Farbanalyse, Darstellung und Reproduktion wird in Benson, K. Blair ed., Television Engineering Handbook Rev. Ed., McGraw-Hill Inc., New York, 1992, bereitgestellt.
  • Wenn diese Farbprinzipien auf die Gewebe eines Tierkadavers angewendet werden, können die unterschiedlichen Farbcharakteristika von Muskelgewebe, Fett und Knorpelgewebe in einem digitalisierten Bild der Rib-Eye-Fläche unterschieden werden. Muskelgewebe, das einen Mittelwert (Helligkeit) und Chroma (Sättigung) aufweist, kann mit einem rötlichen Farbton gesehen werden. Knorpel, das einen niedrigen bis mittleren Wert und ein niedriges Chroma aufweist, sieht achromatisch grau aus, da die Sättigung oder die Intensität des Farbtons (rötlich) niedrig ist. Fett mit einem höheren Wert sieht hell weiß aus, da es schwierig ist, den Farbton (rötlich) bei hohen Werten zu unterscheiden. Somit kann Knorpel von Muskelgewebe oder Fett auf der Grundlage des niedrigen Chromas von Knorpelgewebe unterschieden werden, und Fett kann von Muskelgewebe oder Knorpelgewebe aufgrund des hohen Wertes von Fett unterschieden werden.
  • Eine Anzahl von Systemen können verwendet werden, um Farbe für Computer/Video-Anwendungen zu definieren. Bei dem RGB-System wird die Menge jeweils von rot, grün und blau in der Farbe eines Pixels definiert. Ein RGB-Wert kann in hexadezimaler Form (z. B. hellrot FF0000, hellgrün 00FF00, hellblau 0000FF, schwarz 000000, weiß FFFFFF) dargestellt werden. Alle notwendige Farbinformation kann aus dem RGB-Farbwert bestimmt werden. Die Farbnuance oder Farbton wird durch die relativen Proportionen zwischen den roten, grünen und blauen Werten bestimmt. Somit wird CC33FF einen unterschiedlichen Farbton als CC3300 aufweisen, wobei der letztere einen blaueren Ton aufweist wird. Die Helligkeit und Sättigung der Farbe wird ebenfalls durch die Beziehung zwischen den roten, grünen und blauen Werten bestimmt. Beispielsweise wird 66FF99 den gleichen Farbton wie 33CC66 (mittelgrün) aufweisen, jedoch heller sein.
  • RGB-Werte können direkt in andere Farbsysteme, wie beispielsweise HSL (Farbton, Sättigung, Leuchtdichte), umgewandelt werden. Das HSL-System ist für Kadaver-Bildanalysezwecke intuitiv geeignet, weil es einen direkten Bezug zu den unterschiedlichen Charakteristika von Farbton, Chroma (Sättigung) und Wert (Leuchtdichte) herstellt, die zuvor beschrieben wurden.
  • Es wurde bestimmt, dass Muskelgewebe, Fett und Knorpelgewebe die in Tabelle 1 gezeigten HSL-Farbeigenschaften aufweisen.
  • Tabelle 1
    Figure 00200001
  • Die Farbe eines Objekts hängt von der Beleuchtung ab. Um Fleischfarbe objektiv auszuwerten, wird die Bildfarbe auf bekannte Standardbeleuchtungs-Bedingungen korrigiert. Die Helligkeit des Bildes wird zuerst ausgeglichen, um Unterschiede in dem Beleuchtungsniveau über die Kadaver-Oberfläche oder Rib-Eye-Muskel zu berücksichtigen. Das Bild wird dann auf Standardbeleuchtungs-Bedingungen eingestellt.
  • Um das Bild auf Helligkeit einzustellen, wird ein Bild einer gleichförmigen 18% grauen Karte mit einem bekannten RGB-Farbwert aufgezeichnet. Der Standard-Farbwert jedes Pixels in dem grauen Kartenbild wird verwendet, um den Farbwert jedes entsprechenden Pixels in einem Kadaver oder Rib-Eye-Muskelbild einzustellen. Der RGB-Wert jedes Pixels in dem Kadaver oder Rib-Eye-Muskelbild wird auf dem bekannten Beleuchtungszustand eingestellt als:
    Figure 00210001
    wobei Pixel (c) * / ij der eingestellte Pixelwert ist, und Pixel (c)ij das einzustellende Pixel ist, das an der Reihe i und Spalte j angeordnet ist, und c ist ein R-, G- oder B-Farbkomponente. Das wahre Grau (c)ij ist der bekannte Grauwert bei Standardbeleuchtungs-Bedingungen, und das Kameragrau (c)ij ist der von der Kamera wahrgenommene Wert. Der (RGB)ij bei Pixelij wird (RGB) * / ij nach der Helligkeitseinstellung.
  • Das Helligkeits-korrigierte Bild wird einer Farbeinstellung durch eine Kalibriermatrix A unterworfen, wie:
  • Figure 00210002
  • Die Kalibriermatrix wird durch Vergleichen von fünf Farben (schwarz, weiß, rot, grün und blau) hergeleitet, die auf die gleichen fünf Farben unter bekannten Standardbeleuchtungs-Bedingungen gemäß der folgenden Beziehung zu kalibrieren sind: XA = B, wobei X eine 5 × 3 Matrix ist, die r-, g- und b-Werte der fünf Farbproben darstellt. A ist eine zu lösende 3 × 3 Kalibriermatrix und B ist eine 5 × 3 Matrix von bekannten Konstanten, die die r-, g- und b-Werte von fünf Farbproben unter Standardbeleuchtung darstellen. Eine Lösung mit geringsten Quadraten für die Kalibriermatrix A wird erhalten als: A = (X'X)–1X'B,wobei X die transponierte Matrix von X und (X'X)–1 die invertierte Matrix der Matrix (X'X) ist.
  • III. Heiße-Kadaver-Bildananlyse
  • A. Kamera-Kalibrierung
  • Eine gitterförmige weiße Platte mit einem Gitter von schwarzen Linien, die mit 10 cm Intervallen beabstandet sind, wird als ein Backdrop verwendet, um das Kadaverbild zu skalieren. Vor dem Beginnen einer Kadaver-Analysesitzung wird der gitterförmige Backdrop abgebildet, um die Anzahl von Pixeln in den Bild-Frame (Skala) zu bestimmen. Ein Grenzwert wird festgelegt, um den weißen Hintergrund von den Gitterlinien zu unterscheiden. Wenn die Platte hellweiß und die Gitterlinien dunkelschwarz sind, d. h., dass sie an den Extremen des Helligkeitsbereichs liegen, kann der Schwellenwert beliebig als der mittlere Helligkeitswert (auf einem HSL-Farbmesssystem) eingestellt werden.
  • Wie in 4 gezeigt, zeigt das Digitalbild die gitterförmige weiße Platte 100 gegen einen Hintergrund 102 aus leerem Raum. Um die Fläche (Anzahl von Pixeln) in jedem Gitterquadrat 104 zu finden, müssen die Grenzen jedes Quadrats 104 erfasst werden. Da die Quadrate regelmäßige geometrische Formen sind, werden die Grenzen jedes Quadrats durch die regelmäßigen Schnittpunkte 105 der Gitterlinien 106 festgelegt. Ein Finden der Gitterlinienschnittpunkte 105 beinhaltet ein Suchen in einem regelmäßigen Muster entlang jeder Reihe und Spalte von Pixeln in dem Bild mittels einer Maske, um eine gewünschte Form zu lokalisieren, die durch die verwendete Maske bestimmt wird. Wenn die Gitterlinienschnittpunkte entlang der Gitterlinien, die den rechten Rand und den unteren Rand des Gitters festlegen, angeordnet wurden, kann das gesamte Gitter extrapoliert werden, da das Gitter durch ein regelmäßiges geometrisches Muster von sich mit rechten Winkeln schneidenden Linien definiert ist.
  • Die Schnittpunkte 105 der Gitterlinien 106 in dem gitterartigen Hintergrund beschreiben eine Anzahl von unterschiedlichen rechtwinkligen L-Formen. Diese könnten ebenfalls als die Formen beschrieben werden, die die vier Ecken eines Quadrats festlegen. Masken können definiert sein, um jede der möglichen Schnittpunktformen zu identifizieren. Falls der in 4 gezeigte Schirm beispielsweise durch pixelweises Suchen vertikal nach oben von links nach rechts entlang der Linien 108 analysiert wird, wird die erste Schnittpunktform, die entlang der den unteren Rand des Gitters definierenden Gitter-Linie erfasst wird, eine untere rechte Eckenform sein. Eine untere rechte Ecke kann durch eine 5 × 5 Pixelmaske 110 gekennzeichnet sein, wie es in 5 gezeigt ist, wobei die H's Pixel hoher Intensität und die L's Pixel niedriger Intensität darstellen. Die Maske 110 ist definiert, so dass die Summe der Helligkeitswerte in den L-Pixelpositionen von der Summe der Helligkeitswerte in den H-Pixelpositionen subtrahiert wird. Die resultierende Differenz kennzeichnet die Anpassung der Maske.
  • Da ein Schwellenwertbildungsverfahren verwendet wird, werden Helligkeitsniveaus beliebig auf zwei numerische Kennzeichnungen verringert. Beispielsweise können auf einem 0–255 Bereich von Helligkeitsniveaus alle Zwischenhelligkeitsniveaus entweder auf einen Wert von 10 (niedrige Helligkeit – schwarzer Linienbereich) oder 200 (hohe Helligkeit – weißer Bereich) abhängig davon verringert werden, ob der Helligkeitswert des Pixels über oder unter einen vorbestimmten Schwellenwert fällt. Somit wird eine untere rechte Eckenform erfasst, wenn (Summe H) – (Summe L) = größter Unterschied für die bei 4 gezeigte Maske 100 ist. Bei diesem Beispiel würde die maximale Differenz für die Maske 100 gleich (9 × 200) – (16 × 10) = 1640 sein. Diese Differenz wird erreicht, wenn die Maske angeordnet ist, so dass jedes H-Pixel über einem hellen (weißen Hintergrund) Pixel des digitalen Bildes angeordnet ist, und jedes L-Pixel in der Maske über einem dunklen (schwarze Gitterlinie 106) Pixel des digitalen Bildes angeordnet ist. Eine bessere Anpassung der Maske wird durch eine größere Differenz zwischen (Summe H) – (Summe L) angegeben.
  • Umgekehrt wird, wie in 7 gezeigt; wenn die Maske 110 nicht über der unteren rechten Eckenform ausgerichtet ist, die Differenz von (Summe H) – (Summe L) niedriger sein. Für die in 7 gezeigte schlecht passende Maske 110 würde die Differenz gleich ((3 × 200) + (6 × 20)) – ((10 × 200) + (6 × 20)) = –1400 sein. Es würde daher offensichtlich sein, dass die Maske 110 nicht über einer unteren rechten Eckenform zentriert ist.
  • Die erste untere rechte Eckenform wird durch Suchen quer über das Bild von unten nach oben eine Spalte von Pixeln auf einmal von rechts nach links lokalisiert. Sobald die erste Farm der unteren rechten Ecke lokalisiert wurde (untere rechte Ecke des Gitters), kann die Maske 110 von rechts nach links in der gleichen Reihe von Pixels in dem Bild bewegt werden, um die in der gleichen Reihe (untersten horizontalen Gitterlinie) angeordneten unteren rechten Eckenform zu lokalisieren. Durch Bewegen von rechts nach links entlang der X-Achse, um die Positionen von ersten und zweiten unteren Formen der rechten Ecke zu bestimmen, ist es möglich, die Anzahl von Pixeln zwischen den Positionen der unteren rechten Eckenformen zu bestimmen.
  • Andere Formen von Schnittpunkten 105 der Gitterlinie 106, wie beispielsweise obere rechte Eckenformen, können mittels geeignet ausgestalteter Masken 110 erfasst werden. Durch Wiederholen dieses Verfahrens entlang der Y-Achse, um untere Eckenformen zu erfassen, können die Gitterschnittpunkte auf den äußersten rechten vertikalen Gitterlinien erfasst werden. Durch Bestimmen der Anzahl von Pixeln zwischen den unteren rechten Eckenformen auf der äußersten rechten vertikalen Gitterlinie ist es möglich, die Anzahl von Pixeln in jedem 10 × 10 cm Quadrat zu berechnen.
  • Durch Berechnen der Anzahl von Pixeln in dem digitalen Bild von jedem 10 cm × 10 cm Gitterquadrat auf dem gitterförmigen Hintergrund kann das System kalibriert werden, um den von jedem Pixel dargestellten tatsächlichen Abstand zu bestimmen. Diese Kalibrierung wird nützlich, wenn die digitalen Bilder verwendet werden, um tatsächliche Messungen von Kadaver-Merkmalen durchzuführen.
  • B. Kadaver-Bildanalyse
  • Nachdem das heiße Kadaver-Bildaufbereitungssystem 20 kalibriert wurde, wird das gitterförmige Hintergrund-Panel 12 mit einem Backdrop-Panel 12 ausgetauscht, das einen hohen Kontrast mit dem Kadaver aufweist. Bevorzugte Panel-Farben sind blau und grün. Vorzugsweise sind die Panels 12 im Wesentlichen nicht reflektierend.
  • Die erste Kadaverhälfte wird in Position vor dem Backdrop 10 bewegt und ein digitales Bild aufgezeichnet.
  • Wie in 8 gezeigt, beginnt die Analyse des Bildes durch Einfügen eines groben Verarbeitungs-Rechtecks 112 um den Kadaverabschnitt des Bildes (das Bild umfasst sowohl eine Fläche, in der der Kadaver gefunden wird, als auch eine umgebende blaue Hintergrundfläche). Das verarbeitende Rechteck 112 ist positioniert, so dass es etwas größer als die Kadaverfläche ist. Das verarbeitende Rechteck wird in zwölf Zonen gleicher Größe 114 für Bildverarbeitungszwecke aufgeteilt. Eine Helligkeitsschwellenwertbildung wird getrennt in jeder Zone 114 durchgeführt, um eine Veränderung in der Beleuchtung in der Kadaveroberfläche zu berücksichtigen. Alternativ und vorzugsweise kann während der Kamerakalibrierung die Kamera 22 eingestellt werden, so dass der Bildrahmen nicht größer als der blaue Hintergrund ist, wodurch irgendwelche möglicherweise störenden Objekte in dem Hintergrund ausgeschlossen werden.
  • 1. Schwellenwertbildung des Rands des Kadaverbildes
  • Fünf gleichmäßig beabstandete Punkte 116 werden entlang der unteren Grenze der unteren mittleren Zone zur weiteren Analyse mittels einer Maskentechnik ausgewählt. Die verwendete Maske 118 ist 10 Pixel in der Y-Koordinate lang und ein Pixel in der X-Koordinate breit, wie in 9 gezeigt. Die Maske 118 wird nach oben ein Pixel auf einmal in jeder der durch eine der fünf ausgewählten Punkte 116 gekennzeichneten Spalten bewegt. Bei jedem Inkrement von einem Pixel wird die Summe der Werte der L-Pixel in der Maske 118 von der Summe der Werte der H-Pixel subtrahiert. Die in der Maske 118 gemessenen Werfe sind Helligkeitswerte auf einer beliebigen Helligkeitsskala, wie beispielsweise 0–255, wobei die helleren Werte als eine größere Zahl gekennzeichnet werden. Die Hintergrund/Kadaver-Grenze wird erfasst, wenn (Summe H) – (Summe L) = größter Wert ist. An diesem Punkt ist jedes der H-Pixel in der Maske über einem Kadaver-Bildpixel und jedes der L-Pixel in der Maske über einem Hintergrund-Bildpixel zentriert. Der Mittelwert der niedrigen (L)-Pixel in der Maske wird bestimmt. Dies stellt die durchschnittliche Helligkeit des Bildhintergrunds dar.
  • Von den fünf genommenen Proben wird diejenige, die die höchste durchschnittliche Hintergrundhelligkeit aufweist, als der Bezugsstandard verwendet. Das Helligkeitsniveau des Hintergrunds wird verwendet, um eine Helligkeitsschwelle einzustellen, um den Bildhintergrund (blaue Panels 12) von dem Kadaverbild (hell – Fett abgedeckt) zu unterscheiden. Eine kleine Konstante wird zu dem Hintergrund (Durchschnitt von L Pixel in der Maske) Helligkeitsniveau hinzugefügt, um eine Fehlergrenze bereitzustellen. Von jedem Bildpixel, das ein höheres Helligkeitsniveau als der Grenzwert aufweist, wird angenommen, dass es ein Kadaverpixel ist.
  • Alternativ und vorzugsweise wird der Rand des Kadaverbildes auf der Grundlage von Farbton anstatt Helligkeit bestimmt. D. h., dass der Kadaver mit einem rötlichen/gelblichen Farbton ohne weiteres von dem Backdrop unterschieden werden kann, der einen blauen Farbton aufweist. Um Farbton-Schwellenwertbildung zu erreichen, wird der durchschnittliche Farbton des Bildhintergrunds (blaue Panels 12) vorzugsweise von einem Bild bestimmt, das von dem Hintergrund genommen wurde, ohne dass ein Kadaver vorhanden ist. Wenn der Hintergrund von einer im Wesentlichen konsistenten Farbe ist, kann der Farbton von einem sehr kleinen Abschnitt des Hintergrunds approximiert werden. Wenn sich in dem Kadaverbild der Farbton eines gegebenen Bildpixels von dem durchschnittlichen Farbton des blauen Hintergrunds um einen vorbestimmten erheblichen Betrag unterscheidet (beispielsweise mehr als 40 Grad auf dem HSL-Farbrad), dann wird angenommen, dass das Pixel einen Abschnitt des den Kadaver enthaltenden Bildes darstellt.
  • 2. Auffinden des Randes des Kadaverbildes
  • Sobald eine Position an der Kadavergrenze (Hintergrund/Kadavergrenze) erfasst wurde, wird die Kontur des Kadavers aufgefunden. Wenn der Bildhintergrund (blaue Panels 12) dunkel und die äußere Oberfläche des Kadavers hell ist (fettiges Gewebe), verfolgt die Auffindungsprozedur die Grenze zwischen den dunklen und hellen Pixels. Arbeitend von dem ersten Kadaverpixel (ersten Pixel über der bei dem vorhergehenden Schritt festgelegten Schwelle), das an der unteren rechten Kante der Kadavergrenze erfasst wird, fährt das Kadaverkontur-Auffinden mittels eines grundlegenden Randketten-Verknüpfungsalgorithmus fort, um die innere Grenze der Kadaverpixel in dem Bild in Uhrzeigerrichtung aufzufinden. Randketten-Verknüpfungsalgorithmen sind bekannt, und die Grundtheorie und Praxis derartiger Algorithmen werden bei Gozales, Rafael C. u. a., Digital Image Processing, Addison-Wesley, USA, 1993, beschrieben. Indem in jeder Spalte von dem unteren rechten Rand des Bildrahmens nach oben gearbeitet wird, wird das erste Kadaverpixel (hell – fett), das mittels der in 9 gezeigten Maske identifiziert wird, erfasst. Beginnend mit dem ersten Kadaverpixel beginnt das Auffinden durch Bewegen eines Pixels unter dem ersten Kadaverpixel und Auffinden in Uhrzeigerrichtung der neun das erste Kadaverpixel direkt umgebende Pixel, um das nächste Kadaverpixel zu finden (nächstes Pixel mit einem Helligkeitswert größer als die Schwelle). Das Auffindungsverfahren wird dann wiederholt, bis der gesamte Kadaverrand aufgefunden wurde. Auf diese Art und Weise wird jedes Randpixel in dem Kadaverbild erfasst, wodurch die Kontur des Kadaverbildes aufgefunden wird.
  • 3. Unterscheiden des äußeren linken Kadaverbildes
  • a. Finden des Schwanzes
  • Sobald die Kadaver-Kontur aufgefunden wurde, werden die linken und rechten Kadaverhalbbilder unterschieden. Wie zuvor erläutert, wird bei dem kanadischen Einstufungssystem die linke Seite des Kadavers analysiert. Für die Verwendung in Kanada verwirft die Erfindung die von der rechten Hälfte des Kadavers genommenen Bilder. Die Kadaverbilder der linken und rechten Hälfte werden allgemein aussehen, wie in 10 bzw. 11 gezeigt. Bestimmte verschiedene anatomische Merkmale können in jedem Kadaverbild erfasst werden. Um die rechten und linken Kadaverhälften zu unterscheiden, wird die Position des Schwanzes 120 zuerst erfasst.
  • Um die Position des Schwanzes 120 in dem Bild zu erfassen, wird der Halbwegpunkt in der Liste von X-Koordinaten in der Kadaver-Kontur (beginnend von dem Punkt, der am weitesten nach unten rechts) ausgewählt. Der Rest der Liste von X-Koordinaten in der Kadaver-Kontur wird durchsucht, bis die gleiche X- Koordinate gefunden wird. Ein Verbinden dieser beiden X-Koordinaten wird eine den Kadaver in linke und rechte Hälften halbierende Linie 122 definieren.
  • Da es bekannt ist, dass der Schwanz 120 nicht in der linken Hälfte des Bildes gefunden wird, kann die linke Hälfte des Bildes vernachlässigt und nur die rechte Hälfte des Bildes muss weiter analysiert werden. Wie in 12 gezeigt, würde es für jede X-Koordinate mindestens zwei Y-Koordinaten geben, eine, die den oberen Rand 124 des Kadavers definiert, und die andere, die den unteren Rand 126 des Kadavers definiert. Die Änderung in X-Werten entlang der den Kadaverrand definierenden Linie wird an dem Rand des Kadavers am größten sein, wo der Schwanz 120 gefunden wird.
  • b. Unterscheiden der Knochenseite von der Hautseite des Kadavers
  • Sobald die Position des Schwanzes 120 bestimmt wurde, wird das Bild analysiert, um zu bestimmen, ob das Bild die Knochenseite oder die Hautseite des Kadavers zeigt. Wie in 10 und 11 gezeigt, wird die Hautseitenoberfläche des Kadavers in einer relativ homogenen Fettschicht (hell) 128 abgedeckt. Die Oberfläche der Knochenseite des Kadavers ist gekennzeichnet durch abwechselnde dunkle und helle Bänder 130, die jeweils mageres Gewebe zwischen den Rippen und die Rippenknochen darstellen. Die Rippen sind von der Außenansicht des Kadavers nicht sichtbar.
  • Um die Rippen zu identifizieren, wird eine horizontale (X-Achse) Linie 132 einen ausgewählten Abstand innerhalb der Kadavergrenze an der Schwanzseite definiert. Der Helligkeitswert jedes Pixels entlang der horizontalen Linie 132 wird bestimmt. Eine schnelle bedeutende Veränderung in dem Helligkeitsniveau entlang der horizontalen Linie 132 gibt an, dass das Bild die Innenoberfläche des Kadavers darstellt, wo die Rippen freigelegt sind. Das Helligkeitsniveau entlang der Außenoberfläche des Kadavers wird sich nicht sehr verändern, da die Außenoberfläche des Kadavers mit einer relativ kontinuierlichen Fettschicht abgedeckt ist.
  • Mit der Information hinsichtlich der Position des Schwanzes und ob die Rippen im Blick sind oder nicht, ist es möglich, die betrachtete Kadaverhälfte und die Orientierung zu bestimmen. Das linke Halbbild der Hautseite wird für kanadische Einstufung verwendet, und das rechte Halbbild der Hautseite wird für US-Einstufung verwendet. Das linke Bild der Hautseite ist dadurch gekennzeichnet, dass sich die Rippen nicht zeigen, und der Schwanz 120 oben an dem Bild erscheint.
  • 4. Kadavermessungen
  • Wie hier ausführlich erläutert, wird eine Vielzahl von Messungen an der Kadaver-Bildkontur durchgeführt. Diese Messungen sind nützlich als unabhängige Variable bei Vorhersagegleichungen zum Vorhersagen von verschiedenen Kadaver-Einstufungsparametern. Nicht alle der möglichen Arten von Messungen werden bei jeder Vorhersagegleichung verwendet. Wie es in den Beispielen hier erläutert ist, wurde beispielsweise eine hochgenaue Gleichung zum Vorhersagen von verkäuflicher Ausbeute in Rinderfleisch entwickelt, ohne dass irgendeine der Spitzen-Winkel- oder Krümmungsmessungen verwendet wurde, die hier als unabhängige Variablen erläutert werden.
  • Die hier beschriebenen Kadaver-Messtechniken sind besonders nützlich, da sie keine manuelle Messung oder Analyse des Kadavers erfordern. Stattdessen können bestimmte unterscheidende anatomische Merkmale des Kadavers durch Bildanalysetechniken identifiziert werden. Die verbleibenden Messungen können alle als eine Funktion der Position der ursprünglich identifizierten anatomischen Merkmale durchgeführt werden.
  • a. Lokalisieren von anatomischen Referenzpunkten
  • Eine Anzahl von anatomischen Kadavermerkmalen können an jeder Kadaver-Bildkontur unterschieden werden. Wie in 13 gezeigt ist, werden der Schwanz 120, die untere Hüfte 134, das dorsale hintere Bein 136, die untere Achselhöhle 138 und die obere Achselhöhle 140 durch ohne weiteres unterscheidbare Vorsprünge oder Einschnitte entlang der Kadaver-Kontur gekennzeichnet und können daher durch Bildanalysetechniken lokalisiert werden. Um eines der oben referenzierten anatomischen Merkmale zu lokalisieren, wird die Analyse der Kadaver-Bildkontur auf ein kurzes Segment der Kadaver-Bildkontur beschränkt, innerhalb dessen bekannt ist, dass das anatomische Merkmal des Subjekts angeordnet ist.
  • Innerhalb jedes ausgewählten kurzen Segments der Bildkontur sieht das anatomische Merkmal von Interesse typischerweise wie ein Vorsprung oder ein Einschnitt in der Kadaver-Bildkontur aus. Wie in 14 gezeigt (eine Darstellung der unteren Achselhöhle 138); kann der Vorsprung oder der Einschnitt als ein Scheitelpunkt 142 geschätzt werden, der durch zwei sich schneidende Linien 144, 146 definiert wird. Obwohl der in 14 gezeigte Scheitelpunkt 142 die Position der unteren Achselhöhle entlang des durch 148, 150 begrenzten Liniensegments relativ genau definiert, ist die tatsächliche Position des Scheitelpunkts 142 und die Richtung von Linien (Vektoren) 144, 146 nicht kritisch.
  • Eine Linie 152 wird senkrecht auf eine Linie 154 projiziert, die den durch den Scheitelpunkt 142 gebildeten Winkel halbiert. Der weiteste Punkt entlang des Segments der Kadaver-Bildkontur unter Analyse von der senkrechten Linie 142, wie durch die Linie 156 definiert, stellt die untere Achselhöhle 138 dar. Dieses Verfahren kann verwendet werden, um jeden anatomischen Referenzpunkt auf der Kadaver-Kontur zu lokalisieren, der als ein Vorsprung oder ein Einschnitt der Kadaver-Bildkontur definiert werden kann.
  • Die Vorsprung von virtuellen Linien 144, 146 und die Halbierung des zwischen den Linien 144, 146 gebildeten Winkels ist nicht kritisch. Dies ist lediglich eine graphische Darstellung eines Verfahrens, durch die die Linie 152 ungefähr senkrecht zu dem Scheitelpunkt 142 zu positionieren ist, so dass der Scheitelpunkt 142 der entfernteste Punkt entlang des durch 148, 150 von Linie 152 begrenzten Liniensegments ist.
  • b. Lokalisieren weiterer anatomischer Punkte
  • Weitere anatomische Punkte, die als die Lende, die Rippe, der Kamm, den Hals, das ventrale hintere Bein, die Flanke, die 12te Rippe, und die Brust bezeichnet werden, können als Proportionen des Abstands zwischen gewissen der zuvor bestimmten anatomischen Referenzpunkten lokalisiert werden.
  • Wie in 15 gezeigt, wird der Abstand in der X-Koordinate zwischen dem Schwanz 120, der an dem Kadaver-Konturpunkt b1 angeordnet ist, und der oberen Achselhöhle 140, die an dem Kadaver-Konturpunkt b9 angeordnet ist, als d1 definiert. Der Abstand in der X-Koordinate zwischen dem dorsalen hinteren Bein 136, das an dem Kadaver-Konturpunkt b3 angeordnet ist, und der unteren Achselhöhle 138, die an dem Kadaver-Konturpunkt b8 angeordnet ist, wird als d2 definiert. Anatomische Punkte können angeordnet sein, wie in 15 und Tabelle 2 gezeigt.
  • Tabelle 2
    Figure 00310001
  • c. Definieren von wesentlichen Schnitten
  • Sobald die anatomischen Punkte bestimmt wurden, können wesentliche Schnitte berechnet werden. Wesentliche Schnitte sind die Hauptschnitte von Fleisch, die während des Schlachtverfahrens erzeugt werden, und die die Hüfte, Lende (Surloin, Loin), Rippe, Kamm, Flanke, Dünnung und Brust umfassen.
  • Wesentliche Schnitte werden in 16 gezeigt. Wesentliche Schnittlinien werden ihre anatomischen Endpunkte identifiziert. Der Punkt p1 ist 42% des Abstands entlang der Linie b12-b6 angeordnet.
  • Der Punkt p2 ist an der Schnittstelle einer Linie angeordnet, die nach oben von p1 parallel zu der Linie b12-b13 und einer nach rechts von b13 aufgetragenen Linie parallel zu der Y-Achse aufgetragen ist (es sei bemerkt, dass die Achsen in 16 von ihren gewöhnlichen Positionen umgekehrt sind).
  • Der Punkt p3 ist an der Schnittstelle der Linie p2-b5 mit einer nach rechts von b1 parallel zu der Y-Achse aufgetragenen Linie angeordnet.
  • Der Punkt p4 ist 45% des Abstands entlang der Linie b12-b6 angeordnet.
  • Der Punkt p5 ist an der Schnittstelle von Linie b11-b7 und einer nach unten von p4 parallel zu der Linie b6-b7 aufgetragenen Linie angeordnet.
  • Vordere wesentliche Schnitten werden von den wesentlichen Schnitten des hinteren Viertels durch eine Linie b6-b12 getrennt.
  • Der wesentliche Schnitt der Hüfte wird von der Kadaver-Randkontur und den Linien b1-p3 und p3-b5 begrenzt.
  • Der wesentliche Schnitt der Lende (Surloin) wird durch die Kadaver-Randkontur und die Linien b1-p3, p3-p2 und p2-b13 begrenzt.
  • Der wesentliche Schnitt der Lende (Loin) wird von der Kadaver-Randkontur und den Linien b13-p2, p2-p1 und p1-b12 begrenzt.
  • Der wesentliche Schnitt der Rippe wird von der Kadaver-Randkontur und den Linien b12-p4, p4-p5 und p5-b11 begrenzt.
  • Der wesentliche Schnitt der Flanke wird von der Kadaver-Randkontur und den Linien b5-p2, p2-p1 und p1-b6 begrenzt.
  • Der wesentliche Schnitt der Dünnung wird von der Kadaver-Randkontur und den Linien b6-p4, p4-p5 und p5-b7 begrenzt.
  • Der wesentliche Schnitt der Brust wird von der Kadaver-Randkontur und den Linien b7-p5 und p5-b9 begrenzt.
  • Die Länge des Kadavers wird aufgezeichnet (Länge in Pixeln der Linie b3-b9), und die Fläche jeder acht wesentlichen Schnitte wird bestimmt. Die Summe der Flächen der acht wesentlichen Schnitte liefert die Gesamt-Kadaverfläche.
  • d. Lineare Messungen
  • Lineare Messungen werden durchgeführt, um den Kadaver in sechs lineare Regionen, das hintere Bein, die untere Hüfte, die obere Hüfte, den unteren Rücken, den mittleren Rücken und die Schulter aufzuteilen.
  • Wie in 17 gezeigt, definiert die Linie b3-b9 die Kadaverlänge. Die Kadaverlängen-Linie b3-b9 teilt ebenfalls den Kadaver dorsal/ventral.
  • Vor dem Durchführen der folgenden Messungen wird das Bild gedreht, so dass die Linie b3-b9 parallel zu der X-Achse ist (wie oben, sind die Achsen in 17 umgekehrt).
  • Linien trennen und definieren die linearen Regionen. Die Linie b2-c1, die die hintere Beinregion von der unteren Hüftregion trennt, ragt von b2 senkrecht zu der Kadaverlängen-Linie b3-b9 hervor, um die entgegengesetzte Seite der Kadaver-Kontur bei c1 zu schneiden.
  • Die Linie b1-c2, die die untere Hüfte von der oberen Hüfte trennt, ragt von dem Schwanz (b1) senkrecht zu der Kadaverlängen-Linie b3-b9 hervor, um die entgegengesetzte Seite der Kadaver-Kontur bei c2 zu schneiden.
  • Die Linie c8-c4, die die obere Hüftregion von der unteren Rückenregion trennt, wird senkrecht zu der Kadaverlängen-Linie b3-b9 33% des Abstands entlang der Linie b3-b9 senkrecht ausgeführt.
  • Die Linie c7-c3, die die untere Rückenregion von der mittleren Rückenregion trennt, wird senkrecht zu der Kadaverlänge-Linie b3-b9 53% des Abstands entlang der Linie b3-b9 senkrecht ausgeführt.
  • Die Linie c6-c5, die die mittlere Rückregion von der Schulterregion trennt, wird senkrecht zu der Kadaverlängen-Linie b3-b9 80% des Abstands entlang der Linie b3-b9 ausgeführt.
  • Die Linie b3-b9, die die Kadaverlänge definiert, bildet die Grundlage für eine Reihe von Messungen, die als unabhängige Variable in Gleichungen zum Vorhersagen von Kadaver-Einstufungsparametern nützlich sein können. Jede der sechs linearen Regionen (das hintere Bein, die untere Hüfte, die obere Hüfte, der untere Rücken, der mittlere Rücken und die Schulter) wird in einer Mehrzahl von feinen Unterteilungen, beispielsweise 10 Unterteilungen senkrecht zu der Linie b3-b9, aufgeteilt. Der Abstand von der Linie b3-b9 zu dem Bauch- oder Rückenrand der Kadaver-Bildkontur bei jeder feinen Aufteilung kann als eine unabhängige Variable verwendet werden. Das arithmetische Aufteilen jeder der linearen Regionen in viele kleine gleiche Unterteilungen ist ein zweckmäßiges Verfahren zum Bereitstellen einer großen Anzahl reproduzierbaren Kadaver-Bildmessungen, von denen jede als unabhängige Variablen bei Vorhersagegleichungen für Kadaver-Einstufungsparameter nützlich sein können.
  • e. Spitze-Winkelmessungen
  • Wie es in 18 gezeigt ist, wird der Abstand von b9 zu jeweils c1, c2, c3, c4, c5, c6, c7, c8, b1 und b2 gemessen. Die Nummerierung und die Beschriftung in 18 entspricht derjenigen in 17.
  • Die Winkel ∠c6-b9-c5, ∠c7-b9-c4, ∠c8-b9-c3, ∠b1-b9-c2 und ∠b2-b9-c1 werden gemessen.
  • f. Krümmungsmessungen
  • Kubische Spline-Funktionen werden für Kadaverkontur-Segmente b2-b3 und b1-b13 durch bekannte Verfahren geschätzt, wie in Gozalez, u. a., supra, beschrieben.
  • IV. Rib-Eye-Muskelbildanalyse
  • A. Kamerakalibrierung
  • 1. Helligkeit
  • Mit dem Rib-Eye-Bildaufbereitungssystem 32 wird ein digitales Bild einer 18%igen grauen Karte erfasst, um die Kamera auf das Helligkeitsniveau zu kalibrieren. Das Bild wird mit einem Tiefpassfilter vorverarbeitet, das nur ermöglicht, dass geringfügige Variationen in der Helligkeit durchgelassen werden. Dies eliminiert Variationen in dem Helligkeitsniveau über dem Bild.
  • Die durchschnittliche Helligkeit des gleichförmigen grauen Bildes wird mittels eines Spektrophotometers bestimmt, und jedes Bildpixel wird auf Helligkeit korrigiert, wie zuvor beschrieben. Diese Daten werden während der Kadaver-Bildanalyse benutzt, um das Fehlen einer Gleichförmigkeit in der Lichtquelle auszugleichen und die Genauigkeit von Farbmessungen zu verbessern.
  • 2. Farbausgleich und Bildskala
  • Farbausgleichs- und Bildskala-Information wird von einem Bild bestimmt, das von einem von Kodak verfügbaren Standardfarben-Kalibrierblatt erfasst und zur Farbkorrektur verwendet wird, wie zuvor beschrieben. Ein Standardfarben-Kalibrierblatt umfasst schwarze, weiße, rote, grüne und blaue Farbkalibrierquadrate und ein großes weißes Bildflächen-Kalibrierquadrat, wobei jede Seite eine Länge von 8 mm aufweist. Die RGB-Werte der Farbkalibrierquadrate werden zur Verwendung bei der Farbkorrektur aufgezeichnet.
  • Die Bildskala wird durch Berechnen der Fläche des Bildflächen-Kalibrierquadrats auf dem Farbkalibrierblatt bestimmt. Eine Reihe von Pixeln auf ungefähr halber Strecke unten am Bild wird von links nach rechts gesucht. Wenn der Hintergrund des Farbkalibrierblattes dunkel und das Bildflächen- Kalibrierquadrat hell ist, wird angenommen, das jedes entlang der horizontalen Seite gesuchte Pixel einen Helligkeitswert unter dem mittleren Wert auf der Helligkeitsskala aufweist, ein Hintergrundpixel ist, und Pixel über dem mittleren Helligkeitswert innerhalb des Kalibrierquadrats fallen. Die Anzahl von hellen Pixeln je Reihe wird summiert. Dieses Verfahren wird für jede Reihe über und unter der Mittelreihe von Pixeln in dem Bild wiederholt, bis die erste Reihe in beiden Richtungen (nach oben und unten) angetroffen wird, die keine hellen Pixel enthält. Wenn die Grenze des gesamten Kalibrierquadrats bestimmt wurde, wird die Fläche des Kalibrierquadrats berechnet (in Anzahl von Pixeln) zur Verwendung beim Verifizieren der Genauigkeit der folgenden Bildflächenberechnung basierend auf einer Matrixlösung.
  • Während der Bildskala-Bestimmung werden die oberen linken (TL), unteren linken (BL) und unteren rechten (BR) Ecken des Kalibrierquadrats aufgezeichnet. Die Länge in Pixeln von Vektoren BL-TL und BL-BR wird berechnet und mit ihren tatsächlichen Längen (8 cm) korreliert. Eine einfache Matrix wird gelöst, um kX (die X-Skala) und kY (die Y-Skala) zu finden, und die Ergebnisse werden mit denen verglichen, die bei dem vorhergehenden Schritt bestimmt wurden. Wenn sich die Ergebnisse über eine annehmbare Grenze (z. B. 50 Quadrat-Pixel) unterscheiden, wird der Bildkalibrierschritt wiederholt. Die Kamera wird geringfügig in jeder Richtung zwischen jedem Schritt gedreht, um eine Rotations-invariante Bildgrößenkalibrierung sicherzustellen.
  • B. Rib-Eye-Muskelbilderfassung
  • Nach einer Abkühlung von 24 Stunden wird ein Schnitt zwischen den 12ten und 13ten Rippen des Kadavers durchgeführt. Das Gewicht des Kadavers öffnet den Schnitt, so dass die Rib-Eye-Kamera 34 in die resultierende Kerbe eingefügt und ein Bild genommen werden kann.
  • Das Rib-Eye-Bildaufbereitungssystem 32 wird verwendet, um ein digitales Bild der Rib-Eye-Fläche zu nehmen. Wie zuvor erläutert, ist das Rib-Eye der gewöhnliche Name für den longissimus dorsi Muskel. Es gibt zwei Hauptgründe, dass der Rib-Eye-Muskel für Fleischeinstufungszwecke geprüft wird. Erstens ist bekannt, dass Rib-Eye-Muskeleinstufungsmessungen eng mit dem Grad des Rests des Kadavers korrelieren. Zweitens ist das Rib-Eye der kostspieligste Schnitt von Fleisch in dem Kadaver und daher von größter Bedeutung für Einstufungszwecke.
  • Das digitale Bild der Rib-Eye-Muskelfläche wird auf jede Abweichung in der Helligkeit durch Hinzufügen jeder Pixel-Helligkeitsabweichung, wie zuvor für jedes in dem gleichmäßigen grauen Helligkeitskalibrierbild berechnet, zu dem Helligkeitswert jedes Pixels in dem Rib-Eye-Muskelflächenbild korrigiert.
  • C. Vorverarbeitung des Rib-Eye-Muskelbildes
  • 1. Auffinden des äußeren Fettrandes
  • Das Rib-Eye-Muskelbild sieht allgemein aus, wie in 19 gezeigt. Das Rib-Eye (longissimus dorsi Muskel) 200 sieht allgemein wie eine elliptische dunkle Region in der Mitte des Bildes aus. Subkutanes Fett 202 erscheint als ein helles Band unter dem Rib-Eye-Muskel 200. Der Hintergrund 204 ist der den hängenden Kadaver umgebende offene Raum und erscheint dunkel. Muskelgewebe 206, das angrenzt jedoch nicht Teil des Rib-Eyes 200 ist, kann vorhanden sein.
  • Wie in 20 gezeigt, wird das Bild von unten nach oben entlang einer Mehrzahl von eng beabstandeter Spalten von Pixeln 208, die ungefähr 5 mm (tatsächlicher Abstand auf dem Rib-Eye-Muskel) beabstandet sind, durchsucht, um deutliche Zunahmen in der Pixelhelligkeit zu lokalisieren. Bei diesem Schritt wird das Bild in Inkrementen von 5 Pixeln analysiert, um den äußeren Fettrand 210 des Bildes schnell zu approximieren. Jede deutliche Zunahme Anstieg in der Pixelhelligkeit in einer Spalte von Pixeln 208 identifiziert einen Punkt 212, der ungefähr entlang des äußeren Fettrandes angeordnet ist.
  • Die Punkte 212 werden entlang eines minimalen Energiepfades verbunden. Ein minimaler Energiepfad weist wenig interne Energie auf. D. h., er ist eine Linie, die so gerade wie möglich ist. Eine gerade Linie weist keine interne Energie auf, wohingegen eine Zickzacklinie eine hohe interne Energie aufweist. Dieser Pfad definiert den approximierten äußeren Fettrand 210. Wenn der approximierte äußere Fettrand 210 nicht das gesamte Bild horizontal überspannt, wird er horizontal als eine gerade Linie von links nach rechts zu den Bildgrenzen erweitert.
  • Der äußere Fettrand 210 des Kadavers kann durch kleine Schnitte oder Einkerbungen beschädigt sein. Diese werden als Unregelmäßigkeiten oder Einschnitte in dem approximierten äußeren Fettrand erscheinen. Ein Glättungsverfahren wird daher verwendet, um den approximierten äußeren Fettrand auszugleichen und kleine Unregelmäßigkeiten zu vernachlässigen. Wie in 21 gezeigt, wird eine Beschädigung an dem äußeren Fettrand 210 wahrscheinlich als ein kleiner Einschnitt 214 in dem approximierten äußeren Fettrand erscheinen. Die meisten Einschnitte können als drei „Wendungen" in der approximierten Linie 216 dargestellt werden. Normalerweise bildet die approximierte Linie einen Winkel von 180° um einen Punkt 212. Bei einem Einschnitt 214 macht eine Linie 216 mindestens drei Wendungen 218, 220, 222. Das Auftreten einer Wendung wird erkannt, wenn sich der Winkel der approximierten Linie 210 um einen Punkt 212 sich wesentlich von 180° unterscheidet. Die ersten und letzten Wendungen über einen kleine Fläche geben den Anfang und das Ende einer Abweichung in der approximierten äußeren Fettrandlinie 210 an. Die Punkte 212 bei der ersten Wendung 218 und der letzten Wendung 222 werden verbunden, um den Einschnitt 214 zu eliminieren. Punkte innerhalb des Einschnitts werden auf die neue geglättete Linie umgesetzt.
  • Alle Pixel unter der geglätteten approximierten äußeren Fettrandlinie 210 werden auf ein minimales Helligkeitsniveau (schwarz) eingestellt, um eine äußere Störung mit der Bildverarbeitung durch alle Objekte zu vermeiden, die in dem Hintergrund des Bildes erscheinen.
  • 2. Unterscheiden von linken und rechten Kadaverseitenbilder
  • Alle rechtsseitigen Rib-Eye-Muskelbilder werden horizontal umgeklappt und wie linksseitige Bilder verarbeitet. Alle Algorithmen können ausgestaltet sein, um die linksseitigen Rib-Eye-Muskelbilder zu verarbeiten, wenn das System für kanadische Einstufungsstandards ausgestaltet ist.
  • Wie es in 24 gezeigt ist, verjüngt sich der untere Rand des Rib-Eye-Muskels nach oben an einer Seite. An der rechten Hälfte des Kadavers wird sich das Rib-Eye zur linken nach oben verjüngen. An der linken Hälfte des Kadavers wird sich das Rib-Eye zur rechten nach oben verjüngen.
  • Der Y-Koordinatenwert von zwei Punkten 224, 226 entlang der approximierten äußeren Fettrandlinie 210, die ungefähr 20% innerhalb den linken und rechten Bildgrenzen beabstandet ist, wird gemessen. Wenn der äußerste linke Punkt 224 näher zu dem Oberteil des Bildrahmens als der äußerste rechte Punkt 226 ist, stellt das Bild die rechte Seite des Kadavers dar. Wenn der äußerste rechte Punkt 226 näher zu dem Oberteil des Bildrahmens als der äußerste linke Punkt 224 ist, stellt das Bild die linke Seite des Kadavers dar.
  • 3. Grenzwertbildung des Bildes
  • Für das gesamte Bild wird hinsichtlich Helligkeit eine Schwelle gebildet, um Pixel zu unterscheiden, die Muskelgewebe (mittlere Helligkeit oder Wert) darstellen, von Pixeln, die Fett (hohe Helligkeit oder Wert) darstellen, und eine Schwelle wird für die Sättigung gebildet, um, die Muskelgewebe (mittlere Sättigung) darstellen, von Pixeln, die Knorpelgewebe (niedrige Sättigung) darstellen, Pixel zu unterscheiden.
  • a. Erhöhen des Bildkontrastes
  • Jedes Pixel in dem Rib-Eye-Muskelbild wird erneut auf ein Bild mit hohem Kontrast abgebildet („IMap"). Das Helligkeitsniveau jedes Pixels in dem IMap wird durch die folgende Formel berechnet: IMap(i) = 255(1,0 – (Y(i)/255))2/3 wobei Y(i) die Helligkeitskomponente (0:255) des Pixelwerts an der Position „i" des Bildes ist. Diese Funktion verbessert oder übertreibt diese Helligkeitsdifferenz zwischen Muskelgewebe-Pixeln und Fett-Pixeln, wodurch der Bildkontrast erhöht wird. Diese Funktion führt ebenfalls zu einer Farbumkehr, so dass Muskelgewebe-Pixel, die gewöhnlich dunkel aussehen und eine niedrige Helligkeitszahl (0:255) aufweisen würden, hell aussehen und eine hohe Helligkeitszahl (0:255) auf dem IMap aufweisen, und Fett-Pixel, die gewöhnlich hell aussehen und eine hohe Helligkeitszahl aufweisen (0:255), erscheinen dunkel und weisen eine niedrige Helligkeitszahl (0:255) auf der IMap auf.
  • b. Grenzwertbildung für Fleischfarbenhelligkeit
  • Das IMap-Bild des Rib-Eye-Muskels Bild wird in sechs Zonen gleicher Größe vor der Schwellenwertbildungsanalyse aufgeteilt. Die Schwellenwertbildungsanalyse wird getrennt in jeder Zone durchgeführt. Jeder Abschnitt des Bildes unter dem äußeren Fettrand wird vernachlässigt. Dies erhöht die Genauigkeit, da sich die durchschnittliche Muskelgewebefarbe in unterschiedlichen Teilen des Bildes verändern kann.
  • In jedem Abschnitt wird für alle Rib-Eye-Muskel-Pixel eine Schwelle für Helligkeit gebildet. Ein beliebiger Wert von 55 auf einer Skala von 0:255 wird als der Grenzwert zwischen dem Muskelgewebe und der Fett-Pixelhelligkeit festgelegt. Für jedes Pixel mit einem Helligkeitswert unter 55 wird angenommen, dass es Fett ist (Helligkeit ist auf dem IMap umgekehrt). Von den verbleibenden Pixeln wird angenommen, dass sie entweder Muskelgewebe oder Knorpelgewebe darstellen.
  • c. Schwellenwertbildung für Fleischfarbensättigung
  • In jedem Abschnitt wird die durchschnittliche Muskelgewebe-Pixel(nicht als Fett bestimmte Pixel, wie bei dem vorherigen Schritt bestimmt)-Farbsättigung bestimmt. Ein Schwellenwert-Sättigungsniveau wird durch Subtrahieren eines konstanten Werts von dem durchschnittlichen Muskelgewebe-Farbsättigungsniveau festgelegt, wodurch eine Fehlergrenze bereitgestellt wird. Von einem Pixel, der ein Sättigungsniveau unter dem Schwellenwert aufweist, wird angenommen, dass es Knorpelgewebe darstellt. Von einem Pixel mit einem Sättigungsniveau über dem Schwellenwert wird angenommen, dass es Muskelgewebe darstellt. Für die Zwecke der verbleibenden Schritte wird Knorpelgewebe behandelt, als ob es äquivalent zu Fett wäre. Somit werden Pixel, die Muskelgewebe darstellen, von Pixeln, die jedes andere Gewebe darstellen; ob Fett oder Knorpel, unterschieden.
  • 4. IMap mit verringerter Skala
  • Eine IMap mit verringerte Skala, genannt die „QIMap" wird erzeugt, um die bei einigen der folgenden Schritte zu analysierende Datenmenge zu verringern: Das IMap wird vorzugsweise mit einem Verhältnis von 8 : 1 verkleinert, obwohl andere Verhältnisse verwendet werden können, um das QIMap zu bilden. Wo beispielsweise das Verkleinerungsverhältnis 8 : 1 beträgt, wird die Farbinformation von 64 Pixeln in dem IMap gemittelt (acht in der X-Dimension und acht in der Y-Dimension) und wird die mittlere Farbinformation für ein Pixel in dem QIMap.
  • 5. Lokalisieren des Rib-Eye-Muskels innerhalb des Bildes durch Blob-Analyse
  • Blob-Analyse wird verwendet, um das Rib-Eye von Fremdmuskelgewebe zu unterscheiden, das aussieht, als ob es den Rib-Eye-Muskel kontaktiert, wobei es jedoch kein anatomischer Teil des Rib-Eye-Muskels ist. Bei der Blob-Analyse werden die Muskelgewebe-Pixel in dem QIMap in vier verbundene Objekte gruppiert. Bei der Gruppierung in vier verbundene Objekte wird ein Bildpixel als in der gleichen Gruppe oder Blob angesehen wie ein Pixel, das direkt benachbart links, rechts, oben oder unten ist. Angrenzende Eckpixel werden nicht als Teil des gleichen Blobs angesehen. Dies kann der Gruppierung mit acht verbundenen Objekten gegenübergestellt werden, bei dem ein Pixel als Teil des gleichen Objekts angesehen wird, wenn ein Pixel irgendeines der acht umgebenen Pixelpositionen belegt. Die Analyse mit vier verbundenen und acht verbundenen Objekten sind bekannte Techniken, die bei Gozales u. a., supra, beschrieben werden.
  • Bei der Blob-Analyse des QIMap werden nur diejenigen Pixel mit einem QIMap, die einen Muskelgewebe-Helligkeitsschwellenwert überschreiten, als Teil eines Blobs betrachtet. Die Helligkeitsschwelle wird Subtrahieren einer beliebigen Konstante von dem durchschnittlichen nicht fetten Pixel IMap Wert für das gesamte Bild festgelegt. Die Analyse schreitet von links nach rechts und von oben nach unten fort. Es können jedoch andere geordnete Analysemuster verwendet werden, wie beispielsweise links-rechts, unten-oben. Die Analyse fährt fort, bis das erste Muskelgewebe-Pixel in dem Bild erfasst wird. Die Pixel direkt über und zur linken des ersten Muskelgewebe-Pixels werden geprüft, um zu bestimmen, ob eines oder beide ebenfalls ein Muskelgewebe-Pixel ist. Wenn die Analyse von oben nach unten, links nach rechts fortschreitet, werden die Pixel, die oben und zur linken des ersten Muskelgewebe-Pixels angeordnet sind, keine Muskelgewebe-Pixel sein. Das Verfahren fährt in dem gleichen Muster fort, bis das nächste Muskelgewebe-Pixel erfasst ist. Die Pixel direkt über und zur linken des aktuellen geprüften Muskelgewebe-Pixels werden noch einmal geprüft, um zu bestimmen, ob eines oder beide ebenfalls Muskelgewebe-Pixel sind. Falls ja, dann ist bekannt, dass das aktuelle Pixel unter Prüfung Teil des gleichen Blobs wie das Muskelgewebe-Pixel direkt über und/oder zur linken ist. Wo ein Pixel bestimmt wird, Teil eines ersten Blobs zu sein, und anschließend bestimmt wird, ebenfalls mit einem zweiten Blob verbunden zu sein, wird gefolgert, dass, was ursprünglich wie zwei Blobs aussah, tatsächlich einen einzigen Blob bildet.
  • Der während der Blob-Analyse erfasste größte Blob gibt die Position und Größe des Rib-Eye-Muskels an.
  • 6. Schätzen der Position des Rib-Eye-Muskels in dem Bild
  • Ein kleine Fläche innerhalb des Rib-Eye-Bildes, bei der der Rib-Eye-Muskel selbst tatsächlich angeordnet ist, wird durch Definieren einer Verarbeitungsfläche abgegrenzt, die den Rib-Eye-Kasten um den Rib-Eye-Muskel bezeichnet. Die Genauigkeit der Farbunterscheidung von unterschiedlichen Geweben wird bis zu dem größtmöglichen Ausmaß erhöht, wenn Fremdgewebe um die Rib-Eye-Muskelfläche von der Analyse ausgeschlossen wird. Um den Rib-Eye-Kasten zu definieren, wird die ungefähre Position von jeweils der oberen, unteren, linken und rechten Ränder des Rib-Eye-Muskels bestimmt.
  • a. Lokalisieren des rechten Rands des Rib-Eye-Muskels
  • Beginnend an der Mitte des unteren Randes des QIMaps und nach rechts hinarbeitend, wird jede Spalte von Pixel von oben nach unten durchsucht, wobei angehalten wird, wenn das erste Muskelgewebe-Pixel lokalisiert ist. Wie in 22 gezeigt, wird die Länge der Spalten von Nicht-Muskelgewebe-Pixeln 228 wesentlich länger, wenn der rechte Rand 230 des Rib-Eye-Muskels erreicht ist. Daher ist bekannt, wenn die Länge der Spalte von Nicht-Muskelgewebe-Pixel wesentlich länger wird, dass die Position des rechten Rands des Rib-Eye-Muskels erfasst wurde. Diese Spalte wird als die rechte Seite des Rib-Eye-Kastens definiert.
  • b. Lokalisieren des unteren Rands des Rib-Eye-Muskels
  • Beginnend an der Mitte des rechten Randes QIMap und zu dem unteren Rand hinarbeitend, wird jede Reihe von Pixeln von links nach rechts durchsucht, wobei angehalten wird, wenn das erste Muskelgewebe-Pixel lokalisiert ist. Wie in 23 gezeigt, wird die Länge der Reihen 232 von Nicht-Muskelgewebe-Pixeln wesentlich länger, wenn der untere Rand des Rib-Eye-Muskels erreicht ist. Daher ist bekannt, dass, wenn die Länge der Reihe von Nicht-Muskelgewebe-Pixel wesentlich länger wird, dass die Position des unteren Rands des Rib-Eye-Muskels erfasst wurde. Diese Reihe 234 definiert die untere Seite des Rib-Eye-Kastens.
  • c. Lokalisieren des oberen Rands des Rib-Eye-Muskels
  • Wie in 24 gezeigt, wird eine Reihe von Pixeln 236 in dem QIMap ausgewählt, die ungefähr 5 cm (tatsächliche Messung an dem Rib-Eye-Muskel) über der unteren Seite des Rib-Eye-Kastens ist. Die Gesamtzahl von Muskelgewebe-Pixel an der Reihe bis zu der Spalte, wo der rechte Rand des Rib-Eye-Muskels lokalisiert wurde, wird tabelliert. Beim Bewegen eine Zeile au einmal nach oben zu dem oberen Teil des Bildes hin, wird die Tabellierung der Gesamtzahl der Muskelgewebe-Pixel an jeder Reihe fortgesetzt, bis die Summe der Längen der Pixel an der Reihe basierend auf der Bildgrößenkalibrierung geringer als 2,5 cm ist. Die erste erfasste Reihe 238, bei der die Summe der Längen der Pixel geringer als 2,5 cm ist, wird als der obere Rand des Rib-Eye-Muskels angesehen und definiert die obere Seite des Rib-Eye-Kastens. Durch Summieren der Gesamtzahl von Muskelgewebe-Pixeln in einer Reihe, anstatt nur kontinuierliche Läufe von Muskelgewebe-Pixeln zu verwenden, werden Diskontinuitäten in dem Rib-Eye-Muskelrand für den Zweck dieser Näherung der Position des oberen Rands des Rib-Eye-Muskels vernachlässigt.
  • d. Lokalisieren des linken Randes des Rib-Eye-Muskels
  • Wie in 25 gezeigt, wird eine Spalte von Pixeln 240 auf dem QIMap, die ungefähr 13 cm (tatsächliche Rib-Eye-Muskelmessung) links von der rechten Seite des Rib-Eye-Kastens angeordnet ist, ausgewählt, und die Gesamtlänge der Anzahl von Muskelgewebe-Pixel in dem Abschnitt der Spalte, die von den oberen und unteren Seiten des Rib-Eye-Kastens begrenzt werden, wird bestimmt. Diese Messung wird in jeder Spalte nach links arbeitend durchgeführt, bis die durch die Muskelgewebe-Pixel in der Spalte dargestellte Gesamtlänge geringer als 1,5 cm ist. Diese Spalte 242 gibt die Position des linken Rands des Rib-Eye-Muskels an und wird als die linke Seite des Rib-Eye-Kastens definiert.
  • 7. Sekundäre Schwellenwertbildung, um Muskelgewebe/-Fett-Unterscheidung zu verbessern
  • Der an dem QIMap definierte Rib-Eye-Kasten wird auf das IMap projiziert, und für die Pixel innerhalb des Rib-Eye-Kastens, die nicht bei Schritt IV(C)(3) als Fett oder Knorpelgewebe bestimmt wurden, wird bei jeder der bei Schritt IV(C)(3) berechneten sechs Zonen eine neue Schwelle gebildet. Da viele Pixel, die offensichtlich Knorpelgewebe und Fett darstellen, bereits durch Sättigung- und Helligkeits-Schwellenwertbildung bei Schritt IV(C)(3) identifiziert wurden, und die Fläche außerhalb des Rib-Eye-Kasten vernachlässigt werden kann, kann die Farbhelligkeits-Schwellenwertbildung des Rib-Eye-Muskels mit größerer Empfindlichkeit erreicht werden. Dies ermöglicht, dass Fett mit einer geringfügig dunklen oder rötlichen Farbnuance von magerem Muskelgewebe unterschieden werden kann.
  • 8. Rib-Eye-Muskelrandauffindung
  • Die Rib-Eye-Muskelrandauffindung wird an dem IMap durchgeführt. Der Rib-Eye-Kasten wird in obere und untere Hälften und drei vertikale Spalten aufgeteilt, um sechs gleiche Zonen zu bilden. Das Auffinden beginnt in der Spalte von Pixeln in der Mitte der unteren Seite des Rib-Eye-Kastens. Von oben nach unten arbeitend wird die Spalte von Pixeln geprüft, bis das erste Muskelgewebe-Pixel lokalisiert ist. Dies wird angenommen, ein Pixel an dem Rand des Rib-Eye-Muskels zu sein.
  • Der Rib-Eye-Muskel wird mittels einer Auffindungstechnik mit acht verbundenen Rändern verfolgt, wie zuvor erläutert, wobei nun in einer entgegengesetzten Uhrzeigerrichtung verfolgt wird. Ungefähr die letzten zehn Randpixelpositionen werden zwischengespeichert.
  • Das Verfolgen um den Rib-Eye-Muskel setzt sich fort, bis das erste Rib-Eye-Muskelrand-Pixel erneut erreicht ist. Wenn die durch die Rib-Eye-Muskelfläche definierte Fläche zu klein, d. h., unter einem beliebigen Schwellwert ist, wird die Spur verworfen, und das Verfolgen des Randes wird von einem neuen Startpunkt nach oben von dem ursprünglichen ersten Randpixel und über der zurückgewiesen Fläche wiederholt. Dies vermeidet Fehler, die resultieren, wenn die Verfolgung von einem Muskelgewebe-Pixel begonnen wird, das nicht auf dem Rib-Eye-Muskelrand ist.
  • a. Identifizieren von an dem Rib-Eye-Muskel befestigtem Fremdmuskelgewebe
  • Es kann nichtsdestotrotz auf der Grundlage einer Blockanalyse scheinen, dass Fremdmuskelgewebe, das nicht Teil des Rib-Eye-Muskels ist, an dem Rib-Eye-Muskel befestigt ist. Das Fremdmuskelgewebe muss identifiziert und während der Rib-Eye-Muskelverfolgung entfernt werden. Die Entfernung des Fremdmuskelgewebes beinhaltet ein Verfolgen innerhalb des Fremdmuskels, wodurch es von dem Rib-Eye-Muskel abgeschnitten wird. Wie hier verwendet bedeutet „Schneiden" oder Durchführen eines „Schnitts" das Verfahren des Ausschließens von Fremdgewebe von dem Rib-Eye-Muskel durch Schätzen des tatsächlichen Rib-Eye-Muskelrands und Verfolgen innerhalb des Fremdmuskelgewebes.
  • Wie in 19 gezeigt, dreht sich der Rib-Eye-Muskelrand 205, obwohl er im allgemeinen relativ gerade ist, typischerweise scharf nach außen, wo Fremdmuskelgewebe 206 befestigt ist. Derartige Abschnitte des Muskels können daher durch scharfe Wendungen in dem Rib-Eye-Muskelrand identifiziert werden.
  • Wie in 26 gezeigt, wird während des Rib-Eye-Muskelauffindens eine Gruppe von 10 Pixeln auf einmal geprüft, wobei sich die Gruppe von 10 Pixeln inkremental entlang des aufgefundenen Rands 242 bewegt. Der Winkel ∠ABC wird bei jedem inkrementalen Schritt gemessen. Es ist bekannt, dass sich der verfolgte Rib-Eye-Muskelrand schart wendet, wenn ∠ABC unterhalb eines ausgewählten spitzen Winkels, wie beispielsweise 45°, fällt. Wie in 26 gezeigt, wird ∠ABC nur geringer als 45° sein, wenn der Punkt B in der Nähe des Scheitelpunkts 244 der Wendung ist. Eine Wendung wird als eine Fläche entlang des aufgefundenen Rib-Eye-Muskelrands von dem Punkt entlang des Rands (Position von B), bei der ∠ABC zuerst unter 45° (oder einen anderen vorgeschriebenen Winkel) fällt, und der Punkt entlang des Randes, wo der ∠ABC zuerst erneut größer als 45° wird.
  • 27 ist eine symbolische Darstellung der Kontur des Rib-Eyes 200, die eine scharfe Wendung 246 zeigt. Wenn eine scharfe Wendung 246 identifiziert wurde, wird eine Linie 248 aufgetragen, die den durch die Wendung 246 gebildeten Winkel halbiert.
  • Eine grob elliptische oder eiförmige Figur 250 wird aufgetragen, die den Rib-Eye-Muskel 200 umgibt. Die Ellipse 250 approximiert ungefähr die allgemeine Form des Rib-Eye-Muskels und passt eng innerhalb des Rib-Eye-Kastens, wobei der Rib-Eye-Kasten an jedem seiner vier Seiten kontaktiert wird. Eine Linie 252 wird von der Mitte 254 der Ellipse durch den Scheitelpunkt der Wendung aufgetragen, um einen Punkt 256 auf der Ellipse zu schneiden. Eine Linie 258 wird durch den Punkt auf der Ellipse aufgetragen, die die Ellipse berührt. Die Linien 248 und 258 werden verglichen. Wenn sie grob parallel sind, wird die Wendung 246 weiterhin als eine Stelle zum Schneiden angesehen. Die Wendung 246 wird weiterhin zum Schneiden in Betracht gezogen, da die grob parallele Richtung der Linien 248 und 258 darauf hindeuten, dass der vorgeschlagene Schnitt (nahe Linie 248) dem vorhergesagten Rib-Eye-Muskelrand folgen würde, anstatt nach innen zu der Mitte des Rib-Eye-Muskels entlang eines Pfads zu schneiden, der atypisch für eine Rib-Eye-Muskelkontur sein würde. Wenn die Linien 248 und 258 nicht grob parallel sind, wird die Wendung 246 als eine mögliche Schneidestelle zurückgewiesen und das Auffinden wird fortgesetzt, da es wahrscheinlich ist, dass der vorgeschlagene Schnitt nicht dem vorhergesagten Rib-Eye-Muskelrand folgen würde, sondern zu der Mitte des Rib-Eye-Muskels hin gerichtet sein würde.
  • b. Bestimmen des Pfads eines Schnitts
  • Wie in 28 gezeigt, wird, wenn das Schneiden einer bei statt dem vorhergehenden Schritt identifizierten scharfen Wendung 246 nicht zurückgewiesen wurde, eine Reihe von Linien 260, die von dem Scheitelpunkt der Wendung 246 strahlenförmig ausgehen, ungefähr 60° zu jeder Seite der die Wendung halbierenden Linie aufgetragen. Die Summe der Helligkeitswerte entlang jeder Linie 260 wird aufgezeichnet. Die Aufzeichnung hält an, wenn die Linie einen bedeutenden Körper aus Fett (d. h. vier oder mehr aufeinander folgende Pixel) erreicht. Dies kann Fett an dem Rand des Rib-Eye-Muskels 262 oder intramuskuläres Fett 264 darstellen. Da Farben auf der IMap umgekehrt sind, stellen hohe Helligkeitswerte Muskelgewebe dar. Eine Linie mit einer hohen Helligkeitssumme ist entweder eine lange Linie durch Muskelgewebe oder sie wird durch wenige Fettpixel unterbrochen. Eine Linie mit einer niedrigen Helligkeitssumme ist wahrscheinlich eine kurze Linie durch Muskelgewebe, die an der fetten Schicht endet, die den Rib-Eye-Muskel umgibt, oder ein Blob von intramuskulärem Fett. Die den wahrscheinlichsten Schneidepfad darstellende Linie ist daher die Linie mit der niedrigsten Helligkeitssumme.
  • Wenn die niedrigste Summenlinie noch eine relativ hohe Helligkeitssumme (über einer ausgewählten Schwelle) aufweist, wird ein Schnitt nicht durchgeführt, da die vorgeschlagene Schnittlinie lang ist und daher wahrscheinlich wesentlich in das Innere des Rib-Eye-Muskels anstatt zu dem Rand hin ragt. Wenn die vorgeschlagene Schnittlinie unter der Schwellensummenhelligkeit ist, wird ein Schnitt weiter in Betracht gezogen.
  • Wie in 27 gezeigt, wird eine kleine Ellipse 266, die erheblich kleiner als die Ellipse 250 ist, innerhalb der Ellipse 250 aufgetragen. Die kleine Ellipse 266 ist ausreichend klein, sodass sie immer innerhalb der Rib-Eye-Muskelkontur fallen wird. Wenn der Startpunkt oder der Endpunkt eines vorgeschlagenen Schnittes innerhalb der kleinen Ellipse fallen würde, wird der Schnitt zurückgewiesen. Wenn weder der Startpunkt noch der Endpunkt des vorgeschlagenen Schnittes innerhalb der kleinen Ellipse fallen würde, wird ein Schnitt durchgeführt.
  • Mit dieses Verfahren können genaue Schnitte durchgeführt werden, um Fremdmuskelgewebe von der aufgefundenen Rib-Eye-Muskelkontur auszuschließen. Wie in 19 gezeigt, ist die Grenze zwischen einem Fremdmuskelsegment 206 und dem Rib-Eye-Muskel 200 häufig mit einer Kette von kleinen fetten Kügelchen gepunktet, die einen Zwischensaum von Fett 268 bilden. Die oben beschriebene Schnittanalysetechnik wird einer Reihe von kurzen Schnitten von einem fetten Kügelchen zu den nächsten auswählen, was in den meisten Fällen ziemlich genau den Rib-Eye-Muskelrand beschreibt.
  • c. Bestätigen des Randauffindens
  • Bei gewissen Fällen, insbesondere, wenn es keine Zwischensaum von Fett zwischen dem Rib-Eye-Muskel und einem Stück von Fremdmuskelgewebe gibt, wird das bei dem vorherigen Schritt beschriebene Verfahren versagen, ein Stück von Fremdmuskelgewebe abzuschneiden. Eine hier als progressive Winkelanalyse beschriebene Technik wird daher als eine Sichermaßnahme gegen verfehlte Schnitte verwendet.
  • Wie in 29 gezeigt, wird eine Linie 270 von der Mitte 272 der Ellipse 250 (in 27 gezeigt) zu jedem Punkt entlang des aufgefundenen Rib-Eye-Muskelrands projiziert, wobei konsekutiv in einer entgegengesetzter Uhrzeigerrichtung beginnend von einem beliebigen Ursprungspunkt 274 fortgeschritten wird. Da der aufgefundenen Rib-Eye-Muskelrand im Allgemeinen von regelmäßiger Form mit wenigen scharfen Wendungen ist, wird es aussehen, als ob eine Linie 270 in entgegengesetzten Uhrzeigerrichtung durch die Punkte 274 bis 282 streicht. Der Winkel 284 wird daher fortgesetzt zunehmen, wenn das Durchstreichen der Linie 270 fortgesetzt wird. Zwischen den Punkten 282 und 286 wird sich das Durchstreichen der Linie 270 umkehren und in Uhrzeigerrichtung bewegen. Der Winkel 284 wird daher kleiner werden. Zwischen den Punkten 286 und 288 wird der Winkel 284 erneut zunehmen. Der Punkt 288 ist mit den Punkten 272 und 282 kollinear. Die Änderung im Winkel 284 gibt die Position der scharfen Wendung bei 282 an.
  • Wie in 30 gezeigt, wird wie bei Schritt IV(C)(8)(a) die scharfe Wendung am Punkt 282 halbiert, und eine Reihe von strahlenförmig ausgehenden Linien 290 werden projiziert. Im Gegensatz zum Schritt IV(C)(8)(a) enden die Linien 290 nicht, wenn Fett erreicht ist, sondern stattdessen, wenn die Rib-Eye-Muskelkontur 205 erreicht ist. Die kürzeste Linie 290, die die Linie 290 zum Punkt 292 ist, wird zum möglichen Schneiden ausgewählt.
  • Das Schneiden entlang der Linie 290 vom Punkt 282 zum Punkt 292 würde das Muskelsegment 294 abschneiden. Die längste Achse 296 des Muskelsegments 294 wird bestimmt. Wenn die Linie 290 geringer als ungefähr die Hälfte der Linie 296 ist, wird das nächste Kriterium zum Schneiden geprüft. Wenn die Linie 290 größer als ungefähr die Hälfte der Länge von 296 ist, wird kein Schnitt durchgeführt.
  • Der Rand des Muskelsegments 294 (entlang der aufgefundenen Rib-Eye-Muskelkontur zwischen den Punkten 282 und 292) wird als eine Reihe von kurzen geraden Linien approximiert, die jeweils eine Länge von 20 Pixeln aufweisen, um ein vielseitiges Vieleck zu definieren. Das Vieleck wird in Dreiecke aufgebrochen, und eine Dreieckflächenformel wird verwendet, um die Fläche jedes Dreiecks in dem Vieleck zu bestimmen. Die Summe der Flächen der Dreiecke, die das Vieleck bilden, ist gleich der Fläche des Vielecks und wird als ein Schätzwert der Fläche des Muskelsegments 294 verwendet. Das Verhältnis der Fläche des Muskelsegments 294, das innerhalb der projizierten Ellipse 250 fällt, wird bestimmt. Der vorgeschlagene Schnitt wird zurückgewiesen, wenn irgendeines der folgenden Kriterien erfüllt ist:
    • – die Fläche des Muskelsegments 294, die außerhalb der projizierten Ellipse 250 fällt, ist größer als 15 cm2 (auf einer 1 : 1 Skala mit dem tatsächlichem Rib-Eye);
    • – die Fläche der Rib-Eye-Kontur, die nach dem Ausschneiden des Muskelsegments 294 verbleiben würde, würde geringer als 50 cm2 (auf einer 1 : 1 Skala mit dem tatsächlichen Rib-Eye); oder
    • – weniger als eine Hälfte der Gesamtfläche des Muskelsegments 294 fällt außerhalb der projizierten Ellipse 250.
  • Wenn keine dieser Kriterien erfüllt sind, wird ein Schnitt durchgeführt.
  • 9. Bestimmen der Fläche des aufgefundenen Rib-Eye-Muskels
  • Nachdem das Auffinden der Rib-Eye-Muskelkontur abgeschlossen wurde, wird die Anzahl von Pixeln auf jeder Reihe innerhalb der aufgefundenen Rib-Eye-Muskelkontur auf dem IMap tabelliert. Diese Daten werden ohne weiteres mit der während der Kamerakalibrierung hergeleiteten Bildgrößeninformation korreliert. Jedes Pixel innerhalb der Rib-Eye-Muskelkontur wird entweder als ein Fettpixel oder als ein Muskelgewebepixel auf der Grundlage der Helligkeitsschwellenwertbildung bestimmt.
  • Die volle Farbinformation von Pixels in dem ursprünglich erfassten Bild, die den in dem IMap identifizierten Muskelgewebepixeln entsprechen, werden aufgezeichnet und verwendet, um eine genaue durchschnittliche Farbe des Rib-Eye-Muskelgewebes zu berechnen. Die durchschnittliche Rib-Eye-Muskelgewebefarbe wird mit der Farbinformation korrigiert, die während der Kamerakalibrierung erhalten wurde. Durchschnittliche Rib-Eye- Muskelgewebefarbinformation kann für Fleischeinstufungszwecke verwendet werden.
  • Da die Anzahl von Fettpixeln innerhalb des Rib-Eye-Muskels bekannt ist, kann das Verhältnis von intramuskulärem Fett oder Marmorierung ohne weiters durch Teilen der Anzahl von Fettpixeln innerhalb der Rib-Eye-Muskelkontur durch die Gesamtzahl von Pixeln innerhalb der Rib-Eye-Muskelkontur bestimmt werden.
  • Alle intramuskulären Fettpixel werden einer Blobanalyse unterzogen, wie zuvor beschrieben. Blobs auf Fett größer als die ausgewählte Schwellengröße werden von der Berechnung der Prozentsatzmarmorierung eliminiert.
  • 10. Bestimmen der Dicke der subkutanen Fettschicht
  • Wie in 31 gezeigt, kann es schwierig sein, die Schicht des für Einstufungszwecke verwendeten subkutanen Fetts 202 von anderen Fett 298 zu unterscheiden. Die subkutane Fettschicht 202 wird von der Rib-Eye-Muskelkontur 205 und dem bei Schritt IV (C) (1) aufgefundenen Fettrand 210 begrenzt. Im Allgemeinen kann eine feine dunkle Linie bei 100 erfasst werden, die die subkutane Fettschicht 202 von dem anderen Fett 298 trennt.
  • Wie in 32 gezeigt, wird beginnend von der äußersten rechten Pixelspalte 302 auf der Rib-Eye-Muskelkontur 205 die Länge der Linie 304 zwischen dem Fettrand 210 und der Rib-Eye-Muskelkontur 205 bestimmt. Die Länge der Linie 304 definiert die Dicke der subkutanen Fettschicht 202 in der äußersten rechten Pixelspalte 302 auf der Rib-Eye-Muskelkontur 205.
  • Mittels des gleichen Verfahrens wird die Dicke der subkutanen Fettschicht 202 in Intervallen von ungefähr 3 mm (Messung auf dem Rib-Eye-Muskel) von links arbeitend gemessen. Typischerweise ist das andere Fett 298 im wesentlichen auf der linken Seite des Rib-Eye-Muskel-Bildes (linken Seite des Kadaver-Rib-Eye-Muskels) vorhanden und wird nicht auf der rechten Seite des Rib-Eye-Muskels gefunden. Die Dicke der subkutanen Fettschicht 202 wird daher am einfachsten auf der rechten Seite des Rib-Eye-Bildes bestimmt.
  • Mittels einer Maske LLHHHHH wird ein Versuch durchgeführt, eine feine dunkle Linie 300 zu lokalisieren, indem nach oben entlang Spalten in Intervallen von 5 Spalten von links arbeitend gesucht wird. Wenn eine feine dunkle Linie 300 gefunden ist, wird sie verwendet, den Innenrand der subkutanen Fettschicht 202 durch Verbinden der entlang der feinen dunklen Linie 300 gefundenen Punkte zu definieren. Dieser definierte Innenrand wird zurückgewiesen, wenn er dazu führen würde, dass die Dicke der subkutanen Fettschicht an der linken Seite des Bildes wesentlich unterschiedlich als die durchschnittliche Dicke des subkutanen Fettschicht an der rechten Seite des Bildes ist.
  • Wenn keine feine dunkle Linie 300 erfasst werden kann, oder sie zu schwach ist, um zuverlässig erfasst zu werden, wird die Position des Innenrands der subkutanen Fettschicht 202, wo sie anderes Fett 298 trifft (das in der gleichen Position wie die feine dunkle Linie 300 sein würde) als die gleiche als die durchschnittliche Dicke der subkutanen Fettschicht an der rechten Seite des Bildes geschätzt, wo es wenig wahrscheinlich ist, weiteres Fett 298 anzutreffen. Eine Linie wird daher einen Abstand nach oben von dem fetten Rand 210 aufgetragen, die die durchschnittliche Dicke der subkutanen Fettschicht an der rechten Seite des Bildes darstellt.
  • Der innere Fettrand wird dann mittels des bei Schritt IV(C)(1) beschriebenen Verfahrens ausgeglättet.
  • 11. Bestimmen der Länge des Rib-Eye-Muskels
  • Wie in 33A bis 33C gezeigt, werden die äußersten linken 306 und äußersten rechten 308 Punkte auf der Rib-Eye-Muskelkontur ausgewählt. Eine Reihe von Linien werden von dem Punkt 306 in einen Bereich von Punkten 310 entlang der Rib-Eye-Muskelkontur nahe dem Punkt 308 projiziert. Die Länge jeder Linie vom Punkt 306 zum Punkt 310 wird mit der Länge der Linie vom Punkt 306 zum Punkt 308 verglichen, um zu bestimmen, welche Linie am längsten ist.
  • Auf ähnliche Weise wird eine Reihe von Linien von einem Punkt 308 in einen Bereich von Punkten 312 entlang der Rib-Eye-Muskelkontur nahe Punkt 308 projiziert. Die Länge jeder Linie von 308 zum Punkt 312 wird mit der Länge der Linie verglichen, die Endpunkte 308 und 306 aufweist, um zu bestimmen, welche Linie am längsten ist.
  • Die oben erfasste längste Linie definiert die Rib-Eye-Muskellänge.
  • 12. Bestimmen der Breite des Rib-Eye-Muskels
  • Wie in 34 gezeigt, wird die die Länge des Rib-Eye-Muskels definierende Linie 314 in zahlreiche (ungefähr 200) gleiche Unterteilungen 316 aufgeteilt. Der Abstand von jedem Punkt 318 auf der aufgefundenen Rib-Eye-Muskelkontur 205 über der Linie 314 in der Spalte von Pixeln bei jeder Unterteilung 316 wird zu dem Abstand von jedem Punkt 320 auf der aufgefundenen Rib-Eye-Muskelkontur 205 unter der Linie in der Spalte von Pixeln bei jeder Unterteilung 316 addiert. Die Spalte mit der größten Gesamtlänge von Punkt 318 zu der Linie 314 plus der Linie 314 zum Punkt 320 definiert die Rib-Eye-Muskelbreite.
  • Als eine Sicherheitsmaßnahme wird die Breitenmessung zurückgewiesen, wenn sie auf eine Spalte außerhalb der Mitte von 50% der Länge des Rib-Eye-Muskels fällt.
  • 13. Messen der Dicke der subkutanen Fettschicht für Einstufungszwecke
  • Sobald die Länge des Rib-Eye-Muskels bestimmt wurde, kann diese Information in Verbindung mit den bei Schritt IV(C)(10) über die Dicke der subkutanen Fettschicht gesammelten Daten zur Einstufungsanalyse verwendet werden.
  • Die Einstufungsanalyse wird sich gemäß den Fleischeinstufungspraktiken bei verschiedenen Jurisdiktionen verändern. In Kanada wird beispielsweise, wie in 35 gezeigt ist, die die Länge des Rib-Eye-Muskels 314 beschreibende Linie in vier gleiche Abschnitte aufgeteilt, wodurch Punkte 322, 324 und 326 definiert werden. An jedem der Punkte 322, 324 und 326 wird eine Linie 328 nach unten senkrecht zu der Linie 314 aufgetragen, um den inneren Rand der subkutanen Fettschicht 202 (die die Rib-Eye-Kontur 205 ist) zu schneiden. Die Dicke der subkutanen Fettschicht 202 wird entlang jeder Linie 328 durch Punkte 322, 324 und 326 bestimmt, indem der Abstand zwischen dem inneren Rand der subkutanen Fettschicht 202 (die die Rib-Eye-Kontur 205 ist) und dem äußeren Rand 210 der subkutanen Fettschicht 202 senkrecht zu dem äußeren Rand 210 berechnet wird. Die minimale Dicke der subkutanen Fettschicht in dem rechten Quadranten, die die herkömmliche „Fettgrad"-Messung ist, wird ebenfalls bestimmt. Diese Information wird beim Bestimmen des Ausbeutegrads des Kadavers verwendet.
  • V. Analyse von durch das Warmkadaver-Bildaufbereitungssystem und das Rib-Eye-Muskel-Bildaufbereitungssystem gesammelten Daten
  • Die von dem Kadaver-Bildaufbereitungssystem und dem Rib-Eye-Bildaufbereitungssystem erhaltenen Messungen sind als unabhängige Variablen bei Vorhersagegleichungen nützlich, um verschiedene Kadaverparameter vorherzusagen. Vorhersagegleichungen können unabhängige Variablen umfassen, die aus Messungen aufgebaut sind, die nur von dem gesamten Kadaver (nur eine Seite), nur von dem Rib-Eye genommen wurden, oder können Messungen umfassen, die von sowohl dem gesamten Kadaver als auch dem Rib-Eye-Bild genommen wurden.
  • Kadaverparameter von besonderem Interesse umfassen diejenigen, die den kommerziellen Wert des Kadavers angeben. Wie bei den hier beschriebenen Beispielen wurden Vorhersagegleichungen entwickelt, um die verkäufliche Ausbeute von Fleischkadavern vorherzusagen. Weitere Kadaverparameter von Interesse umfassen ohne Einschränkung die magere Körpermasse und die Kadaverausbeute. Die magere Körpermasse kann als die Gesamtmasse von Skelettmuskel in einem Tier oder als das Verhältnis des gesamten Lebendgewicht des Tieres, der durch den Skelettmuskel dargestellt wird, definiert werden. Die Kadaverausbeute kann als die kombinierte Masse von Skelettmuskel, Knochen und zugeordnetem Fett als ein Verhältnis von Lebendtiergewicht definiert werden. Dieser Wert wird allgemein als ein Prozentsatz (z. B. 60% Kadaverausbeute) oder als eine Gewichtsbeziehung (z. B. 600 g/kg Lebendgewicht) ausgedrückt.
  • Beim Entwickeln einer Vorhersagegleichung wird Kadaverbild- und Rib-Eye-Bildanalyse, wie hier zuvor beschrieben, auf einer Probenpopulation von Kadavern durchgeführt, und der Wert des Kadaverparameters von Interesse wird für jeden Kadaver gemessen. Die Probenpopulation enthält eine ausreichende Anzahl von Kadavern, so dass eine statistisch bedeutsame Beziehung oder Korrelation zwischen einer oder mehrerer der ausgewählten unabhängigen Variablen und dem Kadaverparameter (abhängige Variable) von Interesse bestimmt werden kann. Die Probenpopulation kann so wenig wie drei Kadaver, und vorzugsweise mehr als zehn Kadaver, und noch bevorzugter mehr als 100 Kadaver enthalten.
  • Die Beziehung zwischen den unabhängigen Variablen und den abhängigen Variablen kann durch jede Anzahl von bekannten statistischen Verfahren, wie beispielsweise vielfache lineare Regression, künstliches neurales Netzlernen, Cluster-Analyse und Diskriminanten-Analyse bestimmt werden. Bei einer bevorzugten Ausführungsform wird die vielfache Regressionsprozedur von SAS (SAS Institute Inc., Cary, North Carolina) verwendet. Wo es mehrere unabhängige Variablen gibt, kann eine Matrix-Algebra verwendende Lösung verwendet werden. Beispielsweise kann, wo neun unabhängige Variablen analysiert werden und die abhängige Variable verkäufliche Ausbeute ist, dass vielfache Regressionsmodel sein:
    Figure 00530001
    wobei
    yj = die verkäufliche Ausbeute des j-ten Tieres, j = 1, 2, ... 9, a = das Gesamtmittel,
    bi = der i-te Regressionskoeffizient, i = 1, 2, ... 9
    xj = die j-te Vorhersage-Variable, j = 1, 2, ... 9,
    ej = der j-ten Beobachtung zugeordnete zufällige Fehler.
  • Die folgende Matrix und Vektoren werden definiert:
  • Figure 00530002
  • Der komplette Satz von Gleichungen ist
    y = Xb + e, wobei E(y), E(e) = 0 und var(e) = σ2I, wobei E den Erwartungs-Operator bezeichnet und σ2 eine Konstante ist.
  • Der Regressionskoeffizient b wird geschätzt als b = (X'X)–1X'y.
  • Die Vorhersage ist
  • Figure 00540001
  • Lediglich von der Rib-Eye-Analyse genommene Information kann ebenfalls verwendet werden, um eine Vorhersagegleichung für einen Kadaverparameter, wie beispielsweise verkäufliche Ausbeute, wie oben beschrieben, herzuleiten. Alternativ kann die Rib-Eye-Analyseinformation verwendet werden, um einen Gütegrad für den Kadaver zu bestimmen. Wie zuvor erläutert, hängt die nordamerikanische Güteeinstufung von Kadavern in Grade, wie beispielsweise A, AA und AAA, im Allgemeinen von dem Prozentsatz von intramuskulärem Fett (Marmorierung) des Kadavers ab, wie es von dem Rib-Eye geschätzt wird. Da die genauen Auffindungs-Muskelgewebe/Fett-Diskriminierungstechniken der vorliegenden Erfindung eine genaue Bewertung des Prozentsatzes von intramuskulärem Fett in dem Rib-Eye ermöglichen, sind die Rib-Eye-Analysetechniken der Erfindung zum Bestimmen von Gütegraden von Kadavern nützlich.
  • Die Erfindung wird ferner durch die folgenden nicht einschränkenden Beispiele dargestellt.
  • BEISPIEL 1
  • Eine Vorrichtung und ein Verfahren der Erfindung wurde geprüft, um die Genauigkeit des Rib-Eye-Bildaufbereitungssystems beim Bestimmen von Rib-Eye- Parametern zu bewerten. Zweckmäßigerweise wird die Ausführungsform der Erfindung, die in den folgenden Beispielen geprüft wird, hier von den Erfindern „Lacombe CVS" genannt.
  • Rib-Eye-Abbildungen wurden erhalten und analysiert mit dem Lacombe CVS von 40 Rindvieh-Kadavern. Die Rib-Eyes wurden dann manuell von menschlichen Einstufern aufgefunden und mittels eines Einstufungsgitters gemessen. Wie in Tabelle 3 gezeigt, korrelierte die Lacombe-CVS-Auffindung der Rib-Eye-Fläche eng mit der manuellen Auffindung. Ein Quadrieren der Korrelation liefert den R2-Wert.
  • Tabelle 3
    Figure 00550001
  • BEISPIEL 2
  • Eine Gesamtzahl von 65 Kadavern, die 19, 19 und 22 Kadavern des Grads A, AA und AAA jeweils darstellen, wurden abgetastet und nach hinten zu den Einstufungsstands für weitere Messungen gefahren (Tabelle 5). Ein zertifizierter Einstufer bewertete den Gütegrad und die Marmorierung in AMSA(American Meat Signed Association)-Einheiten direkt von dem Kadaver und erneut von dem auf dem Computerschirm angezeigten erfassten Bild.
  • Bilder von Marmorierungsstandardphotografien des United States Department of Agriculture wurden mit dem Lacombe-CVS analysiert, um das CVS zu kalibrieren, um Gütegradbestimmungen durchzuführen. Der geschätzte Prozentanteil von intramuskulärem Fett, wie durch das CVS für kanadische und US-Gütegrade bestimmt, wird in Tabelle 4 dargelegt.
  • Tabelle 4
    Figure 00560001
  • Die Regel zum Zuweisen eines Gütegrads wird in Tabelle 5 gezeigt.
  • Tabelle 5
    Figure 00560002
  • Tabelle 6 zeigt die CVS %-Marmorierungbestimmungen, die durch den zertifizierten Einstufer direkt von dem Kadaver bestimmten AMSA-Zählwerte und wie durch den CVS-Computerschirm bestimmt.
  • Tabelle 6
    Figure 00560003
  • Die Korrelation von CVS-geschätztem Marmorierungsprozent mit AMSA des Einstufers in Echtzeit betrug 0,81 (Tabelle 7). Die Korrelation verbesserte sich auf 0,92, wenn der Einstufer die Kadaver erneut von dem Computerschirm einstufte.
  • Tabelle 7
    Figure 00570001
  • BEISPIEL 3
  • Das Lacombe-CVS wurde geprüft, um zu bestimmen, ob konsistente Einstufungsbestimmungen auf dem gleichen Kadaver Rib-Eye unter unterschiedlichen Beleuchtungsbedingungen durchgeführt werden konnte.
  • 54 Rindersteaks mit unterschiedlichen Niveaus von Marmorierung wurden von Supermärkten gekauft. Jedes Steak wurde fünfmal bei dem Lacombe Meat Research Center in Lacombe, Alberta, Kanada in dem Schneidezimmer, in einem Fleischkühler und in einem Anzeigefall analysiert. Diese Bereiche stellen Beleuchtungsbedingungen von hellem fluoreszierenden Licht, gedimmtem fluoreszierenden Licht bzw. weißglühendem Licht dar.
  • Wie in Tabelle 8 gezeigt reichten die Wiederholbarkeitsschätzwerte für den Rib-Eye-Fläche und die Prozentmarmorierung von 0,86 bis 0,96, was angibt, dass das Rib-Eye-Bildaufbereitungssystem konsistente Ergebnisse unter unterschiedlichen Beleuchtungsbedingungen bereitstellen kann. Die Wiederholbarkeitsschätzwerte für Fettgrad waren niedriger, da die Steaks bei Zimmertemperatur gehalten wurden und daher sehr weich waren und ihre Form änderten, wenn sie von einer Stelle zu einer anderen bewegt wurden.
  • Tabelle 8
    Figure 00580001
  • BEISPIEL 4
  • Eine zweite Untersuchung wurde durchgeführt, um die Wiederholbarkeit von durch Lacombe-CVS durchgeführte Messungen zu bewerten. An dem ersten Tag der Untersuchung wurden Standardmessungen von menschlichen Einstufern von Fettgrad, Fett-Eye-Fläche und Marmorierung auf den Rib-Eyes von 14 Kadavern mittels eines Messgitters durchgeführt. Die Kadaver wurden dann zweimal innerhalb einer Minute durch das CVS gemessen. Die Kadaver wurden manuell einzeln gedrückt, um durch die Rib-Eye-Kammer gemessen zu werden. An dem zweiten Tag der Untersuchung wurden im wesentlichen die gleichen Prozeduren an 21 zusätzlichen Kadavern durchgeführt.
  • Tabelle 9 zeigt die Korrelation zwischen den beiden aufeinander folgenden Messungen, die durch Lacombe-CVS an jedem Kadaver durchgeführt wurden. Insgesamt ist ersichtlich, dass die durchschnittliche Korrelation sehr hoch nahe 97% ist.
  • Tabelle 9
    Figure 00580002
  • BEISPIEL 5
  • Eine weitere Wiederholbarkeitsstudie wurde durchgeführt, bei der Fettgrad, Rib-Eye-Fläche und %-Marmorierung für Rib-Eyes von 166 Rinderkadavern mit dem Lacombe-CVS gemessen wurden. Messungen wurden zwischen ein- und elfmal mit einem Mittelwert von vier wiederholten Messungen wiederholt. Die Kadaver wurden ebenfalls durch menschliche Einstufer eingestuft. Eine Gesamtzahl von 166 Köpfen von Rindvieh, die Kadaver von 2 Geschlechtern mal drei Gewichtsgruppen mal drei Fettniveaus darstellen, wurden abgetastet. Die Datensammlung wurde in einem 3-tägigen Zyklus abgeschlossen. Bei dem ersten Tag des Datenzyklus wurden Bilder von intakten Kadavern vor dem Kühlen erhalten. Bilder schlechter Güte wurden gekennzeichnet, sodass diejenigen Kadaver nicht für einen Ausschnitt am nächsten Tag ausgewählt wurden. Bei dem zweiten Tag wurden Kadaver gemäß einem vorgeplanten Abtastschema ausgewählt. Rib-Eye-Bilder von gekühlten Kadavern wurden erhalten, und Grade von menschlichen Einstufern wurden aufgezeichnet. Am dritten Tag wurden die ausgewählten Kadavern durch ein Team von sieben Abschneidern ausgeschnitten (seziert), die 20 linke Kadaverhälften auf ein ¼'' Trim verkäuflicher Ausbeute in drei Stunden sezierten. Techniker überwachten den Ausschnitt und zeichneten Gewichte von verschiedenen Schnitten auf.
  • Die Kadaverausschnittdaten wurden zusammengestellt und editiert. Die verkäufliche Fleischausbeute wurde als die Summe der Schnittgewichte plus der Gewichte des Trim (50, 75 und 85% mager) definiert, die als ein Prozentsatz des Seitengewichts ausgedruckt wurden. Die Daten von der Bildanalyse wurden zusammengeführt.
  • Wie in Tabelle 10 gezeigt, betrug die Wiederholbarkeit für Fettgrad, Rib-Eye-Fläche und %-Marmorierung alle mehr als 0,95.
  • Tabelle 10
    Figure 00590001
  • BEISPIEL 6
  • Korrelationen zwischen Lacombe-CVS- und menschlichen Einstufungsmessungen für Fettgraddicke und Rib-Eye-Fläche wurden für die bei Beispielen 2 und 3 gesammelten Daten gesammelt bestimmt. Wie in Tabelle 11 gezeigt, reichten die Korrelationen zwischen dem Lacombe-CVS und Einstufermessungen von 0,89 bis 0,99 in drei getrennten Untersuchungen.
  • Tabelle 11
    Figure 00600001
  • BEISPIEL 7
  • Der Grad der Korrelation zwischen Marmorierungsbestimmungen (Gütegrad) von menschlichen Einstufern und solchen des Lacombe-CVS wurde bestimmt. Die CVS-Marmorierungsprozentschätzung wurde mit dem regionalen Einstufungsüberwacher, Food Protection & Inspection Branch, Agriculture and Agri-Food, Canada, kalibriert. Die Schwelle zum Entscheiden, ob ein Pixel Muskel oder Fett ist, wurde durch Lernen am Erfolg (Trial-And-Error) bei einem Bemühen eingestellt, die von dem Einstufer gesehenen Marmorierungsstufen nachzubilden. Nachdem die Einstellung abgeschlossen war, wurde eine Prüfung durchgeführt, um die Korrespondenz zwischen dem von dem CVS und dem durch den Einstufungskontrolleur zugewiesenen Marmorierungsgrad zu bestimmen. Aus einer Gesamtzahl von 62 geprüften Kadavern, hauptsächlich AA- und AAA-Grade, waren nur 5 nicht in Übereinstimmung. Dies fegt nahe, dass der Lacombe-CVS kalibriert werden kann, um mit einem erfahrenen Einstufer mit einem vernünftigen Genauigkeitsniveau übereinzustimmen.
  • BEISPIEL 8
  • Vorhersagegleichungen für verkäufliche Ausbeute wurden mittels der bei Beispiel 5 erfassten Daten bestimmt. Wesentliche Schnitte für Hüfte, Lende (Surloin, Loin), Rippe, Kamm, Flanke, Dünnung und Brust wurden an Kadaverbildern bestimmt, wie es bei Schritt III(B)(4)(C) bei der ausführlichen Beschreibung der bevorzugten Ausführungsform beschrieben ist. Wie es bei Schritt III(B)(E)(D) der ausführlichen Beschreibung der bevorzugten Ausführungsform beschrieben und in 17 gezeigt ist, wurden die Kadaverbilder in sechs lineare Regionen aufgeteilt, die als das hintere Bein, untere Hüfte, obere Hüfte, unterer Rücken, mittlerer Rücken und lineare Schulterregionen beschrieben wurden. Jede lineare Region wurde in sechs gleiche Unterteilungen durch Linien abgegrenzt, die quer zu der Längsachse des Kadaverbildes aufgetragen wurden. Bei jeder linearen Region wurden den quer liegenden Linien Bezugsziffern 1 bis 9 beginnend an dem hinteren Ende des Kadaverbildes zugewiesen. Der Abstand von den Punkten, wo jede quer liegende Linie die Bauch- und Rückenregionen der Kadaverbildkontur kreuzten, zu der Mittellinie (Linie B3 bis B9 in 17) wurden bestimmt.
  • Winkelmessungen und Krümmungsmessungen, wie bei Schritten III(B)(4)(e) und (f) beschrieben, wurden ebenfalls bestimmt. Insgesamt wurden mehr als 400 Kadaver- und Rib-Eye-Messungen durchgeführt und auf Korrelation mit verkäuflicher Ausbeute des Kadavers hin geprüft.
  • Eine schrittweise Regression wurde auf die Daten angewendet, um zu den besten Modellen zu gelangen, um verkäufliche Ausbeute aus intakten Kadavermessungen, Rib-Eye-Messungen und der Kombination von diesen beiden Sätzen von Messungen vorherzusagen. Das R2 (quadrierte mehrfache Korrelation), das angibt, wie gut die Daten an das Modell angepasst sind, und die Reststandardabweichung (Quadratwurzel des restlichen mittleren Quadrats), die den Fehler des Vorhersagens des Ausschneidewertes von CVS-Messungen angibt, werden in Tabelle 12 zusammengefasst. Die Genauigkeit des Lacombe-CVS (RSD = 1,03%), unverkäufliche Ausbeute vorherzusagen, war höher als für das australische System, das von Jones U. A. (1993, RSD = 1,27%) und Richmond u. a. (1995, RSD = 1,65%) ausgewertet wurde. Die genauesten Ergebnisse wurden erhalten, wenn Messungen sowohl von dem intakten Kadaverbild als auch von dem Rib-Eye-Bild als unabhängige Variablen in der Vorhersagegleichung enthalten waren. Die Verwendung von lediglich 20 Messungen von dem Kadaverbild erwies sich als die nächste genaueste Vorgehensweise, gefolgt von 5 CVS-Messungen nur von dem Rib-Eye. Bemerkenswerterweise erwiesen sich alle Gleichungen für die verkäufliche Ausbeute, die mittels CVS-Messungen bestimmt wurden, von größerer Genauigkeit als Gleichungen, die auf von einem menschlichen Einstufer durchgeführten Messungen basierten.
  • Tabelle 12
    Figure 00620001
  • Die lediglich auf Rib-Eye-Messungen basierte Vorhersagegleichung für verkäufliche Ausbeute wurde bestimmt als: % verkäufliche Ausbeute = 76,238706 + 0,010197TAREA – 0,349852TPFAT – 0,427767AFAT + 0,25422MFAT – 0,193396GFAT wobei
    TAREA = Gesamtfläche des Rib-Eyes;
    TPFAT = Gesamtprozentanteil von intramuskulären Fett in dem Rib-Eye;
    AFAT = Durchschnitt von subkutanen Rib-Eye-Fettdicken-Messungen an oberen mittleren und unteren Punkten, wie in 35 gezeigt, Bezugsziffern 322, 324 und 326;
    MFAT = subkutane Fettdicke am Mittelpunkt, wie in 35 bei Bezugsziffer 324 gezeigt;
    GFAT = subkutane Fettdicke an dem Fettmesspunkt für Standardgrad, die die minimale subkutane Fettdicke in dem äußersten rechten Quadranten ist, wie in 35 gezeigt.
  • Die Vorhersagegleichung für lediglich auf Kadavermessungen basierende verkäufliche Ausbeute wurde bestimmt als: % Verkäufliche Ausbeute = 106,085803 – 176,062150PRIB + 262,044441PLOIN – 340,168645PPLATE – 270,060083A4 + 295,14395A6 + 32.222714HIND3 + 24,016820HIND22 + 7,035919LHIP34 – 51,034738LHIP35 + 14,944928MBACK3 – 27,824773M-BACK12 – 89,700540SHLD2 + 73,786202SHLD6 – 15,522698SHLD23 + 35,014305CWLB wobei
    PRIB = Verhältnis der Fläche des wesentlichen Schnitts der Rippe zu der Gesamtkadaverbildfläche;
    PLOIN = Verhältnis der Fläche des wesentlichen Schnitts der Lende zu der Gesamtkadaverbildfläche;
    PPLATE = Verhältnis der Fläche des wesentlichen Schnitts der Dünnung zu der Gesamtkadaverbildfläche;
    A4 = Fläche des wesentlichen Schnitts der Lende;
    A6 = Fläche des wesentlichen Schnitts der Dünnung;
    HIND3 = ventraler Abstand zu der Mittellinie für Intervall 1 in linearer Region des Hinterbeins;
    HIND22 = dorsaler Abstand zu der Mittellinie für Intervall 6 in der linearen Region des Hinterbeins;
    LHIP8 = Kadaverbreite für Intervall 2 in der linearen Region der Hüfte;
    LHIP34 = dorsaler Abstand für Intervall 9 in der linearen Region der unteren Hüfte;
    LHIP35 = ventraler Abstand für Intervall 9 in der linearen Region der unteren Hüfte;
    MBACK3 = ventraler Abstand für Intervall 1 in der linearen Region des mittleren Rückens;
    MBACK12 = Kadaverbreite für Intervall 3 in der linearen Region des mittleren Rückens;
    SHLD2 = dorsaler Abstand für Intervall 1 in der linearen Region der Schulter;
    SHLD23 = dorsaler Abstand für Intervall 6 in der linearen Schulterregion;
    CWLB = Durchschnittliche Kadaverbreite in der linearen Region des unteren Rückens.
  • Die Vorhersagegleichung für verkäufliche Ausbeute mit Messungen von sowohl dem gesamten Kadaver als auch dem Rib-Eye als unabhängige Variablen wurde bestimmt als: % verkäufliche Ausbeute = 79,448902 + 0,018258TAREA – 0,191083TPFAT – 0,362684AFAT + 0,267664 MFAT – 0,185617GFAT – 20,087953PRIB + 214,213295PLOIN – 243,441006PPIATE – 224,112984A4 + 171,424092A6 + 13,781479HIND3 + 14,152217HIND22 + 2,862327LHIP8 – 20,933690LHIP34 – 25,216945LHIP35 – 2,567813MBACK3 – 1,173930MBACK12 – 59,559750SHLD2 + 45,429554SHLD6 – 11,739671SHLD23 + 41,817415CWLB wobei die unabhängigen Variablen wie oben dargelegt sind.
  • Es sei bemerkt, dass bei den obigen Vorhersagegleichungen für verkäufliche Ausbeute keine der Spitze-Winkel-Messungen oder Krümmungsmessungen sich als eng der verkäuflichen Ausbeute von Rinderkadavern in diesem Fall zugeordnet erwiesen. Ferner ist es etwas überraschend, dass die sich Fläche des wesentlichen Schnitts der Dünnung und das Verhältnis der Fläche des wesentlichen Schnitts der Dünnung zu dem Gesamtkadaverkonturfläche als bedeutende Variablen herausstellten, weil der wesentliche Schnitt der Dünnung von geringerer wirtschaftlicher Bedeutung als andere wesentliche Schnitte von dem Rindfleischkadaver ist. Es sei ferner bemerkt, dass die Vorhersagegleichungen für die verkäufliche Ausbeute mindestens zwei Abstände von jeweils den Bauch- und Rückenregionen der Kadaverbildkontur zu der Mittellinie von mindestens zwei Kadaverbreiten und der wesentlichen Schnittflächen und die Verhältnisse der wesentlichen Schnittflächen zu der Gesamtkadaverbildfläche umfassen.
  • Alle in dieser Beschreibung erwähnten Veröffentlichungen geben das Niveau der Fachkenntnisse von Fachleuten an, die diese Erfindung betrifft. Alle Veröffentlichungen sind hierin mit Bezug zu dem gleichen Ausmaß aufgenommen, als wenn für jede einzelne Veröffentlichung spezifisch und einzeln angegeben worden, dass sie durch Bezug aufgenommen wurden.
  • Obwohl die vorstehende Erfindung etwas ausführlich mittels Veranschaulichung und Beispiel zwecks klarem Verständnis beschrieben wurde, ist es offensichtlich, dass bestimmte Änderungen und Modifikationen innerhalb des Schutzumfangs der beigefügten Ansprüche praktiziert werden können.

Claims (13)

  1. Verfahren zur Bestimmung eines Gütegrads von einem Tierkadaver, umfassend die Schritte (a) Erlangung eines Bildes, welches das Rib-Eye des Kadavers beinhaltet, wobei das Bild aus einer Anordnung von Pixeln zusammengesetzt ist, die Farbdaten liefern, die für Farbinformation vom entsprechenden Teil des Bildes repräsentativ sind, (b) Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die Fettgewebe darstellen, auf Basis eines charakteristischen Pixelfarb-Grenzwertes und gegebenenfalls auch Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die kein Muskelgewebe oder Fettgewebe darstellen, auf Basis eines Pixelfarb-Sättigungsniveaugrenzwertes, (c) Identifizieren eines Clusters von Muskelgewebepixeln im Bild, der das Rib-Eye darstellt, und Auffinden der Kontur des Rib-Eye-Muskels, um äußere Bildabschnitte auszuschließen, die Muskelgewebe darstellen, das angrenzt, aber nicht Teil des Rib-Eye ist, (d) Bestimmen des Verhältnisses von Pixeln innerhalb der Rib-Eye-Kontur, die Fett darstellen, relativ zur Gesamtzahl von Pixeln innerhalb der Rib-Eye-Kontur, um einen Wert des Prozentgehaltes an intramuskulärem Fett in dem Rib-Eye zu erhalten, (e) Wiederholen der Schritte (b) bis (d) für eine Mehrzahl von Referenzbildern von Rib-Eyes von Kadavern mit vorbestimmtem Gütegrad, um eine Beziehung zwischen dem Prozentgehalt an intramuskulärem Fett in dem Rib-Eye und dem Gütegrad des Kadavers zu etablieren, gegebenenfalls aus Standardphotographien, die das Aussehen von Rib-Eyes von Kadavern bekannter Gütegrade zeigen, und (f) Lösen der in Schritt (e) bestimmten Beziehung für den Wert des Prozentgehaltes an intramuskulärem Fett in dem Rib-Eye, der in Schritt (d) bestimmt wird, um den Gütegrad des Kadavers zu bestimmen.
  2. Verfahren zur Bestimmung von Parametern eines Rib-Eye von einem Kadaver, umfassend die Schritte (a) Erlangung eines Bildes, welches das Rib-Eye des Kadavers beinhaltet, wobei das Bild aus einer Anordnung von Pixeln zusammengesetzt ist, die Farbdaten liefern, die für Farbinformation vom entsprechenden Teil des Bildes repräsentativ sind, (b) Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die Fettgewebe darstellen, auf Basis eines charakteristischen Pixelfarb-Grenzwertes, (c) Identifizieren eines Zielclusters von angrenzenden Muskelgewebepixeln im Bild, wobei der Zielcluster das Rib-Eye beinhaltet, und Auffinden der Kontur des Clusters von Muskelgewebepixeln, einschließlich des Rib-Eye, (d) Identifizieren und Ausschneiden von äußeren Bildabschnitten, die Muskelgewebe darstellen, das angrenzt, aber nicht Teil des Rib-Eye ist, wobei der Schritt des Identifizierens von äußeren Bildabschnitten folgendes beinhaltet: i) Identifizieren von Außenwendungen in der Rib-Eye-Kontur, die in Schritt (c) aufgefunden werden, und ii) Zurückweisen einer Außenwendung als eine mögliche Stelle für den Beginn eines Schnitts, um einen äußeren Bildabschnitt auszuschneiden, wenn eine erste Linie, die die Wendung halbiert, nicht im wesentlichen parallel wäre zu einer zweiten Linie tangential zu einer ersten, allgemein elliptischen Figur, die die Rib-Eye-Kontur umgibt, an einem Punkt auf der Ellipse kollinear mit dem Zentrum der elliptischen Figur und dem Scheitelpunkt der Wendung; und gegebenenfalls auch: iii) Auftragen einer Mehrzahl von Suchlinien, die von den Scheitelpunkten von Außenwendungen ausgehen, die in Schritt (ii) nicht zurückgewiesen werden, wobei die Suchlinien sich einwärts über einen Bereich von mindestens etwa 20° auf jeder Seite einer die Wendung halbierenden Linie strahlenförmig ausdehnen, Registrieren der Zahl von Pixeln, die Muskelgewebe darstellen, entlang jeder Suchlinie, bis eine Reihe von mindestens etwa 4 aufeinanderfolgenden Pixeln, die Fett darstellen, nachgewiesen wird, und Auswählen der Suchlinie mit den wenigsten Pixeln, die Muskelgewebe darstellen, als ein möglicher Pfad für einen Schnitt zum Ausschneiden eines äußeren Bildabschnitts.
  3. Verfahren nach Anspruch 2, worin Schritt (d) (iii) ferner umfasst das Zurückweisen der ausgewählten Suchlinie als ein möglicher Pfad für einen Schnitt zum Ausschneiden eines äußeren Bildabschnitts, wenn der Pfad des Schnitts eine zweite, allgemein elliptische Figur schneiden würde, die vollständig innerhalb der Rib-Eye-Muskelkontur enthalten ist.
  4. Verfahren nach Anspruch 2 oder Anspruch 3, das den folgenden weiteren Schritt umfasst: (e) Identifizieren und Ausschneiden von verbleibenden äußeren Bildabschnitten, die in Schritt (d) nicht identifiziert und ausgeschnitten werden, durch: i) Identifizieren verbleibender Außenwendungen in der Rib-Eye-Bildkontur, bevorzugt durch Auftragen des Pfads von einem Zielobjekt, Bewegen entlang der Rib-Eye-Bildkontur und Messen der Radialbewegung von einer Linie mit Endpunkten auf dem Zielobjekt und dem Zentrum der Rib-Eye-Bildkontur, wobei eine Außenwendung an dem Punkt auf der durch das Zielobjekt belegten Kontur nachgewiesen wird, wenn die Bewegung der Linie zwischen dem Zielobjekt und dem Zentrum der Rib-Eye-Linie die Drehrichtung umkehrt, ii) Auftragen einer Mehrzahl von Suchlinien, die von den Scheitelpunkten von jeder verbleibenden Außenwendung auf der Rib-Eye-Bildkontur ausgehen, wobei die Suchlinien sich einwärts über einen Bereich von mindestens etwa 20° auf jeder Seite einer die Wendung halbierenden Linie strahlenförmig ausdehnen, iii) Registrieren der Zahl von Pixeln entlang jeder Suchlinie zur Bestimmung der Länge der Suchlinie, bis die Suchlinie wieder die Rib-Eye-Bildkontur schneidet, iv) Auswählen der Suchlinie mit der kürzesten Länge als ein möglicher Pfad für einen Schnitt zum Ausschneiden eines äußeren Bildabschnitts und gegebenenfalls Zurückweisen des möglichen Pfads von einem Schnitt zum Ausschneiden eines äußeren Bildabschnitts, wenn die Länge des Pfads größer ist als der vorbestimmte Anteil der Länge der längsten Achse des auszuschneidenden äußeren Bildabschnitts.
  5. Verfahren nach Anspruch 4, worin der Identifizierungs- und Ausschneidschritt (e) ferner umfasst: v) Zurückweisen des möglichen Pfads für einen Schnitt zum Ausschneiden eines äußeren Bildabschnitts, wenn mindestens eines der folgenden Kriterien erfüllt ist: (1) der äußere Bildabschnitt, der durch den Schnitt ausgeschnitten würde, wäre größer als eine vorbestimmte Fläche, (2) der Schnitt würde zu einer Rib-Eye-Bildkontur führen, die kleiner als eine vorbestimmte Fläche wäre, oder (3) weniger als ein vorbestimmter Prozentgehalt der Fläche des äußeren Bildabschnitts, der durch den Schnitt ausgeschnitten würde, würde außerhalb der ersten, allgemein elliptischen Figur sein.
  6. Verfahren nach irgendeinem der Ansprüche 2 bis 5, das den folgenden weiteren Schritt umfasst: (f) nach Ausschneiden irgendeines äußeren Bildabschnits Bestimmen des Verhältnisses von Pixeln innerhalb der Rib-Eye-Kontur, die Fett darstellen, relativ zur Gesamtzahl von Pixeln innerhalb der Rib-Eye-Kontur, um einen Wert des Prozentgehaltes an intramuskulärem Fett in dem Rib-Eye zu erhalten.
  7. Verfahren zur Bestimmung von Einstufungsparametern von einem Kadaver, umfassend die Schritte: (a) Erlangung eines Bildes von einer Ansicht des Kadavers, wobei das Bild aus einer Anordnung von Pixeln zusammengesetzt ist, die Daten liefern, die für Information vom entsprechenden Teil des Bildes repräsentativ sind, (b) Auffinden der Kontur des Bildes, um eine Kadaver-Bildkontur zu erzeugen, (c) Bestimmen einer Mehrzahl von ersten Referenzpunkten auf der Kadaver-Bildkontur, wobei die ersten Referenzpunkte anatomische Merkmale des Kadavers darstellen, wobei die anatomischen Merkmale als Vorsprünge oder Einschnitte in der Kadaver-Bildkontur identifiziert werden, (d) Bestimmen mindestens eines zweiten Referenzpunkts auf oder in der Kadaver-Bildkontur, wobei die zweiten Referenzpunkte sich an vorbestimmten Positionen relativ zu den ersten Referenzpunkten befinden, (e) Teilen des Kadaverbildes in eine Mehrzahl von Abschnitten, wobei die Grenzen jedes Abschnitts als eine Funktion der Position der ersten und zweiten Referenzpunkte bestimmt werden, Bestimmen der Fläche von jedem Abschnitt und Bestimmen des Verhältnisses der Fläche von mindestens einem der Kadaver-Bildabschnitte zur Gesamtfläche, die von der Kadaver-Bildkontur umfasst wird, wobei mindestens eines der Verhältnisse als eine unabhängige Variable in der Einstufungsparametervorhersage-Gleichung, die in Schritt (f) bereitgestellt wird, enthalten ist, wobei die Abschnitte Abschnitte beinhalten, die Grenzen von herkömmlichen wesentlichen Schnitten aufweisen, die in einem Kadavereinstufungssystem verwendet werden, wobei die wesentlichen Schnitte ausgewählt werden aus der Gruppe bestehend aus wesentlichen Schnitten für Hüfte, Lende (Surloin, Loin), Rippe, Kamm, Flanke, Dünnung und Brust, (f) Bereitstellen einer Einstufungsparametervorhersage-Gleichung, worin der Einstufungsparameter als eine abhängige Variable enthalten ist, und mindestens eine Fläche von einem Abschnitt, die in Schritt (e) bestimmt wird, als eine unabhängige Variable enthalten ist, und (g) Lösen der Einstufungsparametervorhersage-Gleichung, um einen Wert für den Einstufungsparameter des Kadavers zu liefern, (h) Bestimmen des kürzesten Abstands von mindestens einem Referenzpunkt auf dem Rücken- oder Bauchbereich der Kadaver-Bildkontur zu einer Kadaverbild-Mittellinie, die im wesentlichen parallel zur Längsachse des Kadaverbildes aufgetragen ist, wobei die Mittellinie das Kadaverbild in Bauch- und Rückenbereiche teilt, und wobei mindestens einer der Abstände von den Referenzpunkten auf den Rücken- oder Bauchbereichen der Kadaverbildkontur zu der Mittellinie, die in Schritt (h) bestimmt wird, als eine unabhängige Variable in der Einstufungsparametervorhersage-Gleichung, die in Schritt (f) bereitgestellt wird, enthalten ist, und (i) gegebenenfalls Bestimmen der Breite der Kadaver-Bildkontur an mindestens einem Referenzpunkt senkrecht zur Mittellinie, die in Schritt (h) bereitgestellt wird, und wobei mindestens eine der Breiten der Kadaver-Bildkontur, die in Schritt (i) bestimmt wird, gegebenenfalls als eine unabhängige Variable in der Einstufungsparametervorhersage-Gleichung, die in Schritt (f) bereitgestellt wird, enthalten ist, und (j) Messen des Werts von mindestens einem herkömmlichen Einstufungskriterium für das Rib-Eye des Kadavers, wobei die herkömmlichen Einstufungskriterien ausgewählt werden aus der Gruppe bestehend aus der Fläche des Rib-Eye, dem Prozentgehalt an intramuskulärem Fett in dem Rib-Eye, der Dicke einer subkutanen Fettschicht auf dem Rib-Eye an vorbestimmten Positionen, der durchschnittlichen Dicke der subkutanen Fettschicht an einer herkömmlichen Gütefettmessstelle, und wobei mindestens eines der herkömmlichen Einstufungskriterien für das Rib-Eye des Kadavers als eine unabhängige Variable in der Einstufungsparametervorhersage-Gleichung, die in Schritt (f) bereitgestellt wird, enthalten ist.
  8. Vorrichtung zur Bestimmung eines Gütegrads von einem Tierkadaver umfassend: (a) eine Bilderfassungseinrichtung zur Erlangung eines Bildes, das das Rib-Eye des Kadavers beinhaltet, (b) eine Berechnungs- und Speichereinrichtung für: (i) Speichern des Bildes als eine Anordnung von Pixeln, die Farbdaten liefern, die für Farbinformation vom entsprechenden Teil des Bildes repräsentativ sind, (ii) Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die Fettgewebe darstellen, auf Basis eines charakteristischen Pixelfarb-Grenzwertes, (iii) Identifizieren eines Clusters von Muskelgewebepixeln im Bild, der das Rib-Eye darstellt, und Auffinden der Kontur des Rib-Eye-Muskels, um äußere Bildabschnitte auszuschließen, die Muskelgewebe darstellen, das angrenzt, aber nicht Teil des Rib-Eye ist, (iv) Bestimmen des Verhältnisses von Pixeln innerhalb der Rib-Eye-Kontur, die Fett darstellen, relativ zur Gesamtzahl von Pixeln innerhalb der Rib-Eye-Kontur, um einen Wert des Prozentgehaltes an intramuskulärem Fett in dem Rib-Eye zu erhalten, (v) Anwenden der Mittel (i) bis (iv) auf eine Mehrzahl von Referenzbildern von Rib-Eyes von Kadavern mit vorbestimmtem Gütegrad, um eine Beziehung zwischen dem Prozentgehalt an intramuskulärem Fett in dem Rib-Eye und dem Gütegrad des Kadavers zu etablieren, (vi) Lösen der durch Mittel (v) bestimmten Beziehung für den Wert des Prozentgehaltes an intramuskulärem Fett in dem Rib-Eye, der durch Mittel (iv) bestimmt wurde, um den Gütegrad des Kadavers zu bestimmen, und (vii) gegebenenfalls Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die kein Muskelgewebe oder Fettgewebe darstellen, auf Basis eines Pixelfarb-Sättigungsniveaugrenzwertes, und (c) eine Einrichtung zur Bereitstellung einer Ausgabe des Gütegrads des Kadavers.
  9. Vorrichtung zur Bestimmung von Parametern von einem Rib-Eye von einem Kadaver umfassend: (a) eine Bilderfassungseinrichtung zur Erlangung eines Bildes, welches das Rib-Eye des Kadavers beinhaltet, (b) eine Berechnungs- und Speichereinrichtung für: (i) Speichern des Bildes als eine Anordnung von Pixeln, die Daten liefern, die für Information vom entsprechenden Teil des Bildes repräsentativ sind, (ii) Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die Fettgewebe darstellen, auf Basis eines charakteristischen Pixelfarb-Grenzwertes, (iii) Identifizieren eines Zielclusters von angrenzenden Muskelgewebepixeln im Bild, wobei der Zielcluster das Rib-Eye beinhaltet, und Auffinden der Kontur des Clusters von Muskelgewebepixeln, einschließlich des Rib-Eye, (iv) Identifizieren und Ausschneiden von äußeren Bildabschnitten, die Muskelgewebe darstellen, das angrenzt, aber nicht Teil des Rib-Eye ist, wobei das Mittel zum Identifizieren von äußeren Bildabschnitten folgendes beinhaltet: (a) ein Mittel zum Identifizieren von Außenwendungen in der Rib-Eye-Kontur, die durch Mittel (iii) aufgefunden werden, und b) ein Mittel zum Zurückweisen einer Außenwendung als eine mögliche Stelle für den Beginn eines Schnitts, um einen äußeren Bildabschnitt auszuschneiden, wenn eine erste. Linie, die die Wendung halbiert, nicht im wesentlichen parallel wäre zu einer zweiten Linie tangential zu einer ersten, allgemein elliptischen Figur, die die Rib-Eye-Kontur umgibt, an einem Punkt auf der elliptischen Figur kollinear mit dem Zentrum der elliptischen Figur und dem Scheitelpunkt der Wendung; und c) gegebenenfalls Auftragen einer Mehrzahl von Suchlinien, die von den Scheitelpunkten von Außenwendungen ausgehen, die durch Mittel (b) nicht zurückgewiesen werden, wobei die Suchlinien sich einwärts über einen Bereich von mindestens etwa 20° auf jeder Seite einer die Wendung halbierenden Linie strahlenförmig ausdehnen, Registrieren der Zahl von Pixeln, die Muskelgewebe darstellen, entlang jeder Suchlinie, bis eine Reihe von mindestens etwa 4 aufeinanderfolgenden Pixeln, die Fett darstellen, nachgewiesen wird, und Auswählen der Suchlinie mit den wenigsten Pixeln, die Muskelgewebe darstellen, als ein möglicher Pfad für einen Schnitt zum Ausschneiden eines äußeren Bildabschnitts, und (c) eine Einrichtung zur Bereitstellung einer Ausgabe der Parameter des Rib-Eye.
  10. Verfahren zur Bestimmung von Einstufungsparametern von einem Kadaver, umfassend die Schritte: (a) Erlangung eines Bildes, welches das Rib-Eye des Kadavers beinhaltet, wobei das Bild aus einer Anordnung von Pixeln zusammengesetzt ist, die Farbdaten liefern, die für Farbinformation vom entsprechenden Teil des Bildes repräsentativ sind, (b) Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die Fettgewebe darstellen, auf Basis eines charakteristischen Pixelfarb-Grenzwertes, (c) Identifizieren eines Clusters von Muskelgewebepixeln im Bild, der das Rib-Eye darstellt, und Auffinden der Kontur des Rib-Eye-Muskels, um äußere Bildabschnitte auszuschließen, die das Muskelgewebe darstellen, das angrenzt, aber nicht Teil des Rib-Eye ist, (d) Bestimmen des Verhältnisses von Pixeln innerhalb der Rib-Eye-Kontur, die Fett darstellen, relativ zur Gesamtzahl von Pixeln innerhalb der Rib-Eye-Kontur, um einen Wert des Prozentgehaltes an intramuskulärem Fett in dem Rib-Eye zu erhalten, (e) Messen des Werts von mindestens einem herkömmlichen Einstufungskriterium für das Rib-Eye-Bild, wobei die herkömmlichen Einstufungskriterien ausgewählt werden aus der Gruppe bestehend aus der Fläche des Rib-Eye, dem Prozentgehalt an intramuskulärem Fett in dem Rib-Eye, der Dicke einer subkutanen Fettschicht auf dem Rib-Eye an vorbe stimmten Positionen, der durchschnittlichen Dicke der subkutanen Fettschicht und der Breite der subkutanen Fettschicht an ihrer engsten Stelle, (f) Bereitstellen einer Einstufungsparametervorhersage-Gleichung, worin der Einstufungsparameter als eine abhängige Variable enthalten ist, und mindestens eine der herkömmlichen Einstufungskriterien für das Rib-Eye als eine unabhängige Variable enthaften ist, und (g) Lösen der Einstufungsparametervorhersage-Gleichung, um einen Wert für den Einstufungsparameter des Kadavers zu liefern.
  11. Verfahren nach Anspruch 10, worin in Schritt (c) das Ausschließen von äußeren Bildabschnitten beinhaltet: (i) Identifizieren von Außenwendungen in der Rib-Eye-Kontur, die in Schritt (c) aufgefunden wird, und (ii) Zurückweisen einer Außenwendung als eine mögliche Stelle für den Beginn eines Schnitts, um einen äußeren Bildabschnitt auszuschneiden, wenn eine erste Linie, die die Wendung halbiert, nicht im wesentlichen parallel wäre zu einer zweiten Linie tangential zu einer ersten, allgemein elliptischen Figur, die die Rib-Eye-Kontur umgibt, an einem Punkt auf der Ellipse kollinear mit dem Zentrum der elliptischen Figur und dem Scheitelpunkt der Wendung.
  12. Vorrichtung zur Bestimmung von Einstufungsparametern von einem Kadaver umfassend: (a) eine Bilderfassungseinrichtung zur Erlangung eines Bildes, welches das Rib-Eye des Kadavers beinhaltet, (b) eine Berechnungs- und Speichereinrichtung für: (i) Speichern des Bildes als eine Anordnung von Pixeln, die Daten liefern, die für Information vom entsprechenden Teil des Bildes repräsentativ sind, (ii) Unterscheiden zwischen Pixeln, die Muskelgewebe darstellen, und Pixeln, die Fettgewebe darstellen, auf Basis eines charakteristischen Pixelfarb-Grenzwertes, (iii) Identifizieren eines Clusters von Muskelgewebepixeln im Bild, der das Rib-Eye darstellt, und Auffinden der Kontur des Rib-Eye-Muskels, um äußere Bildabschnitte auszuschließen, die Muskelgewebe darstellen, das angrenzt, aber nicht Teil des Rib-Eye ist, (iv) Bestimmen des Verhältnisses von Pixeln innerhalb der Rib-Eye-Kontur, die Fett darstellen, relativ zur Gesamtzahl von Pixeln innerhalb der Rib-Eye-Kontur, um einen Wert des Prozentgehaltes an intramuskulärem Fett in dem Rib-Eye zu erhalten, (v) Messen des Werts von mindestens einem herkömmlichen Einstufungskriterium für das Rib-Eye-Bild, wobei die herkömmlichen Einstufungskriterien ausgewählt werden aus der Gruppe bestehend aus der Fläche des Rib-Eye, dem Prozentgehalt an intramuskulärem Fett in dem Rib-Eye, der Dicke einer subkutanen Fettschicht auf dem Rib-Eye an vorbestimmten Positionen, der durchschnittlichen Dicke der subkutanen Fettschicht auf dem Rib-Eye und der Breite der subkutanen Fettschicht an ihrer engsten Stelle, (vi) Bereitstellen einer Einstufungsparametervorhersage-Gleichung, worin der Einstufungsparameter als eine abhängige Variable enthalten ist, und mindestens eines der herkömmlichen Einstufungskriterien für das Rib-Eye als eine unabhängige Variable enthalten ist, (vii) Lösen der Einstufungsparametervorhersage-Gleichung, um einen Wert für den Einstufungsparameter des Kadavers zu liefern, und (c) eine Einrichtung zur Bereitstellung einer Ausgabe des Einstufungsparameters des Kadavers.
  13. Vorrichtung nach Anspruch 12, worin das Auffindemittel (iii) beinhaltet: (i) ein Mittel zum Identifizieren von Außenwendungen in der Rib-Eye-Kontur, die in Schritt (c) aufgefunden wird, und (ii) ein Mittel zum Zurückweisen einer Außenwendung als eine mögliche Stelle für den Beginn eines Schnitts, um einen äußeren Bildabschnitt auszuschneiden, wenn eine erste Linie, die die Wendung halbiert, nicht im wesentlichen parallel wäre zu einer zweiten Linie tangential zu einer ersten, allgemein elliptischen Figur, die die Rib-Eye-Kontur umgibt, an einem Punkt auf der Ellipse kollinear mit dem Zentrum der elliptischen Figur und dem Scheitelpunkt der Wendung.
DE69731212T 1996-08-23 1997-08-18 Verfahren und vorrichtung zur verwendung von bildanalyse zur feststellung von fleisch- und schlachttierkörpereigenschaften Expired - Fee Related DE69731212T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US2431096P 1996-08-23 1996-08-23
US24310P 1996-08-23
PCT/CA1997/000573 WO1998008088A1 (en) 1996-08-23 1997-08-18 Method and apparatus for using image analysis to determine meat and carcass characteristics

Publications (2)

Publication Number Publication Date
DE69731212D1 DE69731212D1 (de) 2004-11-18
DE69731212T2 true DE69731212T2 (de) 2005-10-13

Family

ID=21819931

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69731212T Expired - Fee Related DE69731212T2 (de) 1996-08-23 1997-08-18 Verfahren und vorrichtung zur verwendung von bildanalyse zur feststellung von fleisch- und schlachttierkörpereigenschaften

Country Status (9)

Country Link
US (1) US5944598A (de)
EP (1) EP0920620B1 (de)
AR (1) AR008307A1 (de)
AU (1) AU722769B2 (de)
BR (1) BR9711229A (de)
CA (1) CA2263763C (de)
DE (1) DE69731212T2 (de)
NZ (1) NZ334675A (de)
WO (1) WO1998008088A1 (de)

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993021597A1 (en) * 1992-04-13 1993-10-28 Meat Research Corporation Image analysis for meat
US5673647A (en) * 1994-10-31 1997-10-07 Micro Chemical, Inc. Cattle management method and system
US5918190A (en) * 1996-12-31 1999-06-29 Ontario Cattlemen's Association Software controlled meat probe for use in determining meat tenderness
DE69910182T2 (de) * 1998-02-20 2004-06-03 Colorado State University Research Foundation, Fort Collins Fleischfarbbilderzeugungssystem zum voraussagen des geschmackes und ertrages
DE19837806C1 (de) 1998-08-20 2000-01-20 Csb Syst Software Entwicklung Verfahren zur Bewertung von Schlachttierhälften durch optische Bildverarbeitung
US6099473A (en) * 1999-02-05 2000-08-08 Animal Ultrasound Services, Inc. Method and apparatus for analyzing an ultrasonic image of a carcass
JP2003502723A (ja) * 1999-03-03 2003-01-21 ヴァージニア コモンウェルス ユニヴァーシティ 統計的湾曲解析を用いた三次元形状計測
AUPQ154399A0 (en) * 1999-07-09 1999-08-05 Meat & Livestock Australia Limited Object imaging system
DE19936032C1 (de) * 1999-07-30 2000-07-13 Csb Syst Software Entwicklung Verfahren zur Beurteilung der Qualität von Schlachttierhälften
JP3587745B2 (ja) * 1999-09-08 2004-11-10 株式会社ニチレイ 甲殻類の剥ぎ残し殻の検出排除方法及び装置
US6623346B2 (en) * 1999-12-23 2003-09-23 Georgia Tech Research Corporation Automated transfer of live objects to shackle line method and apparatus
US7134956B2 (en) 1999-12-23 2006-11-14 Georgia Tech Research Corporation Automated feet-gripping system
AR018239A1 (es) * 2000-03-09 2001-11-14 Garcia Pascual Ricardo Procedimiento para obtener cortes uniformes de carne bovina de calidad homogenea a partir de un biotipo industrial programado
US7358986B1 (en) 2000-09-13 2008-04-15 Nextengine, Inc. Digital imaging system having distribution controlled over a distributed network
CN1227891C (zh) * 2000-09-13 2005-11-16 内克斯坦金公司 受监视或控制以确保所捕获文件真实性的成像系统
US6856407B2 (en) 2000-09-13 2005-02-15 Nextengine, Inc. Method for depth detection in 3D imaging providing a depth measurement for each unitary group of pixels
US6639684B1 (en) 2000-09-13 2003-10-28 Nextengine, Inc. Digitizer using intensity gradient to image features of three-dimensional objects
AUPR068500A0 (en) * 2000-10-11 2000-11-02 Australian Food Industry Science Centre Animal carcass splitting
US6766272B2 (en) 2000-10-27 2004-07-20 Tanita Corporation Method and apparatus for deriving body fat area
US6796892B2 (en) 2000-11-03 2004-09-28 Excel Corporation Method and apparatus for processing carcasses
US6563904B2 (en) 2000-12-01 2003-05-13 Fmc Technologies, Inc. Apparatus and method for detecting and removing undesirable material from workpieces
GB2371737B (en) * 2001-01-30 2004-08-11 Aew Eng Co Ltd Improvements in slicing machines
US7233351B1 (en) 2001-02-23 2007-06-19 Nextengine, Inc. Method for high resolution incremental imaging
US6615661B2 (en) * 2001-05-30 2003-09-09 Rethel C. King Ultrasound sorting of weanling calves and identification of tenderness indicators
US6796184B2 (en) * 2001-05-30 2004-09-28 Rethel C. King Ultrasound sorting of weanlings and identification of tenderness indicators
US6751364B2 (en) 2001-10-15 2004-06-15 Tyson Fresh Meats, Inc. Image analysis systems for grading of meat, predicting quality of meat and/or predicting meat yield of an animal carcass
WO2003034059A1 (en) * 2001-10-18 2003-04-24 Machinery Developments Limited Apparatus and process for analyzing cuts of meat
AU2003208237A1 (en) * 2002-03-11 2003-09-22 Garry B Desroches Method for the evaluation of velvet antler
US6974373B2 (en) 2002-08-02 2005-12-13 Geissler Technologies, Llc Apparatus and methods for the volumetric and dimensional measurement of livestock
US7039220B2 (en) * 2002-08-14 2006-05-02 C-Scan, L.L.P. Methods and apparatus for the dimensional measurement of livestock using a single camera
US6877460B1 (en) * 2003-11-14 2005-04-12 Pheno Imaging, Inc. Animal sorting and grading system using MRI to predict maximum value
DE10358487B3 (de) * 2003-12-13 2005-05-25 Csb-System Ag Verfahren zum Ermitteln der Qualität und Quantitäten eines Schlachttierkörpers
US7711179B2 (en) 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner
US20050276512A1 (en) * 2004-06-01 2005-12-15 3M Innovative Properties Company Selective deconvolution of an image
US20060045174A1 (en) * 2004-08-31 2006-03-02 Ittiam Systems (P) Ltd. Method and apparatus for synchronizing a transmitter clock of an analog modem to a remote clock
DE102004047773A1 (de) * 2004-09-27 2006-04-06 Horst Eger Verfahren zur Bestimmung physiologischer Grössen eines Schlachttierkörpers
DE102004055351B4 (de) * 2004-11-17 2006-09-07 Csb-System Ag Gewinnung von Daten zum Klassifizieren von Schlachttierkörpern sowie zur Bestimmung von Qualitäten und Quantitäten derselben
US7670292B2 (en) 2004-11-30 2010-03-02 Micro Beef Technologies, Ltd. Determining respiratory or circulatory health condition in animals for improved management
AU2005248942A1 (en) * 2004-12-30 2006-07-20 John Bean Technologies Corporation Conveying conformable products
WO2006078943A2 (en) * 2005-01-19 2006-07-27 Micro Beef Technologies, Ltd. Method and system for tracking and managing animals and/or food products
CA2597071C (en) 2005-02-08 2013-07-30 Cargill, Incorporated Meat sortation
US7444961B1 (en) * 2005-04-11 2008-11-04 Ellis James S Animal sorting and grading system using an internal evaluation to predict maximum value
US7995834B1 (en) 2006-01-20 2011-08-09 Nextengine, Inc. Multiple laser scanner
US8260005B2 (en) * 2007-03-30 2012-09-04 Universidad De Santiago De Chile Portable tool for determining meat quality
US8511226B2 (en) * 2007-04-17 2013-08-20 Robert J. Knorr Pepper de-stemming methods and apparatus
US20080289515A1 (en) * 2007-04-17 2008-11-27 Knorr Robert J Pepper de-stemming
US11672270B2 (en) * 2007-04-17 2023-06-13 Knorr Technologies, Llc Pepper de-stemming methods and apparatus
US20110007151A1 (en) * 2007-07-03 2011-01-13 David Goldberg Imaging Method For Determining Meat Tenderness
WO2009039253A1 (en) * 2007-09-18 2009-03-26 Actuality Systems, Inc. Linear wave inversion and detection of hard objects
DE102007050857A1 (de) * 2007-10-24 2009-04-30 Weber Maschinenbau Gmbh Breidenbach Fettauflagenvermessungseinrichtung
US8447075B2 (en) * 2008-05-05 2013-05-21 Biotronics, Inc. Systems, methods and devices for using ultrasonic probe pressure information in assessing muscle tissue quality
US8472675B2 (en) * 2008-05-05 2013-06-25 Biotronics, Inc. Systems, methods and devices for use in filter-based assessment of carcass grading
CA2723452C (en) * 2008-05-05 2017-02-14 Biotronics, Inc. Systems, methods and devices for use in assessing carcass grading
US8135179B2 (en) * 2008-05-05 2012-03-13 Biotronics, Inc. Systems, methods and devices for use in assessing fat and muscle depth
DE202008009594U1 (de) * 2008-07-17 2008-09-18 Csb-System Ag Vorrichtung zur Positionierung von Schlachttierkörperhälften für optische Aufnahmen in der Spaltebene
MX2008013791A (es) * 2008-10-16 2010-05-17 Dino Alejandro Pardo Guzman Dispositivo m?vil y m?todo de clasificaci?n universal interactivo para carnes por visi?n artificial.
US8444461B2 (en) * 2008-10-29 2013-05-21 Georgia Tech Research Corporation Systems and methods for the detection of anatomical structures and positions thereof
BRPI1006077B8 (pt) * 2009-01-10 2023-02-28 Goldfinch Solutions Llc Sistema para analisar uma ou mais propriedades de carne
WO2010127023A1 (en) * 2009-05-01 2010-11-04 Spicola Tool, Llc Remote contactless stereoscopic mass estimation system
US8096860B2 (en) * 2009-05-29 2012-01-17 Cargill, Incorporated Automated meat breaking system and method
KR101065219B1 (ko) * 2009-07-29 2011-09-19 성균관대학교산학협력단 소고기 등급 자동판정 방법 및 그 시스템
US8986078B2 (en) * 2010-03-01 2015-03-24 Meyn Food Processing Technology B.V. Method and apparatus for processing poultry suspended by the feet from a conveyor hook
US11570369B1 (en) 2010-03-09 2023-01-31 Stephen Michael Swinford Indoor producing of high resolution images of the commonly viewed exterior surfaces of vehicles, each with the same background view
US8830320B2 (en) * 2010-03-09 2014-09-09 Stephen Michael Swinford Indoor producing of high-resolution images of the commonly viewed with the same background view
AU2010219406B2 (en) * 2010-05-19 2013-01-24 Plf Agritech Pty Ltd Image analysis for making animal measurements
US9311556B2 (en) 2010-05-19 2016-04-12 Plf Agritech Pty Ltd Image analysis for making animal measurements including 3-D image analysis
US8233668B2 (en) * 2010-08-09 2012-07-31 John Bean Technologies Corporation Distinguishing abutting food product
US20140088939A1 (en) * 2011-05-02 2014-03-27 Agridigit Inc Evaluation of animal products based on customized models
US9098898B2 (en) * 2011-05-09 2015-08-04 Catherine Grace McVey Image analysis for determining characteristics of individuals
US9104906B2 (en) * 2011-05-09 2015-08-11 Catherine Grace McVey Image analysis for determining characteristics of animals
US9355329B2 (en) * 2011-05-09 2016-05-31 Catherine G. McVey Image analysis for determining characteristics of pairs of individuals
US9552637B2 (en) 2011-05-09 2017-01-24 Catherine G. McVey Image analysis for determining characteristics of groups of individuals
NL2007744C2 (nl) * 2011-11-08 2013-05-13 Humboldt B V Inrichting en werkwijze voor het bewerken van karkassen van groot vee.
CN102519962B (zh) * 2011-12-07 2014-08-27 中国农业大学 猪肉质量等级无损检测系统
US9167800B2 (en) 2012-06-04 2015-10-27 Clicrweight, LLC Systems for determining animal metrics and related devices and methods
US8787621B2 (en) * 2012-06-04 2014-07-22 Clicrweight, LLC Methods and systems for determining and displaying animal metrics
ITRM20120256A1 (it) * 2012-06-05 2013-12-06 Giovanna Bianconi Apparato e metodo per la classificazione di conformazione seurop di carcasse di bovini macellati
EP2912946B1 (de) * 2012-10-23 2017-07-12 Mayekawa Mfg. Co., Ltd. Rechts-/linksunterscheidungssystem für gliedmassenabschnitte eines schweinekadavers
US9699447B2 (en) 2012-11-26 2017-07-04 Frito-Lay North America, Inc. Calibration of a dynamic digital imaging system for detecting defects in production stream
US10182757B2 (en) * 2013-07-22 2019-01-22 The Rockefeller University System and method for optical detection of skin disease
TW201527756A (zh) * 2014-01-10 2015-07-16 Nat Univ Tsing Hua 提供食品安全地圖之方法、電腦程式產品、和系統
WO2016023075A1 (en) * 2014-08-13 2016-02-18 Meat & Livestock Australia Limited 3d imaging
US9881235B1 (en) * 2014-11-21 2018-01-30 Mahmoud Narimanzadeh System, apparatus, and method for determining physical dimensions in digital images
RU2714709C2 (ru) 2015-02-27 2020-02-19 Ингенера Са Усовершенствованный способ и аппарат для определения балльной оценки упитанности, живого веса и индекса фертильности
WO2017027881A1 (en) 2015-08-13 2017-02-16 The Rockefeller University Quantitative dermoscopic melanoma screening
US9675091B1 (en) * 2016-02-05 2017-06-13 Horst Eger Automated monitoring in cutting up slaughtered animals
WO2018125715A1 (en) * 2016-12-28 2018-07-05 Cryovac, Inc. Automated process for determining amount of meat remaining on animal carcass
PL425496A1 (pl) * 2018-05-10 2019-11-18 Inst Biotechnologii Przemyslu Rolno Spozywczego Im Prof Waclawa Dabrowskiego Sposób analizy obrazu trójwymiarowego w celu oceny tuszy zwierzęcej
US11061008B2 (en) * 2018-06-08 2021-07-13 Birko Corporation Artificial animal protein cleaning diagnostic system
US10726537B2 (en) * 2018-08-29 2020-07-28 Horst Eger Image acquisition for meat grading
NL2021647B1 (nl) * 2018-09-17 2020-05-06 Vitelco B V Computer vision systeem voor de classificatie van bevleesdheid en vetheid van een karkas
US11375739B2 (en) 2018-10-10 2022-07-05 MP Equipment, LLC Method of removing tissue from food product
US11202452B2 (en) 2019-04-08 2021-12-21 Provisor Technologies, Inc. Apparatus and method for cutting meat products into blocks of meat
JP2020183876A (ja) * 2019-04-26 2020-11-12 株式会社前川製作所 特徴点認識システムおよびワーク処理システム
US11497221B2 (en) 2019-07-19 2022-11-15 Walmart Apollo, Llc Systems and methods for managing meat cut quality
ES2926000A1 (es) * 2021-04-09 2022-10-20 Aira Robotics S L Dispositivo de corte por la mitad de una carcasa de animal y robot que incorpora dicho dispositivo de corte
US11803958B1 (en) 2021-10-21 2023-10-31 Triumph Foods Llc Systems and methods for determining muscle fascicle fracturing
CN116758508B (zh) * 2023-08-18 2024-01-12 四川蜀道新能源科技发展有限公司 基于像素差异扩大处理的路面标线检测方法、系统及终端

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3154625A (en) * 1961-01-03 1964-10-27 James H Kail Photometric method for grading beef
US3735247A (en) * 1971-10-04 1973-05-22 Emme Comp Method and apparatus for measuring fat content in animal tissue either in vivo or in slaughtered and prepared form
US3800363A (en) * 1972-12-29 1974-04-02 Laitram Corp Tuna butchering method and system
DE2728717C2 (de) * 1977-06-25 1983-11-10 Pfister Gmbh, 8900 Augsburg Verfahren und Vorrichtung zur berührungsfreien Bestimmung von Qualitätsmerkmalen eines Prüfobjektes der Fleischwaren-Kategorie, insbesondere eines Schlachttierkörpers oder Teilen davon
DK167715B1 (da) * 1978-12-08 1993-12-06 Slagteriernes Forskningsinst Fremgangsmaade til ad optisk vej at bestemme koed/spaek-forholdet i emner saasom slagtede dyr eller dele deraf
DE3047490A1 (de) * 1980-12-17 1982-10-21 Pfister Gmbh, 8900 Augsburg Verfahren zur beruehrungsfreien bestimmung von qualitaetsmerkmalen eines pruefobjektes der fleischwaren-kategorie
US4745472A (en) * 1981-03-30 1988-05-17 Applied Genetics International, Inc. Animal measuring system
US4461575A (en) * 1981-09-17 1984-07-24 Harris Corporation Reference marker/correlation scheme for optical measurements
US4738004A (en) * 1982-04-05 1988-04-19 The Laitram Corporation Tuna butchering method
US4785817A (en) * 1986-10-10 1988-11-22 Cornell Research Foundation, Inc. Method and apparatus for ultrasonic grading of meat
US4916629A (en) * 1987-06-26 1990-04-10 Weyerhaeuser Company Method for determination of pith location relative to lumber surfaces
US4879752A (en) * 1987-11-18 1989-11-07 Macmillan Bloedel Limited Lumber optimizer
DK676487A (da) * 1987-12-22 1989-06-23 Slagteriernes Forskningsinst Fremgangsmaade ved bestemmelse af kvalitetsegenskaber ved individuelle kreaturslagtekroppe og anlaeg til brug ved bestemmelse af egenskaberne
WO1991014180A1 (en) * 1990-03-14 1991-09-19 Meat Research Corporation Evaluating carcasses by image analysis and object definition
GB9013983D0 (en) * 1990-06-22 1990-08-15 Nat Res Dev Automatic carcass grading apparatus and method
AT398174B (de) * 1991-02-08 1994-10-25 Andritz Patentverwaltung Verfahren und vorrichtung zum trennen von entrindeten holzknüppeln
FR2672775B1 (fr) * 1991-02-14 1993-05-21 Normaclass Rd Procede pour le classement de carcasses de gros bovins, veaux, porcs ou ovins et dispositif pour sa mise en óoeuvre.
US5353796A (en) * 1991-06-28 1994-10-11 Eli Lilly And Company Non-invasive device and method for grading meat
US5576949A (en) * 1991-08-30 1996-11-19 C-Scan, Llc System for animal evaluation through image acquisition
US5483441A (en) * 1991-08-30 1996-01-09 Uniform Scanner Data Analysis, Inc. System for animal evaluation through image acquisition
US5334084A (en) * 1991-09-04 1994-08-02 Texas Beef Group Method and apparatus for automatically trimming fatty tissue from animal carcasses
WO1993021597A1 (en) * 1992-04-13 1993-10-28 Meat Research Corporation Image analysis for meat
DE69321351T2 (de) * 1992-07-03 1999-05-12 Paul Bernard David Newman System für die qualitätskontrolle und klassifizierung von fleisch
US5324228A (en) * 1992-07-27 1994-06-28 Frigoscandia Food Processing Systems A.B. Method and apparatus for detecting and trimming fat from meat products
US5339815A (en) * 1992-12-22 1994-08-23 Cornell Research Foundation, Inc. Methods and apparatus for analyzing an ultrasonic image of an animal or carcass
US5412220A (en) * 1993-03-05 1995-05-02 United Industrial Products, Ltd. Optical scanning device for lumber
US5458418A (en) * 1993-07-02 1995-10-17 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Agriculture Method for detecting poor meat quality in live animals
FR2707136B1 (fr) * 1993-07-09 1995-08-25 Normaclass Rd Dispositif pour le classement de carcasses de gros bovins, veaux, porcs ou ovins.
US5352153A (en) * 1993-07-13 1994-10-04 The Laitram Corporation Imaging system for use in processing transversely cut fish body sections
US5474085A (en) * 1994-02-24 1995-12-12 University Of Prince Edward Island Remote thermographic sensing of livestock
DE4408604C2 (de) * 1994-03-08 1996-05-02 Horst Dipl Ing Eger Verfahren zur Bewertung von Schlachttierkörpern

Also Published As

Publication number Publication date
CA2263763C (en) 2006-01-10
AU722769B2 (en) 2000-08-10
EP0920620A1 (de) 1999-06-09
BR9711229A (pt) 2001-11-06
US5944598A (en) 1999-08-31
DE69731212D1 (de) 2004-11-18
EP0920620B1 (de) 2004-10-13
AR008307A1 (es) 1999-12-29
AU3844997A (en) 1998-03-06
CA2263763A1 (en) 1998-02-26
WO1998008088A1 (en) 1998-02-26
NZ334675A (en) 2000-05-26

Similar Documents

Publication Publication Date Title
DE69731212T2 (de) Verfahren und vorrichtung zur verwendung von bildanalyse zur feststellung von fleisch- und schlachttierkörpereigenschaften
CA2133825C (en) Image analysis for meat
DE69910182T2 (de) Fleischfarbbilderzeugungssystem zum voraussagen des geschmackes und ertrages
DE60312869T2 (de) Bildaufnahmesystem und -verfahren zur auswertung der körperlichen verfassung
DE4408604C2 (de) Verfahren zur Bewertung von Schlachttierkörpern
WO2014139504A1 (de) Vorrichtung zur volumetrischen vermessung eines schlachttierkörperobjekts
US8260005B2 (en) Portable tool for determining meat quality
GB2247524A (en) Automatic carcass grading apparatus and method
DE19619099C1 (de) Verfahren zur Bewertung von Geflügelschlachttierkörpern
Sánchez et al. Control of ham salting by using image segmentation
WO1991014180A1 (en) Evaluating carcasses by image analysis and object definition
DE60317595T2 (de) Dreidimensionale Randlokalisierung unter Anwendung von seitlicher Beleuchtung
UA88458C2 (uk) Спосіб якісної та кількісної оцінки туші
DD292976A5 (de) Verfahren zur analyse von schlachttierkoerperhaelften mittels bildverarbeitung
EP1104995B1 (de) Verfahren zur automatischen kontrolle und selektion von geflügelschlachttierkörpern
CA2466289A1 (en) Method and apparatus for using image analysis to determine meat and carcass characteristics
DE10050836A1 (de) Verfahren zur Handelswertbestimmung der Teilstücke von Schweineschlachttierkörpern
MXPA99001702A (en) Method and apparatus for using image analysis to determine meat and carcass characteristics
DE102019123479B3 (de) Analyse und Qualitätskontrolle von Lebensmitteln
WO2014139503A1 (de) Vorrichtung zur vermessung eines schlachttierkörperobjekts
Park et al. Assessment of hyperspectral imaging system for poultry safety inspection
Trinderup Multispectral Imaging of Meat Quality-Color and Texture
DE19612531A1 (de) Verfahren zur Dokumentation von Hautzuständen und Hautveränderungen
DE10109019A1 (de) Verfahren zur Bestimmung von Anteilen biologischer Strukturen
Watkinsville et al. ca), United States Patent

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee