DE19723294A1 - Pattern recognition method for speech or written data - Google Patents
Pattern recognition method for speech or written dataInfo
- Publication number
- DE19723294A1 DE19723294A1 DE19723294A DE19723294A DE19723294A1 DE 19723294 A1 DE19723294 A1 DE 19723294A1 DE 19723294 A DE19723294 A DE 19723294A DE 19723294 A DE19723294 A DE 19723294A DE 19723294 A1 DE19723294 A1 DE 19723294A1
- Authority
- DE
- Germany
- Prior art keywords
- polynomial
- feature vectors
- classifiers
- vector quantization
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012567 pattern recognition method Methods 0.000 title claims abstract description 5
- 239000013598 vector Substances 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000009826 distribution Methods 0.000 claims description 15
- 238000013139 quantization Methods 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 12
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 4
- 238000005315 distribution function Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011850 initial investigation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
Abstract
Description
Die Erfindung betrifft ein Mustererkennungsverfahren nach dem Oberbegriff des Patentanspruchs 1.The invention relates to a pattern recognition method according to the preamble of Claim 1.
Für Mustererkennungsverfahren, insbesondere zur Erkennung von Sprache oder von Schrift sind seit längerem bevorzugt Erkennungssysteme auf der Basis von Hidden-Markov-Modellen im Einsatz, siehe beispielsweise [KCGM 93]. Bei derartigen Erkennungs-Systemen werden von Prüfobjekten mehrdimensionale Merkmalsvektoren gewonnen und auf Symbole eines mehrdimensionalen Symbolvektoraumes abgebildet. Die Liste dieser Symbole, die verschiedenen Zuständen des zugrunde gelegten HMM-Modells zugeordnet sind, wird als Codebook bezeichnet. Diese Symbole können wiederum als Koeffizienten eines mehrdimensionalen Symbolvektors aufgefaßt werden.For pattern recognition processes, in particular for recognizing speech or of writing have long been preferred recognition systems based on Hidden Markov models in use, see for example [KCGM 93]. At Such detection systems become multidimensional of test objects Feature vectors obtained and based on symbols of a multidimensional Symbol vector space shown. The list of these symbols, the different States assigned to the underlying HMM model is called Called Codebook. These symbols can in turn be used as coefficients multidimensional symbol vector.
Für die Transformation der Merkmalsvektoren in den Symbolvektorraum, die als Vektorquantisierung bezeichnet wird, wird prinzipiell zwischen kontinuierlichen, teil kontinuierlichen und diskreten Modellen unterschieden. Die kontinuierlichen Modelle kommen wegen des damit verbundenen Verarbeitungsaufwands in den meisten Fällen nicht in Betracht.For the transformation of the feature vectors into the symbol vector space, which as Vector quantization is referred to, in principle, between continuous, partial distinguish between continuous and discrete models. The continuous models come in most because of the processing overhead involved Cases out of the question.
Bei dem diskreten Modell findet eine sogenannte harte Entscheidung bei der Zuordnung eines Merkmalsvektors zu einem Symbol statt. Dem gegenüber wird bei den teil-kontinuierlichen Modellen ein Merkmalsvektor mehreren Symbolen mit im Regelfall unterschiedlicher Gewichtung zugeordnet. Für die Bestimmung dieser Gewichte wird beispielsweise für die Cluster im zustandsabhängigen Merkmalsvektor-Raum eine statistische Verteilung, insbesondere eine Gauss- oder eine Gamma-Verteilung, angenommen. Die teil-kontinuierlichen Modelle zeigen im allgemeinen eine wesentlich bessere Erkennungsrate als die diskreten Modelle.With the discrete model, a so-called hard decision is made with the Assignment of a feature vector to a symbol instead. This is countered by the partially continuous models a feature vector with several symbols in the Usually assigned different weights. For the determination of this Weights are used, for example, for the clusters in the state-dependent Feature vector space a statistical distribution, especially a Gaussian or a gamma distribution. The semi-continuous models show in generally a much better recognition rate than the discrete models.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, die Erkennungsleistung eines Mustererkennungsverfahrens dieser Art weiter zu verbessern, ohne den Aufwand bei der Erkennung nennenswert zu steigern.The object of the present invention is the recognition performance a pattern recognition method of this kind without improving the Significantly increase the effort involved in detection.
Die Erfindung ist im Patentanspruch 1 beschrieben. Die Unteransprüche enthalten vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung.The invention is described in claim 1. The sub-claims included advantageous refinements and developments of the invention.
Die Erfindung geht von der Erkenntnis aus, daß die bei üblichen teil-kontinuierlichen Modellen angenommene statistische Verteilung die tatsächliche Verteilung der Merkmalsvektoren im zustandsabhängigen Vektorraum häufig nur sehr unbefriedigend beschreibt. Demgegenüber wird bei der vorliegenden Erfindung keinerlei Annahme über eine bestimmte Verteilungsfunktion gemacht, sondern es werden aus repräsentativen Trainingsdaten die Koeffizienten eines Polynom-Klassifikators bestimmt, welcher bei der Vektorquantisierung eine wesentlich genauere Approximation an die tatsächlich vorliegende Verteilung im Vektorraum darstellt.The invention is based on the knowledge that the conventional semi-continuous Statistical distribution assumed the actual distribution of the models Characteristic vectors in the state-dependent vector space often only very much unsatisfactory. In contrast, the present invention made no assumption about a particular distribution function, but it the coefficients of a Polynomial classifier determines which one is essential in vector quantization more precise approximation to the actually existing distribution in vector space represents.
In einer vorteilhaften Ausführungsform wird der Polynom-Klassifikator mit Momenten-Matrizen trainiert, die auch bei einem Training der HMM-Modelle anfallen. Die Vektorquantisierung erfolgt vorzugsweise mehrstufig verzweigt in der Art, daß mehrere Polynom-Teil-Klassifikatoren vorgesehen sind, welche die Knoten der Verzweigung darstellen und in einer baumartigen Verzweigung angeordnet sind, was gegenüber einem einzigen Klassifikator den Vorteil hat, daß eine Beschränkung auf nur die besten Pfade des Baumes vorgenommen werden kann und dadurch wesentlich weniger Polynome evaluiert werden müssen. Vorzugsweise sind diese Teil-Klassifikatoren als binäre Polynom-Klassifikatoren ausgeführt. Vorteilhafterweise wird in an sich bekannter Art vor der Durchführung der Vektorquantisierung die Dimension der Merkmalsvektoren mittels einer linearen Diskriminanz-Analyse reduziert. In an advantageous embodiment, the polynomial classifier is included Moments matrices trained, even during a training session of the HMM models attack. The vector quantization is preferably carried out in multiple stages in the Art that several polynomial part classifiers are provided, which are the nodes represent the branch and are arranged in a tree-like branch, which has the advantage over a single classifier that a restriction can be made on only the best paths of the tree and thereby far fewer polynomials need to be evaluated. These are preferably Part classifiers implemented as binary polynomial classifiers. Advantageously, prior to carrying out the Vector quantization the dimension of the feature vectors using a linear Discriminant analysis reduced.
Die Erfindung ist nachfolgend noch anhand eines Erkennungssystems zur Erkennung gebundener Schrift veranschaulicht. Ein solches Erkennungssystem ist beispielsweise in [KCGM 93] beschrieben und für Einzelheiten eines solchen beispielhaften Erkennungssystems wird auf diese Literaturstelle verwiesen.The invention is based on a detection system Bound font recognition illustrated. Such a detection system is described for example in [KCGM 93] and for details of such exemplary detection system is referred to this reference.
Ausgehend von einem binären Pixel-Bild einer handgeschriebenen Buchstaben- oder Zahlenfolge besteht eine wesentliche Aufgabe beim Einsatz eines HMM-Erkenners darin, aus dem Binär-Bild eine Folge von Vektoren als Eingangsgrößen des HMM-Erkenners zu erzeugen. Eine solche Vorverarbeitung kann beispielsweise den Übergang von der Pixel-Darstellung zu einer Kontur-Beschreibung umfassen, an den sich dann Normierungsschritte, wie Schreiblinienschätzung, Aufrichtung schräger Schrift, Drehung des Schriftbilds und Übergang zu einer Skelett-Darstellung anschließen können. Solche Vorverarbeitungsmaßnahmen sind in verschiedener Weise bekannt und gebräuchlich. Eine detailliertere Darstellung der Vorverarbeitungs-Maßnahmen eines solchen Erkennungssystems ist beispielsweise in [CGM 93] beschrieben. Die Einstellung eines HMM-Erkenners ist komplex und, da in verschiedenen Ausführungen aus dem Stand der Technik hinreichend bekannt, an dieser Stelle nicht im Detail beschrieben. Zur Erzeugung von Merkmalsvektoren aus dem vorverarbeiteten Bild wird beispielsweise ein schmaler Fensterausschnitt in angenommener Schreibrichtung schrittweise über das Schriftbild bewegt und bei jedem Schritt werden aus dem Fensterinhalt Merkmale extrahiert, die in ihrer Gesamtheit einen Merkmalsvektor bilden. Diese Vorgehensweise wird sowohl in einer Trainingsphase auf Schriftbilder bekannten Inhaltes als auch in einer nachfolgenden Erkennungsphase auf Schriftbilder unbekannten Inhaltes angewandt.Starting from a binary pixel image of a handwritten letter or sequence of numbers is an essential task when using a HMM recognizer in it, from the binary image a sequence of vectors as input variables of the HMM recognizer. Such preprocessing can, for example include the transition from the pixel representation to a contour description, then the standardization steps, such as writing line estimation, erection oblique writing, rotation of the typeface and transition to one Can connect skeleton representation. Such preprocessing measures are in known and used in various ways. A more detailed representation of the Pre-processing measures of such a detection system are, for example described in [CGM 93]. Hiring an HMM recognizer is complex and because well known in various versions from the prior art not described in detail here. For generating feature vectors from For example, the preprocessed image has a narrow window section in assumed writing direction moved gradually over the typeface and at Every step features are extracted from the window content, which in their Together form a feature vector. This procedure is used in both a training phase on typefaces of known content as well as in a subsequent recognition phase applied to typefaces of unknown content.
Bei ausreichend großer Anzahl von Trainingsmustern zeigen die aus diesen Mustern gewonnenen Merkmalsvektoren Anhäufungen, sogenannte Cluster, im mehrdimensionalen Raum der Merkmalsvektoren. Diese Cluster können auf an sich bekannte Weise, beispielsweise nach dem bekannten und überwiegend angewandten LBG-Algorithmus analysiert werden. If the number of training samples is large enough, they show from these samples feature vectors obtained, so-called clusters, in the multi-dimensional space of the feature vectors. These clusters can on themselves known manner, for example according to the known and predominantly applied LBG algorithm can be analyzed.
Gemäß einem aus dem Stand der Technik bekannten vorteilhaften Vorgehen werden bei Bewegung des Fensterausschnitts nicht nur die statischen Merkmale einer Fensterposition, sondern auch die Differenzen der Merkmale zu benachbarten Fensterpositionen bestimmt und weiterverarbeitet, was zu einem entsprechend höherdimensionalen Merkmalsvektor führt. Die nachfolgenden Ausführungen gelten, ohne daß es jeweils eines gesonderten expliziten Hinweises bedarf, auch für solche und ähnliche Varianten der Merkmalsgewinnung.According to an advantageous procedure known from the prior art not only the static features when moving the window section a window position, but also the differences of the characteristics to neighboring ones Window positions determined and processed, resulting in a corresponding higher-dimensional feature vector leads. The following explanations apply without the need for a separate explicit reference, even for such and similar variants of feature extraction.
In einer ersten Trainingsphase des HMM-Erkenners werden auf der Basis der zuvor erfolgten zustandsunabhängigen Vektorquantisierungstrainings (ein oder mehrere sogenannte Codebooks) und unter Zugrundelegens vorgebbarer Strukturen der HMM-Modelle für die möglichen Objektklassen mögliche Pfade durch die Strukturen und Zuordnungen einzelner Merkmalsvektoren zu Zuständen der HMM-Modelle, z. B. unter Anwendung des sogenannten Forward-Backward-Verfahrens, bestimmt und dabei die Koeffizienten der HMM-Modelle ermittelt. In diesem Rahmen wurden auch für die verschiedenen Zustände, die die Symbole eines einzelnen neuen zustandsabhängigen Codebooks bilden, Momentenmatrizen aus den zuzuordnenden Merkmalsvektoren bestimmt. Die Momentenmatrizen werden zur Schätzung einer linearen Diskriminanz-Transformations-Matrix herangezogen, die wiederum zur Reduzierung der Dimension der Merkmalsvektoren dient. Diese Verfahrensschritte sind an sich bekannt und gebräuchlich und im Detail in (Fuk 90) beschrieben.In a first training phase the HMM recognizer will be based on the previous state-independent vector quantization training (one or more so-called codebooks) and on the basis of predefinable structures of the HMM models for the possible object classes possible paths through the structures and assignments of individual feature vectors to states of the HMM models, e.g. B. using the so-called forward-backward method, determined and the coefficients of the HMM models are determined. In this context, too for the different states that the symbols of a single new one form state-dependent codebooks, moment matrices from the assigned feature vectors determined. The moment matrices become Estimation of a linear discriminant transformation matrix used again serves to reduce the dimension of the feature vectors. This Process steps are known per se and are customary and in detail in (Fuk 90) described.
Aus den Momentenmatrizen können bei Einsatz eines Vektorquantisierers auf der Basis angenommener statistischer Verteilungen, z. B. Gauß-Verteilungen, die Parameter der Verteilung wie z. B. Schwerpunkt und Kovarianz ermittelt werden. Solche angenommenen statistischen Verteilungen nähern jedoch die tatsächlichen Verteilungen häufig nur unzureichend an.When using a vector quantizer on the Based on assumed statistical distributions, e.g. B. Gaussian distributions Distribution parameters such as B. Focus and covariance can be determined. However, such assumed statistical distributions approximate the real ones Distributions are often inadequate.
Gemäß der vorliegenden Erfindung wird mit dem Einsatz eines Polynom-Klassifikators ein gänzlich anderer Weg beschritten, bei welchem a priori keinerlei Annahmen über eine bestimmte statistische Verteilung gemacht werden. Die Koeffizienten des Polynom-Klassifikators werden auf der Basis der in der Trainingsphase bestimmten Merkmalsvektoren ermittelt.According to the present invention, the use of a Polynomial classifier went a completely different way, in which a priori none Assumptions about a certain statistical distribution are made. The Coefficients of the polynomial classifier are based on the in the Training phase determined certain feature vectors.
Vorteilhafterweise werden dabei anstelle der Merkmalsvektoren die bereits zuvor gebildeten Momentenmatrizen herangezogen und so der bei der Koeffizientenermittlung ohnehin erforderliche Schritt der Bildung dieser Matrizen aus den Merkmalsvektoren vermieden. Darüber hinaus kann auf diesem Weg vorteilhafterweise die explizite Kennzeichnung der Klassenzugehörigkeit der einzelnen Merkmalsvektoren umgangen werden, da die Momentenmatrizen ohnehin zu bestimmten HMM-Zuständen gehören und diese im späteren Vektorquantisierer auf Polynomklassifikatorbasis gerade die zu erzeugenden Symbole darstellen.Advantageously, instead of the feature vectors, they are already previously formed moment matrices and so the at Determination of coefficients anyway necessary step of forming these matrices avoided the feature vectors. In addition, this way advantageously the explicit identification of the class belonging to the individual feature vectors are bypassed, since the moment matrices anyway belong to certain HMM states and these in the later vector quantizer represent the symbols to be generated on the basis of a polynomial classifier.
Aus Gründen des Rechenaufwands ist es auch hier vorteilhaft, mit der gegenüber dem ursprünglichen Merkmalsvektor-Raum reduzierten Dimension zu arbeiten, indem die lineare Diskriminanz-Transformation auf die Merkmalsvektoren bzw. die Momentenmatrizen angewandt wird.For reasons of computational effort, it is also advantageous here with the to work in the dimension dimension reduced to the original feature vector space, by the linear discriminant transformation on the feature vectors or the Moment matrices is applied.
Die Polynomstruktur wird vorzugsweise als vollständige Struktur vorgegeben, kann
aber auch zur Reduzierung des Rechenaufwands ausgedünnt werden und bleibt
während der Trainingsphase unverändert. Für die Diskriminanten-Funktion d(v) des
Polynoms zu den verschiedenen Objektklassen gilt
The polynomial structure is preferably specified as a complete structure, but can also be thinned out to reduce the computing effort and remains unchanged during the training phase. The following applies to the discriminant function d (v) of the polynomial for the different object classes
d(v) = ATx(v)
d (v) = A T x (v)
mit A als Koeffizientenmatrix und x(v) als Funktion für eine vektorielle Abbildung des ursprünglichen Merkmalsvektors v auf die Polynomstrukturliste x.with A as the coefficient matrix and x (v) as a function for a vectorial mapping of the original feature vector v on the polynomial structure list x.
Für jeden Knoten des Pfad-Verzweigungsbaums (trellis) kann die
Wahrscheinlichkeit, daß ein Merkmalsvektor einem bestimmten Zustand eines HMM-Modells
zuzuordnen ist, bestimmt werden, was zu neuen Momentenmatrizen E {xxT}
und E {xyT} mit y als Symbolklassen-Vektor führt, aus denen die Koeffizientenmatrix
nach
For each node of the path branch tree (trellis), the probability that a feature vector can be assigned to a specific state of an HMM model can be determined, which leads to new moment matrices E {xx T } and E {xy T } with y as symbol class Vector leads from which the coefficient matrix follows
A = E {xxT}-1 E {xyT}
A = E {xx T } -1 E {xy T }
bestimmt werden kann. Eine detaillierte Beschreibung dieser und weiterer Aspekte von Polynom-Klassifikatoren gibt [Sch 96].can be determined. A detailed description of these and other aspects of polynomial classifiers are [Sch 96].
Die Verwendung eines Polynom-Klassifikators bietet, zumindest bei Verwendung des kleinsten mittleren Fehlerquadrats als Optimierungskriterium, den Vorteil einer mathematisch geschlossenen Lösung ohne Iterationen.The use of a polynomial classifier offers, at least when used of the smallest mean square of error as an optimization criterion, the advantage of a mathematically closed solution without iterations.
Zur Verringerung des Rechenaufwands wird die Vektorquantisierung vorzugsweise nicht mittels eines einzigen einstufigen Polynom-Klassifikators, sondern mehrstufig mit sukzessiver Verzweigung in aufeinanderfolgenden Stufen unter Einsatz mehrerer Polynom-Teil-Klassifikatoren nach Art einer Baumstruktur durchgeführt. Die Teilklassifikatoren sind insbesondere vorteilhafterweise als binäre Polynom- Klassifikatoren ausgeführt.Vector quantization is preferred to reduce the computational effort not by means of a single one-level polynomial classifier, but multi-level with successive branching in successive stages using several Polynomial part classifiers carried out in the manner of a tree structure. The Subclassifiers are particularly advantageous as binary polynomial Classifiers executed.
Die Einstellung des Polynom-Klassifikators in einer Trainingsphase wird im Regelfall gegenüber einem Vektorquantisierer mit angenommener statistischer Verteilungsfunktion in dieser Trainingsphase mit einem höheren Rechenaufwand verbunden sein. Dieser fällt jedoch nur einmal in der Trainingsphase an. Der Rechenaufwand in der späteren Erkennungsphase ist nicht oder nur unwesentlich höher im Vergleich zur Vektorquantisierung auf der Basis statistischer Verteilungsfunktionen. Bei Durchlaufen des Verzweigungsbaums der Teil- Klassifikatoren kann durch Abbrechen unbedeutender Pfade (pruning) der Verarbeitungsaufwand bei der Vektorquantisierung weiter reduziert werden.The setting of the polynomial classifier in a training phase is usually versus a vector quantizer with assumed statistical Distribution function in this training phase with a higher computing effort be connected. However, this only occurs once in the training phase. Of the Computing effort in the later recognition phase is not or only insignificant higher compared to vector quantization based on statistical Distribution functions. When passing through the branch tree of the partial Classifiers can be broken by truncating insignificant paths (pruning) Processing costs for vector quantization can be further reduced.
Die verbesserte Beschreibung der tatsächlichen Verteilung im Merkmalsvektor- Raum durch den Polynom-Klassifikator führt nach ersten Untersuchungen gegenüber einer angenommenen Normalverteilung zu einer signifikanten Verringerung der Fehlerrate, bei sonst gleicher Einstellung des Erkennungssystems beispielsweise zu einer Fehlerrate von 5,6% gegenüber 6,3% bei angenommener Normalverteilung. The improved description of the actual distribution in the feature vector Space through the polynomial classifier leads after initial investigations compared to an assumed normal distribution to a significant one Reduction of the error rate, with otherwise the same setting of the detection system For example, at an error rate of 5.6% compared to 6.3% with an assumed one Normal distribution.
[KCGM93] A. Kaltenmeier, T. Caesar, J.M. Gloger, and E. Mandler.
Sophisticated topology of hidden markov models for cursive script recognition.
In Proceedings of the Second International Conference on Document Analysis and
Recognition, S. 139-142, Tsukuba Science City, Japan, 20.-22. Oktober 1993. IEEE
Computer Society Press
[CGM93] T. Caesar, J.M. Gloger, and E. Mandler. Preprocessing and feature
extraction for a handwriting recognition system. In Proceedings of the Second
International Conference on Document Analysis and Recognition, S. 408-411
Tsukuba Science City, Japan, 20.-22. Oktober 1993, IEEE Computer Society Press.
[Fuk90] Keinosuke Fukunaga, Introduction to statistical pattern recognition,
Academic Press Inc., San Diego, CA, 2. Edition, 1990
[Sch96] Jürgen Schürmann, Pattern Classification, John Wiley & Sons Inc., New
York 1996[KCGM93] A. Kaltenmeier, T. Caesar, JM Gloger, and E. Mandler. Sophisticated topology of hidden markov models for cursive script recognition. In Proceedings of the Second International Conference on Document Analysis and Recognition, pp. 139-142, Tsukuba Science City, Japan, 20.-22. October 1993. IEEE Computer Society Press
[CGM93] T. Caesar, JM Gloger, and E. Mandler. Preprocessing and feature extraction for a handwriting recognition system. In Proceedings of the Second International Conference on Document Analysis and Recognition, pp. 408-411 Tsukuba Science City, Japan, 20.-22. October 1993, IEEE Computer Society Press.
[Fuk90] Keinosuke Fukunaga, Introduction to statistical pattern recognition, Academic Press Inc., San Diego, CA, 2nd edition, 1990
[Sch96] Jürgen Schürmann, Pattern Classification, John Wiley & Sons Inc., New York 1996
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19723294A DE19723294C2 (en) | 1997-06-04 | 1997-06-04 | Pattern recognition methods |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19723294A DE19723294C2 (en) | 1997-06-04 | 1997-06-04 | Pattern recognition methods |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19723294A1 true DE19723294A1 (en) | 1998-12-10 |
DE19723294C2 DE19723294C2 (en) | 2003-06-18 |
Family
ID=7831297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19723294A Expired - Fee Related DE19723294C2 (en) | 1997-06-04 | 1997-06-04 | Pattern recognition methods |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19723294C2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19951078A1 (en) * | 1999-10-23 | 2001-04-26 | Joern Fischer | Pattern recognition and classification procedure using pattern vector with subdivision of state spaces |
DE10030105A1 (en) * | 2000-06-19 | 2002-01-03 | Bosch Gmbh Robert | Speech recognition device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5274739A (en) * | 1990-05-22 | 1993-12-28 | Rockwell International Corporation | Product code memory Itakura-Saito (MIS) measure for sound recognition |
DE4240978A1 (en) * | 1992-12-05 | 1994-06-09 | Telefonbau & Normalzeit Gmbh | Improving recognition quality for speaker identification - verifying characteristic vectors and corresp. index sequence provided by vector quantisation |
EP0627726A1 (en) * | 1993-06-03 | 1994-12-07 | Nec Corporation | Pattern recognition with a tree structure used for reference pattern feature vectors or for HMM |
US5465321A (en) * | 1993-04-07 | 1995-11-07 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Hidden markov models for fault detection in dynamic systems |
US5502774A (en) * | 1992-06-09 | 1996-03-26 | International Business Machines Corporation | Automatic recognition of a consistent message using multiple complimentary sources of information |
-
1997
- 1997-06-04 DE DE19723294A patent/DE19723294C2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5274739A (en) * | 1990-05-22 | 1993-12-28 | Rockwell International Corporation | Product code memory Itakura-Saito (MIS) measure for sound recognition |
US5502774A (en) * | 1992-06-09 | 1996-03-26 | International Business Machines Corporation | Automatic recognition of a consistent message using multiple complimentary sources of information |
DE4240978A1 (en) * | 1992-12-05 | 1994-06-09 | Telefonbau & Normalzeit Gmbh | Improving recognition quality for speaker identification - verifying characteristic vectors and corresp. index sequence provided by vector quantisation |
US5465321A (en) * | 1993-04-07 | 1995-11-07 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Hidden markov models for fault detection in dynamic systems |
EP0627726A1 (en) * | 1993-06-03 | 1994-12-07 | Nec Corporation | Pattern recognition with a tree structure used for reference pattern feature vectors or for HMM |
Non-Patent Citations (1)
Title |
---|
KALTENMEIER,Alfred u.a.: Hidden Markov Models - A Unified Approach to Recognition of Spoken and Written Language, Mustererkennung 1993, 15.DAGM- Symposium, Lübeck, 27.-29. Sept. 1993, Springer- Verlag, Berlin u.a., S.191-198 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19951078A1 (en) * | 1999-10-23 | 2001-04-26 | Joern Fischer | Pattern recognition and classification procedure using pattern vector with subdivision of state spaces |
DE19951078C2 (en) * | 1999-10-23 | 2002-10-24 | Cortologic Ag | Pattern classification procedure |
DE10030105A1 (en) * | 2000-06-19 | 2002-01-03 | Bosch Gmbh Robert | Speech recognition device |
Also Published As
Publication number | Publication date |
---|---|
DE19723294C2 (en) | 2003-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0821346B1 (en) | Method for speaker verification by a computer by means of at least one speech signal spoken in by a speaker | |
EP0862161B1 (en) | Speech recognition method with model adaptation | |
DE69818231T2 (en) | METHOD FOR THE DISCRIMINATIVE TRAINING OF VOICE RECOGNITION MODELS | |
DE69333811T2 (en) | Method and device for generating and adjusting a neuron | |
DE3337353C2 (en) | Speech analyzer based on a hidden Markov model | |
DE4397106B4 (en) | Fast method for vector quantization based on a tree structure | |
EP0604476B1 (en) | Process for recognizing patterns in time-varying measurement signals | |
DE60111329T2 (en) | Adapting the phonetic context to improve speech recognition | |
DE69827586T2 (en) | Technique for the adaptation of Hidden Markov models for speech recognition | |
DE69636057T2 (en) | Speaker verification system | |
DE69937176T2 (en) | Segmentation method to extend the active vocabulary of speech recognizers | |
DE69724405T2 (en) | METHOD AND APPARATUS FOR ONLINE HANDWRITING RECOGNITION BASED ON CHARACTER VECTORS USING AGGLOMERED OBSERVATIONS FROM TIME-SEQUENT SEQUENCES | |
DE10030105A1 (en) | Speech recognition device | |
DE2825186A1 (en) | METHOD FOR REDUCING INCORRECT DISPLAY IN VOICE RECOGNITION METHODS FOR CONTINUOUS VOICE SIGNALS | |
DE10018134A1 (en) | Determining prosodic markings for text-to-speech systems - using neural network to determine prosodic markings based on linguistic categories such as number, verb, verb particle, pronoun, preposition etc. | |
DE69333247T2 (en) | Training method and device for generating a new neuron | |
DE3733391C2 (en) | ||
DE19581667C2 (en) | Speech recognition system and method for speech recognition | |
DE3711342A1 (en) | METHOD FOR RECOGNIZING CONTINUOUSLY SPOKEN WORDS | |
EP1193687A2 (en) | Speaker adaptation for a speech recognition | |
EP1435087B1 (en) | Method for producing reference segments describing voice modules and method for modelling voice units of a spoken test model | |
EP1159733A1 (en) | Method and array for determining a representative phoneme | |
DE19723294C2 (en) | Pattern recognition methods | |
DE4209296A1 (en) | Neural network for word recognition system with automatic learning capability - has characteristic vectors identified from speech signal that are classified based upon defined control regions | |
DE202022106040U1 (en) | Handwriting recognition system based on a neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE |
|
8110 | Request for examination paragraph 44 | ||
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |