DE69332980T2 - Betreiben eines neuronalen netzwerks mit fehlenden und/oder inkompletten daten - Google Patents

Betreiben eines neuronalen netzwerks mit fehlenden und/oder inkompletten daten Download PDF

Info

Publication number
DE69332980T2
DE69332980T2 DE69332980T DE69332980T DE69332980T2 DE 69332980 T2 DE69332980 T2 DE 69332980T2 DE 69332980 T DE69332980 T DE 69332980T DE 69332980 T DE69332980 T DE 69332980T DE 69332980 T2 DE69332980 T2 DE 69332980T2
Authority
DE
Germany
Prior art keywords
output
prediction
input
data
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69332980T
Other languages
English (en)
Other versions
DE69332980D1 (de
Inventor
David James KEELER
Jon Eric HARTMAN
Ralph Bruce Ferguson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rockwell Automation Pavilion Inc
Original Assignee
Pavilion Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25527747&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69332980(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Pavilion Technologies Inc filed Critical Pavilion Technologies Inc
Publication of DE69332980D1 publication Critical patent/DE69332980D1/de
Application granted granted Critical
Publication of DE69332980T2 publication Critical patent/DE69332980T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/17Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Description

  • TECHNISCHES GEBIET DER ERFINDUNG
  • Die vorliegende Endung bezieht sich allgemein auf neuronale Netze, und insbesondere auf ein Netz und ein Verfahren zum Schätzen des Fehlers im Vorhersageausgaberaum eines Vorhersagesystemmodells, auf ein Netz und ein Verfahren zum Bereitstellen eines Maßes der Gültigkeit im Vorhersageausgaberaum eines Vorhersagesystemmodells, und auf ein Verfahren zum Trainieren eines Vorhersagenetzes.
  • HINTERGRUND DER ERFINDUNG
  • Ein gewöhnliches Problem, das beim Training neuronaler Netze für die Probleme der Vorhersage, Schätzung, Mustererkennung, Sensorüberprüfung und/oder Verarbeitung auftritt, ist, daß einige der Trainings/Test-Muster fehlen können, verfälscht und/oder unvollständig sein können. Frühere Systeme haben lediglich Daten verworfen, mit dem Ergebnis, daß einige Bereiche des Eingaberaums während des Trainings des neuronalen Netzes nicht abgedeckt werden konnten. Wenn z. B. das Netz verwendet wird, um das Verhalten einer chemischen Anlage als Funktion der historischen Sensor- und Steuerungseinstellungen zu lernen, werden diese Sensormessungen typischerweise elektronisch abgetastet, aus den Meßablesungen von Hand eingegeben und/oder aus Laborergebnissen von Hand eingegeben. Es ist ein gewöhnliches Ereignis, daß einige oder alle diese Meßwerte zu einem gegebenen Zeitpunkt fehlen können. Es ist ferner üblich, daß die verschiedenen Werte zu verschiedenen Zeitintervallen abgetastet werden können. Außerdem kann jeder Wert "schlecht" sein, in dem Sinn, daß nach der Eingabe des Wertes durch ein bestimmtes Verfahren festgestellt werden kann, daß ein Datenelement tatsächlich falsch war. Wenn somit die Daten in einer Tabelle ausgedruckt würden, würde das Ergebnis eine teilweise ausgefüllte Tabelle mit intermittierend fehlenden Daten oder "Löchern" sein, die an die Löcher in Schweizer Käse erinnern. Diese "Löcher" entsprechen den "schlechten" oder "fehlenden" Daten. Die "Schweizer-Käse"-Datentabelle, die oben beschrieben worden ist, tritt in Problemen der realen Welt häufig auf.
  • Herkömmliche Trainings- und Testverfahren für neuronale Netze erfordern vollständige Muster, so daß sie Muster mit fehlenden oder schlechten Daten verwerfen müssen. Das Löschen der schlechten Daten auf diese Weise ist ein ineffizientes Verfahren zum Trainieren eines neuronalen Netzes. Es sei z. B. angenommen, daß ein neuronales Netz zehn Eingänge und zehn Ausgänge aufweist, wobei ferner angenommen sei, daß einer der Eingänge oder Ausgänge zum gewünschten Zeitpunkt für 50% oder mehr der Trainingsmuster fehlt. Herkömmliche Verfahren würden diese Muster verwerfen, was zu einem Trainieren für diese Muster während des Trainingsmodus und zu keiner zuverlässigen vorhergesagten Ausgabe während des Laufmodus führt. Dies ist ineffizient, wenn berücksichtigt wird, daß für diesen Fall mehr als 90% der Informationen für diese Muster, die herkömmliche Verfahren verwerten würden, immer noch vorhanden sind. Die vorhergesagte Ausgabe, die diesen bestimmten Bereichen entspricht, wird etwas mehrdeutig und fehlerhaft sein. In einigen Situationen kann sich eine Reduktion von bis zu 50% der Gesamtdaten nach einem Aussieben schlechter oder fehlender Daten ergeben. Außerdem haben Versuchsergebnisse gezeigt, daß die Testleistungsfähigkeit neuronaler Netze im allgemeinen mit mehr Trainingsdaten zunimmt, so daß das Verwerfen schlechter oder unvollständiger Daten die Gesamtleistungsfähigkeit des neuronalen Netzes verringert.
  • Wenn ein neuronales Netz mit einer kleineren Datenmenge trainiert wird, verringert dies die Gesamtvertrauenswürdigkeit, die sich für die vorhergesagte Ausgabe ergibt. Bis heute existiert keine Technik für die Vorhersage der Integrität der Trainingsoperation des Netzes "fliegend" während des Laufmodus. Für jedes Eingangsdatenmuster im Eingaberaum weist das neuronale Netz eine Trainingsintegrität auf. Wenn z. B. eine große Anzahl von guten Datenpunkten während des Trainings existiert hat, würde ein hohes Vertrauensniveau existieren, wenn die Eingangsdaten in diesem Bereich auftreten. Wenn jedoch ein Bereich des Eingaberaums vorhanden war, der kaum mit guten Daten belegt war, z. B. bei einer großen Menge an schlechten Daten, die dort verworfen wurden, wäre das Vertrauensniveau der vorhergesagten Ausgabe eines Netzes sehr niedrig. Obwohl bestimmte frühere Techniken für die aktuelle Prüfung des aktuellen Trainings des Netzes existieren können, arbeiten diese Techniken nicht in einem Echtzeit-Laufmodus.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung, die hier offenbart und beansprucht wird, umfaßt ein Netz und ein Verfahren zum Schätzen des Fehlers im Vorhersageausgaberaum eines Vorhersagesystemmodells, ein Netz und ein Verfahren zum Bereitstellen eines Maßes der Gültigkeit im Vorhersageausgaberaum eines Vorhersagesystemmodells, und ein Verfahren zum Trainieren eines Vorhersagenetzes, wie in den unabhängigen Ansprüchen 1, 2, 14, 15 bzw. 22 ausgeführt ist.
  • Ein Netz zum Schätzen des Fehlers im Vorhersageausgaberaum eines Vorhersagesystemmodells für einen Vorhersageeingaberaum ist in einer Ausführungsform der Erfindung beschrieben. Das Netz enthält einen Eingang zum Empfangen eines Eingabevektors, der mehrere Eingabewerte umfaßt, die den Vorhersageeingaberaum belegen. Ein Ausgang ist so betreibbar, daß er einen Ausgabevorhersagefehlervektor ausgibt, der einen Ausgaberaum belegt, der dem Vorhersageausgaberaum des Systemmodells entspricht. Eine Verarbeitungsschicht bildet den Eingaberaum auf den Ausgaberaum über eine Darstellung des Vorhersagefehlers im Systemmodell ab, um den Ausgabevorhersagefehlervektor bereitzustellen.
  • In einer weiteren Ausführungsform der vorliegenden Erfindung ist ein Datenvorprozessor vorgesehen. Der Datenvorprozessor ist so betreibbar, daß er einen unverarbeiteten Dateneingabevektorempfängt, der im wesentlichen dem gleichen Eingaberaum wie der Eingabevektor zugeordnet ist. Der unverarbeitete Dateneingabevektor weist zugehörige Fehler in bestimmten Abschnitten des Eingaberaums auf. Der Vorprozessor ist so betreibbar, daß er den unverarbeiteten Dateneingabevektor verarbeitet, um die Fehler darin zu minimieren, um an einem Ausgang den Eingabevektor bereitzustellen. Die unverarbeitete Dateneingabe umfaßt in einer Ausführungsform Daten, die Abschnitte aufweisen, die unbrauchbar sind. Der Datenvorprozessor ist so betreibbar, daß er die unverarbeiteten Daten abgleicht, um den unbrauchbaren Abschnitt durch abgeglichene Daten zu ersetzen. Außerdem ist der Datenvorprozessor so betreibbar, daß er einen Unsicherheitswert für jeden Wert der abgeglichenen Daten, die als Eingabevektor ausgegeben werden, ausgibt.
  • In einer weiteren Ausführungsform der vorliegenden Erfindung umfaßt das Systemmodell ein nichtlineares Modell mit einem Eingang zum Empfangen des Eingabevektors innerhalb des Eingaberaums und einem Ausgang zum Ausgeben eines vorhergesagten Ausgabevektors. Es ist eine Abbildungsfunktion vorgesehen, die die Eingabeschicht auf die Ausgabeschicht für ein nichtlineares Modell eines System abbildet. Eine Steuerschaltung ist vorgesehen, um den Vorhersageausgabevektor so zu steuern, daß darin eine Änderung entsprechend vorgegebenen Kriterien bewirkt werden kann. Es sind mehrere Entscheidungsschwellen vorgesehen, die vorgegebene Schwellenraten für die Vorhersagefehlerausgabe definieren. Ein Entscheidungsprozessor ist so betreibbar, daß er den Ausgabevorhersagefehlervektor mit den Entscheidungsschwellen vergleicht und die Ausgabesteuerung so betreibt, daß die vorgegebenen Änderungen bewirkt werden, wenn eine vorgegebene Beziehung zwischen den Entscheidungsschwellen und dem Ausgabevorhersagefehlervektor existiert.
  • In einer weiteren Ausführungsform der vorliegenden Erfindung ist eine nichtlineare Darstellung des Systemmodells eine trainierte Darstellung, die für einen endlichen Satz von Eingabedaten innerhalb des Eingaberaums trainiert wird. Es wird ein Gültigkeitsmodell geschaffen, das eine Repräsentation der Gültigkeit der vorhergesagten Ausgabe eines Systemmodells für einen gegebenen Wert im Eingaberaum liefert. Das Gültigkeitsmodell enthält einen Eingang zum Empfangen des Eingabevektors innerhalb eines Eingaberaums und einen Ausgang zum Ausgeben eines Gültigkeitsausgabevektors, der dem Ausgaberaum entspricht. Ein Prozessor ist so betreibbar, daß er den Gültigkeitsausgabevektor in Reaktion auf die Eingabe eines vorgege benen Wertes des Eingabevektors und des Orts des Eingabevektors innerhalb des Eingaberaumes erzeugt. Der Wert des Gültigkeitsausgabevektors entspricht der relativen Menge an Trainingsdaten, für die das Systemmodell in dem Bereich des Eingaberaums um den Wert des Eingabevektors trainiert worden ist.
  • In einer weiteren Ausführungsform der Erfindung wird das Systemmodell mittels eines vorgegebenen Trainingsalgorithmus trainiert, der eine Soll-Ausgabe und einen Satz von Trainingsdaten verwendet. Während des Trainings wird ferner ein Unsicherheitswert empfangen, der die Unsicherheit der Eingabedaten repräsentiert. Der Trainingsalgorithmus wird während des Trainings als Funktion des Unsicherheitswertes modifiziert.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Für ein vollständigeres Verständnis der vorliegenden Erfindung und deren Vorteile wird auf die folgende Beschreibung in Verbindung mit den beigefügten Zeichnungen Bezug genommen, in welchen:
  • 1 ein Gesamtblockschaltbild des Systemmodells zeigt, das sowohl ein Gültigkeitsmodell als auch ein Vorhersagefehlermodell zum Verarbeiten abgeglichener Daten und zum Kontrollieren des Ausgangs unter Verwendung des Gültigkeitsmodells und des Vorhersagefehlermodells zeigt;
  • 2a und 2c ein Gesamtblockschaltbild eines Verfahrens zum Trainieren des Systemmodells unter Verwendung der während des Datenabgleichs erzeugten Unsicherheit zeigt;
  • 2b ein Beispiel des Abgleichs und der zugehörigen Unsicherheit zeigt;
  • 3a-3c Datenmuster, die die Datenverteilung repräsentieren, den Vorhersagefehler und das Gültigkeitsniveau zeigen;
  • 4a eine schematische Ansicht eines Datenmusters zeigt, das an zwei Intervallen abgetastet worden ist und ein vollständiges Muster für neuronale Netze zeigt;
  • 4b eine schematische Ansicht eines Datenmuster zeigt, das die zeitliche Zusammenführung von Daten zeigt;
  • 5 ein Autocodierungsnetz für das Abgleichen der Eingabedaten zum Auffüllen schlechter oder fehlender Daten zeigt;
  • 6 ein Blockschaltbild der Trainingsoperation zum Trainieren des Modells zeigt;
  • 7 ein Gesamtblockschaltbild zum Trainieren des Gültigkeitsmodells zeigt;
  • 8a und 8b Beispiele lokalisierter Funktionen der Daten für die Verwendung beim Training des Gültigkeitsmodells zeigen;
  • 9 eine schematische Ansicht von Radialbasisfunktionszentren in einem zweidimensionalen Raum zeigt;
  • 10 eine schematische Ansicht der Gültigkeitsfunktion zeigt;
  • 11 eine Verteilung von Trainingsdaten und zwei Testmustern für xa und xb zeigt; und
  • 12 ein Gesamtblockschaltbild für die Erzeugung der Gültigkeitsziele zeigt, die während des Trainings des Gültigkeitsmodells verwendet werden.
  • GENAUE BESCHREIBUNG DER ERFINDUNG
  • In 1 ist ein Gesamtblockschaltbild der Netze und der Verfahren der vorliegenden Erfindung gezeigt. Es wird ein Dateneingabevektor x(t) wird bereitgestellt, der die Eingabedaten repräsentiert, die einen Eingaberaum belegen. Diese Daten können fehlende oder schlechte Daten aufweisen, die ersetzt werden müssen. Diese Datenersetzung findet in einem Datenvorprozeß-Abschnitt 10 statt, der so betreibbar ist, daß er die Datenmuster abgleicht, um die schlechten oder fehlenden Daten aufzufüllen und einen Ausgabevektor x'(t) bereitzustellen. Außerdem wird der Fehler- oder Unsicherheitsvektor μx(t) ausgegeben. Dieser repräsentiert die Verteilung der Daten um den mittleren abgeglichenen Datenvektor x'(t), wobei er typischerweise das ist, was in früheren Systemen verworfen wurde. Die abgeglichenen Daten x'(t) werden in ein Systemmodell 12 eingegeben, das mittels eines neuronalen Netzes verwirklicht ist. Das neuronale Netz ist ein herkömmliches neuronales Netz, das eine Eingangsschicht zum Empfangen des Eingabevektors und eine Ausgangsschicht zum Bereitstellen eines vorhergesagten Ausgabevektors umfaßt. Die Eingangsschicht wird auf die Ausgangsschicht über eine nichtlineare Abbildungsfunktion abgebildet, die in einer oder mehreren verdeckten Schichten ausgeführt ist. Dies ist ein herkömmlicher Typ von Architektur. Wie im folgenden beschrieben wird, wird dieses Netz durch irgendeinen von mehreren Trainingsalgorithmen und Architekturen trainiert, wie z. B. Radialbasisfunktionen, Gaußsche Balken oder herkömmliche Back-Propagation-(Rückwärtsfortpflanzung)-Techniken. Die Back-Propagation-Lerntechnik ist allgemein beschrieben in "Learning Internal Representations by Error Propagation" von D. E. Rumelhart, G. E. Hinton & R. J. Williams (in D. E. Rumelhart & J. L. McClennand, Parallel Distributed Processing, Kapitel 8, Bd. 1, 1986), wobei dieses Dokument hiermit durch Literaturhinweis eingefügt ist. Back-Propagation-Techniken zum Trainieren herkömmlicher neuronalen Netze sind jedoch wohlbekannt. Die Ausgabe des Systemmodells 12 ist eine vorhergesagte Ausgabe y(t). Diese wird in eine Ausgabekontrollschaltung 14 eingegeben, die als eine Ausgabe einen modifizierten Ausgabevektor y'(t) liefert. Im allgemeinen ergibt sich immer dann, wenn Daten in das Systemmodell 12 eingegeben werden, eine vorhergesagte Ausgabe, deren Integrität eine Funktion davon ist, wie gut das Netz trainiert worden ist.
  • Zusätzlich zum obigen Systemmodell werden ein Gültigkeitsmodell 16 und ein Vorhersagefehlermodell 18 bereitgestellt. Das Gültigkeitsmodell 16 stellt ein Modell der "Gültigkeit" der vorhergesagten Ausgabe als eine Funktion der "Verteilung" der Daten im Eingaberaum während der Trainingsoperation zur Verfügung. Jedem Systemmodell sind zugeordnete Vorhersagefehler verliehen worden, wobei die Vorhersagefehler in der verwendeten Architektur inhärent sind. Dies setzt voraus, daß das Systemmodell mit einem angemessenen Trainingsdatensatz trainiert wurde. Falls nicht, existiert eine zusätzli che Fehlerquelle, aufgrund einer unangemessenen Verteilung der Trainingsdaten am Ort des Eingaberaums nahe den Eingabedaten. Das Gültigkeitsmodell 16 stellt ein Maß dieser zusätzlichen Fehlerquelle zur Verfügung. Das Vorhersagefehlermodell 18 stellt ein Modell des erwarteten Fehlers der vorhergesagten Ausgabe zur Verfügung.
  • Ein gegebenes Systemmodell weist einen zugehörigen Vorhersagefehler auf, der eine Funktion der Architektur ist, wobei der Vorhersagefehler aufgrund eines angemessenen Satzes von Trainingsdaten über den gesamten Eingaberaum vorausgesetzt wird. Wenn jedoch ein Fehler oder eine Unsicherheit, die dem Satz der Trainingsdaten zugeordnet ist, vorhanden ist, wird dieser Fehler oder diese Unsicherheit zum inhärenten Vorhersagefehler des Systemmodells addiert. Der Gesamtvorhersagefehler wird anhand der Gültigkeit differenziert, wobei die Gültigkeit eine Funktion der Verteilung der Trainingsdaten über den Eingaberaum ist und der Vorhersagefehler eine Funktion der Architektur des Systemmodells und des zugehörigen Fehlers oder der Unsicherheit des Satzes der Trainingsdaten ist.
  • Der Ausgang des Gültigkeitsmodells 16 stellt einen Gültigkeitsausgabevektor v(t) bereit, wobei der Ausgang des Vorhersagefehlermodells 18 einen geschätzten Vorhersagefehlervektor e(t) bereitstellt. Diese zwei Ausgabevektoren werden in einen Entscheidungsprozessor 20 eingegeben, dessen Ausgabe verwendet wird, um ein Kontrollsignal für die Eingabe in die Ausgabekontrolle 14 zu erzeugen. Der Entscheidungsprozessor 20 ist so betreibbar, daß er die Ausgabevektoren v(t) und e(t) mit verschiedenen Entscheidungsschwellen vergleicht, die in diesen von einem Entscheidungsschwellengenerator 22 eingegeben werden. Beispiele des Typs der Kontrolle, die zur Verfügung stehen, sind: wenn die Genauigkeit kleiner ist als eine Kontrolländerungsempfehlung, wird keine Änderung durchgeführt. Ansonsten werden die Kontrollen auf die empfohlenen Werte geändert. Wenn der Gültigkeitswert größer ist als die Gültigkeitsschwelle, wird in ähnlicher Weise die Kontrollempfehlung akzeptiert. Ansonsten wird die Kontrollempfehlung nicht akzeptiert. Die Ausgabekontrolle 14 kann ferner die vorhergesagten Ausgaben modifizieren. In einer Kontrollsituation kann z. B. ein Ausgabekontrolländerungswert modifiziert werden, um nur 50% des Änderungswertes für eine gegebene Schwelle, 25% des Änderungswertes für eine zweite Schwel le und 0% des Änderungswertes für eine dritte Schwelle zu erhalten.
  • In 2a ist eine Ausführungsform eines Verfahren zum Trainieren des Systemmodells 12 unter Verwendung der Unsicherheit μ(t) der Eingabetrainingsdaten gezeigt. Im allgemeinen wird das Lernen des Systemmodells 12 durch irgendwelche einer Vielzahl von neuronalen Netzarchitekturen und Algorithmen erreicht, wie z. B. Back-Propagation, Radialbasisfunktionen oder Gaußsche Balken. Die Lernoperation wird so angepaßt, daß ein Muster mit weniger Daten im Eingaberaum mit geringerer Wichtigkeit trainiert wird. Bei der Back-Propagation-Technik besteht ein Verfahren darin, die Lernrate auf der Grundlage der Unsicherheit eines gegebenen Musters zu ändern. Der Eingabeunsicherheitsvektor μx'(t) wird in einen Unsicherheit-Trainingsmodifizierer 24 eingegeben, der Kontrollsignale für das Systemmodell 12 während des Trainings bereitstellt.
  • Der Datenvorprozessor 10 berechnet den Datenwert x'(t) zu der gewünschten Zeit "t" aus anderen Datenwerten unter Verwendung einer Abgleichtechnik, wie z. B. einer linearen Schätzung, einer Kurvenanpassung, einem Güterwagen-Abgleich oder aufwendigeren Techniken, wie z. B. einem autocodierenden, neuronalen Netz, wie im folgenden beschrieben wird. Alle diese Techniken werden als Datenabgleich bezeichnet, wobei die Eingabedaten x(t) mit den ausgegebenen abgeglichenen Daten x'(t) abgeglichen werden. Im allgemeinen ist x'(t) eine Funktion aller Rohwerte x(t), die zu aktuellen und vergangenen Zeitpunkten bis zu einem bestimmten maximalen vergangenen Zeit Xmax gegeben sind. Das heißt,
    Figure 00090001
    wobei einige der Werte von xi(tj) fehlen oder schlecht sein können.
  • Dieses Verfahren der Auffindung von x'(t) unter Verwendung früherer Werte ist grundsätzlich eine Extrapolation. Da das System während des Laufzeitmodus nur vergangene Werte zur Verfügung hat, müssen die Werte abgeglichen werden. Das einfachste Verfahren, um dies zu bewerkstelligen, besteht darin, den nächsten extrapolierten Wert x'i(t) = xi(tN) zu nehmen, d. h. den letzten Wert zu nehmen, der gemeldet wurde. Aufwendigere Extrapolations algorithmen können frühere Werte xi(t – τij), j ∊ t(0,... imax) verwenden. Zum Beispiel würde eine lineare Extrapolation verwenden:
    Figure 00100001
  • Polynom-, Kurvenanpassungs- oder Neuronal-Netz-Extrapolationstechniken verwenden Gleichung 1. (Siehe z. B. "Numerical Recipes", W. H. Press, Cambridge University Press (1986), S. 77-101). Das Training des neuronalen Netzes würde in Wirklichkeit interpolierte Werte, d. h. Gleichung 2, verwenden, wobei im Fall der Interpolation tN > t gilt.
  • Es werden beliebige Zeitwerte extrapoliert oder interpoliert, wobei diese Werte eine bestimmte inhärente Unsicherheit μx'(t) aufweisen. Die Unsicherheit kann durch eine A-Priori-Messung oder -Informationen und/oder durch die Abgleichtechnik gegeben sein. Eine Schätzung der Unsicherheit μx'(t) in einem abgeglichenen Wert x'(t) wäre:
    Figure 00100002
    wobei μmax die maximale Unsicherheit ist, die als Parameter gesetzt ist (wie z. B. der maximale Datenbereich), und wobei: μox' die A-Priori-Unsicherheit ist
    Figure 00100003
    d. h. die lokale Geschwindigkeitsdurchschnittsgröße, und wobei:
    Figure 00100004
    d. h. 1/2 der lokalen Beschleunigungsdurchschnittsgröße.
  • Eine graphische Darstellung hiervon ist in 2b gezeigt.
  • Sobald der Eingabeunsicherheitsvektor μx,(t) ermittelt ist, müssen die fehlenden oder unsicheren Eingabewerte anders behandelt werden als fehlende oder unsichere Ausgabewerte. In diesem Fall wird der Fehlerterm, der sich zu jeder unsicheren Eingabe rückwärts fortpflanzt, auf der Grundlage der Unsicherheit der Eingabe modifiziert, während ein Fehler in der Ausgabe das Lernen aller neuronalen Verbindungen unterhalb dieser Ausgabe beeinflußt. Da die Unsicherheit in der Eingabe immer durch eine entsprechende Unsicherheit in der Ausgabe reflektiert wird, muß diese Unsicherheit in der Ausgabe für das Training des Systemmodells 12, in der Gesamtunsicherheit des Systems und in der Gültigkeit der Systemausgabe berücksichtigt werden.
  • Die Sollausgabe y(t) (Zielausgabe) weist eine Unsicherheit auf, die durch einen Soll-Vorprozeßblock 26 ermittelt worden ist, der im wesentlichen dem Daten-Vorprozeßblock 10 ähnlich ist, indem er schlechte oder fehlende Daten auffüllt. Dies erzeugt eine Soll-Eingabe für die Eingabe in einen Block 28, der eine Schicht umfaßt, die linear auf die Ausgangsschicht des neuronalen Netzes im Systemmodell 12 abgebildet wird. Dies erzeugt das abgeglichene Ziel y'(t).
  • In 2c ist eine alternative spezifische Ausführungsform gezeigt, in der ein Systemmodell 12 sowohl mit den abgeglichenen Daten x'(t) als auch der Unsicherheit μx'(t) in den abgeglichenen Daten x'(t) trainiert wird. Diese Daten werden vom Daten-Vorprozeßblock 10 an einen Summierungsblock 30 ausgegeben, der bei verschiedenen Durchläufen durch das Modell kontrolliert wird, um entweder die abgeglichenen Daten x'(t) selbst zu verarbeiten, oder um die Summe der abgeglichenen Daten x'(t) und der Unsicherheit μx'(t) zu verarbeiten. Es ergeben sich zwei Ausgaben, eine vorhergesagte Ausgabe p(t) und eine Unsicherheitsvorhersageausgabe μp(t). Diese werden in einen Soll-Fehlerprozessorblock 34 eingegeben, der ferner als Eingaben die abgeglichene Soll-Ausgabe y'(t) und die Unsicherheit in der abgeglichenen Soll-Ausgabe μy'(t) empfängt. Dies erzeugt einen Wert Δytotal. Dieser Wert wird verwendet, um die modifizierte Gesamtsummenquadrat(DSS)-Fehlerfunktion zu berechnen, die zum Trainieren des Systemmodells verwendet wird, entweder mit einem neuronalen Netz mit Back-Propagation-Radialbasisfunktion oder einem neuronalen Netz mit Gaußschen Balken.
  • Im Betrieb wird ein erster Vorwärtsdurchlauf ausgeführt, indem der Summierungsblock 30 so kontrolliert wird, daß er nur die abgeglichenen Daten x'(t) verarbeitet, um die vorhergesagte Ausgabe p(t) auszugeben. In einem zweiten Durchlauf wird die Summe der abgeglichenen Dateneingabe x'(t) und der Unsicherheitseingabe μx'(t) wie folgt bereitgestellt:
    Figure 00120001
  • Dies liefert die vorhergesagte Ausgabe p'(t). Die vorhergesagte Unsicherheit μp(t) wird anschließend wie folgt berechnet:
    Figure 00120002
  • Der Gesamt-Soll-Fehler Δytotal wird anschließend gleich der Summe der Absolutwerte von μp(t) und μx'(t) wie folgt gesetzt:
    Figure 00120003
  • Die Ausgabefehlerfunktion, die DSS-Fehlerfunktion, wird anschließend mit der modifizierten Unsicherheit wie folgt berechnet:
    Figure 00120004
    wobei NPATS die Anzahl der Trainingsmuster ist. Für ein Back-Propagation-Training werden die Gewichte Wj wie folgt aktualisiert:
    Figure 00120005
  • Somit kann das Netz nun Gewichtungen aufweisen, die durch eine Fehlerfunktion modifiziert sind, die die Unsicherheit berücksichtigt.
  • Für neuronale Netze, die nicht die Back-Propagation (Rückwärtsfortpflanzung) verwenden, kann durch Trainieren des Systemmodells über mehrere Durchläufe durch denselben Datensatz ein ähnliches Verhalten erreicht werden, wobei den Eingabemustern zufälliges Rauschen hinzugefügt wird, um die Wirkungen der Unsicherheit in diesen Mustern zu simulieren. Bei diesem Trainingsverfahren kann für jedes x'(t) und die zugehörige μx'(t) ein Zufallsvektor gewählt werden, indem jeweils x"i als x"i = x'i + ni gewählt wird, wobei ni ein Rauschterm ist, der aus der Verteilung gewählt wird:
    Figure 00130001
    in diesem Fall gilt:
    Figure 00130002
    wobei f(x(t)) das Systemmodell ist, das diese vorhergesagte Systemausgabe p(t) erzeugt.
  • In den 3a-3c sind graphische Darstellungen der ursprünglichen Trainingsdaten, der Systemmodellvorhersage und des Vorhersagefehlers bzw. der Gültigkeit gezeigt. In 3a sind die wirklichen Dateneingabe-Sollmuster gezeigt. Es wird deutlich, daß die Daten in der Dichte und Varianz über die X-Achse variieren. Sobald das Systemmodell trainiert ist, liefert es eine Vorhersage y(x), Linie 42. Das Systemmodell weist einen inhärenten Vorhersagefehler auf (aufgrund von Ungenauigkeiten in den Trainingsdaten). Diese Vorhersagefehler sind durch zwei gestrichelte Linien 44 und 46 gezeigt, die auf jeder Seite des vorhergesagten Wertes auf der Linie 42 angeordnet sind. Dies repräsentiert grundsätzlich die Standardabweichung der Daten um die Linie 42. Anschließend wird die Gültigkeit ermittelt, wie in 3c gezeigt ist. Die Gültigkeit ist im wesentlichen ein Maß der Menge an Trainingsdaten an einem beliebigen Punkt. Es wird deutlich, daß der Anfangspunkt der Kurve einen hohen Gültigkeitswert aufweist, dargestellt durch das Bezugszeichen 48, und der spätere Teil der Kurve, wo die Daten gefehlt haben, ein niedriges Niveau aufweist, wie durch das Bezugszeichen 50 dargestellt ist. Wenn daher ein neuronales Netz untersucht wird, daß mit den Daten in 3a trainiert worden ist, würde die Zuverlässigkeit oder Integrität des neuronalen Netzes immer dann als Funktion der darin eingegebenen Trainingsdaten als hoch erwartet, wenn eine große Menge an Trainingsdaten vorhanden war.
  • In 4a ist eine Datentabelle mit schlechten, fehlenden oder unvollständigen Daten gezeigt. Die Datentabelle umfaßt Daten, wobei die Zeit längs einer vertikalen Skala dargestellt ist und die Abtastwerte längs einer horizontalen Skala dargestellt sind. Jeder Abtastwert umfaßt viele verschiedene Datenelemente, wobei zwei Datenintervalle gezeigt sind. Es wird deutlich, daß dann, wenn die Daten sowohl bezüglich der zum Zeitintervall 1 abgetasteten Daten als auch der zum Abtastintervall 2 abgetasteten Daten untersucht werden, bestimmte Abschnitte der Daten zu unvollständigen Mustern führen. Dies ist durch eine gestrichelte Linie 52 gezeigt, bei der deutlich wird, daß einige Daten in den in Zeitintervall 1 abgetasteten Daten fehlen und einige im Intervall 2 fehlen. Ein vollständiges neuronales Netzmuster ist im Kasten 54 gezeigt, in welchem alle Daten vollständig sind. Es ist die Zeitdifferenz zwischen den im Zeitintervall 1 abgetasteten Daten und den im Zeitintervall 2 abgetasteten Daten von Interesse. Im Zeitintervall 1 sind die Daten im wesentlichen für alle Zeitschritte vorhanden, während die im Zeitintervall 2 abgetasteten Daten nur periodisch relativ zu den im Zeitintervall 1 abgetasteten Daten abgetastet werden. Somit füllt die Abgleichprozedur die fehlenden Daten auf und gleicht ferner zwischen den Zeitabtastwerten im Zeitintervall 2 ab, so daß die Daten für alle Zeitabtastwerte für beide Zeitintervalle 1 und 2 vollständig sind.
  • Die neuronalen Netzmodelle, die für die Zeitreihenvorhersage und Kontrolle verwendet werden, erfordern, daß das Zeitintervall zwischen aufeinandertolgenden Trainingsmustern konstant ist. Da die Daten, die von Systemen der realen Welt stammen, nicht immer auf der gleichen Zeitskala liegen, ist es wünschenswert, die Daten zeitlich zusammenzuführen, bevor sie für das Training oder den Lauf des neuronalen Netzmodells verwendet werden können. Um diese Zeitzusammenführungsoperation zu erreichen, kann es notwendig sein, die Daten in jeder Spalte über jeden Zeitbereich zu extrapolieren, zu interpolieren, zu mitteln oder zu komprimieren, um somit einen Eingabewert x(t) zu erhalten, der auf der angemessenen Zeitskala liegt. Der verwendete Abgleichalgorithmus kann lineare Schätzungen, Kurvenanpassungen, Güterwagen-Algorithmen und dergleichen enthalten, oder aufwendigere Techniken, wie z. B. das im folgenden beschriebene Autocodierungs-Netz. Wenn die Daten zu häufig im Zeitintervall abgetastet werden, ist es notwendig, die Daten zu glätten oder zu mitteln, um einen Abtastwert auf der gewünschten Zeitskala zu erhalten. Dies kann mittels Fenstermittelungstechniken, Seltenabtastungstechniken oder Kurventechniken bewerkstelligt werden.
  • In 4b sind ein Eingabedatenmuster und ein Soll-Ausgabedatenmuster gezeigt, die die Vorprozeß-Operation für sowohl die Vorverarbeitung der Eingabedaten zum Schaffen zeitlich zusammengeführter Ausgabedaten als auch die Vorverarbeitung der Soll-Ausgabedaten zum Schaffen vorverarbeiteter Soll-Ausgabedaten für Trainingszwecke zeigen. Die Dateneingabe x(t) umfaßt einen Vektor mit vielen Eingaben x1(t), x2(t),... xn(t), die jeweils auf einer verschiedenen Zeitskala liegen können. Es ist wünschenswert, daß die Ausgabe x'(t) extrapoliert oder interpoliert wird, um sicherzustellen, daß alle Daten auf einer einzigen Zeitskala liegen. Wenn z. B. die Daten bei x1(t) auf einer Zeitskala von einem Abtastwert pro Sekunde liegen, ein Abtastwert durch die Zeit tk repräsentiert wird und die Ausgabezeitskala dieselbe sein soll, würde dies eine zeitliche Zusammenführung des Rests der Daten auf diese Zeitskala erfordern. Es wird deutlich, daß die Daten x2(t) etwa einmal alle drei Sekunden auftreten, wobei ferner zu beachten ist, daß dies asynchrone Daten sein können, obwohl sie als synchronisiert dargestellt sind. Der Datenpuffer in 4b ist in der wirklichen Zeit dargestellt. Die Datenausgabe als x1(t) ist jedoch mit einer Unsicherheit μx'1(t) abgeglichen, da die Eingabezeitskala und die Ausgabezeitskala gleich sind, wobei keine Unsicherheit vorhanden ist. Für die Ausgabe x'2(t) muß jedoch die Ausgabe abgeglichen werden, wobei eine Unsicherheit μx'2(t) besteht. Der Abgleich könnte einfach darin bestehen, den letzten Wert der Eingabe x2(t) zu halten, bis ein neuer Wert eingegeben wird, und anschließend den alten Wert zu verwerfen. Auf diese Weise existiert immer eine Ausgabe. Dies wäre auch bei fehlenden Daten der Fall. Eine Abgleichroutine wie oben beschrieben könnte jedoch auch verwendet werden, um sicherzustellen, daß für jede Zeitscheibe des Vektors x'(t) immer Daten am Ausgang vorhanden sind. Dies ist auch bezüglich der Soll-Ausgabe der Fall, die vorverarbeitet wird, um die vorverarbeitete Soll-Ausgabe y'(t) bereitzustellen.
  • In 5 ist eine schematische Ansicht eines Autocodierungs-Netzes gezeigt, das für die Abgleichoperation verwendet wird. Das Netz umfaßt eine Eingangsschicht von Eingangsknoten 60 und eine Ausgangsschicht von Aus gangsknoten 62. Es sind drei verdeckte Schichten 64, 66 und 68 vorgesehen, um die Schicht 60 auf die Ausgangsschicht 62 über einen nichtlinearen Abbildungsalgorithmus abzubilden. Die Eingabedatenmuster x1(t), x2(t),..., xn(t) werden darin eingegeben, abgeglichen und über Bereichen der fehlenden Daten reproduziert, um die Ausgabedatenmuster x1'(t), x2'(t), x3'(t),..., xn'(t) bereitzustellen. Dieses Netz kann über die Back-Propagation-Technik trainiert werden. Es ist zu beachten, daß dieses System die Daten über eine gegebenen Zeitbasis abgleicht, selbst wenn diese nicht ursprünglich über dieser Zeitbasis abgetastet wurden, so daß Daten an zwei verschiedenen Abtastintervallen zeitlich synchronisiert werden können.
  • Die obenbeschriebene Technik verwendet hauptsächlich die Erstellung, das Training und den Lauf eines Systemmodells mit Daten, die fehlende Teile aufweisen, auf dem falschen Zeitskaleninkrement liegen und/oder schlechte Datenpunkte besitzen. Die Haupttechnik verwendet den Abgleich über die schlechten oder fehlenden Daten und/oder die zeitliche Zusammenführung der Daten. Sobald jedoch ein Modell erstellt und trainiert ist, gibt es zwei andere Faktoren, die berücksichtigt werden sollten, bevor das Modell zum Lösen eines Problems der realen Welt voll eingesetzt werden kann. Diese zwei Faktoren sind die Vorhersagegenauigkeit des Modells und die Modellgültigkeit. Das Modell bietet typischerweise keine genaue Darstellung der Dynamik des Prozesses, der modelliert wird. Die Vorhersageausgabe vom Modell weist somit einen gewissen Vorhersagefehler e(t) auf, der jedem Eingabemuster x(t) zugeordnet ist, wobei:
    Figure 00160001
    (13)
  • Dies erzeugt eine Differenz zwischen der wirklichen Ausgabe zum Zeitpunkt "t" und der vorhergesagten Ausgabe bei "t". Der Vorhersagefehler e(t) kann verwendet werden, um ein System zu trainieren, das die Systemmodellgenauigkeit schätzt. Das heißt, eine Struktur kann mit einer internen Darstellung des Modellvorhersagefehlers e(t) trainiert werden. Für die meisten Anwendungen ist die Vorhersage der Größe ||e(t)|| des Fehlers (statt der Richtung) ausreichend. Dieses Vorhersagefehlermodell wird im folgenden dargestellt.
  • In 6 ist ein Blockschaltbild des Systems zum Trainieren des Vorhersage fehlermodells 18 gezeigt. Das System der 2c wird verwendet, indem zuerst die abgeglichenen Eingabedaten x'(t) und die Unsicherheit μx'(t) durch das trainierte Systemmodell 12 geschickt werden, wobei dieses Training mit dem in bezug auf 2c beschriebenen Prozeß bewerkstelligt wird. Der Soll-Fehler Δytotal wird unter Verwendung des Soll-Fehlerprozessors gemäß dem gleichen Prozeß berechnet, der in bezug auf Gleichung 8 erläutert worden ist, zusätzlich zu Δy als Funktion von "y". Dies wird anschließend als Ziel in das Vorhersagefehlermodell 18 eingegeben, wobei die Eingaben die abgeglichenen Eingabedaten x'(t) und die Unsicherheit μx'(t) sind. Das Vorhersagefehlermodell kann auf vielen Wegen verwirklicht werden, wie z. B. mit einer Nachschlagtabelle oder mit einem neuronalen Netz. Wenn es als ein neuronales Netz verwirklicht wird, kann es über herkömmliche Back-Propagation, Radialbasisfunktionen, Gaußsche Balken oder irgendeinen anderen Trainingsalgorithmus für neuronale Netze trainiert werden.
  • Das Maß der Gültigkeit eines Modells beruht hauptsächlich auf der historischen Trainingsdatenverteilung. Im allgemeinen sind neuronale Netze mathematische Modelle, die ein Verhalten von Daten lernen. Daher sind sie nur in den Bereichen der Daten gültig, für die sie trainiert wurden. Sobald sie trainiert worden sind und in einem Steuerungs- oder Testmodus laufen, gibt es (in einem neuronalen Standard-Netz) keine Möglichkeit, unter Verwendung des aktuellen Zustands des Modells allein zwischen einem gültigen Datenpunkt (ein Punkt in dem Bereich, in dem das neuronale Netz trainiert wurde) und einem ungültigen Datenpunkt (ein Punkt in einem Bereich, in dem keine Daten vorhanden waren) zu unterscheiden. Um die Integrität der Modellvorhersage zu überprüfen, muß ein Mechanismus vorgesehen werden, um die Gültigkeitsbereiche des Modells zu verfolgen.
  • In 7 ist ein Gesamtblockschaltbild des Prozessors zum Trainieren des Gültigkeitsmodells 16 gezeigt. Der Daten-Vorprozeßblock 10 wird verwendet, um die abgeglichenen Eingabedaten x'(t) für den Eingang des Gültigkeitsmodells 16 bereitzustellen. Die Eingabedaten x(t) und die abgeglichenen Eingabedaten x'(t) werden in einen Gültigkeits-Zielgenerator 70 eingegeben, um die Gültigkeitsparameter für die Eingabe in eine Schicht 72 zu erzeugen.
  • Ein Gültigkeitsmaß v(x) ist definiert als:
    Figure 00180001
  • Der Parameter hi wird so gewählt, daß er eine lokalisierte Funktion der Daten ist, die grundsätzlich eine Funktion der Anzahl der Punkte in einer lokalen Umgebung des Punktes x(t) ist. Als eine spezifische Ausführungsform wird die folgende Beziehung für hi gewählt:
    Figure 00180002
    die resultierende Funktion ist in 8a gezeigt, wobei die Funktion bei ασ abgeschnitten ist, so daß entfernte Punkte keinen Beitrag liefern. Andere Funktionen, wie z. B. diejenige, die in 8b gezeigt ist, können ebenfalls verwendet werden.
  • In 9 ist ein Eingaberaum gezeigt, der durch die Eingaben x1 und x2 repräsentiert wird. Es wird deutlich, daß es drei Bereiche gibt, die jeweils die Zentren x1, x2 und x3 aufweisen, die jeweils eine gegebene Anzahl von Punkten n1, n2 bzw. n3 und einen Radius r1, r2 und r3 aufweisen. Die Zentren der Bereiche sind durch die Gruppierungsalgorithmen mit der darin ermittelten Anzahl von Punkten definiert.
  • In 10 ist eine Darstellung der Gültigkeitsfunktion gezeigt, bei der das Gültigkeitsmodell 16 so dargestellt ist, daß es die darin eingegebenen neuen Daten x(t) und die daraus ausgegebene Ausgabe v(x(t)) aufweist. Eine gestrichelte Linie ist rechts vom Gültigkeitsmodell 16 vorgesehen, die den Trainingsmodus zeigt, wobei die Eingaben im Trainingsmodus die historischen Datenmuster x1(t), x2(t),... xNpats(t), σi, α, ai, bi sind. In einer spezifischen Ausführungsform werden die obigen Werte so gewählt, daß ai = 1, bi = 2 für alle i, und σi = 0,1, α = 3 für alle i.
  • Die Gleichung kann schwierig zu berechnen sein, so daß es effizienter ist, die Summe in Bereiche zu zerlegen, die wie folgt definiert sind:
    Figure 00190001
    wobei die Zellen einfache geometrische Bereiche des Raumes sind, wie in 10 gezeigt ist, die ein Testmuster darstellt.
  • In 11 hat das Testmuster xa(t) eine Gültigkeit, die durch die Zellen C15, C16, C12 und C11 bestimmt wird, solange die Zellengröße größer oder gleich dem Abschnitt ασ ist, wobei der Datenpunkt xb(t) nur durch die Zelle C15 und C14 beeinflußt wird. Der Algorithmus zum Auffinden der Gültigkeit ist somit geradlinig.
    • 1) Trainiere das Systemmodell mit Trainingsmustern (x1, x2, x3,... xNpa t)
    • 2) Trainiere das Gültigkeitsmodell durch Verfolgen von x1 ... xNpats, z. B. über einen Binärbaum oder einen K-d-Baum
    • 3) Unterteile den Datenraum in Zellen x1, x2,... xNcells (z. B. K-d-Baum)
    • 4) Ermittle, in welche Zelle der neue Datenpunkt fällt, z. B. Zellenindex (x = (kx1) (kx2) ... (kxn), wenn die Zellen gleichmäßig in k Partitionen/Dimension unterteilt sind und xi ∊ (0,1) gilt
    • 5) Berechne Summe in der Zelle
    • 6) Berechne Summe in n Nachbarn
    • 7) Anschließend wird die Gültigkeitsfunktion definiert als:
      Figure 00200001
      wobei ti der Abstand von x' zum Nachbarn i ist und f(ti) eine abnehmende Funktion von t; ist.
  • Gleichung 18 kann wiederum schwierig zu berechnen sein. Ferner kann es der Fall sein, daß wenige Datenpunkte in die individuellen Zellen fallen. Eine nützliche Näherung der vollen Summe kann gemacht werden, indem nur diejenigen Nachbarn mit großem f(t;) eingeschlossen werden. Eine zweite, einfachere und schnellere Möglichkeit zum Berechnen der Summen in Gleichung 18 besteht darin, die Summen durch Mitteln aller Punkte in einem Bereich wie folgt zu nähern:
    Figure 00200002
  • Die Bereichszentren xi können als die Zentren der Zellen xi, oder als die Zentren der k-d-Baum-Zellen oder als die Zentren der Radialbasisfunktionen gewählt werden, die über einen k-Mittel-Gruppierungsalgorithmus gewählt worden sind.
  • 12 zeigt ein Blockschaltbild des Gültigkeitsmodells 16 zum Empfangen der Ausgabe des Vorprozesses 10 und zum Erzeugen des Gültigkeitswertes v(x'(t)). Wie oben beschrieben worden ist, umfaßt die Ausgabe des Vorprozessors 10 sowohl die abgeglichenen Daten x'(t) als auch die Unsicherheit μx'(t). Dies wird in eine Bereichsauswahlvorrichtung 76 eingegeben, die so betreibbar ist, daß sie ermittelt, in welchem Bereich des Testmusters die abgeglichenen Daten liegen. Während des Trainings wird ein Zähler 78 inkrementiert, um die Anzahl der Punkte in dem Bereich zu ermitteln, über den das Systemmodell 12 trainiert wurde. Dies wird auf einer bereichsweisen Basis gespeichert, wobei während eines Laufmodus die Inkrementierungsoperation, die durch eine Leitung 77 gesteuert wird, gesperrt wird und nur eine Bereichsleitung 79 aktiviert wird, um den von der Bereichsauswahlvorrichtung 76 ermittelten Bereich anzuzeigen. Die Ausgabe des Zählers umfaßt die Anzahl der Punkte im Bereich N;, die anschließend in einen Bereichaktivierungsblock 80 eingegeben wird. Der Block 80 liefert die Funktion h(x'(t)), xi(t), die wie oben beschrieben die lokalisierte Funktion der Daten x'(t) und der Trainingsdatenpunkte x'i(t) ist. Die Ausgabe des Bereichaktivierungsblocks 80 wird in eine Differenzschaltung 81 eingegeben, um hiervon einen Gültigkeitsvorgabewert "b" zu subtrahieren. Dies ist im wesentlichen eine Offset-Korrektur, die eine willkürliche Zahl ist, die vom Operator bestimmt wird. Die Ausgabe der Differenzschaltung 81 wird in einen Sigmoidal-Funktionsgenerator eingegeben, der den Ausgang v(x'(t)) bereitstellt. Die Sigmoidalfunktion liefert einen Sigmoidal-Aktivierungswert für jede Ausgabe des Vektors v(x'(t)).
  • Im Betrieb erlaubt das Gültigkeitsmodell 16 der 12 eine fliegende Berechnung der Gültigkeitsschätzung. Dies erfordert für die Berechnung die Kenntnis der Anzahl der Punkte in jedem Bereich und die Kenntnis des Bereiches, in dem das Eingabemuster liegt. Mit diesen Informationen kann die Schätzung des Gültigkeitswertes ermittelt werden. Während des Trainingsmodus ist die Inkrementleitung 77 freigegeben, so daß die Anzahl der Punkte in jedem Bereich ermittelt werden kann und im Zähler 78 gespeichert werden kann. Wie oben beschrieben worden ist, erfordert der Laufmodus nur die Ausgabe des Wertes Ni.
  • In der Ausführungsform der 7 kann der Gültigkeits-Zielgenerator 70 die Struktur der 12 verwenden, um die Sollausgabe für jeden Wert von x(t), der in den Vorprozessor 10 eingegeben wird, zu berechnen. Dies würde dem Gültigkeitsmodell 16 erlauben, mit einem neuronalen Netz verwirklicht zu werden, das anschließend mit den Gültigkeitszielen und den Eingabedaten entsprechend einem Trainingsalgorithmus, wie z. B. Back-Propagation, trainiert zu werden.
  • Zusammengefaßt wurde ein Verfahren geschalten, um schlechte oder fehlende Daten in einer Eingabedatensequenz zu berücksichtigen, die während des Laufmodus eines neuronalen Netzes und im Trainingsmodus desselben verwendet wird. Die schlechten oder fehlenden Daten werden abgeglichen, um abgeglichene Eingabedaten-Zeitreihen für die Eingabe in das neuronale Netz bereitzustellen, das das System modelliert. Außerdem wird der Fehler, der die Unsicherheit der vorhergesagten Ausgabe als Funktion der Unsicherheit der Daten oder die Art repräsentiert, in der sich die Daten um einen bestimmten Datenpunkt oder einen Bereich im Eingaberaum verhalten, verwendet, um die vorhergesagte Systemausgabe zu kontrollieren. Die Unsicherheit wird während der Trainingsphase in einem neuronalen Netz modelliert, wobei dieses Netz verwendet wird, um eine Vorhersage der Unsicherheit der Ausgabe bereitzustellen. Diese kann verwendet werden, um die Ausgabe zu kontrollieren oder den vorhergesagten Systemausgabewert des Systemmodells zu modifizieren. Außerdem wird ferner die relative Datenmenge, die während des Trainings des Systems vorhanden war, verwendet, um einen Vertrauenswert für die Ausgabe bereitzustellen. Dieses Gültigkeitsmodell ist so betreibbar, daß es die abgeglichenen Daten und die Unsicherheit empfängt, um einen Gültigkeitswert für die Ausgabe des Systemmodells vorherzusagen. Dieser wird ferner verwendet, um die Ausgabe zu kontrollieren. Außerdem kann die Unsicherheit verwendet werden, um das Systemmodell zu trainieren, so daß in Bereichen einer hohen Datenunsicherheit eine Modifikation am Netz vorgenommen werden kann, um die Lernrate als Funktion des gewünschten Ausgabefehlers während des Trainings zu modifizieren. Dieser Ausgabefehler ist eine Funktion der Unsicherheit der vorhergesagten Ausgabe.
  • Obwohl die bevorzugte Ausführungsform genauer beschrieben worden ist, ist klar, daß verschiedene Änderungen, Ersetzungen und Abwandlungen daran vorgenommen werden können, ohne vom Umfang der Erfindung abzuweichen, der durch die beigefügten Ansprüche definiert ist.

Claims (26)

  1. Netz (18) zum Schätzen des Fehlers im Vorhersageausgaberaum eines Vorhersagesystemmodells (12), das eine Vorhersageausgabe bereitstellt und über einen Vorhersageeingaberaum arbeitet, umfassend: einen Eingang zum Empfangen eines Eingabevektors (x'(t)), der mehrere Eingabewerte umfaßt, die den Vorhersageeingaberaum belegen; einen Ausgang zum Ausgeben eines Vorhersagefehlerausgabevektors (e(t)), der einen Ausgaberaum belegt, der dem Vorhersageausgaberaum des Vorhersagesystemmodells entspricht; und eine Verarbeitungsschicht zum Abbilden des Vorhersageeingaberaums auf den Vorhersageausgaberaum über eine erlernte Darstellung des Vorhersagefehlers im Vorhersagesystemmodell, wobei die erlernte Darstellung des Vorhersagefehlers eine Funktion der Architektur des Systemmodells und des zugehörigen Fehlers oder der Unsicherheit des Satzes von Trainingsdaten ist, um den Vorhersagefehlerausgabevektor bereitzustellen.
  2. Netz (16) zum Bereitstellen eines Maßes der Gültigkeit im Vorhersageausgaberaum eines Vorhersagesystemmodells (12), das eine Vorhersageausgabe bereitstellt und über einen Vorhersageeingaberaum arbeitet, umfassend: einen Eingang zum Empfangen eines Eingabevektors (x'(t)), der mehrere Eingabewerte umfaßt, die den Vorhersageeingaberaum belegen; einen Ausgang zum Ausgeben eines Gültigkeitsmaßausgabevektors (v(t)), der einen Ausgaberaum belegt, der dem Vorhersageausgaberaum des Vorhersagesystemmodells entspricht; und eine Verarbeitungsschicht zum Abbilden des Vorhersageeingaberaums auf den Vorhersageausgaberaum über eine erlernte Darstellung der Gültigkeit des Systemmodells, die mit einem Satz von Trainingsdaten erlernt worden ist, wobei die erlernte Darstellung der Gültigkeit des Systemmodells eine Funktion der Verteilung der Trainingsdaten im Vorhersageeingaberaum ist, die während des Trainings eingegeben wurden, um ein Maß der Gültigkeit der Systemmodellvorhersageausgabe bereitzustellen.
  3. Netz nach Anspruch 1 oder 2, ferner umfassend: einen Vorprozeßeingang zum Empfangen eines unverarbeiteten Dateneingabevektors (x(t)), dem unverarbeitete Daten zugewiesen sind, denen im wesentlichen der gleiche Eingaberaum zugewiesen ist, als Eingabevektor, wobei der unverarbeitete Dateneingabevektor Fehler aufweist, die den zugehörigen unverarbeiteten Daten in ausgewählten Abschnitten des Vorhersageeingaberaums zugeordnet sind; und einen Datenvorprozessor (10) zum Verarbeiten der unverarbeiteten Daten im unverarbeiteten Dateneingabevektor, um darin die Fehler zu minimieren, um an einem Ausgang den Eingabevektor (x'(t)) bereitzustellen.
  4. Netz nach Anspruch 3, bei dem der unverarbeitete Dateneingabevektor Daten umfaßt, die Abschnitte aufweisen, die unbrauchbar sind, wobei der Datenvorprozessor eine Abgleichvorrichtung zum Abgleichen der unverarbeiteten Daten umfaßt, um die unbrauchbaren Abschnitte durch abgeglichene Daten zu ersetzen.
  5. Netz nach Anspruch 4, bei dem der Datenvorprozessor betreibbar ist, um die Unsicherheit für jeden Wert der abgeglichenen Daten, die vom Datenvorprozessor ausgegeben werden, zu berechnen und auszugeben.
  6. Netz nach Anspruch 1 oder 2, bei dem das Vorhersagesystemmodell ein nichtlineares Modell umfaßt, das einen Eingang zum Empfangen des Eingabevektors (x'(t)), der innerhalb des Vorhersageeingaberaums liegt, und einen Ausgang zum Ausgeben eines Vorhersageausgabevektors (y(t)) innerhalb des Vorhersageaungaberaums aufweist, wobei das nichtlineare Modell den Vorhersageeingaberaum auf den Vorhersageausgaberaum über eine nichtlineare Darstellung eines Systems abbildet.
  7. Netz nach Anspruch 6, bei dem das Vorhersagesystemmodell mit einem Satz von Trainingsdaten trainiert wird, die zugehörige Unsicherheiten aufweisen, und bei dem die Verarbeitungsschicht betreibbar ist, um den Vorhersageeingaberaum auf den Vorhersageausgaberaum über eine erlernte Darstellung des kombinierten Vorhersagefehlers im Vorhersagesystemmodell und des Vorhersagefehlers im Satz des Trainings aufgrund der Unsicherheit im Satz der Trainingsdaten abzubilden.
  8. Netz nach Anspruch 7, bei dem die nichtlineare Darstellung eine trainierte Darstellung ist, die mit einem endlichen Satz von Eingabedaten innerhalb des Eingaberaums gemäß einem vorgegebenen Trainingsalgorithmus trainiert wird.
  9. Netz nach Anspruch 8, sofern abhängig von Anspruch 1, das ein Gültigkeitsmodell zum Bereitstellen einer erlernten Darstellung der Gültigkeit des Vorhersageausgabevektors des Systemmodells für einen gegebenen Wert des Eingabevektors innerhalb des Eingaberaums umfaßt, wobei das Gültigkeitsmodell aufweist: einen Eingang zum Empfangen des Eingabevektors innerhalb des Eingaberaums; einen Ausgang zum Ausgeben eines Gültigkeitsausgabevektors, der dem Ausgaberaum entspricht; einen Gültigkeitsprozessor zum Erzeugen des Gültigkeitsausgabevektors in Reaktion auf die Eingabe des Eingabevektors und den Ort des Eingabevektors im Eingaberaum, wobei der Wert des Gültigkeitsausgabevektors der Menge der Trainingsdaten entspricht, mit denen das Systemmodell im Bereich des Eingaberaums um den Wert des Eingabevektors trainiert wurde.
  10. Netz nach Anspruch 9, das ferner umfaßt: mehrere Entscheidungsschwellen zum Definieren vorgegebener Schwellenwerte für den Gültigkeitsausgabevektor; eine Ausgabekontrolle zum Bewirken einer Änderung des Wertes des vorhergesagten Ausgabevektors vom Vorhersagesystemmodell; und einen Entscheidungsprozessor zum Empfangen des Gültigkeitsausgabevektors und Vergleichen des Gültigkeitsausgabevektors mit den Entscheidungsschwellen, und zum Betreiben der Ausgabekontrolle, um die Änderung des Wertes des vorhergesagten Ausgabevektors zu bewirken, wenn der Wert des Gültigkeitsausgabevektors eine vorgegebene Beziehung bezüglich der Entscheidungsschwellen erfüllt.
  11. Netz nach Anspruch 5, sofern abhängig von Anspruch 1, ferner umfassend: mehrere Entscheidungsschwellen zum Definieren vorgegebener Schwellenwerte für den Vorhersagefehlerausgabevektor; eine Ausgabekontrolle zum Bewirken einer Änderung des Wertes des vorhergesagten Ausgabevektors vom Vorhersagesystemmodell; und einen Entscheidungsprozessor zum Empfangen des Vorhersagefehlerausgabevektors und Vergleichen desselben mit den Entscheidungsschwellen, und zum Betreiben der Ausgabekontrolle, um die Änderung des Wertes des vorhergesagten Ausgabevektors zu bewirken, wenn der Wert des Vorhersagefehlerausgabevektors eine vorgegebene Beziehung bezüglich der Entscheidungsschwellen erfüllt.
  12. Netz nach irgendeinem der vorangehenden Ansprüche, bei dem die Verarbeitungsschicht einen Speicher zum Speichern eines Profils der Trainingsdatendichte über dem Eingaberaum umfaßt.
  13. Netz nach Anspruch 2, bei dem die Verarbeitungsschicht einen Prozessor umfaßt zum Verarbeiten des Ortes der Eingabedaten im Eingaberaum und der Dichte der Trainingsdaten an dem Ort, wie durch das gespeicherte Profil definiert wird, um einen Gültigkeitsmaßausgabevektor als Funktion der Verteilung der Trainingsdaten in der Nähe des Ortes der Eingabedaten im Eingaberaum zu erzeugen.
  14. Verfahren zum Schätzen des Fehlers im Vorhersageaungaberaum eines Vorhersagesystemmodells, das eine Vorhersageausgabe bereitstellt und über einen Vorhersageeingaberaum arbeitet, wobei das Verfahren die Schritte umfaßt: Empfangen eines Eingabevektors, der mehrere Eingabewerte umfaßt, die den Vorhersageeingaberaum belegen; Ausgeben eines Vorhersagefehlerausgabevektors, der einen Ausgaberaum belegt, der dem Vorhersageausgaberaum des Vorhersage systemmodells entspricht; und Abbilden des Vorhersageeingaberaums auf den Vorhersageausgaberaum über eine erlernte Darstellung des Vorhersagefehlers im Vorhersagesystemmodell, wobei die erlernte Darstellung des Vorhersagefehlers eine Funktion der Architektur des Systemmodells und des zugehörigen Fehlers oder der Unsicherheit des Satzes von Trainingsdaten ist, um im Schritt der Ausgabe den Ausgabevorhersagefehlervektor bereitzustellen.
  15. Verfahren zur Bereitstellung eines Maßes der Gültigkeit im Vorhersageausgaberaum eines Vorhersagesystemmodells, das eine Vorhersageausgabe bereitstellt und über einen Vorhersageeingaberaum arbeitet, wobei das Verfahren die Schritte umfaßt: Empfangen eines Eingabevektors, der mehrere Eingabewerte umfaßt, die den Vorhersageeingaberaum belegen; Ausgeben eines Gültigkeitsmaßausgabevektors, der einen Ausgaberaum belegt, der dem Vorhersageausgaberaum des Vorhersagesystemmodells entspricht; Abbilden des Vorhersageeingaberaums auf den Vorhersageausgaberaum über eine erlernte Darstellung der Gültigkeit des Systemmodells, die mit einem Satz von Trainingsdaten erlernt wurde, wobei die erlernte Darstellung der Gültigkeit dieses Systemmodells eine Funktion der Verteilung der Trainingsdaten im Vorhersageeingaberaum ist, die während des Trainings eingegeben wurden, um ein Maß der Gültigkeit der Systemmodellvorhersageausgabe bereitzustellen.
  16. Verfahren nach Anspruch 14 oder 15, das ferner die Schritte umfaßt: Empfangen eines unverarbeiteten Dateneingabevektors, der zugehörige unverarbeitete Daten aufweist, denen im wesentlichen der gleiche Eingaberaum zugeordnet ist, als Eingabevektor, wobei der unverarbeitete Dateneingabevektor Fehler aufweist, die den zugehörigen unverarbeiteten Daten in ausgewählten Abschnitten des Vorhersageeingaberaums zugeordnet sind; und Verarbeiten der unerarbeiteten Daten im unverarbeiteten Datenvektör, um darin die Fehler zu minimieren, um an einem Ausgang den Eingabevektor bereitzustellen.
  17. Verfahren nach Anspruch 16, bei dem der Schritt des Empfangens eines unverarbeiteten Dateneingabevektors das Empfangen eines unverarbeiteten Dateneingabevektors umfaßt, der Daten umfaßt, die Abschnitte aufweisen, die unbrauchbar sind, wobei der Schritt der Verarbeitung der unverarbeiteten Daten das Abgleichen der unverarbeiteten Daten umfaßt, um die unbrauchbaren Abschnitte durch abgeglichene Daten zu ersetzen.
  18. Verfahren nach Anspruch 19, bei dem der Schritt der Verarbeitung der Daten ferner ausführbar ist, um die Unsicherheit für jeden Wert der abgeglichenen Daten, die vom Verarbeitungsschritt ausgegeben werden, zu berechnen und auszugeben.
  19. Verfahren nach Anspruch 14 oder 15, bei der das Vorhersagesystemmodell ein nichtlineares Modell umfaßt, das einen Eingang zum Empfangen des Eingabevektors aufweist, der sich innerhalb des Vorhersageeingaberaums befindet, sowie einen Ausgang zum Ausgeben eines Vorhersageausgabevektors innerhalb des Vorhersageausgaberaums, wobei das nichtlineare Modell den Vorhersageeingaberaum auf den Vorhersageausgaberaum abbildet, um eine nichtlineare Darstellung eines Systems bereitzustellen.
  20. Verfahren nach Anspruch 14, umfassend: Speichern mehrerer Entscheidungsschwellen zum Definieren vorgegebener Schwellenwerte für den Vorhersagefehlerausgabevektor; Vergleichen des ausgegebenen Vorhersagefehlervektors mit den gespeicherten Entscheidungsschwellen; und Ändern des Wertes des vorhergesagten Ausgabevektors vom Vorhersagesystemmodell, wenn der Wert des Vorhersagefehlerausgabevektors eine vorgegebene Beziehung bezüglich der gespeicherten Entscheidungsschwellen erfüllt.
  21. Verfahren nach Anspruch 15, umfassend: Speichern mehrerer Entscheidungsschwellen zum Definieren vorgegebener Schwellenwerte für den Gültigkeitsmaßausgabevektor; Vergleichen des Gültigkeitsmaßausgabevektors mit den gespeicher ten Entscheidungsschwellen; und Ändern des Wertes des vorhergesagten Ausgabevektors vom Vorhersagesystemmodell, wenn der Wert des Gültigkeitsmaßausgabevektors eine vorgegebene Beziehung bezüglich der gespeicherten Entscheidungsschwellen erfüllt.
  22. Verfahren zum Trainieren eines Vorhersagenetzes, umfassend: Bereitstellen eines Vorhersagemodells mit einstellbaren Parametern, die einen Eingaberaum auf einen Ausgaberaum abbilden, um eine Darstellung eines System bereitzustellen; Bereitstellen von Soll-Ausgabedaten innerhalb des Ausgabedatenraums, die den eingegebenen Trainingsdaten innerhalb des Eingaberaums entsprechen; Eingeben der Eingabetrainingsdaten in den Eingaberaum eines Systemmodells während des Trainings des Modells, wobei das Systemmodell eine vorhergesagte Ausgabe im Ausgaberaum bereitstellt; Vergleichen der vorhergesagten Ausgabe mit der Soll-Ausgabe, um einen Fehler zu erzeugen; Einstellen der Parameter des Vorhersagemodells gemäß einem vorgegebenen Trainingsalgorithmus, um den Fehler zu minimieren; Empfangen eines Unsicherheitswertes, der den eingegebenen Trainingsdaten entspricht; Modifizieren des Trainingsalgorithmus als Funktion des Unsicherheitswertes der empfangenen Trainingsdaten am Eingang gemäß einem vorgegebenen Modifizierungsschema, um den Unsicherheitswert zu kompensieren; wobei das Training des Systemmodells das Systemmodell mit einer erlernten Darstellung des Fehlers versieht.
  23. Verfahren nach Anspruch 22, bei dem das Vorhersagemodell ein nichtlineares Modell ist.
  24. Verfahren nach Anspruch 22 oder 23, bei dem der vorgegebene Trainingsalgorithmus eine zugeordnete Rate aufweist, wobei das vorgegebene Modifizierungsschema die Änderung der Rate umfaßt, mit der der Trainingsalgorithmus arbeitet.
  25. Verfahren nach irgendeinem der Ansprüche 22 bis 24, bei dem das Vorhersagemodell ein neuronales Netz ist und der vorgegebene Trainingsalgorithmus ein Back-Propagation-(Rückwärtsfortpflanzung)-Fehleralgorithmus ist, und wobei der Schritt des Modifizierens des Trainingsalgorithmus das Ändern der Rate der Back-Propagation (Rückwärtsfortpflanzung) als Funktion des Unsicherheitswertes der empfangenen Trainingsdaten am Eingang umfaßt, um für eine Kompensation der gespeicherten Darstellung des Systems als Funktion der Unsicherheitswerte zu sorgen.
  26. Verfahren nach irgendeinem der Ansprüche 22 bis 25, das ferner umfaßt: Empfangen eines unverarbeiteten Dateneingabevektors, der zugehörige unverarbeitete Daten aufweist, denen im wesentlichen der gleiche Eingaberaum zugeordnet ist, als Eingabevektor, wobei der unverarbeitete Dateneingabevektor Fehler aufweist, die den zugehörigen unverarbeiteten Daten in ausgewählten Abschnitten des Vorhersageeingaberaums zugeordnet sind; und Verarbeiten der unerarbeiteten Daten im unverarbeiteten Datenvektor, um darin die Fehler zu minimieren, um an einem Ausgang den Eingabevektor bereitzustellen.
DE69332980T 1992-11-24 1993-11-19 Betreiben eines neuronalen netzwerks mit fehlenden und/oder inkompletten daten Expired - Lifetime DE69332980T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US98066492A 1992-11-24 1992-11-24
US980664 1992-11-24
PCT/US1993/011251 WO1994012948A1 (en) 1992-11-24 1993-11-19 Method and apparatus for operating a neural network with missing and/or incomplete data

Publications (2)

Publication Number Publication Date
DE69332980D1 DE69332980D1 (de) 2003-06-18
DE69332980T2 true DE69332980T2 (de) 2004-03-04

Family

ID=25527747

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69332980T Expired - Lifetime DE69332980T2 (de) 1992-11-24 1993-11-19 Betreiben eines neuronalen netzwerks mit fehlenden und/oder inkompletten daten

Country Status (8)

Country Link
US (4) US5613041A (de)
EP (1) EP0671038B1 (de)
JP (1) JPH08505967A (de)
AT (1) ATE240557T1 (de)
AU (1) AU674227B2 (de)
CA (1) CA2149913A1 (de)
DE (1) DE69332980T2 (de)
WO (1) WO1994012948A1 (de)

Families Citing this family (161)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852817A (en) * 1991-08-14 1998-12-22 Kabushiki Kaisha Toshiba Intelligent control apparatus
US6243696B1 (en) * 1992-11-24 2001-06-05 Pavilion Technologies, Inc. Automated method for building a model
WO1996006400A1 (de) * 1994-08-24 1996-02-29 Siemens Aktiengesellschaft Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk
DE19530049B4 (de) * 1995-08-16 2004-12-23 Thomas Froese Verfahren zur Erkennung von fehlerhaften Vorhersagen in einer neuromodellgestützten oder neuronalen Regelung
DE19530646C1 (de) * 1995-08-21 1996-10-17 Siemens Ag Lernverfahren für ein rekurrentes neuronales Netz
US6314414B1 (en) 1998-10-06 2001-11-06 Pavilion Technologies, Inc. Method for training and/or testing a neural network with missing and/or incomplete data
US5970426A (en) * 1995-09-22 1999-10-19 Rosemount Analytical Inc. Emission monitoring system
US6879971B1 (en) * 1995-12-22 2005-04-12 Pavilion Technologies, Inc. Automated method for building a model
US5845271A (en) * 1996-01-26 1998-12-01 Thaler; Stephen L. Non-algorithmically implemented artificial neural networks and components thereof
US6018728A (en) * 1996-02-09 2000-01-25 Sarnoff Corporation Method and apparatus for training a neural network to learn hierarchical representations of objects and to detect and classify objects with uncertain training data
US5781454A (en) * 1996-03-25 1998-07-14 Raytheon Company Process modeling technique
US6236365B1 (en) * 1996-09-09 2001-05-22 Tracbeam, Llc Location of a mobile station using a plurality of commercial wireless infrastructures
US9134398B2 (en) 1996-09-09 2015-09-15 Tracbeam Llc Wireless location using network centric location estimators
WO1998010307A1 (en) * 1996-09-09 1998-03-12 Dennis Jay Dupray Location of a mobile station
US7714778B2 (en) * 1997-08-20 2010-05-11 Tracbeam Llc Wireless location gateway and applications therefor
US6249252B1 (en) 1996-09-09 2001-06-19 Tracbeam Llc Wireless location using multiple location estimators
US7903029B2 (en) 1996-09-09 2011-03-08 Tracbeam Llc Wireless location routing applications and architecture therefor
JPH1097514A (ja) * 1996-09-24 1998-04-14 Masahiko Shizawa 多価写像学習方法
JP2981193B2 (ja) * 1997-09-02 1999-11-22 エヌケイエス株式会社 時系列連続データの予測方法及び記録媒体
US6298328B1 (en) * 1998-03-26 2001-10-02 Telecompetition, Inc. Apparatus, method, and system for sizing markets
US6810368B1 (en) * 1998-06-29 2004-10-26 International Business Machines Corporation Mechanism for constructing predictive models that allow inputs to have missing values
US8135413B2 (en) 1998-11-24 2012-03-13 Tracbeam Llc Platform and applications for wireless location and other complex services
US20030146871A1 (en) * 1998-11-24 2003-08-07 Tracbeam Llc Wireless location using signal direction and time difference of arrival
US7206646B2 (en) * 1999-02-22 2007-04-17 Fisher-Rosemount Systems, Inc. Method and apparatus for performing a function in a plant using process performance monitoring with process equipment monitoring and control
US8044793B2 (en) 2001-03-01 2011-10-25 Fisher-Rosemount Systems, Inc. Integrated device alerts in a process control system
US7562135B2 (en) * 2000-05-23 2009-07-14 Fisher-Rosemount Systems, Inc. Enhanced fieldbus device alerts in a process control system
US6975219B2 (en) * 2001-03-01 2005-12-13 Fisher-Rosemount Systems, Inc. Enhanced hart device alerts in a process control system
US7062441B1 (en) * 1999-05-13 2006-06-13 Ordinate Corporation Automated language assessment using speech recognition modeling
US6564195B1 (en) 1999-07-22 2003-05-13 Cerebrus Solutions Limited Data classifier output interpretation
US7424439B1 (en) * 1999-09-22 2008-09-09 Microsoft Corporation Data mining for managing marketing resources
WO2002000316A1 (en) 1999-09-24 2002-01-03 Goldberg Sheldon F Geographically constrained network services
US6678585B1 (en) * 1999-09-28 2004-01-13 Pavilion Technologies, Inc. Method and apparatus for maximizing power usage in a power plant
US6611735B1 (en) 1999-11-17 2003-08-26 Ethyl Corporation Method of predicting and optimizing production
US9875492B2 (en) 2001-05-22 2018-01-23 Dennis J. Dupray Real estate transaction system
US10684350B2 (en) 2000-06-02 2020-06-16 Tracbeam Llc Services and applications for a communications network
US10641861B2 (en) 2000-06-02 2020-05-05 Dennis J. Dupray Services and applications for a communications network
US6760716B1 (en) * 2000-06-08 2004-07-06 Fisher-Rosemount Systems, Inc. Adaptive predictive model in a process control system
AU2001295435A1 (en) * 2000-10-10 2002-04-22 Core A/S Expectation sampling and perception control
US7389204B2 (en) 2001-03-01 2008-06-17 Fisher-Rosemount Systems, Inc. Data presentation system for abnormal situation prevention in a process plant
WO2002071171A2 (en) 2001-03-01 2002-09-12 Fisher-Rosemount Systems, Inc. Automatic work order/parts order generation and tracking
US6954713B2 (en) * 2001-03-01 2005-10-11 Fisher-Rosemount Systems, Inc. Cavitation detection in a process plant
US7720727B2 (en) 2001-03-01 2010-05-18 Fisher-Rosemount Systems, Inc. Economic calculations in process control system
WO2002071173A2 (en) * 2001-03-01 2002-09-12 Fisher-Rosemount Systems, Inc. Data sharing in a process plant
US8073967B2 (en) 2002-04-15 2011-12-06 Fisher-Rosemount Systems, Inc. Web services-based communications for use with process control systems
US6795798B2 (en) 2001-03-01 2004-09-21 Fisher-Rosemount Systems, Inc. Remote analysis of process control plant data
US20020194148A1 (en) * 2001-04-30 2002-12-19 Billet Bradford E. Predictive method
US20020174081A1 (en) * 2001-05-01 2002-11-21 Louis Charbonneau System and method for valuation of companies
US20020174088A1 (en) * 2001-05-07 2002-11-21 Tongwei Liu Segmenting information records with missing values using multiple partition trees
US8082096B2 (en) 2001-05-22 2011-12-20 Tracbeam Llc Wireless location routing applications and architecture therefor
US7293002B2 (en) * 2001-06-19 2007-11-06 Ohio University Self-organizing data driven learning hardware with local interconnections
US7162534B2 (en) 2001-07-10 2007-01-09 Fisher-Rosemount Systems, Inc. Transactional data communications for process control systems
DE10135586B4 (de) * 2001-07-20 2007-02-08 Eads Deutschland Gmbh Rekonfigurations-Verfahren für ein Sensorsystem mit zwei Beobachtern und Sensorsystem zur Durchführung des Verfahrens
US20030140023A1 (en) * 2002-01-18 2003-07-24 Bruce Ferguson System and method for pre-processing input data to a non-linear model for use in electronic commerce
US7020642B2 (en) * 2002-01-18 2006-03-28 Pavilion Technologies, Inc. System and method for pre-processing input data to a support vector machine
US20030149603A1 (en) * 2002-01-18 2003-08-07 Bruce Ferguson System and method for operating a non-linear model with missing data for use in electronic commerce
US6941301B2 (en) * 2002-01-18 2005-09-06 Pavilion Technologies, Inc. Pre-processing input data with outlier values for a support vector machine
GB0209780D0 (en) * 2002-04-29 2002-06-05 Neural Technologies Ltd Method of encoding data for decoding data from and constraining a neural network
US7600234B2 (en) 2002-12-10 2009-10-06 Fisher-Rosemount Systems, Inc. Method for launching applications
US8017411B2 (en) * 2002-12-18 2011-09-13 GlobalFoundries, Inc. Dynamic adaptive sampling rate for model prediction
US7493310B2 (en) 2002-12-30 2009-02-17 Fisher-Rosemount Systems, Inc. Data visualization within an integrated asset data system for a process plant
US8935298B2 (en) 2002-12-30 2015-01-13 Fisher-Rosemount Systems, Inc. Integrated navigational tree importation and generation in a process plant
US7152072B2 (en) 2003-01-08 2006-12-19 Fisher-Rosemount Systems Inc. Methods and apparatus for importing device data into a database system used in a process plant
US7953842B2 (en) 2003-02-19 2011-05-31 Fisher-Rosemount Systems, Inc. Open network-based data acquisition, aggregation and optimization for use with process control systems
US7103427B2 (en) 2003-02-28 2006-09-05 Fisher-Rosemont Systems, Inc. Delivery of process plant notifications
US6915235B2 (en) 2003-03-13 2005-07-05 Csi Technology, Inc. Generation of data indicative of machine operational condition
US7634384B2 (en) 2003-03-18 2009-12-15 Fisher-Rosemount Systems, Inc. Asset optimization reporting in a process plant
US7242989B2 (en) * 2003-05-30 2007-07-10 Fisher-Rosemount Systems, Inc. Apparatus and method for batch property estimation
US7299415B2 (en) 2003-06-16 2007-11-20 Fisher-Rosemount Systems, Inc. Method and apparatus for providing help information in multiple formats
US7030747B2 (en) 2004-02-26 2006-04-18 Fisher-Rosemount Systems, Inc. Method and system for integrated alarms in a process control system
US7676287B2 (en) 2004-03-03 2010-03-09 Fisher-Rosemount Systems, Inc. Configuration system and method for abnormal situation prevention in a process plant
US7079984B2 (en) 2004-03-03 2006-07-18 Fisher-Rosemount Systems, Inc. Abnormal situation prevention in a process plant
US7515977B2 (en) 2004-03-30 2009-04-07 Fisher-Rosemount Systems, Inc. Integrated configuration system for use in a process plant
US7536274B2 (en) 2004-05-28 2009-05-19 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a heater
US20050267709A1 (en) * 2004-05-28 2005-12-01 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a heater
CA2567139A1 (en) 2004-06-12 2005-12-29 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a process gain of a control loop
US20060008781A1 (en) * 2004-07-06 2006-01-12 Ordinate Corporation System and method for measuring reading skills
US7181654B2 (en) 2004-09-17 2007-02-20 Fisher-Rosemount Systems, Inc. System and method for detecting an abnormal situation associated with a reactor
US9636450B2 (en) 2007-02-19 2017-05-02 Udo Hoss Pump system modular components for delivering medication and analyte sensing at seperate insertion sites
US7356371B2 (en) * 2005-02-11 2008-04-08 Alstom Technology Ltd Adaptive sensor model
US7421348B2 (en) * 2005-03-18 2008-09-02 Swanson Brian G Predictive emissions monitoring method
US8768664B2 (en) * 2005-03-18 2014-07-01 CMC Solutions, LLC. Predictive emissions monitoring using a statistical hybrid model
US8005647B2 (en) 2005-04-08 2011-08-23 Rosemount, Inc. Method and apparatus for monitoring and performing corrective measures in a process plant using monitoring data with corrective measures data
US9201420B2 (en) 2005-04-08 2015-12-01 Rosemount, Inc. Method and apparatus for performing a function in a process plant using monitoring data with criticality evaluation data
US7536364B2 (en) * 2005-04-28 2009-05-19 General Electric Company Method and system for performing model-based multi-objective asset optimization and decision-making
US20060247798A1 (en) * 2005-04-28 2006-11-02 Subbu Rajesh V Method and system for performing multi-objective predictive modeling, monitoring, and update for an asset
US7272531B2 (en) * 2005-09-20 2007-09-18 Fisher-Rosemount Systems, Inc. Aggregation of asset use indices within a process plant
US7451004B2 (en) 2005-09-30 2008-11-11 Fisher-Rosemount Systems, Inc. On-line adaptive model predictive control in a process control system
US8880138B2 (en) 2005-09-30 2014-11-04 Abbott Diabetes Care Inc. Device for channeling fluid and methods of use
CA2625895C (en) * 2005-10-14 2016-05-17 Aethon, Inc. Robotic ordering and delivery apparatuses, systems and methods
US7826879B2 (en) 2006-02-28 2010-11-02 Abbott Diabetes Care Inc. Analyte sensors and methods of use
US8140312B2 (en) 2007-05-14 2012-03-20 Abbott Diabetes Care Inc. Method and system for determining analyte levels
US9392969B2 (en) 2008-08-31 2016-07-19 Abbott Diabetes Care Inc. Closed loop control and signal attenuation detection
US8473022B2 (en) 2008-01-31 2013-06-25 Abbott Diabetes Care Inc. Analyte sensor with time lag compensation
US8374668B1 (en) 2007-10-23 2013-02-12 Abbott Diabetes Care Inc. Analyte sensor with lag compensation
US7801582B2 (en) 2006-03-31 2010-09-21 Abbott Diabetes Care Inc. Analyte monitoring and management system and methods therefor
US7618369B2 (en) 2006-10-02 2009-11-17 Abbott Diabetes Care Inc. Method and system for dynamically updating calibration parameters for an analyte sensor
US7653425B2 (en) 2006-08-09 2010-01-26 Abbott Diabetes Care Inc. Method and system for providing calibration of an analyte sensor in an analyte monitoring system
US7657399B2 (en) 2006-07-25 2010-02-02 Fisher-Rosemount Systems, Inc. Methods and systems for detecting deviation of a process variable from expected values
US8606544B2 (en) 2006-07-25 2013-12-10 Fisher-Rosemount Systems, Inc. Methods and systems for detecting deviation of a process variable from expected values
US7912676B2 (en) 2006-07-25 2011-03-22 Fisher-Rosemount Systems, Inc. Method and system for detecting abnormal operation in a process plant
US8145358B2 (en) 2006-07-25 2012-03-27 Fisher-Rosemount Systems, Inc. Method and system for detecting abnormal operation of a level regulatory control loop
CN101535909B (zh) 2006-09-28 2012-08-29 费舍-柔斯芒特系统股份有限公司 热交换器中的异常情况预防
US7853431B2 (en) 2006-09-29 2010-12-14 Fisher-Rosemount Systems, Inc. On-line monitoring and diagnostics of a process using multivariate statistical analysis
US20080188972A1 (en) * 2006-10-11 2008-08-07 Fisher-Rosemount Systems, Inc. Method and System for Detecting Faults in a Process Plant
US20080133275A1 (en) * 2006-11-28 2008-06-05 Ihc Intellectual Asset Management, Llc Systems and methods for exploiting missing clinical data
US8032341B2 (en) 2007-01-04 2011-10-04 Fisher-Rosemount Systems, Inc. Modeling a process using a composite model comprising a plurality of regression models
US8032340B2 (en) 2007-01-04 2011-10-04 Fisher-Rosemount Systems, Inc. Method and system for modeling a process variable in a process plant
US7827006B2 (en) 2007-01-31 2010-11-02 Fisher-Rosemount Systems, Inc. Heat exchanger fouling detection
ES2784736T3 (es) 2007-04-14 2020-09-30 Abbott Diabetes Care Inc Procedimiento y aparato para proporcionar el procesamiento y control de datos en un sistema de comunicación médica
US9204827B2 (en) 2007-04-14 2015-12-08 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in medical communication system
EP2137637A4 (de) 2007-04-14 2012-06-20 Abbott Diabetes Care Inc Verfahren und vorrichtung zur datenverarbeitung und steuerung in einem medizinischen kommunikationssystem
EP2146627B1 (de) 2007-04-14 2020-07-29 Abbott Diabetes Care Inc. Verfahren und vorrichtung zur bereitstellung von datenverarbeitung und -kontrolle in einem medizinischen kommunikationssystemen
EP2146625B1 (de) 2007-04-14 2019-08-14 Abbott Diabetes Care Inc. Verfahren und gerät zur bereitstellung von datenverarbeitung und kontrolle in einem medizinischen kommunikationssystem
US8260558B2 (en) * 2007-05-14 2012-09-04 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US10002233B2 (en) 2007-05-14 2018-06-19 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8239166B2 (en) 2007-05-14 2012-08-07 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8560038B2 (en) 2007-05-14 2013-10-15 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8600681B2 (en) 2007-05-14 2013-12-03 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8103471B2 (en) 2007-05-14 2012-01-24 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US9125548B2 (en) 2007-05-14 2015-09-08 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US8444560B2 (en) 2007-05-14 2013-05-21 Abbott Diabetes Care Inc. Method and apparatus for providing data processing and control in a medical communication system
US10410145B2 (en) 2007-05-15 2019-09-10 Fisher-Rosemount Systems, Inc. Automatic maintenance estimation in a plant environment
US8834366B2 (en) 2007-07-31 2014-09-16 Abbott Diabetes Care Inc. Method and apparatus for providing analyte sensor calibration
US8301676B2 (en) 2007-08-23 2012-10-30 Fisher-Rosemount Systems, Inc. Field device with capability of calculating digital filter coefficients
US20090143725A1 (en) * 2007-08-31 2009-06-04 Abbott Diabetes Care, Inc. Method of Optimizing Efficacy of Therapeutic Agent
US7702401B2 (en) 2007-09-05 2010-04-20 Fisher-Rosemount Systems, Inc. System for preserving and displaying process control data associated with an abnormal situation
US9323247B2 (en) 2007-09-14 2016-04-26 Fisher-Rosemount Systems, Inc. Personalized plant asset data representation and search system
US8055479B2 (en) 2007-10-10 2011-11-08 Fisher-Rosemount Systems, Inc. Simplified algorithm for abnormal situation prevention in load following applications including plugged line diagnostics in a dynamic process
US8409093B2 (en) 2007-10-23 2013-04-02 Abbott Diabetes Care Inc. Assessing measures of glycemic variability
US8377031B2 (en) 2007-10-23 2013-02-19 Abbott Diabetes Care Inc. Closed loop control system with safety parameters and methods
US20090164239A1 (en) 2007-12-19 2009-06-25 Abbott Diabetes Care, Inc. Dynamic Display Of Glucose Information
WO2010009172A1 (en) 2008-07-14 2010-01-21 Abbott Diabetes Care Inc. Closed loop control system interface and methods
US20100057040A1 (en) 2008-08-31 2010-03-04 Abbott Diabetes Care, Inc. Robust Closed Loop Control And Methods
US8734422B2 (en) 2008-08-31 2014-05-27 Abbott Diabetes Care Inc. Closed loop control with improved alarm functions
US8622988B2 (en) 2008-08-31 2014-01-07 Abbott Diabetes Care Inc. Variable rate closed loop control and methods
US9943644B2 (en) 2008-08-31 2018-04-17 Abbott Diabetes Care Inc. Closed loop control with reference measurement and methods thereof
US20100063829A1 (en) * 2008-09-08 2010-03-11 Dupray Dennis J Real estate transaction system
US8986208B2 (en) 2008-09-30 2015-03-24 Abbott Diabetes Care Inc. Analyte sensor sensitivity attenuation mitigation
EP2456351B1 (de) 2009-07-23 2016-10-12 Abbott Diabetes Care, Inc. Echtzeitverwaltung von daten im zusammenhang mit der physiologischen kontrolle des blutzuckerspiegels
ES2776474T3 (es) 2009-07-23 2020-07-30 Abbott Diabetes Care Inc Sistema de medición continua de analitos
WO2011014851A1 (en) 2009-07-31 2011-02-03 Abbott Diabetes Care Inc. Method and apparatus for providing analyte monitoring system calibration accuracy
US9538493B2 (en) 2010-08-23 2017-01-03 Finetrak, Llc Locating a mobile station and applications therefor
WO2012048168A2 (en) 2010-10-07 2012-04-12 Abbott Diabetes Care Inc. Analyte monitoring devices and methods
US9927788B2 (en) 2011-05-19 2018-03-27 Fisher-Rosemount Systems, Inc. Software lockout coordination between a process control system and an asset management system
US8626791B1 (en) * 2011-06-14 2014-01-07 Google Inc. Predictive model caching
US8710993B2 (en) 2011-11-23 2014-04-29 Abbott Diabetes Care Inc. Mitigating single point failure of devices in an analyte monitoring system and methods thereof
US9317656B2 (en) 2011-11-23 2016-04-19 Abbott Diabetes Care Inc. Compatibility mechanisms for devices in a continuous analyte monitoring system and methods thereof
US9529348B2 (en) 2012-01-24 2016-12-27 Emerson Process Management Power & Water Solutions, Inc. Method and apparatus for deploying industrial plant simulators using cloud computing technologies
EP2890297B1 (de) 2012-08-30 2018-04-11 Abbott Diabetes Care, Inc. Ausfallerkennung bei kontinuierlichen analytüberwachungsdaten bei datenabweichungen
WO2016028354A2 (en) * 2014-06-03 2016-02-25 Massachusetts Institute Of Technology Digital matching of a radio frequency antenna
US10410118B2 (en) 2015-03-13 2019-09-10 Deep Genomics Incorporated System and method for training neural networks
US10185803B2 (en) 2015-06-15 2019-01-22 Deep Genomics Incorporated Systems and methods for classifying, prioritizing and interpreting genetic variants and therapies using a deep neural network
EP3319518A4 (de) 2015-07-10 2019-03-13 Abbott Diabetes Care Inc. System, vorrichtung und verfahren zur dynamischen glukoseprofilreaktion auf physiologische parameter
US11596330B2 (en) 2017-03-21 2023-03-07 Abbott Diabetes Care Inc. Methods, devices and system for providing diabetic condition diagnosis and therapy
JP7091820B2 (ja) * 2018-05-14 2022-06-28 オムロン株式会社 制御システム、学習データ作成装置、学習装置および判定装置
WO2019229528A2 (en) * 2018-05-30 2019-12-05 Alexander Meyer Using machine learning to predict health conditions
EP3973461A4 (de) 2019-05-23 2023-01-25 Cognizant Technology Solutions U.S. Corporation Quantifizierung der prädiktiven unsicherheit neuronaler netze durch residualschätzung mit i/o-kernel
US11430089B2 (en) 2019-07-10 2022-08-30 Samsung Electronics Co., Ltd. Image processing method and image processing system for generating a corrected image
JP7222344B2 (ja) * 2019-12-06 2023-02-15 横河電機株式会社 判定装置、判定方法、判定プログラム、学習装置、学習方法、および、学習プログラム
CN116034383A (zh) * 2020-09-10 2023-04-28 正点技术有限公司 用于分析燃烧系统工作的系统和方法
US20230385639A1 (en) * 2020-10-29 2023-11-30 Schlumberger Technology Corporation Cost function engineering for estimating uncertainty correlated with prediction errors

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4773024A (en) * 1986-06-03 1988-09-20 Synaptics, Inc. Brain emulation circuit with reduced confusion
US4872122A (en) * 1987-06-19 1989-10-03 University Of Pennsylvania Interactive statistical system and method for predicting expert decisions
US5067095A (en) * 1990-01-09 1991-11-19 Motorola Inc. Spann: sequence processing artificial neural network
US5052043A (en) * 1990-05-07 1991-09-24 Eastman Kodak Company Neural network with back propagation controlled through an output confidence measure
US5113483A (en) * 1990-06-15 1992-05-12 Microelectronics And Computer Technology Corporation Neural network with semi-localized non-linear mapping of the input space
US5402519A (en) * 1990-11-26 1995-03-28 Hitachi, Ltd. Neural network system adapted for non-linear processing
US5467428A (en) * 1991-06-06 1995-11-14 Ulug; Mehmet E. Artificial neural network method and architecture adaptive signal filtering
US5335291A (en) * 1991-09-20 1994-08-02 Massachusetts Institute Of Technology Method and apparatus for pattern mapping system with self-reliability check
US5276771A (en) * 1991-12-27 1994-01-04 R & D Associates Rapidly converging projective neural network
US5353207A (en) * 1992-06-10 1994-10-04 Pavilion Technologies, Inc. Residual activation neural network
US5659667A (en) * 1995-01-17 1997-08-19 The Regents Of The University Of California Office Of Technology Transfer Adaptive model predictive process control using neural networks

Also Published As

Publication number Publication date
EP0671038B1 (de) 2003-05-14
CA2149913A1 (en) 1994-06-09
DE69332980D1 (de) 2003-06-18
JPH08505967A (ja) 1996-06-25
WO1994012948A1 (en) 1994-06-09
ATE240557T1 (de) 2003-05-15
AU674227B2 (en) 1996-12-12
US5842189A (en) 1998-11-24
EP0671038A1 (de) 1995-09-13
US5819006A (en) 1998-10-06
AU6515594A (en) 1994-06-22
US5613041A (en) 1997-03-18
US6169980B1 (en) 2001-01-02

Similar Documents

Publication Publication Date Title
DE69332980T2 (de) Betreiben eines neuronalen netzwerks mit fehlenden und/oder inkompletten daten
DE102007001025B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE69817446T2 (de) Behandlung von diabetes
EP1052558B1 (de) Verfahren und Einrichtung zur Zustandsschätzung
DE10316381A1 (de) Verfahren zum Training von neuronalen Netzen
EP0663632B1 (de) Verfahren und Vorrichtung zur Führung eines Prozesses
DE19531967A1 (de) Verfahren zum Training eines neuronalen Netzes mit dem nicht deterministischen Verhalten eines technischen Systems
DE102005035473A1 (de) Verfahren und System zur digitalen Triggerung für Oszilloskope
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE3938645C1 (de)
DE4241688A1 (en) Generating sub-word model for speech recognition - successively dividing conditions in original model into temporal and contextual domains to form hidden Markow network using max. likelihood method
EP0475897B1 (de) Verfahren zur Erstellung von fotographischen Farbkopien
DE69925556T2 (de) Verfahren und Vorrichtung zur Korrektur eines Platinenmodells
WO2000008599A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE102021207368A1 (de) Vorrichtung und verfahren zum vorhersagen von verkehrsinformationen
DE102020201133A1 (de) Verfahren und Vorrichtung zur Modellwertbildung, insbesondere zur Sensordatenfusion
DE4121453C2 (de) Näherungsschlußfolgerungsvorrichtung
EP0750764B1 (de) Verfahren und anordnung zur fuzzy-regelung
WO2021259980A1 (de) Training eines künstlichen neuronalen netzwerkes, künstliches neuronales netzwerk, verwendung, computerprogramm, speichermedium und vorrichtung
EP0890153B1 (de) Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners
DE2514751A1 (de) Tacan-system
EP0978052B1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE19652741B4 (de) Vorrichtung und Verfahren zur Erzeugung eines Oxidfilms eines Halbleiterbauelementes
DE4205903A1 (de) Signalverarbeitungsvorrichtung mit neuronalem netzwerk
DE19825070C1 (de) Verfahren zur Bestimmung eines eine Variation zwischen einer meßbaren Größe und einer meßbaren Referenzgröße repräsentierenden Wertes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee
8370 Indication related to discontinuation of the patent is to be deleted