DE4328751A1 - Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren - Google Patents

Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren

Info

Publication number
DE4328751A1
DE4328751A1 DE4328751A DE4328751A DE4328751A1 DE 4328751 A1 DE4328751 A1 DE 4328751A1 DE 4328751 A DE4328751 A DE 4328751A DE 4328751 A DE4328751 A DE 4328751A DE 4328751 A1 DE4328751 A1 DE 4328751A1
Authority
DE
Germany
Prior art keywords
learning
neural network
synapse
input data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE4328751A
Other languages
English (en)
Inventor
Ho-Sun Chung
Kyung-Hun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SK Hynix Inc
Original Assignee
Goldstar Electron Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goldstar Electron Co Ltd filed Critical Goldstar Electron Co Ltd
Publication of DE4328751A1 publication Critical patent/DE4328751A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

Die vorliegende Erfindung bezieht sich auf ein mehrschich­ tiges neuronales Netz und, insbesondere, auf ein selbst­ lernendes mehrschichtiges neuronales Netz und das Lernverfahren.
Das lernende mehrschichtige neuronale Netz führt gewün­ schte Funktionen aus, indem ein Benutzer die Gewichtswerte der jeweiligen Synapse in einem externen Speicher spei­ chert, um ein Lernen durchzuführen. In anderen Worten, der Benutzer speichert verschiedene Gewichtswerte im Speicher entsprechend Ein- und Ausgabefunktionen, um verwendet zu werden, um die jeweilige Synapse die entsprechenden ver­ schiedenen Gewichtswerte annehmen zu lassen, wodurch gewünschte Funktionen durchgeführt werden. So war es unan­ genehm, daß der Benutzer die Gewichtswerte, die durch die Synapse des mehrschichtigen neuronalen Netzes besessen werden, im Speicher speichert, um die gewünschten Funktio­ nen durchzuführen.
Daher ist es zur Lösung des vorstehenden Problems eine Aufgabe der vorliegenden Erfindung ein selbstlernendes mehrschichtiges neuronales Netz zu schaffen, in dem ein Benutzer die gelernten Gewichtswerte nicht eingeben muß.
Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, ein Lernverfahren in einem selbstlernenden mehr­ schichtigen neuronalen Netz zu schaffen.
Um die vorstehende Aufgabe der vorliegenden Erfindung zu lösen, wird ein selbstlernendes mehrschichtiges neuronales Netz geschaffen, daß dadurch gekennzeichnet ist, daß N-bit Eingabedaten und M-bit gewünschte Ausgabedaten empfangen werden, ein Gewichtswert einer jeden Synapse angepaßt wird, um Ausgabedaten entsprechend den Eingabedaten zu erzeugen, und ein Selbstlernen durchgeführt wird, während zu einer nächsten Schicht fortgeschritten wird.
Um die andere Aufgabe der vorliegenden Erfindung zu lösen, wird ein Lernverfahren in einem selbstlernenden mehr­ schichtigen neuronalen Netz geschaffen, das folgende Schritte umfaßt:
  • a) Initialisieren eines Gewichtswerts einer jeden Synapse;
  • b) Empfangen von Eingabedaten und gewünschten Ausgabeda­ ten entsprechend den Eingabedaten;
  • c) Durchführen eines Lernens durch Empfangen der Eingabedaten;
  • d) Vergleichen von Ausgabedaten, die aus dem Lernen des mehrschichtigen neuronalen Netzes resultieren, mit den gewünschten Ausgabedaten, dadurch Erzeugen eines Fehler­ werts, wenn sie nicht übereinstimmen, und Anpassen eines Gewichtswerts einer jeden Synapse, und Vervollständigen des Lernens, wenn sie übereinstimmen; und
  • e) Fortschreiten zu einer nächsten Schicht, um die Schritte (b) bis (d) zu wiederholen, wenn ein gewünschtes Ergebnis nicht erhalten wird, obwohl das Lernen wiederholt für eine vorbestimmte Anzahl von Zeiten durchgeführt wurde.
Die Erfindung wird nachstehend anhand eines Ausführungs­ beispiels unter Bezugnahme auf die Zeichnung näher erläutert.
Es zeigen:
Fig. 1 ein Blockdiagramm eines erfindungsgemäßen selbst­ lernenden mehrschichtigen neuronalen Netzes;
Fig. 2 ein detailliertes Schaltbild eines Ausführungs­ beispiels einer Gruppe von Synapsen und eines Fehler- Detektors, die in Fig. 1 gezeigt sind; und
Fig. 3 ein Flußdiagramm zur Erklärung des Betriebs der in den Fig. 1 und 2 gezeigten Schaltung.
Im folgenden wird zuerst ein Lernalgorithmus beschrieben, bevor ein selbstlernendes mehrschichtiges neuronales Netz der vorliegenden Erfindung mit Bezug auf die Zeichnung erklärt wird.
Der Lernalgorithmus der vorliegenden Erfindung sollte die folgenden Bedingungen erfüllen.
Beim Lernen des neuronalen Netzes wird eine modifizierte Aufnahmeregel verwendet. In dieser Regel wird ein Ge­ wichtswert nicht aufeinanderfolgend verändert und eine Lernkonstante ist Eins.
Eine Aktivierungsfunktion wird durch einen Puffer verkörpert, der ein nichtlinearer monopolarer scharfer Begrenzer ist, dessen einer Ausgang Eins ist, wenn ein Netz gleich oder größer als Null ist, während der Ausgang Null ist, wenn ein Netz weniger als Null ist. Im Lernalgo­ rithmus der vorliegenden Erfindung sollte die Aktivie­ rungsfunktion nahe bei einem idealen scharfen Begrenzer liegen.
Der Algorithmus der vorliegenden Erfindung umfaßt die fol­ genden Schritte:
  • 1. Ein Gewichtswert einer jeden Synapse wird als Null ini­ tialisiert. Die Anzahl der Muster und Wiederholungszeiten wird eingestellt.
  • 2. Eingabedaten und gewünschte Ausgabedaten entsprechend den Eingabedaten werden eingegeben und eine Ausgabe wird wie folgt berechnet: AUSGABE = sgn(W, Y)wobei W einen Gewichtswert darstellt und y ein Eingabedatum.
  • 3. Das Ausgabedatum, das in Schritt 2 berechnet wurde, wird mit einem gewünschten Ausgabedatum verglichen, um einen Fehlerwert wie folgt zu berechnen: FEHLER = d-o,wobei d ein gewünschtes Ausgabedatum darstellt und o das berechnete Ausgabedatum.
  • 4. Wenn ein Fehler erzeugt wird, wird der Gewichtswert folgendermaßen korrigiert: W(t+1) = W(t) + Y(d-o)wobei W eine Gewichtsfunktion darstellt und t eine Zeitva­ riable. Wenn die Eingabe Eins ist, nimmt der Gewichtswert um Eins zu oder ab. Wenn die Eingabe nicht Eins ist, wird der Gewichtswert nicht korrigiert. Die korrigierten Werte der Gewichtswerte werden während der Berechnung aller Ein­ gabemuster vorübergehend gespeichert und dann in ihrer Gesamtheit korrigiert.
  • 5. Die Schritte 2 bis 4 werden unter Berücksichtigung al­ ler Eingaben wiederholt, bis das Lernen erfolgreich ist. Wenn das Lernen in einer ersten Schicht nicht erfolgreich ist, wird mit Schritt 6 weitergemacht.
  • 6. Die Schicht wird erhöht, um die Schritte 2 bis 5 durchzuführen.
Die erfindungsgemäße Schaltung, die den vorstehenden Algo­ rithmus verwendet, wird im folgenden beschrieben.
Fig. 1 ist ein Blockdiagramm eines selbstlernenden mehr­ schichtigen neuronalen Netzes gemäß der vorliegenden Erfindung.
In Fig. 1 umfaßt eine erste Schicht 10 des neuronalen Netzes: erste bis m-te Synapsengruppen 1 1, 1 2, . . . , 1 m, die Eingangssignale EIN1, EIN2, . . . , EINn empfängt und ein Lernen gemäß den Eingangssignalen EIN1, EIN2, . . . , EINn durchführt, um Ausgabesignale AUS1, AUS2, . . . , AUSm zu erzeugen; weiterhin erste bis m-te Fehlerdetektoren 2 1, 2 2, . . . , 2 m, die die Ausgangssignale AUS1, AUS2, . . . , AUSm der ersten bis m-ten Synapsengruppen 1 1, 1 2, . . . , 1 m und gewünschte Ausgangssignale GEAUS1, GEAUS2, . . . , GEAUSm empfängt, um Fehler zu erfassen; sie erzeugt dann Signale zum Erhöhen oder Verringern von Gewichtswerten anspre­ chend auf die erfaßten Fehlersignale. Eine zweite Schicht 20 des neuronalen Netzes umfaßt erste bis m-te Synapsen­ gruppen 3 1, 3 2, . . . , 3 m, die die Eingabesignale EIN1, EIN2, . . . , EINn empfängt; weiterhin (m+1)-te bis (2m)-te Synapsengruppen 4 1, 4 2, . . . , 4 m, die in Serie mit den er­ sten bis m-ten Synapsengruppen 3 1, 3 2, . . . , 3 m verbunden sind und die Ausgangssignale AUS1, AUS2, . . . , AUSm der ersten bis m-ten Synapsengruppen 1 1, 1 2, . . . , 1 m empfangen und erste bis m-te Fehler-Detektoren 5 1, 5 2, . . . , 5 m, die die Ausgangssignale AUS1, AUS2, . . . , AUSm der (m+1)-ten bis (2m)-ten Synapsengruppen 4 1, 4 2, . . . , 4 m und gewünschte Ausgangssignale GEAUS1, GEAUS2, . . . , GEAUSm empfangen, um Fehler zu erfassen; und dann erzeugt sie Signale zum Erhöhen oder Verringern von Gewichtswerten ansprechend auf die erfaßten Fehlersignale.
Ebenso bildet, mit Bezug auf Fig. 1, eine vorbestimmte Anzahl von Schichten, von denen jede dieselbe Struktur besitzt wie die zweite Schicht 20 des neuronalen Netzes, ein mehrschichtiges neuronales Netz 1000, zusammen mit der ersten und zweiten Schicht 10 und 20 des neuronalen Netzes.
Ebenso umfaßt, mit Bezug auf Fig. 1, eine Steuereinheit 2000 zum Steuern eines mehrschichtigen neuronalen Netzes 1000 einen Wiederholungsanzahl-Zähler 30 zum wiederholten Lernen von Mustern, die in ein mehrschichtiges neuronales Netz 1000 für eine vorbestimmte Anzahl von Zeiten eingege­ ben werden; weiterhin einen Komparator 40, der die Wieder­ holungsanzahl des Wiederholungsanzahl-Zählers 30 mit einer maximalen Eingabe-Wiederholungsanzahl vergleicht und dann den Wiederholungsanzahl-Zähler 30 zurücksetzt, um ein Ler­ nen in der nächsten Schicht durchzuführen, wenn ein wie­ derholtes Lernen für die maximale Eingabe-Wiederholungs­ anzahl durchgeführt wurde; des weiteren einen Musterzähler 50 zum Zählen von n Musterelementen, die ein Muster bil­ den, wenn das Ausgangssignal des Komparators 40 anzeigt, daß das Lernen für die maximale Eingabe-Wiederholungs­ anzahl nicht durchgeführt wurde; zudem eine Speicherein­ richtung 60 zum Zuführen der Eingabemuster zum mehrschich­ tigen neuronalen Netz 1000 ansprechend auf die Ausgangssignale des Musterzählers 50; außerdem einen Feh­ lerzähler 70 zum Zählen, wieviele Fehler im Ergebnis des Lernens von n Musterelementen im mehrschichtigen neurona­ len Netz 1000 erzeugt werden, und zum Vervollständigen des Lernens, wenn kein Fehler erzeugt wurde; und schließlich einen Schichtenzähler 80, der das Ausgangssignal des Wie­ derholungsanzahl-Zählers 30 empfängt und das Ausgangssig­ nal des Fehlerzählers 70 und eine Schicht zur Fortsetzung des Lernens erhöht, wenn der Fehler erzeugt wurde, obwohl das Lernen für die maximale Eingabe-Wiederholungsanzahl durchgeführt wurde.
In Fig. 1 können die Zähler als eine vorbestimmte Anzahl von Flip-Flops gebildet werden, die Speichereinrichtung als eine Speichervorrichtung und der Komparator als eine vorbestimmte Anzahl von Exklusiv-ODER-Gattern. Auch kann der Aufbau aus Fig. 1 auf einem einzelnen Baustein aus­ geführt werden, wodurch ein Lernen in einem einzelnen Baustein ermöglicht wird.
Das selbstlernende mehrschichtige neuronale Netz kann, beispielsweise, einen Betrieb eines Exklusiv-ODER-Gatters durchführen. In diesem Fall, bei vier 2-bit Eingabe- Mustern und vier 1-bit Ausgabe-Mustern und einer durch den Benutzer gegebenen Wiederholungsanzahl, führt das selbst­ lernende mehrschichtige neuronale Netz selbst ein Selbst- Lernen durch, um dadurch ein neuronales Netz zum Durchführen eines Exklusiv-ODER Betriebs zu bilden.
Fig. 2 ist ein detailliertes Schaltbild eines Ausführungs­ beispiels einer Gruppe von Synapsen und eines Fehler- Detektors, die in Fig. 1 gezeigt sind.
In Fig. 2 umfaßt eine Gruppe von Synapsen 1: Synapsen- PMOS-Transistoren 100, die jeweils verschiedene Gewichts­ werte besitzen, bei denen jeweils die Source-Elektrode mit einer Versorgungsspannung und die Gate-Elektrode mit einem Steuersignal-Eingabeanschluß verbunden ist, wodurch sie als Erreger funktionieren; Synapsen-NMOS-Transistoren 101, bei denen jeweils die Drain-Elektrode mit jeder Drain- Elektrode von Synapsen-PMOS-Transistoren 100 verbunden ist, die Source-Elektrode mit Masse und die Gate-Elektrode mit einem Steuersignal-Eingabeanschluß verbunden ist, wo­ durch sie als Sperrer funktionieren; Nicht-UND-Gatter 102, die ein Eingangssignal EIN und ein Freigabesignal EN em­ pfangen und erste Steuersignale zum Steuern der jeweiligen Gate-Elektroden der Synapsen-PMOS-Transistoren 100 erzeu­ gen, UND-Gatter 103, die ein Eingabesignal EIN und ein Freigabesignal EN empfangen und zweite Steuersignale zum Steuern der jeweiligen Gatelektroden der Synapsen-NMOS- Transistoren 101 erzeugen; einen ersten Auf/Ab-Zähler 104, der ihre Ausgangssignale Eingabeanschlüssen der jeweiligen Nicht-UND-Gatter 102 zuführt, um die jeweiligen Gewichts­ werte der Synapsen-PMOS-Transitoren zu erhöhen oder zu verringern; und einen zweiten Auf/Ab-Zähler 105, der ihre Ausgangssignale Eingabeanschlüssen der jeweiligen UND- Gatter 103 zuführt, um die jeweiligen Gewichtswerte der Synapsen-NMOS-Transistoren 101 zu erhöhen oder zu verringern.
Der Fehler-Detektor 2 umfaßt ein UND-Gatter 106, das ein Eingabesignal EIN erhält, die Ausgabesignale A und B des Fehlerzählers 70 und des Wiederholungsanzahl-Zählers 30 und einen Fehlerwert C, der erzeugt wird, wenn das Aus­ gangssignal AUSm der Synapsengruppen nicht gleich dem gewünschten Ausgangssignal GEAUSm ist, indem der erstere mit dem letzteren verglichen wird, um logisch multipli­ ziert zu werden, empfängt ein UND-Gatter 107 das gewünschte Ausgangssignal GEAUSm und das Ausgangssignal des UND-Gatters 106, um logisch multipliziert zu werden, einen Invertierer 108 zum Invertieren des gewünschten Aus­ gangssignals, ein UND-Gatter 109, das die Ausgangssignale des Invertierers 108 und des UND-Gatters 106 empfängt, um logisch multipliziert zu werden, ein Nicht-Oder-Gatter 110, das das höchstwertige und das niederwertigste bit des ersten Auf/Ab-Zählers 104 empfängt, um logisch betrieben zu werden, ein Nicht-ODER-Gatter 112, das das höchstwer­ tige und das niederwertigste bit des zweiten Auf/Ab- Zählers 105 empfängt, um logisch betrieben zu werden, ein UND-Gatter 114, das das Ausgangssignal eines Invertierers 111 zum Invertieren der Ausgabe des Nicht-ODER-Gatters 110 und des Ausgangssignals des UND-Gatters 109, um ein Signal zum Abwärts-Zählen für den ersten Auf/Ab-Zähler 104 zu er­ zeugen, ein UND-Gatter 115, das die Ausgangssignale des UND-Gatters 107 und des Nicht-ODER-Gatters 112 empfängt, um ein Signal zum Aufwärts-Zählen des ersten Auf/Ab-Zählers 104 zu erzeugen, ein UND-Gatter 116, das die Ausgangssig­ nale des UND-Gatters 109 und des Nicht-ODER-Gatters 110 empfängt, um ein Signal zum Aufwärts-Zählen des zweiten Auf/Ab-Zählers 105 zu erzeugen, und ein UND-Gatter 117, das die Ausgangssignale eines Invertierers 113 und des UND-Gatters 107 empfängt, um ein Signal zum Abwärts-Zählen des zweiten Auf/Ab-Zählers 105 zu erzeugen.
Fig. 3 ist ein Flußdiagramm zur Erklärung eines Betriebs der in den Fig. 1 und 2 gezeigten Schaltung.
In Schritt 200 wird das System initialisiert. In diesem Schritt sind die Gewichtswerte der Synapse Null, die Ein­ gabemuster und die Ausgabemuster, die m Musterelemente besitzen, und die maximale Eingabe-Wiederholungsanzahl sind gegeben.
In Schritt 210 zählt der Wiederholungsanzahl-Zähler 30 die Wiederholungsanzahl und der Komparator 30 vergleicht die maximale Eingabe-Wiederholung mit dem Ausgangssignal des Wiederholungsanzahl-Zählers 30, um zu überprüfen, ob beide identisch sind. Dann, wenn das Ausgangssignal des Kompara­ tors 40 anzeigt, daß beide verglichenen Signale nicht gleich sind, zählt der Musterzähler 50 die Anzahl der Muster.
In Schritt 220 werden m Musterelemente aus der Speicher­ einrichtung 60 aufeinanderfolgend ausgelesen ansprechend auf das Ausgangssignal des Musterzählers 50, um dem mehr­ schichtigen neuronalen Netz zugeführt zu werden.
In Schritt 230 empfängt die erste Schicht des neuronalen Netzes das Ausgangssignal der Speichereinrichtung, um ein Lernen durchzuführen.
In Schritt 240 erfaßt der Fehler-Detektor, ob der Fehler­ wert, der durch Subtrahieren des Ausgabemusterwerts vom gewünschten Ausgabemusterwert erhalten wurde, gleich, größer oder kleiner als Null ist.
Wenn der Fehlerwert in Schritt 240 größer ist als Null, wird das Lernen durchgeführt, während der Gewichtswert der ersten Schicht des neuronalen Netzes in Schritt 250 ver­ ringert wird.
Wenn der Fehlerwert in Schritt 240 kleiner als Null ist, wird das Lernen durchgeführt, während der Gewichtswert der ersten Schicht des neuronalen Netzes in Schritt 260 erhöht wird.
Wenn der Fehlerwert in Schritt 240 gleich Null ist, wird in Schritt 270 beurteilt, ob der Musterzähler 50 die Ge­ samtanzahl der Muster zählt. Wenn der Musterzähler 50 in Schritt 270 nicht die gesamte Anzahl der Muster zählt, geht das System zu Schritt 210, um weiter die Anzahl der Muster zu zählen.
Wenn die Gesamtanzahl der Muster in Schritt 270 gezählt wurde, wird beurteilt, ob der Gesamtfehler Null ist, nach­ dem in Schritt 280 alle Muster gelernt wurden.
Wenn der Gesamtfehler in Schritt 280 nicht Null ist, wird beurteilt, ob der Wiederholungsanzahl-Zähler 30 in Schritt 290 die maximale Eingabe-Wiederholungsanzahl zählt. Wenn die maximale Eingabe-Wiederholungsanzahl in Schritt 290 nicht gezählt wird, wird die Wiederholungsanzahl in Schritt 300 weiter gezählt.
Wenn die maximale Eingabe-Wiederholungsanzahl in Schritt 290 gezählt wird, bewegt das System das Lernen von der er­ sten Schicht des neuronalen Netzes zur zweiten Schicht des neuronalen Netzes in den Schritten 210 bis 280, um die Schritte 210 bis 280 zu wiederholen.
Wenn der Fehlerwert in Schritt 280 Null ist, wird das Ler­ nen in Schritt 320 vervollständigt.
Das erfindungsgemäße neuronale Netz kann bei einer Technologie des Erkennungsfelds angewendet werden, wie beispielsweise der Zeichenerkennung und Spracherkennung.
Das erfindungsgemäße neuronale selbstlernende Netz kann ein Selbstlernen in einem Baustein durchführen, wenn der Benutzer nur die Eingabemuster, die Ausgabemuster und die Wiederholungsanzahl eingibt, wodurch das neuronale Netz derart gebildet wird, um eine gewünschte Funktion durchzuführen.
Offenbart ist ein selbstlernendes mehrschichtiges neuro­ nales Netz (1000) und das zugehörige Lernverfahren. Das neuronale Netz ist dadurch gekennzeichnet, daß N-bit Ein­ gabedaten und M-bit gewünschte Ausgabedaten empfangen wer­ den, ein Gewichtswert jeder Synapse angepaßt wird, um Ausgabedaten entsprechend den Eingabedaten zu erzeugen, und ein Selbstlernen durchgeführt wird, während eines Fortschreitens zu einer nächsten Schicht. So ist es für den Benutzer nicht nötig alle Gewichtswerte der jeweiligen Synapse einzugeben und anzupassen, dadurch Selbstlernen und eine gewünschte Funktion durchführend.

Claims (6)

1. Selbstlernendes mehrschichtiges neuronales Netz (1000), dadurch gekennzeichnet, daß N-bit Eingabedaten und M-bit gewünschte Ausgabedaten empfangen werden, ein Gewichtswert einer jeden Synapse angepaßt wird, um Ausgabedaten zu er­ zeugen, die den Eingabedaten entsprechen, und Selbstlernen durchgeführt wird, während des Fortschreitens zu einer nächsten Schicht.
2. Selbstlernendes mehrschichtiges neuronales Netz (1000) nach Anspruch 1, dadurch gekennzeichnet, daß das selbst­ lernende mehrschichtige neuronale Netz (1000) folgendes umfaßt:
ein erstes neuronales Netz 10, das die N-bit Eingabedaten empfängt, die den jeweiligen bits der M-bit Ausgabedaten entsprechen, um ein Lernen durchzuführen, und das so viele Synapsengruppen besitzt, wie die Anzahl der Eingabedaten­ bits, um das Ergebnis des Lernens auszugeben;
zweite bis n-te neuronale Netze, die die N-bit Eingabeda­ ten und die Ausgangssignale des ersten neuronalen Netzes empfängt, um ein Lernen durchzuführen, und das so viele Synapsengruppen besitzt, wie die Anzahl der Ausgabedaten- bits entsprechend den Eingabedaten-bits, zum Ausgeben des Ergebnisses des Lernens;
Fehler-Detektoren, die die Ausgangssignale der jeweiligen Synapsengruppen empfangen und beurteilen, ob das empfan­ gene Ausgangssignal einem gewünschten Ausgangssignal ent­ spricht oder nicht, und die mit den jeweiligen Synapsen­ gruppen verbunden sind, um die Gewichtswerte der Synapsen­ gruppen zu erhöhen oder zu verringern, wenn das empfangene Ausgangssignal nicht gleich dem gewünschten Ausgangssignal ist; und
eine Steuereinrichtung (2000), die die Eingabedaten den ersten bis n-ten neuronalen Netzen zuführt, um das Lernen bis zu einer maximalen Eingabe-Wiederholungsanzahl zu wiederholen.
3. Selbstlernendes mehrschichtiges neuronales Netz nach Anspruch 1, dadurch gekennzeichnet, daß das selbstlernende mehrschichtige neuronale Netz (1000) in einem Baustein gelernt werden kann.
4. Selbstlernendes mehrschichtiges neuronales Netz nach Anspruch 2, dadurch gekennzeichnet, daß die Steuereinrich­ tung (2000) folgendes umfaßt:
einen Wiederholungsanzahl-Zähler (30) zum Zählen der Wie­ derholungsanzahl;
einen Komparator (40), der vergleicht, ob das Ausgangssig­ nal des Wiederholungsanzahl-Zählers (3) der maximalen Ein­ gabe-Wiederholungsanzahl entspricht;
einen Muster-Zähler (50) zum Zählen von Mustern, wenn ein Signal ausgegeben wird, das anzeigt, daß das Ausgangssig­ nal des Komparators (40) nicht der maximale Eingabe-Wie­ derholungswert ist;
eine Speichereinrichtung (60), in der Eingabemuster ge­ speichert werden, um die Eingabemuster entsprechend dem Ausgangssignal des Muster-Zählers 50 auszugeben;
einen Fehlerzähler (70) zum Zählen von Fehlern, wenn zu­ mindest eine unter den Synapsengruppen des neuronalen Netzes, das das Lernen durchführt, die Fehler erzeugt; und
einen Schichtenzähler (80) zum Fortschreiten zu einer nächsten Schicht, um ein Lernen durchzuführen, wenn das Ausgangssignal des Fehlerzählers (79) ein Signal ist, das anzeigt, daß der Fehler erzeugt wurde und das Ausgangssig­ nal des Wiederholungsanzahl-Zählers (30) die maximale Ein­ gabe-Wiederholungsanzahl ist.
5. Selbstlernendes mehrschichtiges neuronales Netz nach Anspruch 2, dadurch gekennzeichnet, daß das neuronale Netz folgendes umfaßt:
erregende Synapsen-MOS-Transistoren, die als Erreger funk­ tionieren und eine vorbestimmte Anzahl von verschiedenen Gewichtswerten besitzen; und
sperrende Synapsen-MOS-Transistoren, die mit den erregen­ den Synapsen-MOS-Transistoren verbunden sind, als Sperrer funktionieren und eine vorbestimmte Anzahl von verschiede­ nen Gewichtswerten besitzen.
6. Lernverfahren in einem selbstlernenden mehrschichtigen neuronalen Netz, in dem N-bit Eingabedaten und M-bit gewünschte Ausgabedaten empfangen werden, ein Gewichtswert jeder Synapse derart angepaßt wird, daß Ausgabedaten ent­ sprechend den Eingabedaten erzeugt werden, und Selbstler­ nen durchgeführt wird, während eines Fortschreitens zu einer nächsten Schicht, gekennzeichnet durch die Schritte:
  • a) Initialisieren eines Gewichtswerts jeder Synapse;
  • b) Empfangen von Eingabedaten und gewünschten Ausgabeda­ ten entsprechend den Eingabedaten;
  • c) Durchführen eines Lernens durch Empfangen der Eingabe­ daten;
  • d) Vergleichen von Ausgabedaten, die sich aus dem Lernen des mehrschichtigen neuronalen Netzes ergeben, mit gewünschten Ausgabedaten, dadurch Erzeugen eines Fehler­ werts, wenn sie nicht übereinstimmen, und Anpassen eines Gewichtswerts jeder Synapse, und Vervollständigen des Ler­ nens, wenn sie übereinstimmen; und
  • e) Fortschreiten zu einer nächsten Schicht, um die Schritte (b) bis (d) zu wiederholen, wenn ein gewünschtes Ergebnis nicht erhalten wurde, obwohl das Lernen wieder­ holt für eine vorbestimmte Anzahl von Zeiten durchgeführt wurde.
DE4328751A 1992-08-27 1993-08-26 Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren Ceased DE4328751A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019920015485A KR0178805B1 (ko) 1992-08-27 1992-08-27 스스로 학습이 가능한 다층 신경회로망 및 학습 방법

Publications (1)

Publication Number Publication Date
DE4328751A1 true DE4328751A1 (de) 1994-03-03

Family

ID=19338593

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4328751A Ceased DE4328751A1 (de) 1992-08-27 1993-08-26 Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren

Country Status (5)

Country Link
US (1) US5450528A (de)
JP (1) JPH06161985A (de)
KR (1) KR0178805B1 (de)
DE (1) DE4328751A1 (de)
FR (1) FR2695232B1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970007006B1 (ko) * 1993-08-31 1997-05-01 한국전자통신연구원 인공 신경 회로와 패턴 분리 및 인식용 발진 신경 망의 구조
US5630024A (en) * 1994-01-19 1997-05-13 Nippon Telegraph And Telephone Corporation Method and apparatus for processing using neural network with reduced calculation amount
US20100073202A1 (en) * 2008-09-25 2010-03-25 Mazed Mohammad A Portable internet appliance
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
US8676734B2 (en) * 2010-07-07 2014-03-18 Qualcomm, Incorporated Methods and systems for replaceable synaptic weight storage in neuro-processors
JP5289647B1 (ja) * 2012-01-23 2013-09-11 パナソニック株式会社 ニューラルネットワーク回路の学習方法
WO2015001697A1 (ja) 2013-07-04 2015-01-08 パナソニックIpマネジメント株式会社 ニューラルネットワーク回路、およびその学習方法
CN111602146A (zh) * 2018-01-16 2020-08-28 奥林巴斯株式会社 数据处理系统和数据处理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5095443A (en) * 1988-10-07 1992-03-10 Ricoh Company, Ltd. Plural neural network system having a successive approximation learning method
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US4912647A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Neural network training tool

Also Published As

Publication number Publication date
KR940004425A (ko) 1994-03-15
JPH06161985A (ja) 1994-06-10
KR0178805B1 (ko) 1999-05-15
FR2695232A1 (fr) 1994-03-04
US5450528A (en) 1995-09-12
FR2695232B1 (fr) 1996-04-26

Similar Documents

Publication Publication Date Title
DE4042139C2 (de) Neuron-Einheit
DE102017011754A1 (de) Maschinenlerneinrichtung zum Lernen eines Montagevorgangs und Komponentenmontagesystem
WO1990011564A1 (de) Netzwerk zum speichern und verarbeiten von signalen
DE2034683B2 (de) Lernfaehige schaltungsanordnung
WO2019081241A1 (de) Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes
DE3639055A1 (de) Verfahren zur betriebsueberwachung und fehlerkorrektur von rechnern eines mehrrechnersystems und mehrrechnersystem
DE2447255B2 (de) Verfahren und Schaltungsanordnungen zur Fehlerprüfung In digitalen Datenübertragungsanlagen
DE2518588A1 (de) Verfahren zur ueberwachung der folgerichtigkeit von codesignalgruppen in einrichtungen der nachrichtentechnik
DE4328751A1 (de) Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren
EP0003480B1 (de) Schaltungsanordnung zum Umwandeln von Binärinformationen mittels Kontrollbits
DE4129561C2 (de) Informationsverarbeitungssystem
DE4121453C2 (de) Näherungsschlußfolgerungsvorrichtung
DE2933830C2 (de) Programmierbarer Polynomgenerator
EP0643353B1 (de) Vorrichtung und Verfahren zur Datenverarbeitung
DE2426253C3 (de) Vorrichtung zunv ZAehen det Quadratwurzel aus einer binären Zahl
DE19623823A1 (de) Protokollanalysator
DE4135278A1 (de) Verfahren und schaltkreis zum abtasten von tasten fuer ein mikrocomputersystem
DE4244014A1 (de) Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren
DE102018109851A1 (de) Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes
DE3132611C2 (de)
DE69907622T2 (de) Verfahren zur Fehlerkorrektur in einem in einer Mehrpegelspeicherzelle gespeicherten Binärwort, mit einer Minimumanzahl von Korrekturbits
DE1549105C3 (de) Codeprüfanordnung für die Korrektur fehlerhaft übertragener Zeichen
EP0033468B1 (de) Einrichtung zur Erzeugung von Bedingungscodes in mikroprogrammgesteuerten Universalrechnern
EP0267499B1 (de) Verfahren zur Paritätsbitermittlung und zur Überwachung der Übertragung beim Datenschieben sowie Schaltungsanordnung zur Durchführung der Verfahren
DE2140858C3 (de) Paritätsbit- Vorhersage schaltung für eine Stellenverschiebeeinrichtung

Legal Events

Date Code Title Description
8141 Disposal/no request for examination
8110 Request for examination paragraph 44
8170 Reinstatement of the former position
8125 Change of the main classification

Ipc: G06N 3/08

8131 Rejection