DE4328751A1 - Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren - Google Patents
Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges LernverfahrenInfo
- Publication number
- DE4328751A1 DE4328751A1 DE4328751A DE4328751A DE4328751A1 DE 4328751 A1 DE4328751 A1 DE 4328751A1 DE 4328751 A DE4328751 A DE 4328751A DE 4328751 A DE4328751 A DE 4328751A DE 4328751 A1 DE4328751 A1 DE 4328751A1
- Authority
- DE
- Germany
- Prior art keywords
- learning
- neural network
- synapse
- input data
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Description
Die vorliegende Erfindung bezieht sich auf ein mehrschich
tiges neuronales Netz und, insbesondere, auf ein selbst
lernendes mehrschichtiges neuronales Netz und das
Lernverfahren.
Das lernende mehrschichtige neuronale Netz führt gewün
schte Funktionen aus, indem ein Benutzer die Gewichtswerte
der jeweiligen Synapse in einem externen Speicher spei
chert, um ein Lernen durchzuführen. In anderen Worten, der
Benutzer speichert verschiedene Gewichtswerte im Speicher
entsprechend Ein- und Ausgabefunktionen, um verwendet zu
werden, um die jeweilige Synapse die entsprechenden ver
schiedenen Gewichtswerte annehmen zu lassen, wodurch
gewünschte Funktionen durchgeführt werden. So war es unan
genehm, daß der Benutzer die Gewichtswerte, die durch die
Synapse des mehrschichtigen neuronalen Netzes besessen
werden, im Speicher speichert, um die gewünschten Funktio
nen durchzuführen.
Daher ist es zur Lösung des vorstehenden Problems eine
Aufgabe der vorliegenden Erfindung ein selbstlernendes
mehrschichtiges neuronales Netz zu schaffen, in dem ein
Benutzer die gelernten Gewichtswerte nicht eingeben muß.
Eine weitere Aufgabe der vorliegenden Erfindung besteht
darin, ein Lernverfahren in einem selbstlernenden mehr
schichtigen neuronalen Netz zu schaffen.
Um die vorstehende Aufgabe der vorliegenden Erfindung zu
lösen, wird ein selbstlernendes mehrschichtiges neuronales
Netz geschaffen, daß dadurch gekennzeichnet ist, daß N-bit
Eingabedaten und M-bit gewünschte Ausgabedaten empfangen
werden, ein Gewichtswert einer jeden Synapse angepaßt
wird, um Ausgabedaten entsprechend den Eingabedaten zu
erzeugen, und ein Selbstlernen durchgeführt wird, während
zu einer nächsten Schicht fortgeschritten wird.
Um die andere Aufgabe der vorliegenden Erfindung zu lösen,
wird ein Lernverfahren in einem selbstlernenden mehr
schichtigen neuronalen Netz geschaffen, das folgende
Schritte umfaßt:
- a) Initialisieren eines Gewichtswerts einer jeden Synapse;
- b) Empfangen von Eingabedaten und gewünschten Ausgabeda ten entsprechend den Eingabedaten;
- c) Durchführen eines Lernens durch Empfangen der Eingabedaten;
- d) Vergleichen von Ausgabedaten, die aus dem Lernen des mehrschichtigen neuronalen Netzes resultieren, mit den gewünschten Ausgabedaten, dadurch Erzeugen eines Fehler werts, wenn sie nicht übereinstimmen, und Anpassen eines Gewichtswerts einer jeden Synapse, und Vervollständigen des Lernens, wenn sie übereinstimmen; und
- e) Fortschreiten zu einer nächsten Schicht, um die Schritte (b) bis (d) zu wiederholen, wenn ein gewünschtes Ergebnis nicht erhalten wird, obwohl das Lernen wiederholt für eine vorbestimmte Anzahl von Zeiten durchgeführt wurde.
Die Erfindung wird nachstehend anhand eines Ausführungs
beispiels unter Bezugnahme auf die Zeichnung näher
erläutert.
Es zeigen:
Fig. 1 ein Blockdiagramm eines erfindungsgemäßen selbst
lernenden mehrschichtigen neuronalen Netzes;
Fig. 2 ein detailliertes Schaltbild eines Ausführungs
beispiels einer Gruppe von Synapsen und eines Fehler-
Detektors, die in Fig. 1 gezeigt sind; und
Fig. 3 ein Flußdiagramm zur Erklärung des Betriebs der in
den Fig. 1 und 2 gezeigten Schaltung.
Im folgenden wird zuerst ein Lernalgorithmus beschrieben,
bevor ein selbstlernendes mehrschichtiges neuronales Netz
der vorliegenden Erfindung mit Bezug auf die Zeichnung
erklärt wird.
Der Lernalgorithmus der vorliegenden Erfindung sollte die
folgenden Bedingungen erfüllen.
Beim Lernen des neuronalen Netzes wird eine modifizierte
Aufnahmeregel verwendet. In dieser Regel wird ein Ge
wichtswert nicht aufeinanderfolgend verändert und eine
Lernkonstante ist Eins.
Eine Aktivierungsfunktion wird durch einen Puffer
verkörpert, der ein nichtlinearer monopolarer scharfer
Begrenzer ist, dessen einer Ausgang Eins ist, wenn ein
Netz gleich oder größer als Null ist, während der Ausgang
Null ist, wenn ein Netz weniger als Null ist. Im Lernalgo
rithmus der vorliegenden Erfindung sollte die Aktivie
rungsfunktion nahe bei einem idealen scharfen Begrenzer
liegen.
Der Algorithmus der vorliegenden Erfindung umfaßt die fol
genden Schritte:
- 1. Ein Gewichtswert einer jeden Synapse wird als Null ini tialisiert. Die Anzahl der Muster und Wiederholungszeiten wird eingestellt.
- 2. Eingabedaten und gewünschte Ausgabedaten entsprechend den Eingabedaten werden eingegeben und eine Ausgabe wird wie folgt berechnet: AUSGABE = sgn(W, Y)wobei W einen Gewichtswert darstellt und y ein Eingabedatum.
- 3. Das Ausgabedatum, das in Schritt 2 berechnet wurde, wird mit einem gewünschten Ausgabedatum verglichen, um einen Fehlerwert wie folgt zu berechnen: FEHLER = d-o,wobei d ein gewünschtes Ausgabedatum darstellt und o das berechnete Ausgabedatum.
- 4. Wenn ein Fehler erzeugt wird, wird der Gewichtswert folgendermaßen korrigiert: W(t+1) = W(t) + Y(d-o)wobei W eine Gewichtsfunktion darstellt und t eine Zeitva riable. Wenn die Eingabe Eins ist, nimmt der Gewichtswert um Eins zu oder ab. Wenn die Eingabe nicht Eins ist, wird der Gewichtswert nicht korrigiert. Die korrigierten Werte der Gewichtswerte werden während der Berechnung aller Ein gabemuster vorübergehend gespeichert und dann in ihrer Gesamtheit korrigiert.
- 5. Die Schritte 2 bis 4 werden unter Berücksichtigung al ler Eingaben wiederholt, bis das Lernen erfolgreich ist. Wenn das Lernen in einer ersten Schicht nicht erfolgreich ist, wird mit Schritt 6 weitergemacht.
- 6. Die Schicht wird erhöht, um die Schritte 2 bis 5 durchzuführen.
Die erfindungsgemäße Schaltung, die den vorstehenden Algo
rithmus verwendet, wird im folgenden beschrieben.
Fig. 1 ist ein Blockdiagramm eines selbstlernenden mehr
schichtigen neuronalen Netzes gemäß der vorliegenden
Erfindung.
In Fig. 1 umfaßt eine erste Schicht 10 des neuronalen
Netzes: erste bis m-te Synapsengruppen 1 1, 1 2, . . . , 1 m,
die Eingangssignale EIN1, EIN2, . . . , EINn empfängt und ein
Lernen gemäß den Eingangssignalen EIN1, EIN2, . . . , EINn
durchführt, um Ausgabesignale AUS1, AUS2, . . . , AUSm zu
erzeugen; weiterhin erste bis m-te Fehlerdetektoren 2 1,
2 2, . . . , 2 m, die die Ausgangssignale AUS1, AUS2, . . . , AUSm
der ersten bis m-ten Synapsengruppen 1 1, 1 2, . . . , 1 m und
gewünschte Ausgangssignale GEAUS1, GEAUS2, . . . , GEAUSm
empfängt, um Fehler zu erfassen; sie erzeugt dann Signale
zum Erhöhen oder Verringern von Gewichtswerten anspre
chend auf die erfaßten Fehlersignale. Eine zweite Schicht
20 des neuronalen Netzes umfaßt erste bis m-te Synapsen
gruppen 3 1, 3 2, . . . , 3 m, die die Eingabesignale EIN1,
EIN2, . . . , EINn empfängt; weiterhin (m+1)-te bis (2m)-te
Synapsengruppen 4 1, 4 2, . . . , 4 m, die in Serie mit den er
sten bis m-ten Synapsengruppen 3 1, 3 2, . . . , 3 m verbunden
sind und die Ausgangssignale AUS1, AUS2, . . . , AUSm der
ersten bis m-ten Synapsengruppen 1 1, 1 2, . . . , 1 m empfangen
und erste bis m-te Fehler-Detektoren 5 1, 5 2, . . . , 5 m, die
die Ausgangssignale AUS1, AUS2, . . . , AUSm der (m+1)-ten
bis (2m)-ten Synapsengruppen 4 1, 4 2, . . . , 4 m und
gewünschte Ausgangssignale GEAUS1, GEAUS2, . . . , GEAUSm
empfangen, um Fehler zu erfassen; und dann erzeugt sie
Signale zum Erhöhen oder Verringern von Gewichtswerten
ansprechend auf die erfaßten Fehlersignale.
Ebenso bildet, mit Bezug auf Fig. 1, eine vorbestimmte
Anzahl von Schichten, von denen jede dieselbe Struktur
besitzt wie die zweite Schicht 20 des neuronalen Netzes,
ein mehrschichtiges neuronales Netz 1000, zusammen mit der
ersten und zweiten Schicht 10 und 20 des neuronalen
Netzes.
Ebenso umfaßt, mit Bezug auf Fig. 1, eine Steuereinheit
2000 zum Steuern eines mehrschichtigen neuronalen Netzes
1000 einen Wiederholungsanzahl-Zähler 30 zum wiederholten
Lernen von Mustern, die in ein mehrschichtiges neuronales
Netz 1000 für eine vorbestimmte Anzahl von Zeiten eingege
ben werden; weiterhin einen Komparator 40, der die Wieder
holungsanzahl des Wiederholungsanzahl-Zählers 30 mit einer
maximalen Eingabe-Wiederholungsanzahl vergleicht und dann
den Wiederholungsanzahl-Zähler 30 zurücksetzt, um ein Ler
nen in der nächsten Schicht durchzuführen, wenn ein wie
derholtes Lernen für die maximale Eingabe-Wiederholungs
anzahl durchgeführt wurde; des weiteren einen Musterzähler
50 zum Zählen von n Musterelementen, die ein Muster bil
den, wenn das Ausgangssignal des Komparators 40 anzeigt,
daß das Lernen für die maximale Eingabe-Wiederholungs
anzahl nicht durchgeführt wurde; zudem eine Speicherein
richtung 60 zum Zuführen der Eingabemuster zum mehrschich
tigen neuronalen Netz 1000 ansprechend auf die
Ausgangssignale des Musterzählers 50; außerdem einen Feh
lerzähler 70 zum Zählen, wieviele Fehler im Ergebnis des
Lernens von n Musterelementen im mehrschichtigen neurona
len Netz 1000 erzeugt werden, und zum Vervollständigen des
Lernens, wenn kein Fehler erzeugt wurde; und schließlich
einen Schichtenzähler 80, der das Ausgangssignal des Wie
derholungsanzahl-Zählers 30 empfängt und das Ausgangssig
nal des Fehlerzählers 70 und eine Schicht zur Fortsetzung
des Lernens erhöht, wenn der Fehler erzeugt wurde, obwohl
das Lernen für die maximale Eingabe-Wiederholungsanzahl
durchgeführt wurde.
In Fig. 1 können die Zähler als eine vorbestimmte Anzahl
von Flip-Flops gebildet werden, die Speichereinrichtung
als eine Speichervorrichtung und der Komparator als eine
vorbestimmte Anzahl von Exklusiv-ODER-Gattern. Auch kann
der Aufbau aus Fig. 1 auf einem einzelnen Baustein aus
geführt werden, wodurch ein Lernen in einem einzelnen
Baustein ermöglicht wird.
Das selbstlernende mehrschichtige neuronale Netz kann,
beispielsweise, einen Betrieb eines Exklusiv-ODER-Gatters
durchführen. In diesem Fall, bei vier 2-bit Eingabe-
Mustern und vier 1-bit Ausgabe-Mustern und einer durch den
Benutzer gegebenen Wiederholungsanzahl, führt das selbst
lernende mehrschichtige neuronale Netz selbst ein Selbst-
Lernen durch, um dadurch ein neuronales Netz zum
Durchführen eines Exklusiv-ODER Betriebs zu bilden.
Fig. 2 ist ein detailliertes Schaltbild eines Ausführungs
beispiels einer Gruppe von Synapsen und eines Fehler-
Detektors, die in Fig. 1 gezeigt sind.
In Fig. 2 umfaßt eine Gruppe von Synapsen 1: Synapsen-
PMOS-Transistoren 100, die jeweils verschiedene Gewichts
werte besitzen, bei denen jeweils die Source-Elektrode mit
einer Versorgungsspannung und die Gate-Elektrode mit einem
Steuersignal-Eingabeanschluß verbunden ist, wodurch sie
als Erreger funktionieren; Synapsen-NMOS-Transistoren 101,
bei denen jeweils die Drain-Elektrode mit jeder Drain-
Elektrode von Synapsen-PMOS-Transistoren 100 verbunden
ist, die Source-Elektrode mit Masse und die Gate-Elektrode
mit einem Steuersignal-Eingabeanschluß verbunden ist, wo
durch sie als Sperrer funktionieren; Nicht-UND-Gatter 102,
die ein Eingangssignal EIN und ein Freigabesignal EN em
pfangen und erste Steuersignale zum Steuern der jeweiligen
Gate-Elektroden der Synapsen-PMOS-Transistoren 100 erzeu
gen, UND-Gatter 103, die ein Eingabesignal EIN und ein
Freigabesignal EN empfangen und zweite Steuersignale zum
Steuern der jeweiligen Gatelektroden der Synapsen-NMOS-
Transistoren 101 erzeugen; einen ersten Auf/Ab-Zähler 104,
der ihre Ausgangssignale Eingabeanschlüssen der jeweiligen
Nicht-UND-Gatter 102 zuführt, um die jeweiligen Gewichts
werte der Synapsen-PMOS-Transitoren zu erhöhen oder zu
verringern; und einen zweiten Auf/Ab-Zähler 105, der ihre
Ausgangssignale Eingabeanschlüssen der jeweiligen UND-
Gatter 103 zuführt, um die jeweiligen Gewichtswerte der
Synapsen-NMOS-Transistoren 101 zu erhöhen oder zu
verringern.
Der Fehler-Detektor 2 umfaßt ein UND-Gatter 106, das ein
Eingabesignal EIN erhält, die Ausgabesignale A und B des
Fehlerzählers 70 und des Wiederholungsanzahl-Zählers 30
und einen Fehlerwert C, der erzeugt wird, wenn das Aus
gangssignal AUSm der Synapsengruppen nicht gleich dem
gewünschten Ausgangssignal GEAUSm ist, indem der erstere
mit dem letzteren verglichen wird, um logisch multipli
ziert zu werden, empfängt ein UND-Gatter 107 das
gewünschte Ausgangssignal GEAUSm und das Ausgangssignal
des UND-Gatters 106, um logisch multipliziert zu werden,
einen Invertierer 108 zum Invertieren des gewünschten Aus
gangssignals, ein UND-Gatter 109, das die Ausgangssignale
des Invertierers 108 und des UND-Gatters 106 empfängt, um
logisch multipliziert zu werden, ein Nicht-Oder-Gatter
110, das das höchstwertige und das niederwertigste bit des
ersten Auf/Ab-Zählers 104 empfängt, um logisch betrieben
zu werden, ein Nicht-ODER-Gatter 112, das das höchstwer
tige und das niederwertigste bit des zweiten Auf/Ab-
Zählers 105 empfängt, um logisch betrieben zu werden, ein
UND-Gatter 114, das das Ausgangssignal eines Invertierers
111 zum Invertieren der Ausgabe des Nicht-ODER-Gatters 110
und des Ausgangssignals des UND-Gatters 109, um ein Signal
zum Abwärts-Zählen für den ersten Auf/Ab-Zähler 104 zu er
zeugen, ein UND-Gatter 115, das die Ausgangssignale des
UND-Gatters 107 und des Nicht-ODER-Gatters 112 empfängt,
um ein Signal zum Aufwärts-Zählen des ersten Auf/Ab-Zählers
104 zu erzeugen, ein UND-Gatter 116, das die Ausgangssig
nale des UND-Gatters 109 und des Nicht-ODER-Gatters 110
empfängt, um ein Signal zum Aufwärts-Zählen des zweiten
Auf/Ab-Zählers 105 zu erzeugen, und ein UND-Gatter 117,
das die Ausgangssignale eines Invertierers 113 und des
UND-Gatters 107 empfängt, um ein Signal zum Abwärts-Zählen
des zweiten Auf/Ab-Zählers 105 zu erzeugen.
Fig. 3 ist ein Flußdiagramm zur Erklärung eines Betriebs
der in den Fig. 1 und 2 gezeigten Schaltung.
In Schritt 200 wird das System initialisiert. In diesem
Schritt sind die Gewichtswerte der Synapse Null, die Ein
gabemuster und die Ausgabemuster, die m Musterelemente
besitzen, und die maximale Eingabe-Wiederholungsanzahl
sind gegeben.
In Schritt 210 zählt der Wiederholungsanzahl-Zähler 30 die
Wiederholungsanzahl und der Komparator 30 vergleicht die
maximale Eingabe-Wiederholung mit dem Ausgangssignal des
Wiederholungsanzahl-Zählers 30, um zu überprüfen, ob beide
identisch sind. Dann, wenn das Ausgangssignal des Kompara
tors 40 anzeigt, daß beide verglichenen Signale nicht
gleich sind, zählt der Musterzähler 50 die Anzahl der
Muster.
In Schritt 220 werden m Musterelemente aus der Speicher
einrichtung 60 aufeinanderfolgend ausgelesen ansprechend
auf das Ausgangssignal des Musterzählers 50, um dem mehr
schichtigen neuronalen Netz zugeführt zu werden.
In Schritt 230 empfängt die erste Schicht des neuronalen
Netzes das Ausgangssignal der Speichereinrichtung, um ein
Lernen durchzuführen.
In Schritt 240 erfaßt der Fehler-Detektor, ob der Fehler
wert, der durch Subtrahieren des Ausgabemusterwerts vom
gewünschten Ausgabemusterwert erhalten wurde, gleich,
größer oder kleiner als Null ist.
Wenn der Fehlerwert in Schritt 240 größer ist als Null,
wird das Lernen durchgeführt, während der Gewichtswert der
ersten Schicht des neuronalen Netzes in Schritt 250 ver
ringert wird.
Wenn der Fehlerwert in Schritt 240 kleiner als Null ist,
wird das Lernen durchgeführt, während der Gewichtswert der
ersten Schicht des neuronalen Netzes in Schritt 260 erhöht
wird.
Wenn der Fehlerwert in Schritt 240 gleich Null ist, wird
in Schritt 270 beurteilt, ob der Musterzähler 50 die Ge
samtanzahl der Muster zählt. Wenn der Musterzähler 50 in
Schritt 270 nicht die gesamte Anzahl der Muster zählt,
geht das System zu Schritt 210, um weiter die Anzahl der
Muster zu zählen.
Wenn die Gesamtanzahl der Muster in Schritt 270 gezählt
wurde, wird beurteilt, ob der Gesamtfehler Null ist, nach
dem in Schritt 280 alle Muster gelernt wurden.
Wenn der Gesamtfehler in Schritt 280 nicht Null ist, wird
beurteilt, ob der Wiederholungsanzahl-Zähler 30 in Schritt
290 die maximale Eingabe-Wiederholungsanzahl zählt.
Wenn die maximale Eingabe-Wiederholungsanzahl in Schritt
290 nicht gezählt wird, wird die Wiederholungsanzahl in
Schritt 300 weiter gezählt.
Wenn die maximale Eingabe-Wiederholungsanzahl in Schritt
290 gezählt wird, bewegt das System das Lernen von der er
sten Schicht des neuronalen Netzes zur zweiten Schicht des
neuronalen Netzes in den Schritten 210 bis 280, um die
Schritte 210 bis 280 zu wiederholen.
Wenn der Fehlerwert in Schritt 280 Null ist, wird das Ler
nen in Schritt 320 vervollständigt.
Das erfindungsgemäße neuronale Netz kann bei einer
Technologie des Erkennungsfelds angewendet werden, wie
beispielsweise der Zeichenerkennung und Spracherkennung.
Das erfindungsgemäße neuronale selbstlernende Netz kann
ein Selbstlernen in einem Baustein durchführen, wenn der
Benutzer nur die Eingabemuster, die Ausgabemuster und die
Wiederholungsanzahl eingibt, wodurch das neuronale Netz
derart gebildet wird, um eine gewünschte Funktion
durchzuführen.
Offenbart ist ein selbstlernendes mehrschichtiges neuro
nales Netz (1000) und das zugehörige Lernverfahren. Das
neuronale Netz ist dadurch gekennzeichnet, daß N-bit Ein
gabedaten und M-bit gewünschte Ausgabedaten empfangen wer
den, ein Gewichtswert jeder Synapse angepaßt wird, um
Ausgabedaten entsprechend den Eingabedaten zu erzeugen,
und ein Selbstlernen durchgeführt wird, während eines
Fortschreitens zu einer nächsten Schicht. So ist es für
den Benutzer nicht nötig alle Gewichtswerte der jeweiligen
Synapse einzugeben und anzupassen, dadurch Selbstlernen
und eine gewünschte Funktion durchführend.
Claims (6)
1. Selbstlernendes mehrschichtiges neuronales Netz (1000),
dadurch gekennzeichnet, daß N-bit Eingabedaten und M-bit
gewünschte Ausgabedaten empfangen werden, ein Gewichtswert
einer jeden Synapse angepaßt wird, um Ausgabedaten zu er
zeugen, die den Eingabedaten entsprechen, und Selbstlernen
durchgeführt wird, während des Fortschreitens zu einer
nächsten Schicht.
2. Selbstlernendes mehrschichtiges neuronales Netz (1000)
nach Anspruch 1, dadurch gekennzeichnet, daß das selbst
lernende mehrschichtige neuronale Netz (1000) folgendes
umfaßt:
ein erstes neuronales Netz 10, das die N-bit Eingabedaten empfängt, die den jeweiligen bits der M-bit Ausgabedaten entsprechen, um ein Lernen durchzuführen, und das so viele Synapsengruppen besitzt, wie die Anzahl der Eingabedaten bits, um das Ergebnis des Lernens auszugeben;
zweite bis n-te neuronale Netze, die die N-bit Eingabeda ten und die Ausgangssignale des ersten neuronalen Netzes empfängt, um ein Lernen durchzuführen, und das so viele Synapsengruppen besitzt, wie die Anzahl der Ausgabedaten- bits entsprechend den Eingabedaten-bits, zum Ausgeben des Ergebnisses des Lernens;
Fehler-Detektoren, die die Ausgangssignale der jeweiligen Synapsengruppen empfangen und beurteilen, ob das empfan gene Ausgangssignal einem gewünschten Ausgangssignal ent spricht oder nicht, und die mit den jeweiligen Synapsen gruppen verbunden sind, um die Gewichtswerte der Synapsen gruppen zu erhöhen oder zu verringern, wenn das empfangene Ausgangssignal nicht gleich dem gewünschten Ausgangssignal ist; und
eine Steuereinrichtung (2000), die die Eingabedaten den ersten bis n-ten neuronalen Netzen zuführt, um das Lernen bis zu einer maximalen Eingabe-Wiederholungsanzahl zu wiederholen.
ein erstes neuronales Netz 10, das die N-bit Eingabedaten empfängt, die den jeweiligen bits der M-bit Ausgabedaten entsprechen, um ein Lernen durchzuführen, und das so viele Synapsengruppen besitzt, wie die Anzahl der Eingabedaten bits, um das Ergebnis des Lernens auszugeben;
zweite bis n-te neuronale Netze, die die N-bit Eingabeda ten und die Ausgangssignale des ersten neuronalen Netzes empfängt, um ein Lernen durchzuführen, und das so viele Synapsengruppen besitzt, wie die Anzahl der Ausgabedaten- bits entsprechend den Eingabedaten-bits, zum Ausgeben des Ergebnisses des Lernens;
Fehler-Detektoren, die die Ausgangssignale der jeweiligen Synapsengruppen empfangen und beurteilen, ob das empfan gene Ausgangssignal einem gewünschten Ausgangssignal ent spricht oder nicht, und die mit den jeweiligen Synapsen gruppen verbunden sind, um die Gewichtswerte der Synapsen gruppen zu erhöhen oder zu verringern, wenn das empfangene Ausgangssignal nicht gleich dem gewünschten Ausgangssignal ist; und
eine Steuereinrichtung (2000), die die Eingabedaten den ersten bis n-ten neuronalen Netzen zuführt, um das Lernen bis zu einer maximalen Eingabe-Wiederholungsanzahl zu wiederholen.
3. Selbstlernendes mehrschichtiges neuronales Netz nach
Anspruch 1, dadurch gekennzeichnet, daß das selbstlernende
mehrschichtige neuronale Netz (1000) in einem Baustein
gelernt werden kann.
4. Selbstlernendes mehrschichtiges neuronales Netz nach
Anspruch 2, dadurch gekennzeichnet, daß die Steuereinrich
tung (2000) folgendes umfaßt:
einen Wiederholungsanzahl-Zähler (30) zum Zählen der Wie derholungsanzahl;
einen Komparator (40), der vergleicht, ob das Ausgangssig nal des Wiederholungsanzahl-Zählers (3) der maximalen Ein gabe-Wiederholungsanzahl entspricht;
einen Muster-Zähler (50) zum Zählen von Mustern, wenn ein Signal ausgegeben wird, das anzeigt, daß das Ausgangssig nal des Komparators (40) nicht der maximale Eingabe-Wie derholungswert ist;
eine Speichereinrichtung (60), in der Eingabemuster ge speichert werden, um die Eingabemuster entsprechend dem Ausgangssignal des Muster-Zählers 50 auszugeben;
einen Fehlerzähler (70) zum Zählen von Fehlern, wenn zu mindest eine unter den Synapsengruppen des neuronalen Netzes, das das Lernen durchführt, die Fehler erzeugt; und
einen Schichtenzähler (80) zum Fortschreiten zu einer nächsten Schicht, um ein Lernen durchzuführen, wenn das Ausgangssignal des Fehlerzählers (79) ein Signal ist, das anzeigt, daß der Fehler erzeugt wurde und das Ausgangssig nal des Wiederholungsanzahl-Zählers (30) die maximale Ein gabe-Wiederholungsanzahl ist.
einen Wiederholungsanzahl-Zähler (30) zum Zählen der Wie derholungsanzahl;
einen Komparator (40), der vergleicht, ob das Ausgangssig nal des Wiederholungsanzahl-Zählers (3) der maximalen Ein gabe-Wiederholungsanzahl entspricht;
einen Muster-Zähler (50) zum Zählen von Mustern, wenn ein Signal ausgegeben wird, das anzeigt, daß das Ausgangssig nal des Komparators (40) nicht der maximale Eingabe-Wie derholungswert ist;
eine Speichereinrichtung (60), in der Eingabemuster ge speichert werden, um die Eingabemuster entsprechend dem Ausgangssignal des Muster-Zählers 50 auszugeben;
einen Fehlerzähler (70) zum Zählen von Fehlern, wenn zu mindest eine unter den Synapsengruppen des neuronalen Netzes, das das Lernen durchführt, die Fehler erzeugt; und
einen Schichtenzähler (80) zum Fortschreiten zu einer nächsten Schicht, um ein Lernen durchzuführen, wenn das Ausgangssignal des Fehlerzählers (79) ein Signal ist, das anzeigt, daß der Fehler erzeugt wurde und das Ausgangssig nal des Wiederholungsanzahl-Zählers (30) die maximale Ein gabe-Wiederholungsanzahl ist.
5. Selbstlernendes mehrschichtiges neuronales Netz nach
Anspruch 2, dadurch gekennzeichnet, daß das neuronale Netz
folgendes umfaßt:
erregende Synapsen-MOS-Transistoren, die als Erreger funk tionieren und eine vorbestimmte Anzahl von verschiedenen Gewichtswerten besitzen; und
sperrende Synapsen-MOS-Transistoren, die mit den erregen den Synapsen-MOS-Transistoren verbunden sind, als Sperrer funktionieren und eine vorbestimmte Anzahl von verschiede nen Gewichtswerten besitzen.
erregende Synapsen-MOS-Transistoren, die als Erreger funk tionieren und eine vorbestimmte Anzahl von verschiedenen Gewichtswerten besitzen; und
sperrende Synapsen-MOS-Transistoren, die mit den erregen den Synapsen-MOS-Transistoren verbunden sind, als Sperrer funktionieren und eine vorbestimmte Anzahl von verschiede nen Gewichtswerten besitzen.
6. Lernverfahren in einem selbstlernenden mehrschichtigen
neuronalen Netz, in dem N-bit Eingabedaten und M-bit
gewünschte Ausgabedaten empfangen werden, ein Gewichtswert
jeder Synapse derart angepaßt wird, daß Ausgabedaten ent
sprechend den Eingabedaten erzeugt werden, und Selbstler
nen durchgeführt wird, während eines Fortschreitens zu
einer nächsten Schicht, gekennzeichnet durch die Schritte:
- a) Initialisieren eines Gewichtswerts jeder Synapse;
- b) Empfangen von Eingabedaten und gewünschten Ausgabeda ten entsprechend den Eingabedaten;
- c) Durchführen eines Lernens durch Empfangen der Eingabe daten;
- d) Vergleichen von Ausgabedaten, die sich aus dem Lernen des mehrschichtigen neuronalen Netzes ergeben, mit gewünschten Ausgabedaten, dadurch Erzeugen eines Fehler werts, wenn sie nicht übereinstimmen, und Anpassen eines Gewichtswerts jeder Synapse, und Vervollständigen des Ler nens, wenn sie übereinstimmen; und
- e) Fortschreiten zu einer nächsten Schicht, um die Schritte (b) bis (d) zu wiederholen, wenn ein gewünschtes Ergebnis nicht erhalten wurde, obwohl das Lernen wieder holt für eine vorbestimmte Anzahl von Zeiten durchgeführt wurde.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019920015485A KR0178805B1 (ko) | 1992-08-27 | 1992-08-27 | 스스로 학습이 가능한 다층 신경회로망 및 학습 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4328751A1 true DE4328751A1 (de) | 1994-03-03 |
Family
ID=19338593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4328751A Ceased DE4328751A1 (de) | 1992-08-27 | 1993-08-26 | Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren |
Country Status (5)
Country | Link |
---|---|
US (1) | US5450528A (de) |
JP (1) | JPH06161985A (de) |
KR (1) | KR0178805B1 (de) |
DE (1) | DE4328751A1 (de) |
FR (1) | FR2695232B1 (de) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970007006B1 (ko) * | 1993-08-31 | 1997-05-01 | 한국전자통신연구원 | 인공 신경 회로와 패턴 분리 및 인식용 발진 신경 망의 구조 |
US5630024A (en) * | 1994-01-19 | 1997-05-13 | Nippon Telegraph And Telephone Corporation | Method and apparatus for processing using neural network with reduced calculation amount |
US20100073202A1 (en) * | 2008-09-25 | 2010-03-25 | Mazed Mohammad A | Portable internet appliance |
US7814038B1 (en) | 2007-12-06 | 2010-10-12 | Dominic John Repici | Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks |
US8676734B2 (en) * | 2010-07-07 | 2014-03-18 | Qualcomm, Incorporated | Methods and systems for replaceable synaptic weight storage in neuro-processors |
JP5289647B1 (ja) * | 2012-01-23 | 2013-09-11 | パナソニック株式会社 | ニューラルネットワーク回路の学習方法 |
WO2015001697A1 (ja) | 2013-07-04 | 2015-01-08 | パナソニックIpマネジメント株式会社 | ニューラルネットワーク回路、およびその学習方法 |
CN111602146A (zh) * | 2018-01-16 | 2020-08-28 | 奥林巴斯株式会社 | 数据处理系统和数据处理方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5095443A (en) * | 1988-10-07 | 1992-03-10 | Ricoh Company, Ltd. | Plural neural network system having a successive approximation learning method |
US5003490A (en) * | 1988-10-07 | 1991-03-26 | Hughes Aircraft Company | Neural network signal processor |
US4912647A (en) * | 1988-12-14 | 1990-03-27 | Gte Laboratories Incorporated | Neural network training tool |
-
1992
- 1992-08-27 KR KR1019920015485A patent/KR0178805B1/ko not_active IP Right Cessation
-
1993
- 1993-08-24 JP JP5209703A patent/JPH06161985A/ja active Pending
- 1993-08-26 DE DE4328751A patent/DE4328751A1/de not_active Ceased
- 1993-08-26 FR FR9310271A patent/FR2695232B1/fr not_active Expired - Fee Related
-
1995
- 1995-01-19 US US08/375,251 patent/US5450528A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
KR940004425A (ko) | 1994-03-15 |
JPH06161985A (ja) | 1994-06-10 |
KR0178805B1 (ko) | 1999-05-15 |
FR2695232A1 (fr) | 1994-03-04 |
US5450528A (en) | 1995-09-12 |
FR2695232B1 (fr) | 1996-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4042139C2 (de) | Neuron-Einheit | |
DE102017011754A1 (de) | Maschinenlerneinrichtung zum Lernen eines Montagevorgangs und Komponentenmontagesystem | |
WO1990011564A1 (de) | Netzwerk zum speichern und verarbeiten von signalen | |
DE2034683B2 (de) | Lernfaehige schaltungsanordnung | |
WO2019081241A1 (de) | Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes | |
DE3639055A1 (de) | Verfahren zur betriebsueberwachung und fehlerkorrektur von rechnern eines mehrrechnersystems und mehrrechnersystem | |
DE2447255B2 (de) | Verfahren und Schaltungsanordnungen zur Fehlerprüfung In digitalen Datenübertragungsanlagen | |
DE2518588A1 (de) | Verfahren zur ueberwachung der folgerichtigkeit von codesignalgruppen in einrichtungen der nachrichtentechnik | |
DE4328751A1 (de) | Selbstlernendes mehrschichtiges neuronales Netz und zugehöriges Lernverfahren | |
EP0003480B1 (de) | Schaltungsanordnung zum Umwandeln von Binärinformationen mittels Kontrollbits | |
DE4129561C2 (de) | Informationsverarbeitungssystem | |
DE4121453C2 (de) | Näherungsschlußfolgerungsvorrichtung | |
DE2933830C2 (de) | Programmierbarer Polynomgenerator | |
EP0643353B1 (de) | Vorrichtung und Verfahren zur Datenverarbeitung | |
DE2426253C3 (de) | Vorrichtung zunv ZAehen det Quadratwurzel aus einer binären Zahl | |
DE19623823A1 (de) | Protokollanalysator | |
DE4135278A1 (de) | Verfahren und schaltkreis zum abtasten von tasten fuer ein mikrocomputersystem | |
DE4244014A1 (de) | Verfahren zum Erkennen und Identifizieren von Fehlern an Sensoren | |
DE102018109851A1 (de) | Verfahren und Vorrichtung zum Ermitteln einer Netzkonfiguration eines neuronalen Netzes | |
DE3132611C2 (de) | ||
DE69907622T2 (de) | Verfahren zur Fehlerkorrektur in einem in einer Mehrpegelspeicherzelle gespeicherten Binärwort, mit einer Minimumanzahl von Korrekturbits | |
DE1549105C3 (de) | Codeprüfanordnung für die Korrektur fehlerhaft übertragener Zeichen | |
EP0033468B1 (de) | Einrichtung zur Erzeugung von Bedingungscodes in mikroprogrammgesteuerten Universalrechnern | |
EP0267499B1 (de) | Verfahren zur Paritätsbitermittlung und zur Überwachung der Übertragung beim Datenschieben sowie Schaltungsanordnung zur Durchführung der Verfahren | |
DE2140858C3 (de) | Paritätsbit- Vorhersage schaltung für eine Stellenverschiebeeinrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8141 | Disposal/no request for examination | ||
8110 | Request for examination paragraph 44 | ||
8170 | Reinstatement of the former position | ||
8125 | Change of the main classification |
Ipc: G06N 3/08 |
|
8131 | Rejection |