Registriert seit: 21. Aug 2003
4.856 Beiträge
|
Effekte in Hopfield-NNen
9. Mär 2009, 13:20
Moin!
Ich habe mir ein Hopfield-Neuronales Netz zur Zeichenerkennung gebastelt. Im Moment experimentiere ich mit 100 Neuronen, bzw. einer 10x10 "Pixel" Eingabefläche.
Wenn ich dem Ding 4 Zeichen beibringe, und dann etwas eingebe, was irgendwie annähernd wie eins der gelernten Zeichen aussieht, dann wird dieses Zeichen auch korrekt erkannt. Also vermute ich, kann meine Implementation nicht ganz falsch sein. So weit so gut.
Nun zum weniger erfreulichen Teil: Egal wie absurd meine Eingabe ist, es wird fast immer ein Zeichen erkannt! Auch wenn die Eingabe nichtmal entfernt mit den gelernten Zeichen zu tun hat, der stabile Endzustand ist fast immer ein gelerntes Zeichen (manchmal ist es auch ein invertierter gelernter Zustand und nur sehr sehr selten ein nicht gelernter)! Das ist natürlich dumm, bedeutet es ja jede Menge false positives. Warum konvergiert das Netz da nicht in einen ungelernten Endzustand?!
Nun wäre die konkrete Frage: Ist das einfach ein Effekt der Hopfield-Netze, oder ist da evtl. was an meiner Implementation fehlerhaft?
|