AGB  ·  Datenschutz  ·  Impressum  







Anmelden
Nützliche Links
Registrieren
Thema durchsuchen
Ansicht
Themen-Optionen

Effekte in Hopfield-NNen

Ein Thema von Meflin · begonnen am 9. Mär 2009 · letzter Beitrag vom 10. Mär 2009
 
Benutzerbild von Meflin
Meflin

Registriert seit: 21. Aug 2003
4.856 Beiträge
 
#1

Effekte in Hopfield-NNen

  Alt 9. Mär 2009, 13:20
Moin!

Ich habe mir ein Hopfield-Neuronales Netz zur Zeichenerkennung gebastelt. Im Moment experimentiere ich mit 100 Neuronen, bzw. einer 10x10 "Pixel" Eingabefläche.

Wenn ich dem Ding 4 Zeichen beibringe, und dann etwas eingebe, was irgendwie annähernd wie eins der gelernten Zeichen aussieht, dann wird dieses Zeichen auch korrekt erkannt. Also vermute ich, kann meine Implementation nicht ganz falsch sein. So weit so gut.

Nun zum weniger erfreulichen Teil: Egal wie absurd meine Eingabe ist, es wird fast immer ein Zeichen erkannt! Auch wenn die Eingabe nichtmal entfernt mit den gelernten Zeichen zu tun hat, der stabile Endzustand ist fast immer ein gelerntes Zeichen (manchmal ist es auch ein invertierter gelernter Zustand und nur sehr sehr selten ein nicht gelernter)! Das ist natürlich dumm, bedeutet es ja jede Menge false positives. Warum konvergiert das Netz da nicht in einen ungelernten Endzustand?!

Nun wäre die konkrete Frage: Ist das einfach ein Effekt der Hopfield-Netze, oder ist da evtl. was an meiner Implementation fehlerhaft?
  Mit Zitat antworten Zitat
 


Forumregeln

Es ist dir nicht erlaubt, neue Themen zu verfassen.
Es ist dir nicht erlaubt, auf Beiträge zu antworten.
Es ist dir nicht erlaubt, Anhänge hochzuladen.
Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.
Trackbacks are an
Pingbacks are an
Refbacks are aus

Gehe zu:

Impressum · AGB · Datenschutz · Nach oben
Alle Zeitangaben in WEZ +1. Es ist jetzt 06:54 Uhr.
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024 by Thomas Breitkreuz