![]() |
Bilderkennung
Hey hier bin ich mal wieder.
Und nun in eigenem Interesse. Mich würde interessieren wie man eine Bild Erkennung programmiert und welche Sprache oder besser welche Programme man braucht um eine Bilderkennung Software zu programmieren. Hat da jemand Erfahrung gemacht? LG Finki |
AW: Bilderkennung
Was willst du im Bild erkennen?
Deine Oma, einen roten Fleck, Mädels oben ohne, Text, Barcodes, ... Die Sprache ist da irgendwie erstmal egal, vor allem solange nicht klar ist, wohin die Reise gehen soll |
AW: Bilderkennung
Am Ende soll ein Programm heraus kommen in das ich 2 Bilder laden Kann und dann schreib ich Namen einer Sache, zB Baum, welche auf beiden Bildern zusehen ist und das Programm soll mir dann zeigen was/ wo die Sache ist.
Aber was meintest du mit den Mädchen oben ohne:? Ne Spaß den bedarf hab ich grade nicht |
AW: Bilderkennung
Ist der zu suchende Baum ähnlich oder exakt (pixelgenau) gleich (wurde aus dem anderen Bild heraus kopiert)?
|
AW: Bilderkennung
Eher ähnlich
|
AW: Bilderkennung
Das ist mehr oder weniger ein aktuelles Forschungsgebiet.
Mit anderen Worten: Wenn du so fragen musst, gib es auf ;). Nicht böse gemeint, ich könnte es selber ja auch nicht. Aber wenn es dich interessiert, kannst du dir ja dieses Projekt aus der DP mal anschauen: ![]() Edit: ![]() |
AW: Bilderkennung
Wenn man sich so anguckt was Google so bei seiner Bildersuche bietet - und die ist schon gut - dann könnte man sich da paar Ideen rauspicken. Also nochmal, ich weiß nicht wie sie das machen, aber man kann da schon was erkennen.
Zuerst einmal erkennt Google mehr oder weniger die Farbe des Bildes. Also ein Bild besteht natürlich aus vielen Farben, aber es tendiert in eine Richtung, z. B. da gibt es viel grün, oder gelb oder rot. Dann ist das Bild eben grün, gelb oder rot. Sucht man ein Gesicht und wählt die Farbe Lila, tendiert das Bild in diese Richtung. Ein Baum hat zum Beispiel einen braunen und grünen Klecks. Der Braune ist unter dem Grünen. Das könnte schon mal ein Anzeichen für einen Baum sein. Es könnte aber auch ein Afrikaner mit einem grünen Pullover sein, der einen Handstand macht. Ich denke (ich denke, ich weiß es nicht), dass Google die Bilder reduziert. So kann man schneller Bereiche erkennen. Nehmen wir an du hast ein Bild 1000 x 1000 Pixel und ein Bild 300 x 300 Pixel. Du vergleichst jetzt aber nicht die Pixel miteinander, sondern reduzierst das Bild zuerst auf 10 x 10 Pixel. Sind sich die Bilder ähnlich, sollten die reduzierten Bilder auch ähnlich sein. Evtl. sogar gleich. |
AW: Bilderkennung
Ich glaube, dass Google mehrere Ansätze kombiniert.
1. Ein Algorithmus um identische ("pixelgleiche") Bilder (oder Teilbilder) zu finden. 2. Verschiedene Algorithmen um basierend auf Farbe, Helligkeitsverteilung usw. "ähnliche" Bilder zu erkennen. Da merkt man auch immer sofort, dass die Ergebnisse deutlich schlechter sind als bei 1. Und 3. dürfte Google auch die Ergebnisse aus der "Vorwärts"-Bildersuche mitberücksichtigen. Das heißt, Google wird sich (bei bekannten Bildern) wohl angucken, bei welchen Suchworten das eingegebene Bild in der normalen Google-Bildersuche am häufigsten auftaucht und dann andere Bilder aus seiner Datenbank heraussuchen, die sich viele Suchworte mit dem Quellbild teilen. Wenn es sehr eindeutig ist, gibt Google ja sogar einen vorgeschlagenen Suchbegriff aus, dann steht da z.B. "Vermutung für dieses Bild: Afrikaner, der Kopfstand macht". Ich denke, dass Google vor allem durch den letzten Punkt deutlich bessere Ergebnisse liefern kann als Mitbewerber wie z.B. ![]() |
AW: Bilderkennung
Zitat:
Die Frage von Finki würde ich eher als maschinelles Lernen einordnen (obwohl die Themen durchaus Berührungspunkte haben). Allerdings ist die Aufgaben-Stellung ("Finde etwas, was auf beiden Bildern vorhanden ist und nenne es 'Baum'.") auch für einen Menschen nicht wirklich einfach :mrgreen: |
AW: Bilderkennung
Gerade bei derart generischen Begriffen wie "Baum", "Haus", "Auto" usw. wird es eher etwas für einen Science Fiction Autor als einen Entwickler. Namenlosers dritter Punkt erledigt dabei einen sehr wesentlichen Beitrag: Es stellt einen Kontext zu einem Bild her, ohne dass Objekte im Bild direkt erkannt werden müssen. Eine riesige Hürde die dort via Datamining geschickt genommen wird, für einen Nicht-Googleaner aber kaum erreichbar ist.
Das best mögliche, was man ohne Forschungsteam im Rücken imho noch ganz gut schaffen könnte, wäre eine Ähnlichkeitsanalyse zweier Bilder (bzw. Teilbilder). Das alleine ist schon richtig übel harter Tobak. Den Schwung zum gesprochenen/geschriebenen Wort würde ich mir weit hinten ans ToDo packen, noch hinter Doktor der Mathematik werden und solchen Dingen :D Zu Fourierdeskriptoren: Die sind auch nicht immer so einfach einsetzbar. Man braucht schon einen gewaltigen Pre-Processing Schritt um gewünschte Objekte vorab zu isolieren, da man sie dann noch vektorisieren muss. Und aus Bitmaps dann noch z.B. einen generischen Baum heraus zu bekommen... ich glaube das ist nicht wirklich ein Königsweg, weil das Pre-Processing ja dann schon das erledigen müsste, was man mit dem FD erreichen will. |
Alle Zeitangaben in WEZ +1. Es ist jetzt 14:46 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024-2025 by Thomas Breitkreuz