![]() |
AW: Videoanalyse (ähnlich wie Lichtschranke)
Tja - so einfach wie Hänschen sich das vorstellt, ist es nicht.
Wenn das ganze auf dem Desktop läuft, sieht es wunderbar aus. Da ist ja auch die Anzeige statisch und der Unterschied zwischen dem Referenzbild und dem beobachteten Bild ist bei 0%. Wenn sich etwas bewegt, schnellt der Wert sofort auf 50-100%. Bei der Betrachtung eines Streams der Webcam hab ich schon im Normalfall eine Differenz bei 50-60% der Pixel (Bildrauschen). Wenn sich dann etwas durch den Erfassungsbereich bewegt, steigt der Wert um gerade mal 2-3%. Schlimmer noch ist die grottige Framerate der Webcam. Schnelle Objekte springen manchmal direkt über den Erfassungsbereich hinweg ohne eine Reaktion auszulösen. Ich glaube, ich gehe nochmals in die Planungsphase. Aber Danke für die Tipps. Dazugelernt habe ich in jedem Fall. |
AW: Videoanalyse (ähnlich wie Lichtschranke)
Zitat:
Zitat:
Zitat:
Nicht ganz unwichtig ist auch, wie du Farbunterschiede errechnest. Es kann z.B. schon hilfreich sein statt im RGB z.B. im YCC Farbraum zu arbeiten, da man dort mal damit spielen kann, ob eher Farb- oder eher Helligkeitsunterschiede zu gewichten sind. Wie machst du das mit dem Referenzbild eigentlich? Weil da kommen dann ja noch so lustige Sachen wie Tageszeitabhängige Beleuchtung mit rein, vor allem abends auch die Lichtkegel der Autos, oder gar Straßenlaternen die zu einer komplett anderen Farbwiedergabe führen als Sonnenlicht. |
AW: Videoanalyse (ähnlich wie Lichtschranke)
Zitat:
Du hast nicht erläutert, wie du den Vergleich nun machst. Zählst du die Pixel die nicht genau gleich sind? Das klingt definitiv nicht robust genug. Abgesehen von der schlechten Framerate kannst du probieren, an der Kamera den Helligkeitsausgleich ausschalten und den Autofokus ausmachen. |
AW: Videoanalyse (ähnlich wie Lichtschranke)
Ich würde dafür eine ordentliche Bildverarbeitung einsetzen. Beispielsweise OpenCV, dafür gibt es gute INterdaces zu Python, C++ und wohl auch C#.
Damit kannst du dann das Objekt in allen Bildern isolieren und die Position bestimmen. Wenn du nun die Kamera kalibrierst, oder ein selbstgebasteltes Mapping von Pixeln zu Metern einbaust, kannst du die Geschwindigkeit gut messen. Das Problem mit "Zeit, bis der andere Pixel sich ändert" ist in der Regel, dass das Objekt sich in einem Frame viele Pixel bewegt. die Messung ist also ziemlich ungenau. Falls das zu krass klingt: Eine Kamera zu kalibrieren ist wirklich nicht aufwändig, die druckst dir ein Punkt- oder Schachbrettmuster aus und machst 20 Bilder davon an verschiedenen Stellen. Es gibt da vermutlich auch ein paar Videos, wie sows geht. Das hier habe ich auf die Schnelle gefunden: ![]() |
AW: Videoanalyse (ähnlich wie Lichtschranke)
Laßt mich mal versuche, das Problem technisch zu analysieren:
|
AW: Videoanalyse (ähnlich wie Lichtschranke)
Oh Vorsicht. Sobald man Richtungserkennung haben will, kommen ungleich komplexere Themen wie Feature-Point-Extraction und/oder Objekterkennung mit ins Spiel. Das rein Anhand einer "Farbgrenze" zu machen ist das Gegenteil von Robust/Stabil. Bei der sugerierten unterirdischen Framerate ist das selbst mit den genannten Methoden noch extrem wackelig.
Beim Thema Geschwindigkeit sind wir ja eigentlich noch gar nicht. Es gilt zunächst mal überhaupt einigermaßen Verlässlich das Ereignis "Auto ist jetzt im Bild" zu ermitteln. (Bzw. irgend etwas, was nicht Asphaltfarben ist. Wobei noch zu bedenken ist, ob "Asphaltfarbe" ein Begriff ist, der von Tageszeit und/oder anderen Bedingungen losgelöst definierbar ist.) Vermutlich wäre am Ende wirklich ein Frame-by-Frame Vergleich besser als ein statisches Referenzbild. Dabei wird dann aber das Thema der Änderungsrate interessant, sprich sozusagen die Ableitung der absoluten Änderung. Erst wenn diese ausreichend groß wird kann man vermutlich von einem "Auto-ähnlichen Ereignis" reden. (Und da ist immer noch oberwichtig wie man "Änderung" errechnet. In Graustufen würde ich z.B. nicht konvertieren - warum sollte man sich wertvolle Infos zerbröseln, wenn man sie doch ohnehin bekommt? Es ist so ja schon schwer genug ein stabiles Verfahren dafür zu erstellen.) All das aber auch erst nachdem man das Rauschen weggefiltert hat. Aber nicht zu viel! Plötzliches Einschalten von Straßenlaternen ist übrigens auch eine schnelle Änderung bei der die Ableitung groß werden dürfte. 100%ig wird man das vermutlich eh nicht in den Griff bekommen. Das geht nur, wenn man eine definierte konstante Beleuchtung garantieren kann, wie z.B. bei optischen Verfahren in der Industrie, wo Werkstücke in der Regel für sowas durch eine spezielle abgeschottete Box gefahren werden, in der immer die gleichen, bekannten Lichtverhältnisse vorherrschen. Ja, natürlich gibt es Systeme wie Googles fahrerloses Auto, welches erstaunlich gut Dinge in seiner Umgebung klassifizieren kann. Hier stecken aber auch Mannjahrzehnte an Forschung und Entwicklung, sowie spezialisierte Hardware (mit einer ähnlichen Aufwandsstatistik) drin. Eine auch nur ansatzweise brauchbare Geschwindigkeitsermittlung wird nachher sowieso wenn überhaupt nur dann gehen, wenn die Framerate um ein Vielfaches besser wird als "Oh, mein Auto ist soeben in voller Länge durch meinen Erfassungsbereich geflutscht". Je nach Abstand zum Auto sollten so 15-30fps eine absolute Untergrenze sein, wo man vielleicht, eventuell, mit viel Vorsicht einen Wert ermitteln kann, der zumindest etwa eine Größenordnung wiedergibt. |
AW: Videoanalyse (ähnlich wie Lichtschranke)
Ups - hier tut sich ja noch was. Liegt es an den Feiertagen?
@Persau - du denkst zu große und professionell. Meine Überlegung war wirklich, nur einen winzigen (vllt 64 Pixel) Bereich zu beobachten und wenn sich dort etwas tut, die Zeit zu stoppen, bis sich in einem anderen Bereich des Bildes etwas tut. Mit der Zeitdifferenz und der Entfernung zwischen den Punkten in der Realität, könnte man die Geschwindigkeit ermitteln (dachte ich). Das Rekalibrieren hätte man automatisch alle paar Minuten machen können. Die ganze Geschichte war nicht gedacht über Tage ohne Aufsicht zu arbeiten. Bisher hatte ich das von Hand mit der Stoppuhr und zwei Geländemarken gemacht. Aber die Webcam ist auf jeden Fall ein Hinder- und Ärgernis ![]() |
AW: Videoanalyse (ähnlich wie Lichtschranke)
Zitat:
Zitat:
![]() ![]() |
AW: Videoanalyse (ähnlich wie Lichtschranke)
@Perlsau
Nicht böse sein. Ich habe es eher anerkennend gemeint. Zu viel Mühe, für mein kleines Problem. Das ergab sich auch aus deinem achten Punkt: "Um nun sowas wie eine Geschwindigkeit bestimmen zu können, wird der Bildbereich nach dem erstn Feststellen einer Farbänderung in Bewegungsrichtung reduziert: Kommt die Bewegung z.B. von rechts, wird der zu beobachtende Ausschnitt rechts um eine festgelegte Anzahl an Pixeln beschnitten." Das geht über mein Ziel Durchfahren von Start- und Zielpunkt deutlich hinaus - oder verstehe ich das falsch. Ich habe versucht meine kleine Aufgabe mit Bordmitteln zu lösen und musste dabei erkennen, dass Probleme auftauchen, wo ich sie nicht vermutet habe. Ob ich mir deshalb aber eine bessere (wohl auch teurere Webcam) kaufe, bezweifle ich. Ich wollte mir mit der Aufgabenstellung etwas die Zeitvertreiben (was auch gelungen ist). Von der Lösung des Problems hängt nicht mein Leben ab. Schöne Feiertage noch... |
AW: Videoanalyse (ähnlich wie Lichtschranke)
Zunächst als Hinweis: Die Videoüberwachung öffentlicher Straßen mittels fest installierter Kamera ist illegal.
Ich verstehe nicht, warum hier die Zeitspanne gemessen werden soll, um die Geschwindigkeit zu ermitteln. Durch die fesgelegte Framerate werden Bilder in bestimmten Zeitabschnitten gefertigt. Also müsste man doch die zurückgelegte Strecke ermitteln. Sprich zuerst den Bereich kontrollieren, in welchem das Objekt zuerst auftauchen muss. Dann nach einer bestimmten Zeitspanne (Anzahl von Bildern) den Bereich, in welchem sich das Objekt dann befinden sollte. Daraus die zurückgelegte Strecke ermitteln und die Geschwindigkeit berechnen. :? |
Alle Zeitangaben in WEZ +1. Es ist jetzt 20:30 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024-2025 by Thomas Breitkreuz