Ich sehe bei so einer "Augmented Reality"-Brille eher ein physikalisches Problem als ein technisches:
Wenn der Abstand zwischen Auge und Info-HUD sehr gering ist, wie es ja bei einer Brille der Fall ist, kann das Auge entweder das HUD oder die Umgebung fokussieren, aber nicht beides gleichzeitig.
Dazu bräuchte es, wie z.b. im Sucher einer Spiegelreflexkamera, eine komplexe Optik, die das HUD virtuell in die "Unendlichkeit" projeziert, damit ist es aber dann wieder Essig mit einer schicken, dünnen Brille
Deswegen entscheiden sich die meisten, die in diesem Bereich forschen, für einen von zwei gangbaren Wegen:
1) Die Realität des realen Gesichtsfeldes wird vollständig verdeckt und mit Kameras auf ein Display vor den Augen projeziert, damit das Auge sich auf das Display konzentriert. ("Cyber-Helm")
2) Man nimmt keine Brille, sondern ein externes Gerät (Tablet / Smartphone) mit Kamera, das die Umgebung hinter dem Gerät aufzeichnet und Zusatzinfos einblendet.
Dieses wird dann aber in der Hand getragen oder es wird, wie beim Auto, auf einer zum Benutzer im festen Abstand montierten, durchsichtigen Scheibe projeziert, was im Endeffekt das gleiche ist, nur dass man es nicht hält.
Der Abstand ist aber wesentlich grösser als bei einer Brille, so dass man die eingeblendeten Informationen auch gut zusammen mit der Umgebung wahrnehmen kann.
Vor dem eigentlichen Einblenden der Zusatz-Infos steht ja, technisch gesehen, erst einmal eine Objekt-Erkennung im Gerät.
Generell würde sich dafür ein Smartphone oder Tablet für den Start denke ich schon anbieten. Immerhin haben die alle möglichen Sensoren, vor Allem GPS.
Wenn nun der Bereich, indem sich der Benutzer bewegen kann, begrenzt ist und somit der Standort der Objekte bekannt ist, zu denen man Zusatz-Infos einblenden will, lässt sich denke ich da über Muster-Erkennung einiges machen, um ein Objekt aus einem engen Rahmen in Frage kommendender Objekte im befindlichen Bereich zu identifizieren.
In der "freien Wildbahn" ohne feste Position-zu-Objekt Zuordnung jedoch hat das aber, soviel ich weiss, bis auf das Militär mit einem Millionen (oder Milliarden?)-Etat noch keiner geschafft.
Und selbst die haben noch keine Lösung für die Praxis.
Da ist man ja im Forschungsbereich noch ganz weit entfernt. Man denke nur an die Roboter, die Kuchen backen oder dergleichen und dabei die Töpfe / Schneebesen selbst erkennen.
Das funktioniert auch noch nicht wirklich gut, obwohl von den in Frage kommenden Objekten selbst CAD-Modelle in den Robotern gespeichert sind und die Objekte nicht einmal minimal von der vorgegebenen Form und Grösse abweichen dürfen.
[Update]
Rodenstock forscht anscheinend gerade an so einer HUD-Brille, nennt sich "Informance". Leider wurde der Releasetermin von anfänglich 2009 auf unbekannte Zeit verschoben bzw. es ist gar nicht sicher, ob sie jemals rauskommt.
Ich frage mich eh, wie diese überhaupt funktionieren soll, da diese wirklich dünn und klein ist.
Wahrscheinlich muss das Auge dabei immer hin- und herfokussieren..?