Uhh..nett, das teil von Brother.
Aber...:
Zitat:
Für die Entwicklung des AiRScouter verwendete Brother vorhandene optische Technologien, wie sie auch in Laserdruckern des Unternehmens zum Einsatz kommen
Wenn ich mir überlege, wie oft mein Brother-Farblaser spinnt....hoffentlich gibts dann bei der Brille bei einem Fehler ala "Papierstau" keine gegrillte Netzhaut
Edit:
Das von Medium gepostete EyeTap sieht mir da doch noch etwas fortgeschrittener und ausgereifter aus, allerdings gibt es bei dem Teil ein etwas grösseres Problem:
Das EyeTap erkennt ja, indem es das Auge extrem genau scannt, was es gerade focusiert und wohin es blickt und es werden die HUD-Informationen kolinear zum einfallenden Licht eingespeist.
Das erfordert ein sehr aufwändiges Image-Processing des Auges, um das zu ermitteln und dann auch noch, um die "Lichtstrahlen / Winkel etc." für das HUD zu berechnen (laienhaft gesprochen...)
Die schrieben ja in ihren Dokumenten irgendwo, dass die Entwicklung nun schneller geht, da eine neue Grafikkarten-Generation von nVidia raus kam und die noch mehr CUDA-Kerne zur Verfügung haben.
Das heisst ja nach meinem Verständnis, dass die das Processing des Auges mit mehreren CUDA-Karten durchführen, und diese Brickets passen nicht mehr so ganz in einen Handheld
Ausser, man schafft die Übetragung von und zur Brille zum CUDA-Rechenknecht irgendwie latenzfrei und mit genügend hoher Bandbreite per Funknetz.