Moin moin!
Dieses Thema steht bewusst in Programmieren allgemein, da es mir nicht um die Umsetzung in einer bestimmten Sprache, sondern vielmehr um die Problematik im Allgemeinen geht.
Auf einer Weltkarte können beliebige Punkte markiert werden. Zu diesen Punkten sind die Geokoordinaten bekannt (GPS-Koordinaten). Zu diesen Punkten soll nun automatisch die dortige Lokalzeit berechnet werden.
Das ganze wäre ja schön einfach, wenn die Zeitzonen strikt eingehalten worden wären. Dann müsste man nur den Längengrad betrachten und wüsste, was man dazu bzw. wegrechen muss. Bekanntlich ist das ja aber leider nicht der Fall und es geht da teilweise "drunter und drüber"
(vgl:
http://www.mygeo.info/karten/zeitzon...e_cia_2007.png )
Die einzige Idee, die ich nun spontan hatte, wäre die Zeitzonen irgendwie in Poygone zu packen und die Geokoordinaten irgendwie in das Koordinatensystem dieser Polygone zu übertragen. In welchem Polygon sich ein Punkt befindet sollte ja mathematisch lösbar sein. Aber auch das ist nur eine vage Idee und weit von einer konkreten Implementierungsstrategie entfernt.
Habt ihr irgendwelche anderen / besseren / detaillierteren Ideen, wie man dieses Problem lösen könnte?