Nur damit ich mal ne Vorstellung kriege: Wieviele Daten werden denn so durschnittlich von einem Peer an einen anderen in sagen wir mal 1 Minute übertragen? Bei P2P ist der üblicherweise niedrige Upstream ja immer das Problem. Wenn also in den umliegenden Clustern 1.000 Spieler sind, müsste der Peer alle 1.000 up to date halten plus die Zentraldatenbank? Oder werden je nach verfügbarer Bandbreite Super-Nodes bestimmt, die schwächeren Nodes die Arbeit abnehmen? Oder eine lokale Hierarchie?
Ich denke die Super-Nodes würden sich anbieten, sobald der Peer erkennt, dass seine Bandbreite zum Aktualisieren der anderen Peers nicht mehr ausreicht. Könnte man zentral über den Tracker steuern. Ist kein Super-Node vorhanden könnte der Tracker einen Server zuschalten, der als Super-Node agiert.
Ich nehme an, dass verschiedene Klassen von Informationen vorgesehen sind? Je weiter weg desto weniger Infos müssen übertragen werden. Das wäre auch ein gutes Maß für die Priorisierungs-Algorithmen in der Kommunikation.
Ist alles ins Unreine geschrieben, macht nur mal wieder Spaß ein bisschen über P2P nachzudenken (hab meine Diplomarbeit über P2P Video-On-Demand geschrieben
)