Mir ist nur aufgefallen, dass so gut wie überall, wo man Sofware laden kann, HTTP genutzt wird.
Das liegt nur daran, weil es einfach ist.
HTTP ist bei Webseiten nunmal schon offen, um die Webseite anzuzeigen.
Bei
FTP müßte man erst einen Gastzugang einrichten, welcher ohne Passwort, geheimen Nutzernamen und vorallem mit Nur-Lese-Rechten versehen ist.
FTP scheint (vermutlich außerhalb der spezifikation und nicht bei allen
FTP-Servern auch Teilweise Down-/Uploads zu unterstüzen ... jedenfalls glaube ich mich zu erinnern, dß der Filezilla sowas kann.
Wird die Datei würklich nur vom HTTP-Server rausgegeben, oder arbeitet da im Hintergrund z.B. noch PHP, CGI oder sowas, welches den Dateizugriff überwacht?
Da kann z.b. ein Timeout bei der Scriptausfühung zuschlagen, wenn der Download langsam ist.
Und was vorallem PHP-Scripte gern mal vergessen, also z.B. die Dateigröße im Header anzugeben, da kann bei kurzen Downloadverzögerungen der Browser schnell mal denken die Datei ist fertig, da er dann auf das Streamende wartet, anstatt zu warten, bis genügend Bytes eingetroffen sind.
Ach ja,
FTP "lesen" kann eigentlich nahezu jeder Browser. (der FF kann schreiben nur via Plugin und der IE konnte früher auch mal von sich aus schreiben, aber das hat der irgendwann verlernt
)