Zitat von
himitsu:
Och Luckie ... wolltest du es nicht eh schon immer möglichst spartanisch und nur mit dem nötigsten/wichtigsten ausgestatet haben
Und so schlimm ist deine Seite ja nicht ... außerdem gibt es doch schon genug überladene Webseiten im Netz -.-'' (und du weißt schon ... aufwendigere Seite = mehr Traffic)
Das gilt für meine Seite für Entwickler: (
http://developer.luckie-online.de) Für die Seite, die ich immer auf den Downloadpartalen angebe und die für das breite Publikum gedacht ist (
http://programme.luckie-online.de) sollte es eigentlich schon etwas freundlicheres sein.
Zitat:
So, und jetzt nochmal was zum Thema ^^
Falls du nicht die Quelle des Übels ausschalten kannst, könntest du ja immernoch versuchen den vorhandenen Traffic auszulesen, oder halt einfach nur mitzuzählen ... und sobald ein bestimmter Wert überschritten wird, werden halt die Downloads gesperrt
Das ist aber nicht sehr benutzerfreundlich. Jemand der einmal auf einen verweigerten Download stößt, wird nicht so schnell wieder kommen. Ich würde da eher eine [google]robots.txt/google] Datei ins Root legen und damit steuern welche Seiten die Spider katalogisieren dürfen und welche nicht. Damit sollte sich der Traffic, so fern er denn von Spidern stammt, etwas kontrollieren lassen.