Ich benutzte quasi ein halbes
DB-basiertes System, da die Seiteninhalte in der
DB liegen und der Rest (Bilder usw.) im Dateisystem.
Im Grunde könnte man ein
DB-basiertes System mit nur einer einzigen winzigen PHP-Datei erzeugen, welches Alles (
HTML, Bilder, CSS, JS usw.) aus der
DB zieht.
Der Vorteil bei einem reinen
statischen dateibasierten System wäre, daß man eben keine
DB brauch und praktisch keine Sicherheitslücke existiert, wenn im Webserver kein Code ausgeführt wird. (solange der
FTP- und der HTTP-Server sicher sind)
Was man bei der Webseite erstmal betrachen sollte, ob CMS oder nicht.
Es gibt immernoch genügend Leute, welche auf dem PC die Webseite bearbeiten/generieren und dann via
FTP hochladen,
während andere eben ein sich selbt bearbeitbares CMS bevorzugen.
Wie bereits erwähnt, kann man das Schneller nicht beantworten, ohne die genaue Webseite, deren Daten und auch den Server zu kennen.
Werden die Daten life generiert (bei jedem Zugriff) oder gibt es eine Cache, bzw. ein Zwischending, wo nur gewisse Teile vorgeneriert/gecached sind
oder sind alle Daten bereits fertig auslieferbar?
Bei Letzterem kommt es dann nur noch daauf an, wie schnell der Speicher (Dateisystem oder
DB) die Daten liefern kann.
Man nehme nur mal das alte
QC von Borland/Embarcadero, wo am anderen Ende kein "normaler" Webserver, sondern ein Delphiprogramm hängt.
PS:
http://www.opensourcecms.com/