Hmm..
Schon mal
https://www.mediawiki.org/wiki/API:Main_page/de
angeschaut?
Das ist doch eine
API, um komplette Wiki-Seiten als JSON zu laden!
Oder habe ich mich da verlesen?
Es gibt sogar
API, um direkt auf den
MySQL mit nem
SQL-
Query zugreifen zu können...
Nein, du hast dich nicht verlesen
Aber hast du mal den Output davon angeschaut? Da kommen dann so nette Daten daher wie
Code:
{{#ifexist:Template:POTD protected/{{#time:Y-m-d}}|{{POTD protected/{{#time:Y-m-d}}}}
die du dann erst noch parsen und irgendwie verarbeiten musst.
Und per
SQL direkt auf die Datenbank zugreifen - erstens ist die Öffnung von
mySQL gegens Internet vom Sicherheitsaspekt her als selbstmörderisch zu betrachten, zum anderen ist das ganze ja ein Wiki - und nicht eine strukturierte Datenbank von Dateien. Ein
Code:
SELECT Files FROM HighlySophisticatedDatabase
reicht da nicht.
Du müsstest also die gesamte MediaWiki-Logik nachbauen um diese Informationen verarbeiten zu können - und das dürfte doch ein etwas größeres Projekt werden...
EDIT: Auch die Such- und Verlinkungsfunktionen der Mediawiki gehen damit ja auch verloren bzw. müssen nachgebildet werden. Aber gerade das wär ja der Vorteil, das Ganze im Mediawiki zu lassen und mit sowas wie einem Browser drauf zuzugreifen.
Luggi