![]() |
Große Logfiles analysieren
Hi Xperts,
nach welchem Prinzip analysiert ihr große Log-Dateien ? Ich möchte eine kleine Auswertung für die Squid Access-Log Datei schreiben. Z.Z. lade ich die access.log in eine Stringliste und formatiere sie (Unix-Datumsformat umrechenen und uninteressante Infos löschen). Bei ca. 50.000 Einträgen dauert es eine ganze Weile (je nach Rechnerleistung 5-10 Min). Die Formatierung ist auch noch nicht das Problem und könnte sicherlich noch optimiert werden. Als Test-Beispiel habe ich jetzt eine access.log von 350MB !!!! Ich glaube das das generell ein wenig die SL´s überfordern könnte. Tools wie der Webalizer machen das irgendwie viel schneller...nur wie ? THX für die Hilfe ! |
Re: Große Logfiles analysieren
Zitat:
![]() ...:cat:... |
Alle Zeitangaben in WEZ +1. Es ist jetzt 03:04 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
LinkBacks Enabled by vBSEO © 2011, Crawlability, Inc.
Delphi-PRAXiS (c) 2002 - 2023 by Daniel R. Wolf, 2024-2025 by Thomas Breitkreuz