Squid+SquidGuard: Programme zur Auswertung

hobby

#man women
Hallo,

das Thema Squid, SquidGuard ist hier ja noch nicht so stark thematisiert....

Um die squid access.log auszuwerten benutze ich derzeit das programm sarg ...leider läuft es jetzt nicht mehr, da folgender error kommt:
Code:
server# sarg
SARG: Records in file: 2, reading: 0.00%
Segmentation fault (core dumped)

anmerkung: falls jm. dasselbe problem hat: ich habe im sourceforge forum von sarg dazu einen thread erstellt... (hier )

jedenfalls...meine frage:

kennt jemand ein gutes programm zur auswertung der squid access.log und ggf. ebenfalls für die squidGuard logs?

Als bonbon wäre eine funktion wünscheswert, direkt vom auswertungsprogramm, "böse" uls zu einer squidGuard blockliste hinzufügen zu können...

weiß jemand vielleicht etwas passendes??? (screenshots wäre natürlich ebenfalls ein sehr leckeres bonbon...) :D

vielen dank für ggf. aufkommende mühe!!!

danke!
bye!

ps.: nein, meine shift-taste klemmt nicht ...
:-)
 
Zuletzt bearbeitet:
also ich benutze webalizer, läuft einmal am tag (mitternacht) per cron und liefert schöne, ausführliche statistiken (mit diagrammen etc.). der durchlauf dauert bei einem ca. 350mb access.log ein paar minuten...
ich bin damit voll und ganz zufrieden, da es ausserdem verschieden "top ten" gibt, also wer erzeugt am meisten traffic, welche websites werden am häufigsten aufgerufen wann ist am meisten traffic etc.
 
ich benutze ebenfalls, parallel, webalizer..
hatte mir das so vorgestellt, webalizer 1x monat laufen zu lassen und sarg 1x tag...

webalizer ist wirklich sehr gut für traffic veranschaulichung und die top sites von allen usern..,

aber ich muss ein programm haben, wo ich explizit nachvollziehen kann, wer wann wo wielangen war und wieviel traffic er verursacht hat...desweiteren müsste ich direkt von dieser applikation die möglichkeit haben, via mausklick sites in eine bann-liste für SQ reinschieben zu können, denn das händische eintragen via ssh is doch bissl aufwenig auf die dauer...

aber ansonsten ist mir webalizer zu beschränkt...wiegesagt, nur für traffic auswertung ist es wirklich unschlagbar!
 
Hallo und erstmal sorry, dass ich diesen alten Schinken nochmal ausgrabe.

ich such ebenfalls ein programm, dass mir an hand der Client ip genaus sagen kann wer wann, wo rumgesurft ist.

auf http://www.squid-cache.org/Scripts/ war ich schon, aber ich hab langsam, keine lustmehr programme zu installieren und wieder runter zu schmeissen.

Webalizer, sarg sehe ja ganz gut aus. ich brauch aber sowas in der folgender richtung:
Code:
ip        datum       url    [dauer]

thx mario
 
Webalizer, sarg sehe ja ganz gut aus.
Noch eine Alternative:
Ich benutze für meine Logauswertung AWStats.

ich brauch aber sowas in der folgender richtung:
Code:
ip        datum        url        [dauer]
Also "ip", "datum", "url" findest du ja eh schon als Liste im normalen Logfile. ;-) Die Dauer hast du ja schon selbst (wohlweislich) in Klammern gesetzt. AWStats z.B. bietet dir hier noch eine grobe Übersicht/Schätzung über die Auenthaltsdauer auf der kompletten Seite (vielviel Besucher blieben 0s-30s, wieviel 30s-2mn, usw.). Ansonsten kannst du den, wie die anderen Analyser wohl auch, recht gut konfigurieren was du in der Ausgabe sehen willst / wie er es ausgeben soll.
 
awk '{ split($7, u, "/"); print $1, substr($4, 2), u[1] "//" u[3] }'

nicht schön aber selten ;-)
(hab da noch die '[´ vorm Datum entferent)
 
hallo, erstmal sorry für die späte antwort,

awk '{ split($7, u, "/"); print $1, substr($4, 2), u[1] "//" u[3] }'

das ist cool.

danke
 
Zurück
Oben