Hai perfettamente ragione[supersaibal]Originariamente inviato da Ferro9
...il grosso limite sia nel linguaggio usato. Mi spiego: ruotando i log una volta alla settimana, ho mediamente file di circa 2-300Mb per ogni sito. Capisci che è una bella complicazione comprimerli, downloadarli (arghhh! il neologismo assassino...) e poi processarli in locale. Se invece il linguaggio fosse Perl o PHP (o anche C) si potrebbero processare direttamente sul server, magari automatizzando il tutto. [/supersaibal]
Ovviamente dipende dall'uso che si fa del programma.
Personalmente ho usato questa utility soprattutto su log di siti nuovi, dove ancora gli spider non erano mai passati.
Mi ha permesso di imparare moltissime cose sul rapporto causa-effetto fra aggiornamenti del sito e passaggio degli spider ed anche sulle correlazioni fra la struttura dei link, quella delle cartelle e la velocità degli spider ad includere le pagine.