bsdforen freebsd wiki zum offline lesen?

bsd-yusa

semi-pro geek
hallo,
gibbets datt? am besten als tar.gz
sorry wenn ich irgendwo den link übersehen haben sollte, ich gebe zu ich habe nicht alle 52 beiträge hier gelesen, nur stichprobenartig.

mfg
 
Die Idee ist ziemlich toll. Es gibt download tools mit denen man Rekursiv vollständige Websites herunterladen kann, aber wir sollten vielleicht lieber selbst Snapshots anfertigen.

Bis wir das Feature implementiert haben, wird es aber eine Weile dauern. Ich habe schon ein paar Ideen.
 
gerne. ein paar wichtige themen habe ich schon ganz normal mit dem browser als komplette seite gespeichert (scripting howto, mozilla mit java/flash,...)
werde mich aber nach so einem recursiv fetcher umschauen, hört sich ebenfalls gut an :)
 
gerne. ein paar wichtige themen habe ich schon ganz normal mit dem browser als komplette seite gespeichert (scripting howto, mozilla mit java/flash,...)
werde mich aber nach so einem recursiv fetcher umschauen, hört sich ebenfalls gut an :)

Code:
wget -r

Das sollte schonmal gut funktionieren. Afaik auch mit anpassung des lokalen Pfades, so das man dann auch ganz bequem durch surfen kann.

Grüße!
 
Für das Dokuwiki gibts doch so einen Hack, das man die Seiten als pdf exportieren kann: http://www.dokuwiki.org/tips:pdfexport

Vllt hilft das ja schon mal und man kann die ja auch alle zu einem großen tar gzip/bzip2 Ball zusammenfassen und auf die Startseite zum Download bereitstellen. Man müsste dann nur ein Script anlegen, was das regelmäßig aktualisiert.
 
hallo MrMarv,
find ich cool den tipp.
ein entsprechender wget läuft gerade und ich hoffe die jungs nehmen es mir nicht übel xD
bin gerade bei 10 mb. bei 20 hör' ich auf, weil so viel bandbreite habe ich nicht, deswegen wurde dieses thema angeschnitten ;)

mfg

edit: abbruch... ich glaube es wurde versucht, das komplette wiki.bsdforen.org zu fetchen.
edit2: ich glaube es hat doch geklappt :)
 
Zuletzt bearbeitet:
Zurück
Oben