ja, leider wars bei mir auch down vorhin. Ich kann mich auch wieder erinnern, dass ich keinen vernünftigen Code dafür gefunden habe, nur eigene Sachen runter zu laden. Entweder die Hierarchiestruktur der Site ist dafür nicht geeignet, oder ich kann das einfach nicht.
Gibt man den (r)ekursiv Wert zu hoch an, dann fängt wget an, auch alle andere Teilnehmer runterzuladen. Da hatte ich schon mal 15G Daten auf der Platte, bevor ich den Wahnsinn dann abbrach.
You are viewing a single comment's thread from:
Oh wow, 15gb text scrapen ist heftig 😄