Mit wget in der shell komplette Website kopieren als mirror oder offline-archiv
- –mirror
macht wget rekursiv, fasst dolgende optionen zusammen ‘-r -l inf -N’ - –adjust-extension
wenn aus .php .html werden soll und get-parameter in dateinamen kommen sollen - –convert-links
konvertiert links zu relativen pfaden - –page-requisites
lädt die benötigten bilder, pdf’s sowie css und js herunter - -e robots=off
ignoriert die robots.txt datei, damit der mirror wirklich vollständig ist
1 2 3 4 5 |
wget --mirror --adjust-extension --convert-links --page-requisites -e robots=off http://www.example.com # oder kurz: wget -m -E -k -p -e robots=off http://www.example.com |
forciert mit httrack, und robots.txt übergangen (s0):
1 |
httrack --disable-security-limits --max-rate 300000000 -s0 http://www.example.com -v |
Top #1
Kommentar by sehr — 17. Oktober 2015 @ 00:07
Bei Googlesuche für die Suchworte „Wget Mirror“. Danke für die Gratulationen! https://www.google.ch/search?q=wget+mirror
Kommentar by Fabian Thommen — 12. November 2015 @ 14:56