Det finns ett litet med kraftfullt program som heter wget och den kan dammsuga en webbplats och ladda ner allt till den lokala datorn. Ladda ner programmet wget. Det finns till de flesta plattformar.
Installera och kör programmet. Jag använder mac och kör programmet från terminalen. Det finns en inbyggd hjälp som du kan nå med kommandot
Eftersom sidorna som jag vill göra backup på kräver inloggning loggar jag först in och sparar undan cookien i en textfil. Textfilen använder jag sedan för att wget ska få tillgång till webbsidorna. För att wget ska förstå att du vill använda en textfil med cookie ska du skriva optionenman wget
Jag ville också ha med alla sidor i webbplatsen och då fick jag använda optionen--load-cookies=cookiefile.txt
Dessutom ville jag att programmet skulle skapa samma mappstruktur som på servern och det åstadkom jag med optionen-r
-xHela kommandot blev då
wget -x -r --load-cookies=cookiefile.txt www.webbplatsen.se
Inga kommentarer:
Skicka en kommentar