söndag, oktober 23, 2011
måndag, oktober 03, 2011
Backup av webbplats
Här kommer en liten kom-ihåg-post. Jag behövde göra en backup av skolans webbplats men företaget som vi har vår webbplats var inte så hjälpsamma så jag fick tanka ut allt själv. Jag gjorde det för ett tag sedan men kom inte ihåg exakt hur jag gjorde men denna gång så ska jag lägga ut det här så kan jag ju spara lite tid nästa gång och eventuellt hjälpa någon annan som har samma behov.
Det finns ett litet med kraftfullt program som heter wget och den kan dammsuga en webbplats och ladda ner allt till den lokala datorn. Ladda ner programmet wget. Det finns till de flesta plattformar.
Installera och kör programmet. Jag använder mac och kör programmet från terminalen. Det finns en inbyggd hjälp som du kan nå med kommandot
Det finns ett litet med kraftfullt program som heter wget och den kan dammsuga en webbplats och ladda ner allt till den lokala datorn. Ladda ner programmet wget. Det finns till de flesta plattformar.
Installera och kör programmet. Jag använder mac och kör programmet från terminalen. Det finns en inbyggd hjälp som du kan nå med kommandot
Eftersom sidorna som jag vill göra backup på kräver inloggning loggar jag först in och sparar undan cookien i en textfil. Textfilen använder jag sedan för att wget ska få tillgång till webbsidorna. För att wget ska förstå att du vill använda en textfil med cookie ska du skriva optionenman wget
Jag ville också ha med alla sidor i webbplatsen och då fick jag använda optionen--load-cookies=cookiefile.txt
Dessutom ville jag att programmet skulle skapa samma mappstruktur som på servern och det åstadkom jag med optionen-r
-xHela kommandot blev då
wget -x -r --load-cookies=cookiefile.txt www.webbplatsen.se
Prenumerera på:
Inlägg (Atom)