Meny
Är gratis
registrering
Hem  /  Firmware/ Kan wget dns-fråga. Wget-kommandon: exempel

Kan wget dns begäran. Wget-kommandon: exempel

wget - GNU Wget manual

SYNTAX

wget [ alternativ]… [ URL ]…

BESKRIVNING

GNU Wget är ett verktyg med öppen källkod för att ladda ner filer från Internet. Den stöder HTTP-, HTTPS- och FTP-protokoll, nedladdningar från proxyservrar över HTTP.

Wget kan följa länkarna på HTML-sidor och skapa lokala kopior av fjärrwebbplatser, medan det är möjligt full återhämtning webbplatsmappstruktur ("rekursiv nedladdning"). Medan du gör detta letar Wget efter en fil med robotbehörigheter (/robots.txt). Det är också möjligt att konvertera länkar i nedladdade HTML-filer för vidare visning av webbplatsen i offlineläge ("surfning offline").
Kontrollera filhuvuden: Wget kan läsa filhuvuden (detta är tillgängligt över HTTP och FTP) och jämföra dem med rubrikerna för tidigare nedladdade filer, varefter den kan ladda ner nya versioner av filerna. Detta låter dig spegla webbplatser eller en uppsättning filer till FTP när du använder Wget.
Wget är designat för långsamma eller instabila anslutningar: om ett problem uppstår under nedladdningen kommer Wget att försöka fortsätta att ladda ner filen. Om servern som filen laddas ner från stöder att återuppta filen, kommer Wget att fortsätta att ladda ner filen exakt från den punkt där nedladdningen avbröts.

ALTERNATIV

huvudparametrar

-V --Version Visa versionen av Wget. -h --Hjälp Visa wget kommandoradsalternativ. -b --Bakgrund Gå till bakgrunden efter start. Om fil för meddelanden inte anges av parametern -o, då skrivs det in wget-logg -e kommando --Kör kommando Kör kommando som om hon vore en del .wgetrc... Kommandot kommer att utföras efter kommandona i .wgetrc.

Meddelandeparametrar

-o loggfil ––Utdatafil =loggfil Logga alla meddelanden till loggfil... Annars kommer de att dirigeras till stderr. -a loggfil ––Append-output =loggfil Tillägg loggfil... Också -o, endast loggfil inte ersatt, utan kompletterat. Om loggfil inte finns, skapas ny fil. -d ––Fegla Att visa felsökningsmeddelanden är diverse information som är viktig för Wget-utvecklare. -q --Tyst Stäng av Wget-meddelanden. -v --Mångordig Inkludera utförliga meddelanden, med all tillgänglig data. Aktiverad som standard. -nv –– non-verbose Använd förkortade meddelanden (för att inaktivera meddelanden, se -q). Felmeddelanden och grundläggande information kommer att visas. -jag fil ––Indatafil =fil Läs URL från fil... I det här fallet behöver du inte ange URL:en på kommandoraden. Om URL:er anges på både kommandoraden och fil sedan kommer URL:erna från kommandoraden att laddas först. fil behöver inte vara HTML (men det är okej om det är det) –– URL:er måste bara anges i den. Om du anger ––Force-html då läses filen som html... I det här fallet kan det finnas problem med relativa länkar. Detta kan förhindras genom att lägga till " "eller genom att skriva på kommandoraden ––Bas =url. -F ––Force-html När du läser en URL från en fil läser den filen som HTML. För att förhindra fel i fallet med en lokal HTML-fil, lägg till i filen " "eller ange kommandoradsparametern --Bas. -B URL ––Bas = URL När du läser en URL från en fil ( -F) definierar URL läggs till de relativa adresserna för filen som anges av parametern -jag.

Startalternativ

––Bind-adress = ADRESS För TCP / IP-anslutningar, skicka "bind ()" till ADRESS på den lokala maskinen. V ADRESS både värdnamn och IP-adress kan anges. Används om din dator har flera IP-adresser. -t siffra ––Försöker =siffra Ställer in antalet repetitioner siffra... Ange 0 eller inf för att avbryta repriser. -O fil ––Utdatadokument =fil Dokumenten kommer inte att skrivas till motsvarande filer, utan slås samman och skrivs till en fil fil... Om fil finns, kommer den att ersättas. Om fil anges som då kommer dokument att matas ut till stdout. Denna parameter ställer automatiskt in antalet återförsök till 1. Användbar när du laddar ner delade filer från e-postservrar via webbgränssnittet. -nc ––Ingen klaff Om anslutningen avbryts när webbplatsen laddas, anger du denna parameter för att fortsätta ladda från den punkt där anslutningen avbröts. När du startar Wget utan parametrar -N, -nc, eller -r Om du laddar upp samma fil till samma mapp skapas en kopia av den namngivna filen fil.1 ... Om det finns en fil med det namnet kommer den tredje kopian att få ett namn fil.2 etc. Med parametern -nc varningar om detta kommer att visas När du kör Wget med parametern -r, men utan -N eller -nc, ny nedladdning webbplatsen kommer att ersätta redan nedladdade filer. När du anger en parameter -nc nedladdningen kommer att fortsätta från där den släpptes och nedladdade filer kommer inte att laddas ner igen (om de inte har ändrats) När du kör Wget med parametern -N, med eller utan -r, kommer filen endast att laddas om den är nyare än den befintliga, eller om dess storlek inte matchar den befintliga kopian (se Jämförelse efter datum). -nc inte kombineras med -N.
Med den angivna parametern -nc filer med tillägg .html eller (det här är bara hemskt) .htm från lokala diskar kommer att laddas som från Internet. -c --Fortsätta Filnedladdningen återupptogs. Används om filnedladdningen avbröts. Till exempel: wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Om den aktuella mappen redan innehåller en fil med namnet ls-lR.Z, då kontrollerar Wget om filen är densamma som den som laddas ner (inte i storlek!), och i så fall skickar den en begäran till servern att fortsätta ladda ner filen från samma plats där nedladdningen avbröts senast tid. upprepar omladdningsförsök oberoende och utan parameter -c, och bara när den "kapitulerar" och avslutar sitt arbete, kommer den här parametern att behövas för att återuppta nedladdningen av filen.
Inget alternativ specificerat -c det föregående exemplet kommer att laddas den angivna filen omdöpt till slutligt namn ls-lR.Z.1, utan att röra det befintliga ls-lR.Z.
Sedan version 1.7 när parametern specificeras -c om filen på servern är lika med eller mindre än den lokala filen, kommer Wget inte att ladda ner något och kommer att visa ett meddelande i enlighet med detta.
Men vid användning -c alla filer på servern som är större än den lokala filen kommer att anses vara underladdade. I det här fallet kommer endast "(längd (fjärrfil) - längd (lokal fil))"-bytes att laddas och skrivas till slutet av filen. Detta kan vara användbart om du behöver ladda ner nya meddelanden från någon logg.
Dessutom, om den nedladdade filen är större eftersom det ändrats, då får du en skadad fil (dvs. filen kan sluta vara helt annorlunda än originalet). Du måste vara särskilt försiktig när du använder -c tillsammans med -r eftersom varje modifierad fil kan vara en kandidat för ett "pågående arbete".
Du kommer också att få en skadad fil om din HTTP-proxyserver är dum och skriver ett "överföring avbruten" meddelande till filen när anslutningen bryts. Wget kommer förmodligen att fixa detta i framtida versioner.
kom ihåg det -c fungerar endast med FTP- och HTTP-servrar som stöder "Range"-huvuden (dvs. återuppta filer). ––Framsteg =typ Ladda ner förloppsindikator och dess typ. Möjliga värden: "prick" och "bar". Standard är "bar". Ange ett alternativ ––Framsteg = stapel kommer att leda till att man ritar en vacker indikator från ASCII-tecken (som en "termometer"). Om standardutgången inte är TTY kommer "prick" att användas. ––Framsteg = prick för att byta till "prick"-typ. Laddningsförloppet indikeras genom att lägga till en punkt eller likhetstecken i fältet, varje tecken representerar samma mängd data. När du använder denna typ kan du ange dess stil - punkt:stil... Om stilen är "standard" kommer varje tecken att representera 1 KB, 10 tecken per kluster och 50 per rad. Den "binära" stilen har ett mer "dator"-utseende - 8Kb per tecken, 16 tecken per kluster och 48 tecken per rad (vilket resulterar i en 384Kb-sträng). "Mega"-stilen används för att ladda stora filer- Varje tecken representerar 64Kb, 8 tecken per kluster och 48 tecken per rad (3 MB per rad).
Du kan definiera standardstilen med kommandot "progress" i .wgetrc... Om du vill att indikatortypen "bar" alltid ska användas (och inte bara vid utskrift till stdout), anger du ––Progress = bar: kraft. -N ––Tidsstämpling Aktivera datumjämförelse. -S ––Serversvar Visa rubriker som skickas till HTTP-servrar och förfrågningar som skickas till FTP-servrar. --Spindel Att ställa in Wget att bete sig som en spindel, det vill säga, Wget kommer inte att ladda ner filer, det kommer bara att leta efter dem. På så sätt kan du kontrollera webbplatsens bokmärken och länkar. Till exempel:

Wget ––spider ––force-html -i bookmarks.html

Wget innehåller inte alla funktioner för "riktiga spindlar" för WWW. -T sekunder ––Timeout =sekunder Väntetid i sekunder. Standard timeout är 900 sekunder (15 minuter). Om du ställer in värdet på 0 inaktiveras timeout-kontrollen. Sänk inte timeoutvärdet om du inte vet exakt vad du gör. -w sekunder ––Vänta =sekunder Pausa på några sekunder mellan flera nedladdningar (inklusive återförsök). Detta minskar belastningen på servern. För att ange värdet i minuter, använd "m", i timmar - "h", i dagar - "d" efter numret. Att ange ett stort värde för denna parameter är användbart om nätverket är instabilt (till exempel när modemet anslutningen avbryts). ––Vänteförsök =sekunder Pausar endast mellan återförsök av avbrutna nedladdningar. Wget väntar 1 sekund efter den första avbrytningen, 2 sekunder efter den andra avbrytningen med att ladda ner samma fil, etc. - upp till det maximala, vilket anges i sekunder. Till exempel, om denna parameter är inställd på 10, väntar Wget totalt (1 + 2 +... + 10) = 55 sekunder för varje fil. Detta är standard i filen wgetrc. ––Slumpmässig-vänta Vissa servrar kan, när de genererar loggfiler med pausade filförfrågningar, upptäcka rekursiva filnedladdningar - genomsökning av robotar som Wget. Denna parameter ställer in tiden mellan förfrågningar och varierar pauserna med en tid som beräknas från 0 till 2 * vänta(sekunder) var vänta specificeras av parameter -w att dölja Wget. Kom ihåg det källa Wget är tillgängligt, så även denna maskering kan beräknas om så önskas. -Y på/av ––Proxy = på/av Stöd för proxyserver. Aktiverad som standard om proxy är definierad. -Q kvot ––Kvota =kvot Kvot för storleken på uppladdade filer. Anges i byte (standard), i kilobyte KB (om i slutet k) eller i megabyte MB (om i slutet m När kvoten är slut laddas den aktuella filen ner till slutet, det vill säga att kvoten inte fungerar när en enskild fil laddas ner. Till exempel om du kör wget -Q10k ftp://wuarchive.wustl.edu/ls-lR.gz fil sedan ls-lR.gz kommer att vara fullastad. Dessutom kommer alla filer som anges på kommandoraden nödvändigtvis att laddas, till skillnad från en lista med filer i en fil eller som med rekursiv laddning. Om du anger 0 eller inf avbryts kvoten.

Alternativ för mappuppladdning

-nd ––Inga kataloger Skapa inte mappstruktur när du laddar rekursivt. Med den angivna parametern kommer alla filer att laddas ner till en mapp. Om en fil med det angivna namnet redan finns, kommer den att sparas under namnet Filnamn.n. -x ––Force-kataloger Motsats till parameter -nd- skapa en mappstruktur med start från serverns huvudsida. Till exempel, wget -x http://fly.srk.fer.hr/robots.txt kommer att ladda ner filen till mappen fly.srk.fer.hr. -nH ––Inga värdkataloger Skapa inte tomma mappar i början av strukturen. Standard / pub / xemacs /... Om du laddar den med parametern -r, då sparas den under namnet ftp.xemacs.org/pub/xemacs/... Med parameter -nH klipp från namnet på startmappen ftp.xemacs.org/ och det kommer att kallas pub / xemacs... Och parametern ––Cut-dirs kommer att ta bort siffra komponenter. Exempel på parameterdrift ––Cut-dirs: Inga parametrar -> ftp.xemacs.org/pub/xemacs/ -nH -> pub / xemacs / -nH ––cut-dirs = 1 -> xemacs / -nH ––cut-dirs = 2 ->. ––Cut-dirs = 1 -> ftp.xemacs.org/xemacs/ ...

Om du bara vill bli av med mappstrukturen kan du ersätta denna parameter med -nd och -P... Till skillnad från -nd, -nd fungerar med underkataloger - till exempel när -nH ––cut-dirs = 1 underkatalog beta / kommer att skrivas som xemacs / beta. -P prefix ––Katalog-prefix =prefix Definierar startmappen, där webbplatsens mappstruktur (eller bara filer) kommer att sparas. Som standard är denna parameter . (nuvarande mapp).

HTTP-parametrar

-E ––Html-tillägg Om typen av den uppladdade filen är text/html och dess adress slutar inte på .? , när du använder denna parameter kommer den att läggas till i dess namn .html... Detta kan vara användbart när du speglar sidor. .asp om du inte vill att de ska störa din Apache-server. Ett annat användningsfall för detta alternativ är när man laddar svarssidor för CGI-skript. En sida med en URL som http://site.com/article.cgi?25 kommer att sparas som article.cgi? 25.html.Obs: när du uppdaterar eller laddar om sidor med denna parameter, kommer den senare att laddas igen i alla fall, eftersom Wget kan inte ta reda på om en lokal fil är relaterad X.html att ladda ner från url X... För att undvika onödiga omstarter, använd alternativen -k och -K... I det här fallet kommer de ursprungliga versionerna av filerna också att sparas som X.orig. ––Http-användare =användare ––Http-passwd =Lösenord Användarnamn användare och lösenord Lösenord för HTTP-server... Beroende på typen av svar kommer Wget att använda "basic" (osäker) eller "digest" (säker) autentisering. Du kan också ange användarnamn och lösenord i själva URL:en. -C på/av ––Cache = på/av Aktiverar eller inaktiverar cachelagring på serversidan. Samtidigt skickar Wget motsvarande begäran ( Pragma: ingen cache). Används även för att snabbt uppdatera filer på en proxyserver. Som standard är cachning aktiverad. ––Cookies = på/av Aktiverar eller inaktiverar användningen av cookies. Servern skickar en cookie till klienten med hjälp av "Set-Cookie"-huvudet och klienten svarar med samma cookie. Tack vare detta kan servern föra statistik över besökare. Som standard används cookies, men att skriva dem till disk är inaktiverat. ––Ladda-cookies fil Ladda kaka från fil före den första HTTP-nedladdningen. fil har ett textformat som cookies.txt för Netscape Detta alternativ används vid spegling. För att göra detta skickar Wget samma cookies som din webbläsare skickar när den ansluter till HTTP-servern. Detta aktiveras av denna parameter - ge bara Wget sökvägen till cookies.txt... Olika webbläsare lagrar cookies i olika mappar: Netscape 4.x. Filen är inne ~ / .netscape / cookies.txt... Mozilla och Netscape 6.x. Mozilla lagrar kakor i cookies.txt ligger någonstans i ~ / .mozilla, i din profilmapp. Hela vägen slutar vanligtvis med något liknande ~ / .mozilla / default / some-weird-string / cookies.txt... Internet Explorer. För att exportera en cookie för Wget, välj Arkiv, Importera & Exportera, välj Exportera cookies i guiden. Testad i Internet Explorer 5; kanske inte fungerar i tidigare versioner. Andra recensenter. Parameter ––Ladda-cookies kommer att fungera med cookies i Netscape-formatet, som stöds av Wget. Om du inte kan använda parametern ––Ladda-cookies, då finns det fortfarande en väg ut. Om din webbläsare stöder Skriv ner namnet och värdet på cookien och be Wget manuellt att skicka dessa cookies: wget ––cookies = off ––header "Cookie: I = jag " ––Spara-cookies fil Spara kaka från fil i slutet av sessionen. Föråldrade cookies sparas inte. ––Ignorera längd Vissa HTTP-servrar (mer specifikt CGI-skript) skickar "Content-Length"-headers som talar om för Wget att den inte har laddat ner allt. Och Wget laddar ner samma dokument flera gånger. Med denna parameter ignorerar Wget "Content-Length"-rubriker. ––Rubrik =extra-header Definierar extra-header skickas till HTTP-servern. Den måste innehålla : och tecknen efter det. Du kan definiera flera ytterligare rubriker genom att använda --Rubrik upprepat. wget ––header = "Acceptera-Charset: iso-8859-2" ––header = "Acceptera-språk: hr" http://fly.srk.fer.hr/

Om du anger en tom sträng i rubrikvärdet rensas alla tidigare definierade användardefinierade rubriker. ––Proxy-användare =användare ––Proxy-passwd =Lösenord Anger användarnamnet användare och lösenordslösenordet för att auktorisera proxyservern. Behörighetstypen kommer att vara "grundläggande". ––Referent =url Lägger till rubriken "Refererer: url' v HTTP-förfrågan... Används vid inläsning av sidor som sänds korrekt endast om servern vet vilken sida du kom ifrån. -s ––Save-headers Bevara rubriker som skickas till HTTP-servrar. -U agent-sträng ––User-agent =agent-sträng Identifierad som agent-sträng när du begär en HTTP-server HTTP-protokollet låter sig identifieras med hjälp av en agenthuvud. Wget identifieras som standard som Wget /version, var versionÄr en version av Wget. Vissa servrar tillhandahåller endast den begärda informationen till webbläsare som identifieras som "Mozilla" eller Microsoft "Internet Explorer". Det här alternativet låter dig lura sådana servrar.

FTP-alternativ

-nr ––Ta inte bort-listning Ta inte bort temporära filer .lista genereras av FTP-uppladdning. Dessa filer innehåller information om mappar på FTP-servrarna. Om du misslyckas med att avinstallera hjälper dig att snabbt identifiera uppdateringen av servermapparna (dvs. avgöra att din spegel är en). Om du inte avinstallerar .lista kom då ihåg din säkerhet! Till exempel, med detta namn kan du skapa en symbolisk länk till / etc / passwd eller något annat. -g på/av ––Glob = på/av Aktiverar eller inaktiverar användning speciella karaktärer (masker) via FTP. Det kan vara * , ? , [ och ] ... Till exempel: wget ftp://gnjilux.srk.fer.hr/*.msg

Som standard är masktecken tillåtna om URL:en innehåller sådana tecken. Du kan även omge URL:en inom citattecken. Detta fungerar bara på Unix FTP-servrar (och emulerar Unix "ls"-utdata). ––Passiv-ftp Aktiverar passivt FTP-läge när anslutningen initieras av klienten. Används när det finns en brandvägg. ––Retr-symbollänkar När du rekursivt laddar ner FTP-mappar, laddas inte filer som pekas på av symboliska länkar ner. Detta alternativ inaktiverar detta. ––Retr-symbollänkar fungerar för närvarande bara för filer, inte mappar. Kom ihåg att det här alternativet inte fungerar när du laddar upp en enskild fil.

Alternativ för rekursiv laddning

-r --Rekursiv Aktivera rekursiv laddning. -l djup ––Nivå =djup Maximalt rekursivt lastdjup djup... Som standard är dess värde 5. ––Radera-efter Ta bort varje sida (lokalt) efter ladda ner det. Används för att spara nya versioner av ofta efterfrågade sidor till en proxy. Till exempel: wget -r -nd ––delete-after http://whatever.com/~popular/page/

Parameter -r aktiverar laddning som standard, parameter -nd inaktiverar skapandet av mappar. Med den angivna parametern ––Radera-efter parameter kommer att ignoreras ––Konvertera-länkar. -k ––Konvertera-länkar När nedladdningen är klar konverterar du länkarna i dokumentet för offlinevisning. Detta gäller inte bara för synliga länkar till andra dokument, utan för länkar till alla externa lokala filer. Varje länk ändras på ett av två sätt:

* Länkar till filer som laddats ner av Wget ändras till motsvarande relativa länkar, till exempel: om den nedladdade filen /foo/doc.html länka sedan till även nedladdad fil /bar/img.gif kommer att se ut ../bar/img.gif... Den här metoden fungerar om det finns ett synligt förhållande mellan mapparna i den ena och den andra filen. * Länkar till filer som inte laddats ner av Wget kommer att ändras till de absoluta adresserna för dessa filer på fjärrservern. Till exempel: om den nedladdade filen /foo/doc.html innehåller en länk till /bar/img.gif(eller vid ../bar/img.gif), sedan länken i filen doc.html kommer att ändras till http://host/bar/img.gif... Tack vare detta är offlinevisning av webbplatsen och filer möjligt: ​​om en fil laddas ner till vilken det finns en länk, kommer länken att peka på den, om inte, kommer länken att peka till dess internetadress (om en sådan finns) ). Vid konvertering används relativa länkar, vilket innebär att du kan flytta den nedladdade sidan till en annan mapp utan att ändra dess struktur. Först efter att nedladdningen är klar vet Wget vilka filer som laddats ner. Därför för parametern -k konvertering kommer att ske först efter att nedladdningen är klar. -K ––Backup-konverterad Konvertera tillbaka länkar - ta bort tillägg .orig... Ändrar beteendet för ett alternativ -N. -m --Spegel Aktivera alternativ för webbplatsspegling. Denna parameter är lika med flera parametrar: -r -N -l inf -nr... För opretentiös lagring av speglade kopior av webbplatser kan du använda det här alternativet. -s ––Sidbehov Ladda alla filer som behövs för att rendera HTML-sidor. Till exempel: Bilder, Ljud, Cascading Styles. Som standard laddas inte dessa filer. alternativ -r och -l, listade tillsammans kan hjälpa, men sedan Eftersom wget inte skiljer på externa och interna dokument finns det ingen garanti för att allt som krävs kommer att laddas. 1.html innehåller taggen " " , med referenser till 1.gif, och taggen " "hänvisar till ett externt dokument 2.html... Sida 2.htmlär liknande, men dess ritning är 2.gif och hon hänvisar till 3.html... Låt oss säga att det fortsätter tills ett visst antal Om kommandot ges: wget -r -l 2 http: // I /1.html

sedan 1.html, 1.gif, 2.html, 2.gif och 3.html kommer att laddas. Som du kan se, 3.html utan 3.gif eftersom Wget räknar bara antalet hopp den gick igenom, går till 2 och stannar. Och med parametrarna:

Wget -r -l 2 -p http: // I /1.html

Alla filer och teckning 3.gif sidor 3.html kommer att laddas. likaså

Wget -r -l 1 -p http: // I /1.html

kommer att ladda 1.html, 1.gif, 2.html och 2.gif... För att ladda en specificerad HTML-sida med alla dess element, specificera bara inte -r och -l:

Wget -p http: // I /1.html

I det här fallet kommer Wget att bete sig som om parametern -r, men sidan och dess stödfiler kommer att laddas. Om du vill att supportfiler på andra servrar (dvs via absoluta länkar) ska laddas, använd:

Wget -E -H -k -K -p http: // I /Jag

Till sist måste jag säga det för Wget extern referensÄr webbadressen specificerad i taggarna " " , "" och " " , bortsett från " " .

Parametrar för att inaktivera/aktivera rekursiv laddning

-A aclist --Acceptera aclist -R rejlist --Avvisa rejlist En kommaseparerad lista över filnamn att ladda ner eller inte ladda ner. Tillåts ställa in filnamn efter mask. -D domänlista ––Domäner =domänlista Domänlista domänlista varifrån man kan ladda ner filer. Separerade av kommatecken. Denna parameter inte inkluderar -H. ––Uteslut-domäner domänlista Lista över domäner från vilka inte får ladda upp filer ––Följ-ftp Följ FTP-länkar från HTML-sidor. Annars ignoreras FTP-fillänkar. ––Följ-taggar =lista Wget har ett inbäddat bord HTML-taggar där han letar efter länkar till andra filer. Du kan ange ytterligare taggar i en kommaseparerad lista lista i denna parameter. -G lista ––Ignorera-taggar =lista Tillbaka ––Följ-taggar... För att hoppa över HTML-taggar när de laddas rekursivt, ange dem i en kommaseparerad lista lista.Tidigare parameter -G var bäst för att ladda enskilda sidor med deras stödfiler. Du kan se hur det var genom att ange kommandot wget -Ga, area -H -k -K -r http: // I /Jag

Men nu är den bästa parametern för att ladda en sida helt övervägd ––Sidbehov. -H ––Span-värdar Tillåter att besöka alla servrar som det finns en länk till. -L --Släkting Följ endast relativa länkar. Med denna parameter kommer filer från andra servrar definitivt inte att laddas ner. -Jag lista ––Inkludera-kataloger =lista En kommaseparerad lista över mappar att ladda ner filer från. Lista objekt lista -X lista ––Uteslut-kataloger =lista En kommaseparerad lista över mappar som ska uteslutas för nedladdning (se Begränsa efter mappar). Lista objekt lista kan innehålla masktecken. -np ––Ingen förälder Klättra inte över startadressen vid rekursiv laddning.

EXEMPEL PÅ ANVÄNDNING

Exemplen är indelade i tre kategorier efter deras svårighetsgrad.

Enkel användning

* Om du behöver ladda ner en URL, skriv in: wget http://fly.srk.fer.hr/ * Men vad händer om anslutningen är långsam och filen är lång? Det är möjligt att koppla från innan du slutför nedladdningen. I det här fallet kommer Wget att fortsätta att försöka en ny anslutning tills det tar slut på försök (20 som standard). Du kan ändra detta nummer, till exempel till 45: wget ––tries = 45 http://fly.srk.fer.hr/jpg/flyweb.jpg * Låt oss nu låta Wget köra i bakgrunden och skriva dess meddelanden till loggen logga... Ta lång tid ––Försöker så vi använder -t... wget -t 45 -o log http://fly.srk.fer.hr/jpg/flyweb.jpg &

Et-tecken i slutet talar om för skalet att fortsätta utan att vänta på att Wget ska avslutas. För att få programmet att upprepas på obestämd tid - använd -t inf... * Att använda FTP är också mycket enkelt. Wget tar hand om alla behörighetsfrågor.

Wget ftp://gnjilux.srk.fer.hr/welcome.msg * Om du anger en mappadress kommer Wget att ladda ner listan för den mappen (det vill säga filerna och underkatalogerna som finns i den) och konvertera den till HTML formatera. Till exempel: wget ftp://prep.ai.mit.edu/pub/gnu/ links index.html

Förlängd användning

* Om du har en fil med en URL som du vill ladda ner, använd då parametern -jag: wget -i I

Om du specificerar istället för ett filnamn kommer URL:en att läsas från stdin. * Skapa en kopia på fem nivåer av GNU-webbplatsen med den ursprungliga mappstrukturen, med ett nedladdningsförsök, spara meddelanden till gnulog:

Wget -r http://www.gnu.org/ -o gnulog * Som i exemplet ovan, men konvertera länkar i HTML-filer till lokala för senare offlinevisning: wget ––convert-links -r http: // www .gnu.org/ -o gnulog * Ladda ner en HTML-sida och alla filer som krävs för att rendera den senare (t.ex. bilder, överlappande stilfiler, etc.). Konvertera även alla länkar till dessa filer: wget -p ––convert-links http://www.server.com/dir/page.html

HTML-sidan kommer att sparas i www.server.com/dir/page.html och bilder, överlappande stilar, etc. kommer att sparas i mappen www.server.com/, förutom det fall då filer kommer att laddas ner från andra servrar. * Som i exemplet ovan, men utan mappen www.server.com/... Också Allt filerna kommer att sparas i undermappar ladda ner /.

Wget -p ––convert-links -nH -nd -Pdownload http://www.server.com/dir/page.html * Ladda ner index.html från www.lycos.com visar serverhuvuden: wget -S http://www.lycos.com/ * Spara rubriker till en fil för senare användning. wget -s http://www.lycos.com/ more index.html * Ladda ner de två översta nivåerna wuarchive.wustl.edu v / tmp... wget -r -l2 -P / tmp ftp://wuarchive.wustl.edu/ * Ladda ner GIF-filer mappar på HTTP-servern. Kommando wget http://www.server.com/dir/*.gif kommer inte att fungera eftersom jokertecken inte stöds vid nedladdning via HTTP. Använd: wget -r -l1 ––no-parent -A.gif http://www.server.com/dir/

-r -l1 möjliggör rekursiv belastning med ett maximalt djup på 1. ––Ingen förälder inaktiverar följande länkar till den överordnade mappen som har den översta nivån, -A.gif tillåter endast uppladdning av filer med filtillägget .GIF. -En "* .gif" kommer också att fungera. * Anta att du under en rekursiv uppstart måste stänga av/starta om din dator omedelbart. För att undvika att ladda ner befintliga filer, använd:

Wget -nc -r http://www.gnu.org/ * Om du vill ange ett användarnamn och lösenord för en HTTP- eller FTP-server, använd lämplig URL-syntax: wget ftp: // hniksic: /.emacs * Du vill du gick de laddade dokumenten till standardutdata och inte till filer? wget -O - http://jagor.srce.hr/ http://www.srce.hr/

Om du vill sätta upp en pipeline och ladda alla webbplatser som är länkade på samma sida:

Wget -O - ttp: //cool.list.com/ | wget ––force-html -i -

Professionell användning

* För att lagra en spegelsida (eller FTP-mapp), använd sedan --Spegel (-m), som ersätter -r -l inf -N... Du kan lägga till Wget i din crontab och be den söka efter uppdateringar varje söndag: crontab 0 0 * * 0 wget ––mirror http://www.gnu.org/ -o / home / me / weeklog * Du vill också ha länkarna att konvertera till lokal. Men efter att ha läst den här handledningen vet du att tidsjämförelse inte fungerar. Be Wget att behålla säkerhetskopior av HTML-filer innan du konverterar. Kommando: wget ––mirror ––convert-links ––backup-converted http://www.gnu.org/ -o / home / me / weeklog * Och om lokal visning av andra HTML-filer än .html, till exempel index.cgi, då måste du skicka kommandot för att byta namn på alla sådana filer (content-type = text/html) v namn.html... wget ––mirror ––convert-links ––backup-converted ––html-extension -o / home / me / weeklog http://www.gnu.org/

Med korta analoger av kommandona:

Wget -m -k -K -E http://www.gnu.org/ -o / home / me / weeklog

Filer

/ usr / local / etc / wgetrc Som standard är detta platsen global inställningsfil. .wgetrc Fil för användarinställningar.

HITTADE FEL

Du kan skicka felrapporter till GNU Wget på< " " >(på engelska).
Innan du skickar:

1. Se till att programmets beteende verkligen är felaktigt. Om Wget kraschar är det ett fel. Om beteendet hos Wget inte stämmer överens med dokumentationen är detta en bugg. Om allt fungerar konstigt, men du är osäker på hur det faktiskt ska fungera, kan detta också vara en bugg. 2. Försök att upprepa situationen med ett fel i det minsta antalet åtgärder. Skynda dig inte att skicka .wgetrc, försök att göra alla åtgärder som ledde till felet med en annan inställningsfil (eller utan den alls). 3. Kör Wget med parametern -d och skicka in tidskriften (eller delar av den). Mycket det är lättare att hitta fel med sådana loggar. 4. Om Wget får ett fel, försök att köra det i en debugger, till exempel "gdb` som wget` kärna "och skriv" där "för att få en backspårning.

CENTIMETER. OCKSÅ

GNU Info för wget.

FÖRFATTARE

ÖVERSÄTTNING

UPPHOVSRÄTT

Copyright (c) 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004,
2005, 2006, 2007, 2008, 2009, 2010, 2011 Free Software Foundation, Inc.
Detta är fri programvara; leta efter kopieringsvillkor i källtexterna. Det finns INGA garantier; programmet är INTE avsett för FÖRSÄLJNING.

GNU Wget är ett gratis, icke-interaktivt konsolprogram för nedladdning av filer över nätverket. Stöder HTTP-, FTP- och HTTPS-protokoll, och stöder även arbete via en HTTP-proxyserver. Programmet ingår i nästan alla GNU/Linux-distributioner.

GNU Wget är ett icke-interaktivt program. Detta innebär att användaren efter lanseringen endast kan påverka dess funktion med hjälp av själva operativsystemets processkontrollverktyg. Som regel, för detta, används kortkommandon Ctrl + C när det är nödvändigt att avbryta programmets arbete och Ctrl + Z för att placera den aktuella uppgiften i bakgrunden.

Moderna webbläsare har vanligtvis funktionen att ladda ner filer, men eftersom webbläsaren är designad för ett interaktivt driftläge kan det vara tråkigt att ladda ner ett stort antal filer manuellt. Webbläsare ger i allmänhet inte möjlighet att automatisera dessa uppgifter. GNU Wget, till exempel, stöder laddning av URL:er som anges i en fil. På detta sätt kan du skapa en lista över filer och när som helst ladda ner dem med hjälp av GNU Wget.

Kommandoradsgränssnittet låter dig styra GNU Wget från andra program och skript, som används för att automatisera filnedladdningar (regelbundna uppdateringar, övervakning av servertillgänglighet, etc.).

GNU Wget låter dig ladda ner vilken fil som helst på webben (inklusive (X) HTML-sidor) via HTTP och HTTPS, såväl som filer och kataloglistor via FTP.

Filer kan laddas ner rekursivt från länkar i HTML-sidor, både från en sida med ett visst djup av följande länkar, eller från flera. Dessutom, när du laddar upp via FTP, kan filer laddas ner "med mask"-namn (det vill säga du kan ange en grupp av filer med "*").

GNU Wget stöder också att återuppta en fil om anslutningen bryts.

Vi laddar alla ibland ner filer från Internet. Om du använder program med grafiskt gränssnitt, då visar sig allt vara extremt enkelt. Men när man arbetar på Linux-kommandoraden blir saker och ting lite mer komplicerade. Speciellt för dem som inte är bekanta med rätt verktyg. Ett sådant verktyg är det extremt kraftfulla verktyget wget, som är lämpligt för alla typer av nedladdningar. Vi uppmärksammar dig på tolv exempel och analyserar vilka du kan bemästra de grundläggande funktionerna i wget.

$ wget https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Efter att ha angett detta kommando börjar nedladdningen av Nagios Core. Under denna process kommer du att kunna se data om nedladdningen, till exempel information om hur mycket data som redan har laddats ner, aktuell hastighet och hur lång tid som är kvar till slutet av nedladdningen.

2. Ladda ner filen och spara den med ett nytt namn

Om vi ​​vill spara den nedladdade filen med ett annat namn än dess ursprungliga namn, är kommandot wget med parametern -O praktiskt:

$ wget -O nagios_latest https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Med detta tillvägagångssätt kommer den uppladdade filen att sparas under namnet nagios_latest.

3. Begränsa hastigheten för nedladdning av filer

Du kan begränsa nedladdningshastigheten för filer med wget om det behövs. Som ett resultat kommer denna operation inte att uppta hela den tillgängliga dataöverföringskanalen och kommer inte att påverka andra processer associerade med nätverket. Detta kan göras genom att använda parametern --limit-rate och specificera hastighetsgränsen uttryckt i byte (som ett vanligt tal), kilobyte (lägga till ett K efter talet) eller megabyte (M) per sekund:

$ wget ––limit-rate = 500K https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror = excellmedia
Nedladdningshastigheten är inställd på 500 Kb/s.

4. Slutför en avbruten nedladdning

Om den här operationen avbryts under nedladdning av filer kan du återuppta nedladdningen genom att använda -c-parametern för wget-kommandot:

$ wget –c https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Om denna parameter inte används kommer nedladdningen av den ofullständiga filen att starta från början.

Om du laddar upp en stor fil och vill utföra denna operation i bakgrunden, kan du göra detta med alternativet -b:

$ wget –b https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia

Om du har en lista med webbadresser till filer att ladda ner, men du inte vill utlösa nedladdningar av dessa filer manuellt, kan du använda parametern -I. Innan du startar nedladdningen måste du dock skapa en fil som innehåller alla adresser. Du kan till exempel göra detta med följande kommando:

$ vi url.txt
Lägg till adresser till den här filen - en på varje rad. Vidare återstår det bara att starta wget och skicka den nyskapade filen med listan över nedladdningar till detta verktyg:

$ wget –I url.txt
Utförande av detta kommando kommer att resultera i sekventiell laddning av alla filer från listan.

7. Öka det totala antalet filnedladdningsförsök

För att konfigurera antalet återförsök för att ladda ner en fil, kan du använda parametern --tries:

Wget ––tries = 100 https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia

Kommandot för att ladda ner en fil från en anonym FTP-server med hjälp av wget ser ut så här:

$ wget FTP-url
Om ett användarnamn och lösenord krävs för att komma åt filen kommer kommandot att se ut så här:

$ wget –-ftp-user = dan ––ftp-lösenord = ********* FTP URL

9. Skapa en lokal kopia av webbplatsen

Om du behöver ladda ner innehållet på en hel webbplats kan du göra det med parametern --mirror:

$ wget --mirror -p --convert-links -P / home / dan xyz.com
Notera de ytterligare kommandoradsparametrarna:

  • -p: laddar ner alla filer som krävs för korrekt visning av HTML-sidor.
  • --convert-links: länkar i dokument kommer att konverteras för lokal webbplatsvisning.
  • -P / home / dan: Innehållet kommer att sparas i mappen / home / dan.

10. Laddar bara ned filer av en viss typ från webbplatsen

För att bara ladda ner filer av en viss typ från webbplatsen kan du använda -r -A-parametrarna:

$ wget -r -A.txt Webbplats_url

11. Hoppa över filer av en viss typ

Om du vill kopiera en hel webbplats, men du inte behöver filer av en viss typ, kan du inaktivera laddningen av dem med parametern --reject:

$ wget --reject = png Webbplats_url

12. Ladda ner med din egen .log-fil

För att ladda filen och använda din egen .log-fil, använd alternativet -o och ange namnet på loggfilen:

$ wget -o wgetfile.log https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia

Resultat

Wget är ganska lätt att använda, men väldigt användbar nytta Linux. Och det vi pratade om är faktiskt bara en liten del av vad hon kan. Förhoppningsvis kommer den här översikten att hjälpa dem som inte är bekanta med wget att utvärdera detta program, och eventuellt inkludera det i deras dagliga arsenal av kommandoradsverktyg.

Kära läsare! Använder du Linux kommandoradsverktyg för att ladda ner filer? Om ja, berätta för oss om dem.

När du gör klient TCP / IP-anslutningar, bind till ADDRESS på den lokala datorn. ADDRESS kan anges som ett värdnamn eller IP-adress. Det här alternativet kan vara användbart om din maskin är bunden till flera IP-adresser.

När du skapar klient-TCP/IP-anslutningar, bind till ADDRESS på den lokala datorn. ADDRESS kan anges som ett värdnamn eller IP-adress. Det här alternativet kan vara användbart om din dator är associerad med flera IP-adresser.

'—Bind-dns-adress = ADDRESS '

Den här adressen åsidosätter rutten för DNS-förfrågningar. Om du någonsin behöver kringgå standardinställningarna från /etc/resolv.conf, är det här alternativet tillsammans med '—dns-servrar' din vän. ADDRESS måste anges antingen som IPv4- eller IPv6-adress. Wget måste byggas med libcares för att det här alternativet ska vara tillgängligt.

[endast libcares] Den här adressen åsidosätter rutten för DNS-frågor. Om du någonsin behöver kringgå standardinställningarna i /etc/resolv.conf, är den här parametern, tillsammans med '—dns-servrar', din vän. ADDRESS måste anges som antingen IPv4- eller IPv6-adress. Wgeten måste byggas med libcares för att denna parameter ska vara tillgänglig.

’—Dns-servrar = ADRESSER’

De givna adressen(erna) åsidosätter standardnamnserveradresserna, t.ex. som konfigurerats i /etc/resolv.conf. ADRESSER kan anges antingen som IPv4- eller IPv6-adresser, kommaseparerade. Wget måste byggas med libcares för att det här alternativet ska vara tillgängligt.

[endast libcares] De angivna adresserna åsidosätter standardnamnserveradresserna, t.ex. som anges i /etc/resolv.conf. ADRESSER kan anges som antingen IPv4- eller kommaseparerade IPv6-adresser. Wgeten måste byggas med libcares för att denna parameter ska vara tillgänglig.

"-T nummer"
'—Försök = nummer'

Ställ in antalet försök till antalet. Specificera 0 eller ' inf’För oändligt försök igen. Standard är att försöka igen 20 gånger, med undantag för allvarliga fel som "anslutning nekad" eller " hittades inte”(404), som inte prövas på nytt.

Ställ in antalet försök för numret. Vänligen ange 0 (noll) eller ' inf"För oändliga försök igen. Standardinställningen är att försöka igen 20 gånger, förutom fatala fel som "anslutning nekad" eller "hittades inte" (404), som inte är ett nytt försök.

"-O-fil"
'—Utdata-dokument = fil '

Dokumenten kommer inte att skrivas till lämpliga filer, utan alla kommer att sammanfogas och skrivas till fil. Om '-' används som fil kommer dokument att skrivas ut till standardutdata, vilket inaktiverar länkkonvertering. (Använd './-' för att skriva ut till en fil som bokstavligen heter '-'.)

Dokumenten kommer inte att skrivas till motsvarande filer, utan de kommer alla att slås samman och skrivs till filen. Om '-' används som en fil kommer dokument att skrivas ut till standardutdata med länkkonvertering inaktiverad. (Använd './-' för att skriva ut till en fil som bokstavligen heter '-'.)

Användningen av '-O' är inte avsedd att helt enkelt betyda "använd namnfilen istället för den i URL:en." snarare är det analogt med skalomdirigering: ' wget -O fil http:// foo'Är tänkt att fungera som' wget -O - http: // foo> fil'; filen kommer att trunkeras omedelbart och allt nedladdat innehåll kommer att skrivas där.

Att använda "-O" betyder inte bara "använd en namnfil istället för en URL", snarare liknande skalomdirigering: " wget -O fil http:// foo"Är tänkt att fungera som" wget -O - http: // foo> fil’; filen kommer att trunkeras omedelbart och allt uppladdat innehåll kommer att skrivas där.

Av denna anledning stöds inte '-N' (för tidsstämpelkontroll) i kombination med '-O': eftersom filen alltid är nyskapad kommer den alltid att ha en helt ny tidsstämpel. En varning kommer att utfärdas om denna kombination används.

Av denna anledning stöds inte "-N" (för att kontrollera tidsstämpeln) tillsammans med "-O": eftersom filen alltid skapas kommer den alltid att ha en helt ny tidsstämpel. En varning kommer att utfärdas när du använder denna kombination.

På liknande sätt använder du ' -r'Eller' -s'Med' -O"Kan inte fungera som du förväntar dig: Wget kommer inte bara att ladda ner den första filen till filen och sedan ladda ner resten till sina vanliga namn: allt nedladdat innehåll kommer att placeras i filen. Detta inaktiverades i version 1.11, men har återställts (med en varning) i 1.11.2, eftersom det finns vissa fall där detta beteende faktiskt kan ha någon nytta.

På samma sätt använder du ' -r' eller ' -s'med' -O"Kanske inte fungerar som du förväntar dig: Wget kommer inte bara att ladda ner den första filen till en fil och sedan ladda resten i sina vanliga namn: allt nedladdat innehåll kommer att placeras i filen. Detta inaktiverades i version 1.11, men har återställts (med en varning) i 1.11.2, eftersom det finns fall där detta beteende faktiskt kunde användas.

En kombination med ' -nc'Accepteras endast om den givna utdatafilen inte finns.

Kombination med ' -nc'Accepteras endast om den givna utdatafilen inte finns.

Observera att en kombination med ' -k'Är endast tillåtet när du laddar ner ett enstaka dokument, eftersom det i så fall bara kommer att konvertera alla relativa URI:er till externa; ’ -k'Det är ingen mening med flera URI:er när de alla laddas ner till en enda fil; ’ -k'Kan endast användas när utdata är en vanlig fil.

Observera att kombinationen med " -k»Tillåts endast när ett dokument laddas, eftersom det i det här fallet helt enkelt kommer att konvertera alla relativa URI:er till externa; " -k»Inte vettigt för flera URI:er när de alla är inlästa i en fil; ’ -k'Kan endast användas när utdata är en vanlig fil.

'-Nc'
’—Ingen snålhet’

Om en fil laddas ner mer än en gång i samma katalog, Wgets beteende beror på några alternativ, inklusive ' -nc’. I vissa fall kommer den lokala filen att klippas över, eller skrivas över, vid upprepad nedladdning. I andra fall kommer den att bevaras.

Om en fil laddas ner mer än en gång i samma katalog, beteendet Wget beror på flera parametrar inklusive "-Nc"... I vissa fall kommer den lokala filen att dumpas eller skrivas över när den laddas om. I andra fall kommer den att sparas.

När du kör Wget utan '-N', '-nc', '-r' eller '-p', kommer nedladdning av samma fil i samma katalog att resultera i att den ursprungliga kopian av filen bevaras och den andra kopian får namnet ' fil.1 '. Om den filen laddas ner igen kommer den tredje kopian att få namnet "file.2", och så vidare. (Detta är också beteendet med '-nd', även om '-r' eller '-p' är i kraft.)

Om du kör Wget utan '-N', '-nc', '-r' eller '-p' sparas originalkopian av filen när du laddar samma fil i samma katalog, och den andra kopian kommer att få namnet 'fil. 1. Om den här filen laddas upp igen kommer den tredje kopian att få namnet "file.2" och så vidare. (Detta är också beteendet med -nd, även om -r eller -p är i kraft.)

När ' -nc'Är specificerat, detta beteende är undertryckt, och Wget kommer att vägra ladda ner nyare kopior av' fil’. Därför är "no-clobber" faktiskt en felaktig benämning i det här läget - det är inte clobbering som förhindras (eftersom de numeriska suffixen redan förhindrade clobbering), utan snarare lagringen av flera versioner som har förhindrats.

När det anges "-Nc", detta beteende är undertryckt och Wget kommer att vägra ladda ner nya kopior ' fil’. Så "no-clobber" är faktiskt fel i det här läget - det är inte clobber som förhindras (eftersom de numeriska suffixen redan förhindrar kantutjämning), utan snarare förhindrar att flera versioner lagras.

När du kör Wget med ' -r'Eller' -s', Men utan' -N’, ‘-nd', Eller' -nc’, Om du laddar ner en fil igen kommer den nya kopian helt enkelt att skriva över den gamla. Om du lägger till '-nc 'förhindras detta beteende, istället för att den ursprungliga versionen bevaras och att eventuella nyare kopior på servern ignoreras.

När du startar Wget med ' -r' eller ' -s', men utan ' -N’, ‘-nd' eller ' -nc', Om du laddar ner filen igen kommer den nya kopian helt enkelt att skriva över den gamla. Att lägga till "-nc" kommer att förhindra detta beteende, istället kommer den ursprungliga versionen att behållas och alla nya kopior på servern kommer att ignoreras.

När du kör Wget med '-N', med eller utan '-r' eller '-p', beror beslutet om huruvida en nyare kopia av en fil ska laddas ner eller inte på den lokala och fjärranslutna tidsstämpeln och storleken på filen ( se Tidsstämpling). '-Nc' får inte anges samtidigt som '-N'.

När du kör Wget med '-N', med eller utan '-r' eller '-p', beror beslutet om du ska ladda ner en nyare kopia av filen eller inte på den lokala och fjärranslutna tidsstämpeln och filstorleken (se Temporary prägling). "-Nc" får inte anges samtidigt som "-N".

En kombination med '-O' / '- output-document' accepteras endast om den givna utdatafilen inte finns.

Kombinationen med '-O' / '- output-document' accepteras endast om den givna utdatafilen inte finns.

Observera att när ' -nc'Är specificerat kommer filer med suffixen' .html 'eller' .htm ' att laddas från den lokala disken och tolkas som om de hade hämtats från webben.

Observera att när det anges "-Nc", kommer filer med suffixen ".html" eller ".htm" att laddas ner från lokal disk och analyseras som om de hämtats från Internet.

'—Säkerhetskopieringar = säkerhetskopior'

Innan du (över) skriver en fil, säkerhetskopiera en befintlig fil genom att lägga till ett '.1'-suffix ('_1' på VMS) till filnamnet. Sådana säkerhetskopior roteras till '.2', '.3' och så vidare, upp till säkerhetskopior (och går förlorade utöver det).

Innan du (över) skriver filen, säkerhetskopiera den befintliga filen genom att lägga till suffixet '.1' ('_1' på VMS) till filnamnet. Sådana säkerhetskopior roteras till ".2", ".3" och så vidare, upp till och inklusive säkerhetskopior (och går förlorade för att göra det).

'-C'
'-Fortsätta'

Fortsätt att hämta en delvis nedladdad fil. Detta är användbart när du vill avsluta en nedladdning som startat av en tidigare instans av Wget, eller av ett annat program. Till exempel:

Fortsätt att hämta den delvis nedladdade filen. Detta är användbart när du vill slutföra en nedladdning som startats av en tidigare Wget-instans eller annat program. Till exempel:

wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Om det finns en fil med namnet ls-lR.Z i den aktuella katalogen kommer Wget att anta att det är den första delen av fjärrfilen och kommer att be servern att fortsätta hämtningen från en offset lika med längden på den lokala filen ...

Om det finns en fil som heter ls-lR.Z i den aktuella katalogen, kommer Wget att anta att det är den första delen av fjärrfilen och ber servern att fortsätta extrahera med en offset lika med längden på den lokala filen.

Observera att du inte behöver ange det här alternativet om du bara vill att den aktuella anropet av Wget ska försöka ladda ner en fil igen om anslutningen skulle förloras halvvägs. Detta är standardbeteendet. ’ -c'Påverkar bara återupptagandet av nedladdningar som påbörjats före detta anrop av Wget, och vars lokala filer fortfarande finns kvar.

Observera att du inte behöver ange detta alternativ om du bara vill att det aktuella Wget-anropet ska försöka ladda ned filen igen om anslutningen bryts halvvägs. Detta är standardbeteendet. ’ -c'Påverkar bara återuppta nedladdningar som startade före detta Wget-samtal och vars lokala filer fortfarande finns kvar.

Utan '-c' skulle det föregående exemplet bara ladda ner fjärrfilen till ls-lR.Z.1, och lämna den trunkerade ls-lR.Z filen ensam.

Utan -c laddade det föregående exemplet just fjärrfilen till ls-lR.Z.1, vilket lämnade filen med ls-lR.Z trunkerad.

Om du använder ' -c'På en icke-tom fil, och servern inte stöder fortsatt nedladdning, kommer Wget att starta om nedladdningen från början och skriva över den befintliga filen helt.

Om du använder ' -c'I en icke-tom fil, och servern inte stöder beständiga nedladdningar, kommer Wget att starta om nedladdningen från början och helt skriva över den befintliga filen.

Från och med Wget 1.7, om du använder ' -c'På en fil som är lika stor som den på servern kommer Wget att vägra ladda ner filen och skriva ut ett förklarande meddelande. Detsamma händer när filen är mindre på servern än lokalt (förmodligen för att den har ändrats på servern sedan ditt senaste nedladdningsförsök) -eftersom att "fortsätta" inte är meningsfullt, sker ingen nedladdning.

Sedan Wget 1.7, om du använder " -c"I en fil med samma storlek som den på servern kommer Wget att vägra ladda ner filen och skriva ut ett förklarande meddelande. Samma sak händer när filen är mindre på servern än den är lokalt (förmodligen för att den har modifierats på servern sedan senaste nedladdningsförsöket), eftersom "fortsätt" är meningslöst, ingen nedladdning sker.

På andra sidan av myntet, när du använder "-c", kommer alla filer som är större på servern än lokalt att betraktas som en ofullständig nedladdning och endast (längd (fjärr) - längd (lokal)) kommer att laddas ner och fästas på slutet av den lokala filen. Detta beteende kan vara önskvärt i vissa fall, till exempel kan du använda 'wget -c' för att ladda ner bara den nya delen som har lagts till i en datainsamling eller loggfil.

På andra sidan av myntet, när du använder '-c', kommer alla filer som är större på servern än lokalt att betraktas som en partiell nedladdning och endast (längd (fjärr) längd (lokal)) kommer att laddas ner och bifogas till slutet av den lokala filen. Detta beteende kan vara önskvärt i vissa fall, till exempel kan du använda "wget-c" för att bara ladda ner den nya delen som har lagts till i datainsamlingen eller loggfilen.

Men om filen är större på servern eftersom den har ändrats, i motsats till att den bara har lagts till, kommer du att få en förvrängd fil. Wget har inget sätt att verifiera att den lokala filen verkligen är ett giltigt prefix för fjärrfilen. Du måste vara särskilt försiktig med detta när du använder '-c' i kombination med '-r', eftersom varje fil kommer att betraktas som en "ofullständig nedladdning"-kandidat.

Men om filen är större på servern eftersom den har modifierats i stället för att bara läggas till, kommer du att få en förvrängd fil. Wget har inget sätt att verifiera att den lokala filen verkligen är ett giltigt prefix för fjärrfilen. Du måste vara särskilt försiktig när du använder '-c' tillsammans med '-r', eftersom varje fil kommer att betraktas som en "partiell nedladdning"-kandidat.

Ett annat exempel där du får en förvrängd fil om du försöker använda '-c' är om du har en lam HTTP-proxy som infogar en "överföringsavbruten" sträng i den lokala filen. I framtiden kan ett "återställningsalternativ" läggas till för att hantera detta fall.

Ett annat exempel där du får en felaktig fil om du försöker använda "-c" är om du har en lam HTTP-proxy som infogar raden "avbryt omdirigering" i en lokal fil. I framtiden kan ett återställningsalternativ läggas till för att lösa detta fall.

Anteckna det ' -c Fungerar bara med FTP-servrar och med HTTP-servrar som stöder Range-huvudet.

Anteckna det ' -c Fungerar bara med FTP-servrar och HTTP-servrar som stöder Range-huvudet.

’—Start-pos = OFFSET’

Börja ladda ner vid noll-baserad position OFFSET. Offset kan uttryckas i byte, kilobyte med suffixet 'k' eller megabyte med suffixet 'm', etc.

Börja ladda ner vid position noll OFFSET. Offseten kan uttryckas i byte, kilobyte med suffixet "k" eller megabyte med suffixet "m", etc.

'—Start-pos' har högre företräde framför '—fortsätt'. När '—start-pos 'och' —fortsätt 'är båda specificerade, kommer wget att avge en varning och fortsätt sedan som om' —fortsätt 'var frånvarande.

Serverstöd för fortsatt nedladdning krävs, annars kan inte '—start-pos' hjälpa. Se "-c" för detaljer.

'—Progress = typ'

Välj vilken typ av förloppsindikator du vill använda. Juridiska indikatorer är "prick" och "bar".

"bar"-indikatorn används som standard. Den ritar en ASCII-förloppsindikatorgrafik (alias "termometer"-display) som anger status för hämtning. Om utgången inte är en TTY, kommer "punktfältet" att användas som standard.

Använd '—progress = dot 'för att växla till "dot"-displayen. Den spårar hämtningen genom att skriva ut prickar på skärmen, där varje punkt representerar en fast mängd nedladdad data.

Förloppstypen kan också ta en eller flera parametrar. Parametrarna varierar beroende på den valda typen. Parametrar för att skriva skickas genom att de läggs till typen som sprids av ett kolon (:) så här: '—progress = typ: parameter1: parameter2'.

När du använder den prickade hämtningen kan du ställa in stilen genom att ange typen som "dot: style". Olika stilar tilldelar olika betydelser till en punkt. Med standardstilen representerar varje punkt 1K, det finns tio punkter i ett kluster och 50 punkter på en linje. Den binära stilen har en mer "dator"-liknande orientering-8K punkter, 16-punkters kluster och 48 punkter per rad (vilket ger 384K linjer). Megastilen är lämplig för att ladda ner stora filer - varje punkt representerar 64K hämtade, det finns åtta punkter i ett kluster och 48 punkter på varje rad (så varje rad innehåller 3M). Om mega inte räcker kan du använda gigastilen - varje punkt representerar 1M hämtad, det finns åtta punkter i ett kluster och 32 punkter på varje rad (så varje rad innehåller 32M).

Med '—progress = bar ' finns det för närvarande två möjliga parametrar, force och noscroll.

När utgången inte är en TTY, faller förloppsindikatorn alltid tillbaka till "punkt", även om '—progress = bar' skickades till Wget under anropet. Detta beteende kan åsidosättas och "bar"-utgången tvingas genom att använda parametern "force" som '—progress = bar: force'.

Som standard rullar "bar"-stilens förloppsfält namnet på filen från vänster till höger för filen som laddas ner om filnamnet överskrider den maximala längden som tilldelats för dess visning. I vissa fall, som med '—progress = bar: force ', kanske man inte vill ha det rullande filnamnet i förloppsindikatorn. Genom att skicka parametern "noscroll" kan Wget tvingas visa så mycket av filnamnet som möjligt utan att rulla igenom det.

Observera att du kan ställa in standardstilen med hjälp av kommandot progress i .wgetrc. Den inställningen kan åsidosättas från kommandoraden. Till exempel, för att tvinga stapelutgången utan att rulla, använd '—progress = bar: force: noscroll '.

'—Visa framsteg'

Tvinga wget att visa förloppsindikatorn i valfri utförlighet.

Som standard visar wget endast förloppsindikatorn i verbose läge. Man kan dock vilja att wget ska visa förloppsindikatorn på skärmen i kombination med andra utförlighetslägen som "-no-verbose" eller "-tyst". Detta är ofta en önskad egenskap när man anropar wget för att ladda ner flera små/stora filer. I ett sådant fall kan wget helt enkelt anropas med denna parameter för att få en mycket renare utdata på skärmen.

Det här alternativet kommer också att tvinga förloppsindikatorn att skrivas ut till stderr när det används tillsammans med alternativet "—loggfil".

'-N'
'—Tidsstämpling'

Slå på tidsstämpling. Se Tidsstämpling för detaljer.

Slå på timing. Se Tidsstämpling för detaljer.

'—Nej-om-modifierad-sedan '

Skicka inte rubriken If-Modified-Since i '-N'-läge. Skicka preliminär HEAD-förfrågan istället. Detta har bara effekt i '-N'-läge.

'—No-use-server-timestamps'

Ställ inte in den lokala filens tidsstämpel efter den på servern.

Som standard, när en fil laddas ner, är dess tidsstämplar inställda för att matcha dem från fjärrfilen. Detta tillåter användning av '—tidsstämpling' på efterföljande anrop av wget. Det är dock ibland användbart att basera den lokala filens tidsstämpel på när den faktiskt laddades ned; för det ändamålet har alternativet '—no-use-server-timestamps' tillhandahållits.

'-S'
'—Serversvar'

Skriv ut rubrikerna som skickas av HTTP-servrar och svar som skickas av FTP-servrar.

'-Spindel'

När det anropas med det här alternativet kommer Wget att bete sig som en webbspindel, vilket innebär att den inte laddar ner sidorna, bara kontrollera att de finns där. Du kan till exempel använda Wget för att kontrollera dina bokmärken:

wget -spider -force-html -i bookmarks.html
Den här funktionen behöver mycket mer arbete för att Wget ska komma nära funktionaliteten hos riktiga webbspindlar.

"-T sekunder"
'—Timeout = sekunder'

Ställ in nätverkets timeout till sekunder sekunder. Detta motsvarar att specificera '—dns-timeout', '—connect-timeout' och '—read-timeout', allt på samma gång.

När du interagerar med nätverket kan Wget leta efter timeout och avbryta operationen om det tar för lång tid. Detta förhindrar anomalier som hängande läsningar och oändliga anslutningar. Den enda timeout som är aktiverad som standard är en läsningstid på 900 sekunder. Om du ställer in en timeout till 0 inaktiveras den helt. Om du inte vet vad du gör är det bäst att inte ändra standardinställningarna för timeout.

Alla timeout-relaterade alternativ accepterar decimalvärden, såväl som undersekundvärden. Till exempel är "0,1" sekunder ett lagligt (men oklokt) val av timeout. Undersekundstidsgränser är användbara för att kontrollera serverns svarstider eller för att testa nätverkslatens.

'—Dns-timeout = sekunder'

Ställ in tidsgränsen för DNS-sökning till sekunder sekunder. DNS-sökningar som inte slutförs inom den angivna tiden kommer att misslyckas. Som standard finns det ingen timeout på DNS-uppslagningar, annat än det som implementeras av systembibliotek.

'— Connect-timeout = sekunder '

Ställ in anslutningstiden till sekunder sekunder. TCP-anslutningar som tar längre tid att upprätta kommer att avbrytas. Som standard finns det ingen timeout för anslutning, annat än den som implementeras av systembibliotek.

'—Läs-timeout = sekunder'

Ställ in läs- (och skriv) timeout till sekunder sekunder. "Tiden" för denna timeout hänvisar till vilotid: om, vid någon tidpunkt under nedladdningen, ingen data tas emot under mer än det angivna antalet sekunder, misslyckas läsningen och nedladdningen startas om. Det här alternativet påverkar inte direkt varaktigheten av hela nedladdningen.

Naturligtvis kan fjärrservern välja att avsluta anslutningen tidigare än det här alternativet kräver. Standardtid för läsning är 900 sekunder.

'—Limit-rate = summa'

Begränsa nedladdningshastigheten till mängden byte per sekund. Beloppet kan uttryckas i byte, kilobyte med suffixet 'k' eller megabyte med suffixet 'm'. Till exempel kommer '—limit-rate = 20k' att begränsa hämtningshastigheten till 20KB/s. Detta är användbart när du, av någon anledning, inte vill att Wget ska förbruka hela den tillgängliga bandbredden.

Detta alternativ tillåter användning av decimaltal, vanligtvis i kombination med potenssuffix; till exempel är '—limit-rate = 2,5k' ett lagligt värde.

Observera att Wget implementerar begränsningen genom att sova lämplig tid efter en nätverksläsning som tog kortare tid än vad som anges av hastigheten. Så småningom gör denna strategi att TCP-överföringen saktar ner till ungefär den specificerade hastigheten. Det kan dock ta lite tid för denna balans att uppnås, så bli inte förvånad om att begränsa hastigheten inte fungerar bra med mycket små filer.

"-W sekunder"
’—Vänta = sekunder’

Vänta det angivna antalet sekunder mellan hämtningarna. Användning av det här alternativet rekommenderas, eftersom det underlättar serverbelastningen genom att förfrågningarna blir mindre frekventa. Istället för i sekunder kan tiden anges i minuter med suffixet m, i timmar med h suffixet eller i dagar med d suffixet.

Att ange ett stort värde för det här alternativet är användbart om nätverket eller destinationsvärden är nere, så att Wget kan vänta tillräckligt länge för att rimligen förvänta sig att nätverksfelet åtgärdas innan ett nytt försök. Vänteintervallet som specificeras av denna funktion påverkas av -random-wait, som se.

’—Vänteförsök = sekunder’

Om du inte vill att Wget ska vänta mellan varje hämtning, utan bara mellan återförsök av misslyckade nedladdningar, kan du använda det här alternativet. Wget kommer att använda linjär backoff, väntar 1 sekund efter det första felet på en given fil och väntar sedan 2 sekunder efter det andra felet på den filen, upp till det maximala antalet sekunder som du anger.

Som standard antar Wget ett värde på 10 sekunder.

'—Slumpmässig-vänta'

Vissa webbplatser kan utföra logganalys för att identifiera hämtningsprogram som Wget genom att leta efter statistiskt signifikanta likheter i tiden mellan förfrågningar. Det här alternativet gör att tiden mellan förfrågningar varierar mellan 0,5 och 1,5 * väntesekunder, där väntan specificerades med alternativet "—vänta", för att maskera Wgets närvaro från sådan analys.

En artikel från 2001 i en publikation som ägnas åt utveckling på en populär konsumentplattform gav kod för att utföra denna analys i farten. Dess författare föreslog blockering på klass C-adressnivå för att säkerställa att automatiska hämtningsprogram blockerades trots att DHCP-levererade adresser ändrades.

Alternativet "—slumpmässig väntan" inspirerades av denna ogiltiga rekommendation att blockera många orelaterade användare från en webbplats på grund av ens handlingar.

'—Ingen proxy'

Använd inte proxyservrar, även om lämplig miljövariabel * _proxy är definierad.

Se Fullmakter, för mer information om användningen av fullmakter med Wget.

'-Q kvot'
’—Kvota = kvot’

Ange nedladdningskvot för automatiska hämtningar. Värdet kan anges i byte (standard), kilobyte (med suffix 'k') eller megabyte (med suffix 'm').

Observera att kvoten aldrig kommer att påverka nedladdning av en enskild fil. Så om du anger 'wget -Q10k https://example.com/ls-lR.gz' kommer alla ls-lR.gz att laddas ner. Detsamma gäller även när flera webbadresser anges på kommandoraden. Kvoten respekteras dock vid hämtning antingen rekursivt eller från en indatafil. Så du kan säkert skriva 'wget -Q2m -i sites'-nedladdningen avbryts när kvoten överskrids.

Om du ställer in kvoten till 0 eller till 'inf' obegränsas nedladdningskvoten.

'—Ingen-dns-cache'

Stäng av cachning av DNS-uppslagningar. Normalt kommer Wget ihåg IP-adresserna som den letade upp från DNS så att den inte behöver kontakta DNS-servern upprepade gånger för samma (vanligtvis små) uppsättning värdar som den hämtar från. Denna cache finns endast i minnet; en ny Wget-körning kommer att kontakta DNS igen.

Det har dock rapporterats att det i vissa situationer inte är önskvärt att cachelagra värdnamn, inte ens för en kortvarig applikation som Wget. Med det här alternativet skickar Wget en ny DNS-uppslagning (mer exakt, ett nytt anrop till gethostbyname eller getaddriinfo) varje gång den gör en ny anslutning. Observera att det här alternativet inte kommer att påverka cachning som kan utföras av det lösande biblioteket eller av ett externt cachlager, såsom NSCD.

Om du inte förstår exakt vad det här alternativet gör, kommer du förmodligen inte att behöva det.

'—Begränsa-filnamn = lägen'

Ändra vilka tecken som finns i fjärrwebbadresser som måste escapes under generering av lokala filnamn. Tecken som begränsas av detta alternativ escapes, dvs. ersatt med '% HH', där 'HH' är det hexadecimala tal som motsvarar det begränsade tecknet. Det här alternativet kan också användas för att tvinga alla alfabetiska bokstäver att vara antingen gemener eller versaler.

Som standard undslipper Wget de tecken som inte är giltiga eller säkra som en del av filnamnen på din operativ system, samt kontrolltecken som vanligtvis inte går att skriva ut. Det här alternativet är användbart för att ändra dessa standardinställningar, kanske för att du laddar ner till en icke-inbyggd partition, eller för att du vill inaktivera escape av kontrolltecken, eller för att du ytterligare vill begränsa tecken till endast de i ASCII-värdeintervallet.

Lägena är en kommaseparerad uppsättning textvärden. De acceptabla värdena är 'unix', 'windows', 'nocontrol', 'ascii', 'gemener' och 'versaler'. Värdena 'unix' och 'windows' utesluter varandra (det ena kommer att åsidosätta det andra), liksom 'gemener' och 'versaler'. De sista är specialfall, eftersom de inte ändrar uppsättningen tecken som skulle escapes, utan snarare tvingar lokala filsökvägar att konverteras antingen till gemener eller versaler.

När "unix" är specificerat, undviker Wget tecknet '/' och kontrolltecknen i intervallen 0–31 och 128–159. Detta är standard på Unix-liknande operativsystem.

När "windows" ges, undslipper Wget tecknen '\', '|', '/', ':', '?', '" ',' * ','<’, ‘>', Och kontrolltecknen i intervallen 0-31 och 128-159. Utöver detta använder Wget i Windows-läge '+' istället för ':' för att separera värd och port i lokala filnamn, och använder '@' istället för '?' För att separera frågedelen av filnamnet från resten ... Därför skulle en URL som skulle sparas som "www.xemacs.org:4300/search.pl?input=blah" i Unix-läge sparas som "www.xemacs.org + 4300 / [e-postskyddad]= blah 'i Windows-läge. Det här läget är standardläget i Windows.

Om du anger 'nocontrol', är escapen av kontrolltecken också avstängd. Det här alternativet kan vara vettigt när du laddar ner webbadresser vars namn innehåller UTF-8-tecken, på ett system som kan spara och visa filnamn i UTF-8 (vissa möjliga bytevärden som används i UTF-8-bytesekvenser faller inom intervallet värden utsedda av Wget som "kontroller").

"Ascii"-läget används för att specificera att någon bytes vars värden ligger utanför intervallet för ASCII-tecken (det vill säga större än 127) ska escapes. Detta kan vara användbart när du sparar filnamn vars kodning inte matchar den som används lokalt.

‘-4’
'—Endast Inet4'
‘-6’
'—Endast Inet6'

Tvinga anslutning till IPv4- eller IPv6-adresser. Med '—inet4-only' eller '-4' kommer Wget endast att ansluta till IPv4-värdar, ignorera AAAA-poster i DNS och vägra ansluta till IPv6-adresser som anges i URL:er. Omvänt, med '—inet6-only' eller '-6' kommer Wget bara att ansluta till IPv6-värdar och ignorera A-poster och IPv4-adresser.

Ingetdera alternativen borde behövas normalt. Som standard kommer en IPv6-medveten Wget att använda adressfamiljen som anges av värdens DNS-post. Om DNS svarar med både IPv4- och IPv6-adresser kommer Wget att prova dem i sekvens tills den hittar en den kan ansluta till. (Se även —föredrar-familj alternativ som beskrivs nedan.)

Dessa alternativ kan användas för att medvetet tvinga fram användningen av IPv4- eller IPv6-adressfamiljer på system med dubbla familjer, vanligtvis för att underlätta felsökning eller för att hantera trasig nätverkskonfiguration. Endast en av '—inet6-only' och '—inet4-only' kan anges samtidigt. Inget av alternativen är tillgängligt i Wget kompilerat utan IPv6-stöd.

'—Prefer-family = ingen / IPv4 / IPv6'

När du får välja mellan flera adresser, anslut först till adresserna med angiven adressfamilj. Adressordern som returneras av DNS används som standard utan ändring.

När du väljer flera adresser, anslut först till adresser med den angivna adressfamiljen. Adressordern som returneras av DNS är oförändrad som standard.

Detta undviker falska fel och anslutningsförsök vid åtkomst till värdar som löser till både IPv6- och IPv4-adresser från IPv4-nätverk. Till exempel löser "www.kame.net" till "2001: 200: 0: 8002: 203: 47ff: fea5: 3085" och till "203.178.141.194". När den föredragna familjen är IPv4, används IPv4-adressen först; när den föredragna familjen är IPv6, används IPv6-adressen först; om det angivna värdet är inget, används adressordern som returneras av DNS utan förändring.

Detta undviker falska fel och anslutningsförsök vid åtkomst till värdar som tillåter IPv6- och IPv4-adresser från IPv4-nätverk. Till exempel löser "www.kame.net" "2001: 200: 0: 8002: 203: 47ff: fea5: 3085" och "203.178.141.194". När den föredragna familjen är IPv4, används IPv4-adressen först; när den föredragna familjen är IPv6, används IPv6-adressen först; om det angivna värdet är inget, används adressen som returneras av DNS oförändrad.

Till skillnad från '-4' och '-6' hindrar inte detta alternativ åtkomst till någon adressfamilj, det ändrar bara ordningen i vilken adresserna nås. Observera också att omordningen som utförs av detta alternativ är stabil - den påverkar inte ordningen på adresser i samma familj. Det vill säga att den relativa ordningen för alla IPv4-adresser och alla IPv6-adresser förblir intakt i alla fall.

Till skillnad från "-4" och "-6" förbjuder denna parameter inte åtkomst till någon adressfamilj, den ändrar ordningen för åtkomst till adresser. Observera också att omordningen som utförs av detta alternativ är stabil – den påverkar inte ordningen på adresser i samma adressfamilj. Det vill säga, den relativa ordningen för alla IPv4-adresser och alla IPv6-adresser förblir intakt i alla fall.

"—Retry-connrefused"

Se "anslutning nekad" som ett övergående fel och försök igen. Normalt ger Wget upp en URL när den inte kan ansluta till webbplatsen eftersom misslyckande att ansluta tas som ett tecken på att servern inte körs alls och att omförsök inte skulle hjälpa. Det här alternativet är till för att spegla opålitliga webbplatser vars servrar tenderar att försvinna under korta perioder.

Observera att det övergående felet "anslutning nekades" och försök igen. Vanligtvis kommer Wget att ge upp webbadressen när den inte kan ansluta till webbplatsen, eftersom anslutningsavvisandet tas som ett tecken på att servern inte körs alls och att försök inte hjälper. Det här alternativet är till för att spegla opålitliga webbplatser vars servrar tenderar att försvinna inom korta tidsperioder.

'—Användare = användare'
'—Lösenord = lösenord'

Ange användarnamnet användar- och lösenordslösenord för både FTP- och HTTP-filhämtning. Dessa parametrar kan åsidosättas med hjälp av ' — Ftp-användare'Och' — Ftp-lösenord'Alternativ för FTP-anslutningar och' -http-användare 'och' -http-lösenord 'alternativen för HTTP-anslutningar.

Ange användarlösenord och användarlösenord för FTP- och HTTP-filsökning. Dessa parametrar kan åsidosättas med alternativen " — Ftp-användare" och " — Ftp-lösenord"För FTP-anslutningar och" -http-användare "och" -http-lösenord "för HTTP-anslutningar.

'—Fråga-lösenord'

Fråga efter ett lösenord för varje upprättad anslutning. Kan inte anges när ' -Lösenord'Används eftersom de utesluter varandra.

Begär ett lösenord för alla upprättad anslutning... Kan inte anges när du använder " -Lösenord"För att de utesluter varandra.

'—No-iri'

Stäng av stöd för internationell URI (IRI). Använda sig av '—Iri' att sätta på den. IRI-stöd är aktiverat som standard.

Inaktivera stöd för Internationalized URI (IRI). Använda sig av "—Iri" att sätta på den. IRI-stöd är aktiverat som standard.

Du kan ställa in standardtillståndet för IRI-stöd med iri-kommandot i .wgetrc. Den inställningen kan åsidosättas från kommandoraden.

Du kan ställa in standardtillståndet för IRI med iri-kommandot i .wgetrc. Denna parameter kan åsidosättas från kommandoraden.

'—Local-encoding = encoding'

Tvinga Wget att använda kodning som standardsystemkodning. Det påverkar hur Wget konverterar URL:er angivna som argument från locale till UTF-8 för IRI-stöd.

Tvinga Wget att använda systemets standardkodning. Detta påverkar hur Wget konverterar URL:er som ges som argument från lokalen till UTF-8 för IRI-stöd.

Wget använd funktionen nl_langinfo () och sedan miljövariabeln CHARSET för att få lokalen. Om det misslyckas används ASCII.

Wget använder funktionen nl_langinfo () och sedan miljövariabeln CHARSET för att få lokalen. Om detta misslyckas används ASCII.

Du kan ställa in den lokala standardkodningen med kommandot local_encoding i .wgetrc. Den inställningen kan åsidosättas från kommandoraden.

Du kan ställa in den lokala standardkodningen med kommandot local_encoding i .wgetrc. Denna parameter kan åsidosättas från kommandoraden.

'—Remote-encoding = encoding'

Tvinga Wget att använda kodning som standardkodning för fjärrservern. Det påverkar hur Wget konverterar URI:er som finns i filer från fjärrkodning till UTF-8 under en rekursiv hämtning. Dessa alternativ är endast användbara för IRI-stöd, för tolkning av icke-ASCII-tecken.

Tvinga Wget att använda kodningen som standardkodning för fjärrservern. Detta påverkar hur Wget konverterar URI:er som finns i fjärrkodade filer till UTF-8 under rekursiv hämtning. Dessa alternativ är endast användbara för IRI-stöd, för tolkning av icke-ASCII-tecken.

För HTTP kan fjärrkodning hittas i HTTP Content-Type-huvudet och i HTML Content-Type http-equiv-metataggen.

För HTTP kan fjärrkodning hittas i HTTP Content-Type-huvudet och i http-equiv HTML Content-Type-metataggen.

Du kan ställa in standardkodningen med kommandot remoteencoding i .wgetrc. Den inställningen kan åsidosättas från kommandoraden.

Du kan ställa in standardkodningen med kommandot remoteencoding i .wgetrc. Denna parameter kan åsidosättas från kommandoraden.

'—Ta bort länk'

Tvinga Wget för att ta bort länken till filen istället för att ta bort befintlig fil. Det här alternativet är användbart för nedladdning till katalogen med hårda länkar.

Göra Wget inaktivera filen istället för att täppa till den befintliga filen. Det här alternativet är användbart för att ladda upp till en katalog med hårda länkar.