Meny
Är gratis
checka in
den huvudsakliga  /  Installation och installation / Wget-kommandon: Exempel. Konsolprogram för nedladdning av filer via wet-nätverket

Wget-kommandon: Exempel. Konsolprogram för nedladdning av filer via wet-nätverket

wget - guide gnu wget

SYNTAX

wget [ parametrar]… [ Url ]…

BESKRIVNING

GNU WGET är ett öppet fördrivet verktyg för nedladdning av filer från Internet. Det stöder HTTP, HTTPS och FTP-protokoll, nedladdning från HTTP-proxyservrarna.

WGET kan följa länkarna på HTML-sidorna och skapa lokala kopior av fjärrwebbplatser, samtidigt som det är möjligt att helt återställa platsmappstrukturen ("rekursiv nedladdning" - rekursiv lastning). Under sådant arbete söker WGET efter en fil med tillgång till robotar (/robots.txt). Det är också möjligt att konvertera länkar till de nedladdade HTML-filerna för vidare visning av webbplatsen offline ("Off-line surrowing").
Kontrollera filhuvuden: wget kan läsa filhuvuden (det här är tillgängligt via HTTP- och FTP-protokoll) och jämför dem med rubrikerna av tidigare nedladdade filer, varefter du kan ladda ner nya versioner av filer. På grund av detta, när du använder WGET, kan du implementera spegellagring av webbplatser eller filsatser till FTP.
WGET är konstruerad för långsamma eller instabila anslutningar: Om ett problem uppstår under nedladdningen, kommer wget att försöka fortsätta nedladdningen av filen. Om servern från vilken filen är laddad, stöder filen till filen, fortsätter wget att ladda ner filen från den plats där nedladdningen bröt ut.

alternativ

Huvudinställningar

-V. --Version. Visa wet-versionen. -h. --Hjälp Visa parametrarna för wget-kommandorad. -b. --Bakgrund Gå till bakgrundsläget efter att ha startat. Om filen för meddelanden inte anges av parametern -o.Då är han skrivet i wget-logg. -E. kommando. --Kör. kommando. Prestera kommando. som om det var en del .wgetrc.. Kommandot kommer att utföras efter kommandona i .wgetrc..

Meddelandeparametrar

-o. loggfil. --Output-fil \u003dloggfil. Skriv alla meddelanden i loggfil.. Annars kommer de att styras till stderr. -a. loggfil. --Append-output \u003dloggfil. Ytterligare loggfil.. Som jag. -o., Bara loggfil. Ej ersatt, men kompletteras. Om en loggfil. Det finns nej, en ny fil skapas. -d. Bug Visa debug-meddelanden - DIVERSE INFORMATION VIKTIGT TILL WGET-utvecklare. -Q. --Tyst. Stäng av wget-meddelandena. -V. --Mångordig Aktivera detaljerade meddelanden, med alla tillgängliga data. Standard ingår. -NV. --NON-VERBOSE Weplize förkortade meddelanden (för att stänga av meddelandena, se. -Q.). Felmeddelanden och grundläggande information visas. -Jag. fil --Input-fil \u003dfil Läs URL OUT fil. I det här fallet behöver du inte ange webbadressen på kommandoraden. Om webbadressen också anges på kommandoraden och i fil, För det första laddas URL-adressen från kommandoraden. fil Det behöver inte ha ett HTML-format (men inget hemskt, om så är fallet) - URL-adressen ska helt enkelt anges i den. Om du anger --Force-HTML.då kommer filen att läsas som html.. I det här fallet kan problem med relativa referenser uppstå. Detta kan förebyggas genom att lägga till det. " "eller mata in på kommandoraden --Base \u003d.url. -F. --Force-HTML. När du läser webbadressen från filen, innehåller du läs en fil som HTML. För att förhindra fel i fallet med den lokala HTML-filen, lägg till i filen " "Eller ange kommandoradsparametern --Bas. -B. Url --Base \u003d. Url När du läser webbadressen från filen ( -F.) Bestämmer Url läggs till i de relativa filadresserna som anges av parametern -Jag..

Ladda ner alternativ

--Bind-adress \u003d Adress När anslutningar via TCP / IP sänder "binda ()" i Adress på en lokal maskin. I Adress Det kan indikeras både värdnamn och IP-adress. Används om din dator har flera IP-adresser. -t. siffra --Tries \u003d.siffra Ställer in antalet repetitioner siffra. Ange 0 eller inf Att avbryta upprepningar. -O. fil --Output-dokument \u003dfil Dokument kommer inte att spelas in i relevanta filer och kombineras tillsammans och spelas in i filen. fil. Om en fil Det är, det kommer att ersättas. Om en filspecificerad som , Dokument visas på standardutgången (STDOUT). Denna parameter ställer automatiskt in antalet repetitioner i 1. Användbar när du hämtar uppdelade filer från postservrar via webbgränssnittet. -nc. -No-clobber Om när du hämtar webbplatsen klipptes anslutningen och anger sedan den här parametern för att fortsätta nedladdning från anslutningsplatsen. Efter att ha startat wgeten utan parametrar -N., -nc., eller -r. Laddar samma fil i en mapp skapar en kopia av filen med namnet fil.1 . Om det finns en fil och med samma namn kommer den tredje kopian att ringas fil.2 etc. Under parametern -nc. Varningar visas. När du startar wget med parametern -r., men utan -N. eller -nc.Den nya nedladdningsplatsen kommer att ersätta de redan laddade filerna. När parametern specificeras -nc. Laddning fortsätter från nedbrytningen och de nedladdade filerna laddas inte igen (om de inte ändras). När du startar wget med parametern -N., med eller utan -r.Filen laddas endast om den är nyare än en befintlig, eller om storleken inte matchar den tillgängliga kopian (se jämförelse efter datum). -nc. C. är inte kombinerat -N..
Med den angivna parametern -nc. Filer med tillägg .html. eller (det här är bara hemskt) .htm. Från lokala diskar laddas, som om från Internet. -c. --Fortsätta. Förnyar filhämtningen. Används om filhämtningen avbröts. Till exempel: wget -c ftp://sunsite.doc.ic.ac.uk/ls-lr.z

Om den aktuella mappen redan har en fil som heter ls-lr.z., då kommer wget att kontrollera om den här filen matchar den nedladdningsbara filen (inte i storlek!), och i så fall skickar du en förfrågan till servern för att fortsätta att ladda ner filen från samma plats där nedladdningen bröt ut förra gången. Observera att när anslutningen är trasig. Wget upprepas försöker ladda ner dig själv och utan parameter -c.Och bara när han "kommer att ge upp" och slutför sitt arbete, kommer den här parametern att behövas för att återuppta filbelastningen.
Utan att ange alternativ -c. Det föregående exemplet laddar den angivna filen igen med det slutliga namnet. ls-lr.z.1., ingen beröring redan existerande ls-lr.z..
Från och med version 1.7 när du anger parametern -c. Om filen på servern är lika med eller mindre än den lokala filen, kommer storleken, inte hämtat något och visar motsvarande meddelande.
Men när den används -c. Varje fil på en server som har en större storlek än en lokal fil kommer att behandlas som ouppkopplad. Den kommer att hämtas och spelas in i slutet av filen bara "(längd (radera fil) - längd (lokal. Fil))" Byte. Detta kan vara användbart, Elsi du behöver ladda ner nya meddelanden från vilken tidskrift som helst (logg).
Samtidigt om den nedladdningsbara filen är mer eftersom den ändratsDu kommer att få en skadad fil (dvs filen kan så småningom visa sig helt annorlunda än originalet). Måste vara särskilt uppmärksam när den används -c. tillsammans med -r.Eftersom varje modifierad fil kan vara en kandidat till "ofullständig laddning".
Du kommer också att få en skadad fil om din HTTP-proxyserver fungerar dumt och när anslutningen är trasig skriver den till meddelandefilen "Överföring avbruten". Förmodligen i följande versioner av wget kommer det att korrigera det.
kom ihåg det -c. Det fungerar endast med FTP- och HTTP-servrar som stöder "RANGE" -rubrikerna (dvs filbedrägeri). --Progress \u003d.typ Ladda fram-indikatorn och dess typ. Möjliga värden: "dot" och "bar". Enligt standard, används "bar". Anteckningsalternativ --Progress \u003d bar. kommer att leda till ritning av en vacker indikator på ASCII-tecken (som "termometer"). Om standardutgången inte är tty, kommer "dot" att användas. --Progress \u003d punkt. Att byta till typen "dot". Lastningsutvecklingen kommer att markeras med att lägga till en punkt eller tecken i remsan som är lika med varje symbol representerar samma mängd data. När du använder den här typen kan du ange dess stil - punkt:stil.. Om stilen är "standard", kommer varje tecken att representera 1 kb, 10 tecken i klustret och 50 i strängen. Stilen "Binär" har en mer dator "-vy - 8kb i en symbol, 16 tecken i ett kluster och 48 tecken i strängen (det visar sig en rad för 384 kb). Mega-stilen används för att ladda ner stora filer - varje symbol representerar 64KB, 8 tecken i klustret och 48 tecken i strängen (3 MB per rad erhålls).
Du kan definiera standardstil med kommandot "Progress" in .wgetrc.. Om du vill ha typ av indikator "bar" som ska användas alltid (och inte bara när du visar i STDOUT), ange sedan --Progress \u003d bar: kraft. -N. --Timestamping. Aktivera jämförelse efter datum. -S. --Server-svar Visa rubriker skickade HTTP-servrar och önskemål som skickas till FTP-servrar. --Spindel. Installera wget-beteende som en "spindel", dvs wget, kommer inte att ladda filer, men kommer bara att kontrollera deras närvaro. Så du kan kontrollera bokmärken och länkarna på webbplatsen. Till exempel:

Wget - spider --force-html -i bookmarks.html

Wget innehåller inte alla möjligheter för "riktiga spindlar" för www. -T sekunder. - TIMEUT \u003d.sekunder. Väntetid på några sekunder. Som standard är väntetiden 900 s (15 min). Ställa in värdet till 0 avbryter väntetidskontrollen. Snälla, minska inte väntetiden om du definitivt inte vet vad exakt du gör. -W. sekunder. - Wait \u003d.sekunder. Pausa i sekunder mellan flera laster (inklusive repetitioner). Detta reducerar serverbelastningen. För att ange ett värde i minuter, använd "M", dygnet runt - "H", i dagarna - "D" efter numret. När det stora värdet av denna parameter är användbart om nätverket är instabilt (till exempel när modemkommunikationsbrott). --Waitretry \u003d.sekunder. Ställer upp pausen endast mellan backbelastningar. Wget kommer att vänta 1 sekund efter den första pausen, 2 sekunder efter den andra klippan av starten av samma fil etc. - till det maximala, vilket anges i sekunder. Till exempel, med värdet av denna parameter, lika med 10, väntar wget i allmänhet (1 + 2 + ... + 10) \u003d 55 sekunder för varje fil. Detta värde anges som standard i filen wgetrc.. --Random-vänta. Vissa servrar, som gör loggfilfiler med File Query Pauses, kan bestämma den rekursiva nedladdningen av filer - skanna robotar som wget. Denna parameter ställer in tiden mellan förfrågningar genom att variera pauserna med tiden beräknad från 0 till 2 * vänta. (sekunder), var vänta. Specificerad parameter -W. Att dölja wget. Glöm inte att källkoden för wget är tillgänglig, och det kan till och med beräknas om du vill beräkna denna förklädnad. -Y på / av - PROXY \u003d ON / OFF Stöd till en proxyserver. Aktiverad som standard om proxyn är definierad. -Q. kvot --Quota \u003d.kvot Kvot för storleken på nedladdningsbara filer. Indikeras i byte (som standard), i kilobytes KB (om i slutet k.) eller i MB megabyte (om i slutet m.). När kvoterna utmattning, är den aktuella filen laddad till slutet, det vill säga att kvoten inte fungerar när du laddar en fil. Till exempel, om du utför wget -q10k. ftp://wuarchive.wustom.edu/ls-lr.gz. sedan filen. ls-lr.gz. kommer att laddas fullt ut. Dessutom laddas alla filer som anges på kommandoraden, till skillnad från fillistan i en fil eller som med en rekursiv belastning. WeCript 0 eller INF kommer att avbryta kvoten.

Misslyckad startalternativ

-nd - Nej-kataloger. Skapa inte mappstruktur med rekursiv nedladdning. Med den angivna parametern laddas alla filer i en mapp. Om filen med det här namnet redan finns, sparas det under namnet Namn File.n.. -X. - Förkräkningskataloger. Motsatsen till parametern -nd - Skapa mappstruktur som börjar från huvudserverns sida. Till exempel, wget -x http://fly.srk.fer.hr/robots.txt kommer att ladda filen till mappen fly.srk.fer.hr.. -NH. --N-värdkataloger Skapa inte tomma mappar i början av strukturen. Standard / Pub / xemacs /. Om du laddar ner den med parametern -r.Då sparas det under namnet ftp.xemacs.org/pub/xemacs/. Med parameter -NH. Från namnet på den ursprungliga mappen skärs ut ftp.xemacs.org/och hon kommer att kallas pub / xemacs.. Och parameter - Köp-dirs. Avlägsna siffra Komponenter. Exempel på parameter - Köp-dirs.: Utan parametrar -\u003e ftp.xemacs.org/pub/xemacs/ -NH -\u003e Pub / XEMACS / -NH --CUT-dirs \u003d 1 -\u003e XEMACS / -NH - CUT-DIRS \u003d 2 -\u003e. --Cut-dirs \u003d 1 -\u003e ftp.xemacs.org/xemacs/ ...

Om du bara vill bli av med mappstrukturen kan du ersätta den här parametern -nd och -P.. Till skillnad från -nd, -nd Arbetar med underkataloger - till exempel när -NH --CUT-dirs \u003d 1 underkatalog beta / Fel, som xemacs / beta.. -P. prefix. --Directory-prefix \u003dprefix. Bestämmer initialmappdär webbplatsens mappstruktur (eller bara filer) sparas. Som standard är den här parametern lika . (Nuvarande mapp).

Http parametrar

-E. --HTML-förlängning Om typen av nedladdningsfil text / HTML. och dess adress slutar inte på .? När du använder den här parametern till dess namn kommer att läggas till .html.. Det kan vara användbart när speglade sidor .aspOm du inte vill att de ska störa i din Apache-server. Ett annat fall av tillämpning av denna paramer är att ladda ner CGI Script Svar-sidor. Sida med url http://site.com/article.cgi?25 kommer att sparas som artikel.cgi? 25.html. På: Vid uppdatering eller annan omstart av sidor med den här parametern, kommer den senare att laddas i vilket fall som helst, eftersom Wget kan inte ta reda på om den lokala filen har förhållandet X.html. Till laddad med url X.. För att undvika onödig omstart, använd alternativ. -K. och -K.. I det här fallet sparas också de ursprungliga versionerna av filer som X.orig. --HTTP-användare \u003danvändare. --Http-passwd \u003dlösenord. Användarnamn användare. och lösenord lösenord. För http-server. Beroende på vilken typ av svar, kommer wget att använda "grundläggande" (osäkert) eller "digest" (säker) tillstånd. Du kan också ange användarnamnet och lösenordet och i själva webbadressen. -C på / av --Cache \u003d på / av Innehåller eller stänger av serverns caching. I det här fallet skickar WGET den lämpliga förfrågan ( Pragma: No-cache). Också används för att snabbt uppdatera filer på en proxyserver. Standardcachningen är tillåten. --Kookies \u003d på / av Innehåller eller stänger av användningen av cookie. Servern skickar en cookie till kunden med hjälp av "set-cookie" -rubriken och klienten möter samma cookie. Tack vare detta kan servern leda besökarnas statistik. Som standard används cookies, men spela in dem på skivan är avstängd. --Load-cookies. fil Ladda ner cookie ut fil Innan den första laddningen http. fil har ett textformat som cookies.txt Netscape. Denna parameter används för spegling. För att göra detta skickar WGET samma cookies som skickar din webbläsare när du ansluter till HTTP-servern. Detta är påslagen av denna parameter - Ange bara wget-vägen till cookies.txt. Olika webbläsare lagrar cookies i olika mappar: Netscape 4.x. Filen är B. ~ / .netscape / cookies.txt. Mozilla och Netscape 6.x. Mozilla butiker kakor i cookies.txtligger någonstans i ~ / .mozilla., I mappen i din profil. Den fulla vägen slutar vanligtvis något som ~ / .mozilla / default / några konstiga-sträng / cookies.txt. Internet Explorer. För att exportera en cookie för wget, välj "File", "Importera och Exportera", välj "Exportera cookie-filer" i guiden. Verifierad i Internet Explorer 5; Det kanske inte fungerar i tidigare versioner. Andra observatörer. Parameter --Load-cookies. Det kommer att fungera med cookie i Netscape-format som stöds av wget. Om du inte kan använda parametern --Load-cookies., det har fortfarande en väg ut. Om din webbläsare stöder skriv namnet och cookie-värdet och anger manuellt wget som skickar till dessa cookies: wget --kookies \u003d off --header "cookie: jag \u003d I. " --Save-cookies. fil Spara kaka ut fil I slutet av sessionen. Föråldrade cookies sparas inte. --Inore-längd. Vissa http-servrar (mer exakt, CGI-skript) griper "heads-length" -huvuden, som indikerar wget, som ännu inte är laddat. Och wget laddar ett dokument flera gånger. Med denna parameter kommer wget att ignorera rubrikerna "Innehållslängd". --Header \u003d.ytterligare-header. Bestämmer ytterligare-header.skickas till HTTP-servern. Han måste innehålla : och tecken efter det. Du kan definiera flera extra rubriker genom användningen --Rubrik. upprepat. Wget - header \u003d "Acceptera-Charset: ISO-8859-2" --HEADER \u003d "Acceptera språk: HR" http://fly.srk.fer.hr/

Ange en tom sträng i titelvärdet kommer att rengöra alla användardefinierade till dessa rubriker. - PROXY-ANVÄNDAR \u003danvändare. - PROXY-PASSWD \u003dlösenord. Definierar användarnamn användare. och lösenord för lösenord för att godkänna proxyservern. Auktoriseringstypen "Basic" kommer att användas. --Referer \u003d.url Lägger till titeln `Referer: url"I HTTP-begäran. Används när du laddar ner sidor som sänds korrekt om servern vet vilken sida du kom ifrån. -S. --Save-rubriker. Spara rubriker som skickas av HTTP-servrar. -U. agentsträng --User-Agent \u003dagentsträng Identifiera, som agentsträng När du uppmanas till HTTP-servern. HTTP-protokollet gör att du kan bestämma dig själv med hjälp av agenthuvudet. Standard wget är identifierat som Wget /version.var version. - Det här är en version av wget. Vissa servrar ger önskad information endast för webbläsare som är identifierbara som "Mozilla" eller Microsoft "Internet Explorer". Denna parameter gör att du kan lura sådana servrar.

Parametrar ftp.

-Nr. -Dont-remove-listing Ta inte bort tillfälliga filer .lista.genereras vid nedladdning av FTP. Dessa filer innehåller information om FTP-servrarmappar. Klädsel hjälper dig snabbt att bestämma serverns mappuppdatering (dvs för att bestämma att din spegel är sådan). Om du inte tar bort .lista.Jag kommer ihåg din säkerhet! Till exempel, med det här namnet, kan du skapa en symbolisk länk till / etc / passwd eller något annat. -G på / av - glob \u003d på / av Innehåller eller stänger av användningen av specialtecken ( masker) via FTP-protokollet. Det kan vara * , ? , [ och ] . Till exempel: wget ftp://gnjilux.Srk.fer.hr/*.msg

Som standard tillåts användningen av maskerar tecken om webbadressen innehåller sådana tecken. Du kan också ta url i citat. Det kommer bara att fungera på Unix FTP-servrar (och emulerar UNIX "LS" -utgången). - Passiv-FTP. Innehåller FTP-passivt läge när anslutningen initieras av klienten. Används med brandvägg. -Retr-symlinks. Med den rekursiva nedladdningen av FTP-mappar, är de filer som indikerar symboliska länkar inte laddade. Denna parameter inaktiverar detta. Parameter -Retr-symlinks. Det är nu bara för filer, inte för mappar. Observera att den här parametern inte fungerar när du laddar en enda fil.

Rekursiva lastparametrar

-r. --Rekursiv. Aktivera rekursiv nedladdning. -L. djup --Level \u003d.djup Maximal djup av rekursiv lastning djup. Som standard är dess värde 5. --Delete-efter. Ta bort varje sida (lokalt) efter Dess nedladdningar. Används för att spara nya versioner av ofta begärda sidor på en proxy. Till exempel: wget -r -nd --delete-efter http://whever.com/~popular/page/

Parameter -r. Inkluderar som standard, parameter -nd Inaktiverar mappsskapande. Skriv ut den angivna parametern --Delete-efter. Parametern kommer att ignoreras - KONKONTA LÄNKAR.. -K. - KONKONTA LÄNKAR. När nedladdningen är klar, konvertera länkar till dokumentet för att visa offline. Detta gäller inte bara de synliga referenserna till andra dokument och länkar till alla externa lokala filer. När länken varierar med ett av två sätt:

* Länkar till filer som är laddade med wget varierar på lämpliga relativa länkar. Till exempel: om den nedladdade filen /foo/doc.html, sedan länka till även nedladdad fil /bar/img.gif. kommer att se ut ../bar/img.gif.. Denna metod fungerar om det finns ett synligt förhållande mellan mapparna av en och en annan fil. * Länkar till filer som inte laddas WGET kommer att ändras till de absoluta adresserna till dessa filer på fjärrservern. Till exempel: Om nedladdningsfilen /foo/doc.html Innehåller länk till /bar/img.gif. (eller vid ../bar/img.gif.), sedan länka i filen doc.html. kommer att förändras på http: //host/bar/img.gif.. På grund av detta är det möjligt att autonomisk visning av webbplatsen och filerna: om filen hämtas som det finns en länk, kommer länken att indikera den, om inte, kommer länken att ange adressen på Internet (om sådana existerar ). När konvertering av relativa länkar används, betyder det att du kan överföra den nedladdade webbplatsen till en annan mapp utan att ändra sin struktur. Endast efter nedladdningen är klar, vet wget vilka filer som är laddade. Följaktligen, när parameter -K. Omvandlingen kommer endast att ske efter nedladdningen. -K. - Backup-konverterad Konvertera länkar Tillbaka - Ta bort förlängning .orig. Ändrar utförandet av alternativet -N.. -m. --Spegel Aktivera parametrar för spegelförvaringsställen. Denna parameter är lika med flera parametrar: -R -N -L INF -NR. För opretentiös lagring av spegelkopior av webbplatser kan du använda den här parametern. -P. --Page-krav. Ladda ner alla filer som behövs för att visa HTML-sidor. Till exempel: ritningar, ljud, kaskadstilar. Enligt standard är sådana filer inte laddade. Parametrar -r. och -L.specificerad tillsammans kan hjälpa men för att Wget skiljer inte externa och interna dokument, då är det ingen garanti för att allt som krävs. Till exempel, 1.html. Innehåller en tagg " " , med referenser till 1.gif.och tagg " "Med hänvisning till ett externt dokument 2.html.. Sida 2.html. Liknande, men dess ritning - 2.gif.och hon hänvisar till 3.html.. Låt oss säga att det varar till ett visst nummer. Om kommandot ges: wget -r -l 2 http: // i /1.html.

det där 1.html., 1.gif., 2.html., 2.gif. och 3.html. Ladda ner. Som du kan se 3.html. utan 3.gif.därför att Wget anser helt enkelt antalet hopp genom vilka det byter, kommer till 2 och stannar. Och när parametrar:

Wget -r-l 2 -p http: // i /1.html.

Alla filer och bild 3.gif. sidor 3.html. Ladda ner. Liknande

Wget -r -l 1 -p http: // i /1.html.

ladda att ladda ner 1.html., 1.gif., 2.html. och 2.gif.. För att ladda upp en angiven HTML-sida med alla dess föremål, ange inte bara -r. och -L.:

Wget -p http: // i /1.html.

I det här fallet kommer wget att uppträda som när parametern -r.Men sidan och dess hjälpfiler kommer att hämtas. Om du vill ha hjälpfiler på andra servrar (dvs med hjälp av absoluta länkar) är laddade, använd:

Wget -e -h-k -k -p http: // jag / I.

Och i slutsats måste det sägas att för WGET-länken är den URL som anges i taggarna " " , ""Och" " , Förutom " " .

Rekursiva rekursiva nedladdning / behörigheter parametrar

-A. acclist. --Acceptera acclist. -R. rejlist. --Avvisa. rejlist. Lista över filnamn separerade med kommatecken, som borde eller inte ska hämtas. Det är tillåtet att ställa in filnamnen på masken. -D. domänlista --Domäner \u003d.domänlista Lista över domäner domänlistasom får ladda upp filer. Delade kommatecken. Denna parameter inte Inkluderar -H. - exklusive domäner. domänlista Lista över domäner från vilka inte Tillåtet att ladda upp filer --Follow-FTP. Följ FTP-länkarna från HTML-sidor. Annars ignoreras länkar till ftp-filer. --Följ-taggar \u003dlista Wget har ett inbyggt HTML-taggbord där det letar efter länkar till andra filer. Du kan ange ytterligare taggar i splitlistan lista I denna parameter. -G. lista --Inore-tags \u003dlista Tillbaka --Följ-taggar.. För att hoppa över HTML-taggar med rekursiv nedladdning, ange dem i en splitlista lista. Intrudera parametern -G. Det var bäst för att ladda ner enskilda sidor med sina hjälpfiler. Du kan se hur det var, vilket indikerar kommandot wget -GA, område -H -K -K -R http: // i / I.

Men nu är den bästa parametern för nedladdning av en sida helt övervägd --Page-krav.. -H --SPAN-värdar Gör det möjligt att besöka några servrar som det finns en länk. -L. --Relativ. Följ endast relativa länkar. I den här parametern kommer filer från andra servrar definitivt inte att laddas. -Jag. lista --Include-kataloger \u003dlista Listan över mappar dividerad med kommatecken, från vilken den får ladda upp filer. Listelement lista -X. lista --Exclude-kataloger \u003dlista Lista över mappar dividerat med kommatecken uteslutna för nedladdning (se mapprestriktion). Listelement lista Kan innehålla symboler på masker. -NP. - no-förälder. Stiga inte över den ursprungliga adressen under rekursiv nedladdning.

Exempel på att använda

Exempel är uppdelade i tre kategorier enligt deras komplexitet.

Bara använda

* Om du behöver ladda ner webbadressen, ange sedan: wget http://fly.srk.fer.hr/ * men vad händer om anslutningen är långsam, och filen är lång? Det finns möjlighet att bryta kommunikation innan nedladdningen är klar. I det här fallet fortsätter wget att försöka den nya anslutningen tills antalet försök (som standard 20). Du kan ändra det här numret, till exempel upp till 45: wgetgries \u003d 45 http://fly.srk.fer.hr/jpg/flyweb.jpg * Låt oss nu lämna wetg att arbeta i bakgrunden, och vi kommer att spela in IT-logg logga.. Dyka -så vi använder -t.. Wget -t 45 -O log http://fly.srk.fer.hr/jpg/FlyWeb.jpg &

Ampersand-symbolen i slutet anger kommandotolkaren för att fortsätta arbetet utan att vänta på att Wet-sluten slutfördes. För att göra programrepetitionerna oändligt - använd -t inf. * Använd FTP är också mycket enkelt. Wget tar alla bekymmer om tillstånd.

Wget ftp://gnjilux.srk.fer.hr/welcome.msg * Om du anger mappadressen, laddar wgeten listan över den här mappen (dvs. filerna och underkatalogerna i den) och omvandlar den till HTML-formatet . Till exempel: wget ftp://prep.ai.mit.edu/pub/gnu/ links index.html

Utökad användning

* Om du har en fil med den webbadress du vill ladda ner, använd parametern -Jag.: wget -i jag

Om du anger I stället för filnamn kommer webbadressen att läsas från standardinmatning (STDIN). * Skapa en femnivå kopia av GNU-webbplatsen med strukturen hos de ursprungliga mapparna, med ett startförsök, spara meddelanden i gnulog.:

Wget -r http://www.gnu.org/ -o Gnulog * Som i exemplet ovan, men med länkarna i HTML-filerna till den lokala, för senare autonomt visning: wget - convert-links -r http: // www.gnu.org/ -o Gnulog * Ladda ner en HTML-sida och alla filer som krävs för att visa den senare (t.ex. ritningar, cascading-stilar, etc.). Också konvertera alla länkar till dessa filer: wget -p --convert-links http://www.server.com/dir/page.html

HTML-sidan sparas i www.server.com/dir/page.html och ritningar, cascading-stilar och så vidare sparas i mappen www.server.com/Förutom fallet när filerna hämtas från andra servrar. * Som i exemplet ovan, men utan en mapp www.server.com/. Också allt Filer sparas i undermappar ladda ner /.

Wget -p --convert-links -NH -ND -PDownload http://www.server.com/dir/page.html * Ladda ner index.html med www.lycos.com, Visar serverhuvud: wget -s http://www.lycos.com/ * Spara rubriker till en fil för vidare användning. Wget -s http://www.lycos.com/ mer index.html * Ladda ner två högre nivåer wuarchive.wustom.edu. i / TMP.. Wget -r -l2 -p / tmp ftp://wuarchive.wustom.edu/ * Hämta GIF-filer på HTTP-server. Team wget http://www.server.com/dir/*.gif. Det fungerar inte, eftersom kamouflage-tecknen inte stöds vid lastning genom HTTP-protokollet. Användning: Wget -R -L1 --no-parent -a.gif http://www.server.com/dir/

-R -l1 Inkluderar rekursiv lastning med ett maximalt djup 1. - no-förälder. Stängs av efter länkarna till modermappen med toppnivån, -A.gif. Gör det möjligt att ladda upp filer med .gif-förlängningen. -A "* .gif" Det kommer också att fungera. * Antag att under den rekursiva nedladdningen behövde du stänga av / starta om datorn. För att inte ladda ner befintliga filer, använd:

Wget -NC -R http://www.gnu.org/ * Om du vill ange användarnamnet och lösenordet för HTTP-servern eller FTP, använd lämplig URL-syntax: Wget FTP: // hniksic: /.emacs * You Vill du få nedladdningsbara dokument till standardutgång, inte i filer? Wget -o - http://jagor.srce.hr/ http://www.srce.hr/

Om du vill ordna en transportör och ladda ner alla webbplatser, länkar till vilka anges på en sida:

Wget -o - tp: //cool.list.com/ | Wget --force-html -i -

Professionell användning

* För att lagra spegeln på sidan (eller FTP-mappar), använd sedan --Spegel (-m.) vad ersätter -R -l Info -n. Du kan lägga till wget till crontab med en begäran om uppdateringskontroll varje söndag: crontab 0 0 * * 0 wget --mirror http://www.gnu.org/ -o / home / me / weeklog * Du vill också ha länkar konverterade till lokal. Men efter att ha läst den här handboken vet du att tidsjämförelsen inte fungerar. Ange WGET för att lämna säkerhetskopior av HTML-filer före konvertering. Kommando: Wget --Mirror --Convert-Links - Backup-konverterad http://www.gnu.org/ -o / home / me / weeklog * och om den lokala visningen av HTML-filer med en annan förlängning än .html., t.ex index.cgi., då måste du överföra kommandot för att byta namn på alla sådana filer (innehållstyp \u003d text / HTML.) i namn.html. Wget - Mirror --Convert-Links - Backup-konverterad --HTML-Extension -O / Home / Me / Weeklog http://www.gnu.org/

Med korta analoger av lagen:

Wget -m --k -k -e http://www.gnu.org/ -o / home / me / weeklog

Filer

Usr / Lokal / ETC / WgetRC Som standard är detta platsen global Filinställningar. .wgetrc. Användarinställningsfil.

Hittade fel

Du kan skicka felrapporter i GNU-filen till adressen< " " > (på engelska).
Innan du skickar:

1. Se till att programmets beteende verkligen är fel. Om wget "kraschar", så är det ett fel. Om WGET: s beteende inte motsvarar dokumentationen är det här ett fel. Om allt fungerar konstigt, men du är inte säker på hur det verkligen ska fungera, så kan det också vara ett misstag. 2. Försök att upprepa situationen med utfärdandet av ett fel för det minsta antalet åtgärder. Skynda inte att skicka .wgetrc., Försök att göra alla åtgärder som leder till ett fel med en annan inställningsfil (eller utan den). 3. Kör wget med en parameter -d. Och skicka en tidning (eller en del av det). Långt Det är lättare att söka efter fel i närvaro av sådana tidskrifter. 4. Om WGET utgav ett fel, försök sedan starta det i debuggeren, till exempel "GDB" som wget "kärna" och ange "var" för att få tillbaka spårning.

CENTIMETER. OCKSÅ

GNU Info för wget..

Författare

ÖVERFÖRA

upphovsrätt

Upphovsrätt (c) 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004,
2005, 2006, 2007, 2008, 2009, 2011 Gratis programvara Foundation, Inc.
Detta är gratis programvara; Kopieringsförhållanden söker i källtexten. Det finns inga garantier; Programmet är inte avsett för försäljning.

Det verkar i världen där hälften av världens befolkning aktivt använder datorer och blev van vid snygga grafiska gränssnitt och rika möjligheter, det finns ingen plats för textansökningar. För ungefär 20 år sedan var datorns gränssnitt en hemsk svart panel, som inte visade något annat än en uppsättning vita tecken, och all kontroll utfördes på grund av textkommandon. Överraskande, vad gäller dessa program är fula, är lika funktionella och tillförlitliga.

Vad är wget?

Wget (som också kallas GNU Wget Linux) är en konsol, inte en interaktiv applikation för att arbeta med filer och webbsidor. Faktum är att detta är ett program för att ladda ner filer från Internet, kännetecknat av bristen på ett grafiskt gränssnitt och ett antal funktioner i kontroll, atypiska för modernare lösningar.

Programmet utvecklades av en ingenjör från Kroatien Hrwebi Nicshich, och nu stöder utvecklingen Giuseppe skärmdumpar och Linux-samhället. Den första församlingen av verktyget (då kallad geturl) presenterades i januari 1996. Programmet skrevs på SI-programmeringsspråket och publicerades under GNU-licensen. Inledningsvis släpptes verktyget på Linux-plattformen. Med tiden har verktyget översatts till många språk och är portat till alla populära plattformar, inklusive wget för Windows 7 (och nyare), wget för macos och så vidare.

Detta program är inte interaktivt, och därför kan någon process som löper under sina möjligheter inte kontrolleras, de kan hanteras genom att kontakta kontrollerna av operativsystemet själv.

Trots det faktum att moderna webbläsare vanligtvis har inbyggda dem är fortfarande utformade för interaktiv interaktion, blir det svårt att arbeta i manuellt läge. Wget, tvärtom, tillåter ett antal processer att automatisera. Det är till exempel möjligt att förbereda ett textdokument med en webbsidor i förväg med vilken du kan ladda ner flera filer och sidor.

Grundläggande funktioner i programmet

Ändå, först och främst är detta ett program för nedladdning av filer, vilket är beviset på sin huvudfunktion.

Wget kan ladda ner material från Internet, oavsett om det finns dokument, Executive-filer eller hela webbsidor i HTML-format (för olika protokoll). Filer kan hämtas från kataloger

Klienten kan utföra en rekursiv nedladdning, i automatiskt läge, flyttar genom länkarna på en viss webbplats (eller flera webbplatser), samtidigt som den startar den ursprungliga strukturen på webbsidan. Det är möjligt att visa nedladdade webbplatser utan tillgång till nätverket (som standard laddat i form av adresser för online-visning).

Ursprungligen är wetgen anpassad till långsamma och instabila anslutningstyper, så det är viktigt att återställa den avbrutna filbelastningen (det är möjligt om servern stöder räckvidden). Dessutom kan WGET övervaka servrarnas status (deras tillgänglighet) för lång laddning och uppdatering (wget kontrollerar filhuvuden och stöder den senaste versionen) av filer och webbsidor.

Programmet har också ett antal möjligheter som är typiska för så kallade verktyg, som utforskar olika webbplatser och servrar för närvaro av specifika filer på dem.

Stödda plattformar

Wget Linux har blivit en bas för den här produkten. Som nämnts ovan var det ursprungligen ett verktyg som endast fungerade på Linux, men blev snabbt populär och anpassades till andra system. Till exempel kan du hitta wet-versionen för Windows 7 och mer modernt OS, och det finns en montering med ett grafiskt gränssnitt. När det gäller Linux, är programmet ofta sys i fördelningen. Terminaler i vissa Linux bygger initialt support wget-kommandon. Ubuntu, Fedora, OpenSuse och andra konsumentfördelningar arbetar med programmet, som kallas, ur lådan. Därefter, överväga programmet mer detaljerat.

Wgetkommandon: Lista över grundläggande parametrar

Den grundläggande listan över kommandon inkluderar:

  • -V - Gör det möjligt att ta reda på vilken version av programmet som används för närvarande
  • -H - visar den mest kompletta listan över kommandon att arbeta med ansökan;
  • -B - låter dig översätta programmet i bakgrundsläget;

Lista över meddelandeparametrar

Wget-kommandon tillåter dig att fullständigt styra den visade informationen. Här är deras lista:

  • -O-logfil - skapar en fillogg där hela ansökningsprocessen är inspelad
  • -A LogFile - låter dig komplettera en befintlig filmagasin istället för att skapa en ny;
  • -D - Visar nödvändiga utvecklare och debugger-information (hjälper till att lösa problem och korrigera fel i kundens arbete).
  • -Q - Inaktiverar meddelandenvisning;
  • -V - Det här alternativet är aktiverat som standard, ger en detaljerad rapport om alla processer som uppstår i programmet (realtid).
  • -NV - reducerar signifikant informationen som mottagits av användaren i meddelanden. Endast de mest nödvändiga uppgifterna och felmeddelandena kvarstår;
  • -I-fil (som indikerar sökvägen till filen) - Kommandot låter dig skanna filen genom att fördröja länken från den och nedladdning; Du kan använda filer från olika format, inklusive HTML, men i fallet med att använda det här kommandot ska du inte ange sökvägen till filen i kommandotolken.
  • -f - provocerar ett program för att läsa en fil som HTML; När du använder det här kommandot för att fungera med ett lokalt HTML-dokument kan ett fel uppstå för att undvika det, det är tillräckligt att ange i dokumentet .

Lista över nedladdningsalternativ

Grundläggande lag att arbeta med wget hjälp. Här är deras grundläggande uppsättning:

  • --Bind-adress \u003d Adress - Med det här kommandot kan du överföra bindningsdata till den lokala adressen. När du använder TCP / IP-anslutningen krävs kommandot för att exakt ange IP-adressen (om det finns flera).
  • -T nummer (du måste ange numret) - Gör det möjligt för användaren att välja antal repetitioner av nedladdningen. För att undvika repetitioner, ange numravärdet som är lika med noll.
  • -NC - Med det här kommandot kan du returnera den tidigare statusen för filen som hämtas om nätverket misslyckas, och nedladdningen avbröts. Om du inte använder en av kommandona för nedladdning (-N, -NC, -R), kommer wget att skapa en kopia av den och börjar ladda upp den igen. Med parametern kan du byta ut befintliga filer.
  • -Vi - bidrar också till filöverföringen, i händelse av anslutningsförlust (och när wget har slutat självåterställda anslutningsförsök). Strax efter referens till filen, ange det här kommandot. Om den använda katalogen finns en liknande fil, kommer wget att hålla sin identifiering och automatiskt bestämma om det ska göra det möjligt. Kommandot kan endast användas på dessa servrar, där det finns stöd för räckviddsrubriker.

  • - Protress - låter dig välja vilken typ av visning som helst. Du kan ange -Progress \u003d bar eller framsteg \u003d punkt.
  • --Spider - Ersätter filhämtningskommandot för att kontrollera tillgängligheten på servern;
  • -W (i sekunder) - indikerar paustiden mellan nedladdningar.
  • -Q (anges i antalet kilobytor eller megabyte) - gör att du tydligt kan justera storleken på de nedladdningsbara data och begränsa överdrivna volymer. Ändå är det värt att notera att en fil kommer att laddas oberoende av den kvot som uppvisas (då menar du med en fil det här alternativet fungerar inte, oavsett det inte är tungt).

Lista över http parametrar

  • --HTTP-användare \u003d och --http-passwd \u003d - Låt dig ange användarnamnet och lösenordet för godkännande på den webbresurs som filerna kommer att lossas.
  • -C \u003d ON / OFF - låter dig aktivera eller inaktivera cachningsdata på serverns sida.
  • --Kookies \u003d ON / OFF - samma som för cache, bara för cookies. Tillåter att antingen stoppa eller återuppta utbytet av cookies, den nödvändiga servern för att hålla besökande statistik. Som standard är alternativet aktiverat, men cookies sparas inte på hårddisken.
  • --Save-cookies - låter dig spara cookies (endast färsk data).
  • - PROXY-ANVÄNDAR OCH PROXY-PASSWD - låter dig ange en inloggning och lösenord för godkännande på en proxyserver (om sådan är aktiverad).

Lista över FTP-inställningar

Avancerade alternativ för att arbeta med wget. FTP-kommandon:

  • -Nr - förbjuder att ta bort temporära filer från katalogen.listing, som spontant genereras när de arbetar med FTP;
  • -g på / av - Gör det möjligt att använda det speciella symbolerverktyget i FTP-katalogerna.
  • - Passiv-FTP - det här kommandot kan användas om det finns en brandvägg för att aktivera det passiva FTP-läget (när användaren är ansvarig för att ställa in anslutningen med servern).

Wget-kommandon: Exempel på användning

Det enklaste och triviala exemplet för att arbeta med programmet är naturligtvis nedladdningsfiler. För att testa kommandona WGET kan du börja med en enkel, hitta en länk till någon fil online och gå in i konsolen / terminalen: wget * -länken som indikerar den exakta och fulla vägen till filen *.

För att fortsätta ladda ner filen, använd: wget -c * länk som indikerar den exakta och fulla vägen till filen *.

När det gäller nedladdning av webbsidor är allt mer komplicerat här, men antalet möjligheter ökar avsevärt. För att inte komma in i parametrarna igen varje gång var det nödvändigt att ladda upp en webbplats, du kan skapa skript eller registrera alla inställningar till file.wgetrc.

För att samma sida ska vara tillgänglig för visning utan anslutning till Internet kan du använda kommandot wget-R -10 -K-kommando * som indikerar den exakta och fulla vägen till filen *.

WGET-formatfelet Kommandot inte hittas kan innebära någon typisk och felaktigt specificerad parameter.

Vi svänger ibland filer från Internet. Om du använder program med ett grafiskt gränssnitt för detta, visar allting så mycket enkelt. Men när du arbetar på Linux Command Line är det något mer komplicerat. Speciellt - för dem som inte är bekanta med lämpliga verktyg. Ett av dessa verktyg är ett extremt kraftfullt wget-verktyg, som är lämpligt för alla typer av nedladdningar. Vi uppmärksammar tolv exempel, demontera det, du kan behärska de viktigaste funktionerna i wget.

$ wget https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia
Efter att ha använt ett sådant kommando startas Nagios-kärnan. Under denna process kan du se nedladdningsdata, till exempel information om vilken volym som redan är laddad, aktuell hastighet och hur lång tid det kvarstår till slutet av nedladdningen.

2. Ladda ner fil och spara den med ett nytt namn.

Om vi \u200b\u200bvill spara den nedladdade filen under namnet, annorlunda än det ursprungliga namnet, använder vi WGET-kommandot med -O-parametern:

$ Wget -o nagios_latest https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia
Med detta tillvägagångssätt sparas den nedladdade filen under namnet Nagios_Latest.

3. Fil Hämta hastighetsgräns

Om det behövs kan hastigheten för nedladdning av filer med WGET vara begränsad. Som ett resultat kommer denna operation inte att uppta hela den tillgängliga dataöverföringskanalen och påverkar inte andra processer som är förknippade med nätverket. Detta kan göras med hjälp av den --limit-hastighetsparametern och anger en hastighetsgräns uttryckt i byte (som ett konventionellt antal), kilobyter (tillsats efter nummer k) eller megabyte (m) per sekund:

$ Wget --limit-rate \u003d 500k https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror \u003d Excellmedia
Här är lasthastighetsgränsen är lika med 500 kb / s.

4. Slutför den avbrutna belastningen

Om under nedladdningsfilerna har den här åtgärden avbrutits kan du återuppta nedladdningen med hjälp av Command Parameter Wget:

$ wget -c https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia
Om det här alternativet inte används, startar laddningsfilen först.

Om du laddar ner en stor fil och vill utföra denna operation i bakgrunden, kan detta göras med hjälp av -b-parametern:

$ wget -b https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia

Om det finns en lista med filer av filer som behöver laddas ner, men du vill inte manuellt börja ladda ner dessa filer, kan du använda -i-parametern. Men innan du startar nedladdningen måste du skapa en fil som innehåller alla adresser. Till exempel kan du göra det med ett sådant lag:

$ Vi url.txt
Du måste placera adresserna i den här filen - en på varje rad. Därefter förblir det bara för att starta wget, vilket passerar det här verktyget som hämtningsfilen just har skapat:

$ wget -i url.txt
Utförandet av det här kommandot leder till engångs nedladdning av alla filer från listan.

7. Öka det totala antalet filhämtningsförsök

För att konfigurera antalet upprepning av filbelastningen kan du använda parametern -

Wgetgries \u003d 100 https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia

Filminskningskommandot från en anonym FTP-server med wget ser ut så här:

$ wget ftp-url
Om användarnamnet och lösenordet krävs för att komma åt filen, tar kommandot detta slag:

$ wget --ftp-user \u003d dan --ftp-lösenord \u003d ********* ftp-url

9. Skapa en lokal kopia av webbplatsen

Om du vill ladda ner innehållet på hela webbplatsen kan du göra det genom att använda parametern - Mirror:

$ Wget --mirror -p --convert-links -p / home / dan xyz.com
Var uppmärksam på de avancerade kommandoradsinställningarna:

  • -P: Alla filer som behövs för att hämtas för korrekt visning av HTML-sidor.
  • - KONKONTA LÄNKAR: Länkar i dokument kommer att omvandlas till lokala sitevisningsändamål.
  • -P / Hem / Dan: Material sparas i mappen / hem / dan.

10. Laddar från webbplatsen Endast filer av en viss typ

För att ladda ner endast en specifik typfiler från webbplatsen kan du använda -r-parametrarna:

$ wget -r -a.txt website_url

11. Hoppa över filer av en viss typ

Om du vill kopiera en hel webbplats, men du behöver inte filer av en viss typ, kan du inaktivera nedladdningen med hjälp av Jameter-parametern:

$ wget --reject \u003d png Website_url

12. Ladda ner med din egen.log-fil

För att ladda ner filen och använda din egen.log-fil, använd -O-parametern och ange namnet på loggfilen:

$ wget -o wgetfile.log https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r\u003d&ts\u003d1489637334&use_mirror\u003dexcellmedia

RESULTAT

Wget är ganska enkelt att använda, men ett mycket användbart Linux-verktyg. Och i själva verket vad vi berättade - bara en liten del av vad hon kan. Vi hoppas att den här översynen kommer att hjälpa dem som inte var bekanta med wget, utvärdera detta program och eventuellt inkludera det i din vardagliga arsenal av kommandoradsverktyg.

Kära läsare! Använder du Linux Command Line Tools för att ladda ner filer? Om så är fallet ber vi dem att berätta.

GNU WGET är ett gratis icke-interaktivt konsolprogram för nedladdning av filer över nätverket. Stöder HTTP-, FTP- och HTTPS-protokoll, och stöder också arbete via HTTP-proxyserver. Programmet är aktiverat i nästan alla GNU / Linux-distributioner.

GNU WGET är ett icke-interaktivt program. Det innebär att användaren efter lanseringen kan påverka sin funktion endast med hjälp av processhanteringsverktyg för operativsystemet själv. I regel används CTRL + C-nyckelkombinationerna för behovet av att avbryta programmet och Ctrl + Z för att placera den aktuella uppgiften i bakgrunden.

Moderna webbläsare har vanligtvis funktionen att ladda ner filer, eftersom webbläsaren är konstruerad för ett interaktivt driftsätt, kan du hämta ett stort antal filer manuellt vara tråkiga. Webbläsare, som regel, ger inte medel för att automatisera sådana uppgifter. GNU WGET, till exempel, stöder den URL-boot som anges i filen. Således kan du göra en lista med filer, och till en lämplig tid för att ladda ner dem med GNU-wget.

Command Line-gränssnittet gör att du kan hantera GNU-wget från andra program och skript, som används när du automatiserar filhämtningen (regelbundna uppdateringar, övervakning av servern, etc.).

GNU WGET kan du ladda ner filer i World Wide Web (inklusive (X) HTML-sidor) med HTTP- och HTTPS-protokoll, samt filer och kataloglistor med FTP-protokollet.

Filer kan laddas ner rekursivt av referenser på HTML-sidor, både från en plats från ett visst djup av följande länkar och från flera. Dessutom, när du laddar på FTP-filer, kan du ladda ner "på masken" av namnet (det vill säga du kan ange med filgruppen "*".

GNU WGET stöder också filfraktionen i händelse av en sammansatt avbrott.

Introduktion till GNU wget

GNU WGET är ett gratis mjukvarupaket för att hämta filer med HTTP, HTTPS, FTP och FTPS de mest använda internetprotokollen. Det är ett icke-interaktivt kommandoringsverktyg, så det kan lätt ringas från skript, jobb, terminaler utan X-Windows-support etc.

GNU WGET har många funktioner för att hämta stora filer eller spegla hela webb- eller FTP-webbplatser, inklusive:

  • Kan återuppta avbrutna nedladdningar, med och
  • Kan använda filnamn vilda kort och rekursivt spegel kataloger
  • NLS-baserade meddelandefiler för många olika språk
  • Omedelbart konverterar absoluta länkar i nedladdade dokument till relativ, så att nedladdade dokument kan länka till varandra lokalt
  • Körs på de flesta UNIX-liknande operativsystem samt Microsoft Windows
  • Stödjer HTTP-proxies
  • Stödjer HTTP-cookies
  • Stödjer Persistent HTTP-anslutningar
  • Oövervakad / bakgrundsoperation
  • Använd lokala fil tidsstämpel för att avgöra om dokument måste laddas ned när du speglar
  • GNU WGET distribueras under GNU General Public License.

Källkoden för GNU-wget finns här eller på våra speglar.
För mer nedladdningsalternativ, se FAQ.

Dokumentation

GNU WGET-dokumentation finns här.
För manualer för andra GNU-paket, se www.gnu.org.

YTTERLIGARE INFORMATION.

För närvarande utvecklas GNU WGET2.
Vänligen hjälp oss om du kan med testning, docs, organisation, utveckling, ... Se dig på WGET2 Collaboration Site

Underhållare.

GNU WGET är för närvarande bibehållen av Tim Rühsen, Darshit Shah och Giuseppe Scrivano.
Den ursprungliga författaren till GNU Wget är Hrvoje Nikšić.
Snälla du. do. inte. Kontakta direkt antingen felrapporter, eller förfrågningar om hjälp med wget: det är vad postlistan är för; Vänligen använd det istället.

Donatorer.

Vi Thak Typo3 & Magento Partner Aoe Media för att donera till WET-projektet.

wget - dam nedladdningar
(Ladda ner filer och webbplatser från Internet i GNU / Linux)

Om kärlek wget så många låtar spito
Jag kommer att sjunga, du kommer att sjunga, en mer ...

Romantik från k / f "tre mer"

En uppgift: Jag vill ha Teleport Pro och Flashget för Linux, ladda ner webbplatser och filer.

Beslut: Upptäck själv wget. - Det är allt i en flaska och ännu mer.

Det söker ofta efter många grafiska program med flera knappar - men det finns ett verktyg som kan ersätta dem och ge de möjligheter som inte längre är någonstans.

Det wget. Och allt som är baserat på det. Utvecklingen av detta verktyg kräver viss ansträngning och åtminstone en snabb läsning av handboken, men i gengäld får du ett kraftfullt verktyg som sparar din tid och trafik.

Det är värt att säga det man wget. Vid första anblicken gör ett krossintryck, men då förstår du att inte alla alternativ behövs i daglig användning. Nedan är de vanligaste alternativen.

Använda en LA "flashget för Linux"

Du behöver bara ladda ner en fil och / eller fortsätta nedladdning, som bröt av. Det är väldigt och väldigt lätt att göra, skriver flera linjer i terminalen.

Bara ladda ner wet-filen:

$ wget ftp://vasya.pupkin.com/film.avi.

Ett annat alternativ: Del av den nedladdade filen, nedladdningen avstängdes.

För att fortsätta filen nedladdning, skriv:

$ wget -c ftp://vasya.pupkin.com/film.avi eller $ wget -Continue ftp://vasya.pupkin.com/film.avi

Istället är det möjligt att skriva -Continue, eftersom varje nyckel har en kort och lång form: de långa nycklarna är enklare att komma ihåg, men att skriva längre. Du kan enkelt blanda olika skrivformar.

För att pumpa ut filer från listan som innehåller direkta länkar:

$ wget -i pupinlist eller $ wget -input-fil \u003d Pupkinlist

Det är bara angivet här filsom innehåller länkar. Filen kan också vara en HTML-sida där det finns länkar.

Fönster. Installera wget i Windows XP / 7/8 / 8.1 / 10

De kommer att säljas ut ovanstående kommando.

Använd A LA "Teleport Pro for Linux"

När du hämtar webbplatser är möjligheter mer, och därför krävs fler nycklar. Återigen är det inte nödvändigt att komma ihåg dem, du kan göra ett skript (och bättre något - för olika fall) och orsaka dem.

Speglingsidor på den lokala bilen:

$ wget -m http://www.vasyapupkin.com/

Kopiera platsen för lokal visning:

$ Wget -r -l0 -np -k http://www.vasyapupkin.com/

Detta kommer att innehålla en rekursiv lossning (Key -R, -Recursive), det vill säga, inte bara filer från huvudsidan, men också alla andra där länkarna leder (Key -L0-oändlig referensnäsing).

Länknamnen kommer att omvandlas till lokal för bekvämlighet med visning (nyckel -k). Också med hjälp av -NP-tangenten (No-Parrent) kan du förbjuda WGET-klättring över den ursprungliga adressen under rekursiv nedladdning, det vill säga om du kopierar http://home.vasyapupkin.com/ De här länkarna från huvudsidan http: // www. vasasapupkin.com/ kommer inte att kopieras.

Flera användbara nycklar

Aktivera och exkludera filer när du hämtar:

En Acclist eller -accept Acclist -R Rejlist eller -Reject Rejlist

Anger de filer som delas med kommatecken som ska hämtas (AccList) eller ignorera (Rejlist).

K eller -convert-länkar

Vänder absolutlänkar (skriv http: // www ...) till släkting (skriv fil /// hem / vasya / www / index.html) för bekvämligheten av lokal visning. För att se den nedladdade webbplatsen i webbläsaren lokalt, öppna index.html-filen i webbläsaren och roar längs länkarna precis som om du var ansluten till Internet.

H eller -span-värdar

Tillåter wget nedladdningsdata från vilken adress som helst som det finns en länk i det begärda dokumentet.

P eller -page-erforder

Laddar alla filer som behövs för att visa HTML-sidor. Till exempel: Ritningar, ljud och kaskadstilar. När nedladdningen är klar omvandlar den länkar till ett dokument för visning av offline. Detta gäller inte bara synliga referenser till andra dokument och länkar till alla externa lokala filer.

siteGet - ett enkelt skript för nedladdning av webbplatser

Om du är trött på alla dessa visdom med nycklar wget. Och du behöver bara ladda ner webbplatsen, då siteGet. Du kommer definitivt att tycka om det. Detta är ett ganska enkelt skript med de nödvändiga parametrarna för nedladdning av webbplatsen.

Du kan ladda ner skriptet härifrån. Efter nedladdning är det vettigt att kopiera det i ett superhusläge till en av de angivna katalogerna i variabeln på $ -vägen: operativsystemet skannar dem automatiskt på jakt efter exekverbara filer. Till exempel, till katalogen / Användare / Lokal / Bin:

# CP (katalog där skriptet är beläget) / Siecet / User / Local / Bin / Siecet

Skriptet behöver också tilldela ett körbart filattribut:

# Chmod A + X / Usr / Local / Bin / Sieget

Använder sig av siteGet. Väldigt enkelt:

$ Sitecome http://www.vasyapupkin.com/

Institutionen för bibliska MDA, 2008.
Senaste uppdateringen:
Adress på Internet: http://www.Bible-mda.ru/soft/wget/wget.html

Helt enkelt nedladdning fil Wget:

wget ftp://vasya.pupkin.com/film.avi.

För fortsätt bruten injektion Vi skriver:

wget -c ftp://vasya.pupkin.com/film.avi.

wget-continue ftp://vasya.pupkin.com/film.avi.

Som i andra program har nycklarna en kort och lång form, och istället kan du skriva. Långa nycklar är lättare att komma ihåg, men att skriva längre. Du kan enkelt blanda olika skrivformar.

Till rulla ut filer från listaninnehållande direkta länkar:

wget -i pupinlist.txt

wget-input-file \u003d pupkinlist.txt

Här innehåller bara filen länkar. Filen kan också vara -Prack, där det finns länkar. De kommer att säljas ut ovanstående kommando.

Använd A LA "Teleport Pro for Linux".

När du hämtar webbplatser är möjligheter mer, och därför krävs fler nycklar.

Återigen är det inte nödvändigt att komma ihåg dem, du kan göra ett skript (och bättre något - för olika fall) och orsaka dem.

Så, om det finns en webbplats, och jag skulle vilja ha sin lokala kopia på datorn, så att det var möjligt att det inte hade bråttom att läsa det.

Speglingsidor på den lokala bilen:

wget -m http://www.vasyapupkin.com/

ekvivalent beskrivs dessa alternativ nedan.

Kopiera webbplatsen för lokal visning (med byte av Internet länkar till lokala adresser nedladdade sidor):

wget -r -l0 -k http://www.vasyapupkin.com/

Detta kommer att innehålla en rekursiv lossning (Key -R, -Recursive),

I wget finns ett stort antal användbara alternativ - mer än teleport "och flaggor. Att vara insvept i ett skript, till exempel och läggs för en framträdande plats (specificerad), har vi lättanvända och rikedom av inställningar.

Stiga inte över den ursprungliga adressen under rekursiv nedladdning.

Aktivera rekursiva visningskataloger och underkataloger på en fjärrserver.

Bestäm det maximala skärmdjupet som är lika med djupet när du tittar på kataloger på en fjärrserver. Standarddjup \u003d 5.

Gå inte till moderkatalogen när du söker efter filer. Detta är en mycket användbar egendom eftersom det säkerställer att endast de filer som är under en viss hierarki kommer att kopieras.

En lista med filnamn separerade med kommatecken, som ska (acceptera) eller bör inte (avvisa) nedladdning. Det är tillåtet att ställa in filnamnen på masken.

Wget för Windows. Installation och användning.

Vrid de absoluta länkarna i dokumentet till relativa länkar. Endast de referenser som anger faktiskt nedladdade sidor kommer att omvandlas. Resten kommer inte att omvandlas. Observera att endast i slutet av WGET-arbetet kommer att kunna ta reda på vilka sidor som var riktigt laddade. Följaktligen kommer endast vid slutet av wget-arbetet att utföras slutlig omvandling.

Ange användarnamnet och lösenords inserver.

Gör det möjligt att besöka några servrar som det finns en länk.

Ladda ner alla filer som behövs för att visa sidor. Till exempel: ritningar, ljud, kaskadstilar (). Som standard laddas inte sådana filer. Parametrar och specificerade tillsammans kan hjälpa, men för att WGET skiljer inte externa och interna dokument, då är det ingen garanti för att all nödvändig kommer att laddas.

Länkar

Information om programmet

Wget är ett konsolverktyg för nedladdning av filer med HTTP, FTP-protokoll och proxyanslutningar.

wget för Windows.

Programmet låter dig kopiera enkla HTML-webbplatser medan du sparar katalogstruktur. Gör det möjligt att hitta och bearbeta robots.txt-data, den kan konvertera länkar för den efterföljande offline-åtkomsten. Innehåller ett verktyg för att jämföra filrubriker för att ladda ner nya versioner och skapa spegelkopior.

Ansökan stöder återupptagandet av arbetet när ett fel uppstår eller bryter kopplingen, ett rekursivt hopp som indikerar namnmasken och djupet på träningslänkarna. Det kan logga in på FTP-servern, anslut i bakgrunden till de skyddade HTTPS-webbplatserna.

Programmet kan genomföra en detaljerad logg, är det optimala sättet att skapa speglar av fjärrlagring eller webbresurser, strömmande data från FTP-servrar.

Ladda ner gratis full rysk version av wget från den officiella webbplatsen utan registrering och SMS.

Systemkrav

  • Stödd OS: Windows XP, 7, 10, 8, Vista, 8,1
  • Bitness: 32 bit, x86, 64 bit

Wget - konsol bootloader för nedladdning av webbplatser och dess användning i Windows

wget - konsolverktyg för nedladdning av filer / webbplatser, kan bläddra i Recursivt, följer länkarna automatiskt.

Team Beskrivning
wget http://example.com/file.zip. ladda ner fil.zip-fil till den aktuella katalogen
wget -p / sökväg / till / spara http://example.com/file.zip ladda ner fil.zip-fil till katalog / sökväg / till / spara
wget -c http://example.com/file.zip. byta file.zip-fil i fall av klippa
wget -o arch.zip http://example.com/file.zip ladda ner fil.zip-fil och spara under namnet Arch.Zip
wget -i-filer.txt ladda ner filer från listan i filer.txt
wget -tries \u003d 10 http://example.com/file.zip antal nedladdningsförsök
wget -q5m -i http://example.com/ kvot för maximal storlek på nedladdade filer är kvoten endast giltig med rekursiv nedladdning (-R)
wget-save-cookies cookies.txt -post-data 'användarnamn \u003d proff & lösenord \u003d 1' http://example.com/auth.php identifiering på servern med bevarandet av kock för efterföljande åtkomst
wGET -User-Agent \u003d »Mozilla / 5.0 (X11; Linux X86_64) äppelwebkit / 536.5 (khtml, som gecko) Chrome / 19.0.1084.9 Safari / 536.5" http://example.com/ obs! Användaragent
echo 'wget http://example.com/file.zip' | klockan 12:00 ladda ner http://example.com/file.zip kl 12:00 till den aktuella katalogen
wget ftp://example.com/dir/*.zip.
wget http://example.com/dir/file (1..10) .zip. ladda ner alla filer efter mall
wget -s http://example.com/ utdata HTTP Server-rubriker och svar FTP-servrar
wget-spider -i urls.txt kontrollera länkar i filen för tillgänglighet
wget -b http://example.com/file.zip. ladda ner en fil i bakgrunden, logg skrivs i wget.log, wget.log.1, etc.
exportera http_proxy \u003d http: //proxy.com: 3128 /; wget http://example.com/file.zip ladda ner fil * file.zip * genom proxy
wget -m -w 2 http://example.com/ spegling av platsen med bevarandet av absoluta länkar och väntar 2 sekunder mellan förfrågningar
wget -limit-rate \u003d 200k http://example.com/file.zip begränsa hastigheten på nedladdningen
wget -r BMP http://example.com/ ladda ner inte BMP-filer
wget-en png, jpg http://example.com/ ladda ner endast PNG och JPG-filer

Exempel på användning för nedladdning av dokumentation Django.:

  • - Vi går på länkarna (rekursiv nedladdning)
  • - Konvertera länkar till lokala arter
  • - Ladda ner resurser som krävs för att visa en HTML-sida (stilar, bilder, etc.)
  • - Djupet av nedladdning, 0 - Infinite Nesting Länkar
  • - Skriv inte över befintliga filer
  • - Stiga inte över den ursprungliga adressen under rekursiv nedladdning

Ofta använd wget. Parametrar kan tas ut i ~ / .wgetrc.

curl - Console Data Utility med URL-syntax, stöder dikter, fil, ftp, ftps, gopher, http, https, imap, iMaps, ldap, ldaps, pop3, pop3s, rtmp, rtsp, scp, sftp, smtp stödd SMTPS, Telnet och TFTP.

Team Beskrivning
curl http://proft.me. vi får huvudsidan innehållet
curl -o index.html http://proft.me få huvudsidan innehållet till index.html-filen
curl -l http://example.com. när du får innehållet på sidan för att följa omdirigeringar (om någon)
cURL -U Användarnamn: Lösenord http://example.com/login/ få en sida gömd för grundläggande HTTP-autentisering
curl -X proxy.com:3128 http://proft.me få en sida med hjälp av proxy
curl -i propp.me. vi får http-rubriker från webbplatsen
curl -h 'Host: google.ru' http://proft.me skapa en domän när du öppnar servern (överför din rubrik)
cURL -REQUEST POST "http://example.com/form/" -Data "Field1 \u003d Value1 & Field2 \u003d Value2"
curl -x post "http://example.com/form/" -data "fält1 \u003d värde1 och fält2 \u003d värde2" dataöverföring Post-Query
curl -X Post -H "Innehållstyp: Application / JSON" -D '"Titel": »Kommando», »År»: »1985"' 'http://example.com/api/movies/ dataöverföring Postförfrågan, JSON-data
cURL -REQUEST PUT "http://example.com/api/movie/1/" -data "Titel \u003d Djangoonchained" dataöverföring PUT-Request
curl -f. [E-post skyddad] -F Skicka \u003d Ok http://example.com/upload/ ladda ner fil.zip File Shape (multipart / form-data)
curl -u Användarnamn: Lösenord -O ftp://example.com/file.zip ladda ner fil med FTP
curl -u användarnamn: lösenord -t fil.zip ftp://example.com/ ladda ner FTP-filen
curl-cookie "logga in \u003d proff" http://example.com/login/ installera cookies
curl-cookie-jar cookies.txt http://example.com spara cookies till fil
curl-cookie cookies.txt http://example.com/login/ användning av konserverade kakor

Ytterligare fiktion