Menú
Está libre
registro
hogar  /  Firmware/ Puede wget dns query. Comandos wget: ejemplos

Puede wget dns request. Comandos wget: ejemplos

wget - Manual de GNU Wget

SINTAXIS

wget [ opciones]… [ URL ]…

DESCRIPCIÓN

GNU Wget es una utilidad de código abierto para descargar archivos de Internet. Es compatible con los protocolos HTTP, HTTPS y FTP, descargas desde servidores proxy a través de HTTP.

Wget puede seguir los enlaces de las páginas HTML y crear copias locales de sitios web remotos, mientras es posible recuperación completa estructura de carpetas del sitio ("descarga recursiva"). Mientras hace esto, Wget busca un archivo con permisos de robots (/robots.txt). También es posible convertir enlaces en archivos HTML descargados para seguir viendo el sitio en modo fuera de línea ("navegación fuera de línea").
Comprobación de los encabezados de los archivos: Wget puede leer los encabezados de los archivos (esto está disponible a través de HTTP y FTP) y compararlos con los encabezados de los archivos descargados previamente, después de lo cual puede descargar nuevas versiones de los archivos. Esto le permite duplicar sitios o un conjunto de archivos a FTP cuando usa Wget.
Wget está diseñado para conexiones lentas o inestables: si ocurre un problema durante la descarga, Wget intentará continuar descargando el archivo. Si el servidor desde el cual se descarga el archivo admite la reanudación del archivo, Wget continuará descargando el archivo exactamente desde el punto donde se interrumpió la descarga.

OPCIONES

parámetros principales

-V --Versión Muestra la versión de Wget. -h --Ayudar Muestra las opciones de la línea de comandos de wget. -B --Fondo Ir al fondo después del inicio. Si el archivo para mensajes no está especificado por parámetro -o, entonces está escrito en wget-log -mi mando --Ejecutar mando Ejecutar mando como si ella fuera parte .wgetrc... El comando se ejecutará después de los comandos en .wgetrc.

Parámetros de mensaje

-o archivo de registro ––Archivo-de-salida =archivo de registro Registrar todos los mensajes en archivo de registro... De lo contrario, serán dirigidos a stderr. -a archivo de registro ––Añadir-salida =archivo de registro Suplemento archivo de registro... Así como -o, solamente archivo de registro no reemplazado, sino complementado. Si archivo de registro no existe, se crea archivo nuevo. -D --Depurar La visualización de mensajes de depuración es información diversa que es importante para los desarrolladores de Wget. -q --Tranquilo Desactive los mensajes Wget. -v --Verboso Incluya mensajes detallados, con todos los datos disponibles. Habilitado por defecto. -Nevada –– no detallado Utilice mensajes abreviados (para deshabilitar los mensajes, consulte -q). Se mostrarán mensajes de error e información básica. -I expediente ––Archivo de entrada =expediente Leer URL de expediente... En este caso, no es necesario que especifique la URL en la línea de comando. Si las URL se especifican tanto en la línea de comando como en expediente luego, las URL de la línea de comando se cargarán primero. expediente no tiene que ser HTML (pero está bien si lo es) - las URL solo deben especificarse en él. Si especifica ––Force-html entonces el archivo se leerá como html... En este caso, puede haber problemas con los enlaces relativos. Esto se puede evitar agregando " "o escribiendo en la línea de comando ––Base =url. -F ––Force-html Al leer una URL de un archivo, lee el archivo como HTML. Para evitar errores en el caso de un archivo HTML local, agregue al archivo " "o ingrese el parámetro de línea de comando --Base. -B URL ––Base = URL Al leer una URL de un archivo ( -F) define URL agregado a las direcciones relativas del archivo especificado por el parámetro -I.

Opciones de arranque

––Bind-address = DIRECCIÓN Para conexiones TCP / IP, pase "bind ()" a DIRECCIÓN en la máquina local. V DIRECCIÓN se pueden especificar tanto el nombre de host como la dirección IP. Se utiliza si su computadora tiene varias direcciones IP. -t número ––Tries =número Establece el número de repeticiones. número... Especifique 0 o inf para cancelar las repeticiones. -O expediente –– Documento-de-salida =expediente Los documentos no se escribirán en los archivos correspondientes, sino que se fusionarán y escribirán en un archivo. expediente... Si expediente existe, será reemplazado. Si expediente indicado como luego, los documentos se enviarán a la salida estándar. Este parámetro establece automáticamente el número de reintentos en 1. Útil cuando se descargan archivos divididos desde servidores de correo a través de la interfaz web. -Carolina del Norte ––No-clobber Si la conexión se interrumpe al cargar el sitio, especifique este parámetro para continuar cargando desde el punto donde se interrumpió la conexión. Al iniciar Wget sin parámetros -NORTE, -Carolina del Norte, o -r subir el mismo archivo a la misma carpeta creará una copia del archivo llamado expediente.1 ... Si existe un archivo con ese nombre, la tercera copia se llamará expediente.2 etc. Con el parámetro -Carolina del Norte Se mostrarán advertencias sobre esto. Cuando ejecute Wget con el parámetro -r, pero sin -NORTE o -Carolina del Norte, nueva descarga el sitio reemplazará los archivos ya descargados. Al especificar un parámetro -Carolina del Norte la descarga continuará desde donde se colocó y los archivos descargados no se volverán a descargar (a menos que hayan cambiado). Cuando ejecute Wget con el parámetro -NORTE, con o sin -r, el archivo se cargará solo si es más nuevo que el existente, o si su tamaño no coincide con la copia existente (ver Comparación por fecha). -Carolina del Norte no combinado con -NORTE.
Con el parámetro especificado -Carolina del Norte archivos con extensiones .html o (esto es horrible) .htm de los discos locales se cargará como si fuera de Internet. -C --Continuar Se reanudó la descarga del archivo. Se utiliza si se interrumpió la descarga del archivo. Por ejemplo: wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Si la carpeta actual ya contiene un archivo llamado ls-lR.Z, entonces Wget verificará si el archivo es el mismo que el que se está descargando (¡no en tamaño!), y si es así, enviará una solicitud al servidor para continuar descargando el archivo desde el mismo lugar donde se interrumpió la descarga por última vez. tiempo. repite intentos de recarga de forma independiente y sin parámetro -C, y solo cuando "se rinda" y termine su trabajo, entonces este parámetro será necesario para reanudar la descarga del archivo.
Ninguna opción especificada -C se cargará el ejemplo anterior el archivo especificado renombrado con el nombre final ls-lR.Z.1, sin tocar lo existente ls-lR.Z.
Desde la versión 1.7 al especificar el parámetro -C si el archivo en el servidor es igual o más pequeño que el archivo local, entonces Wget no descargará nada y mostrará un mensaje en consecuencia.
Sin embargo, al usar -C cualquier archivo en el servidor que sea más grande que el archivo local se considerará subdescargado. En este caso, sólo "(longitud (archivo remoto) - longitud (archivo local))" bytes se cargarán y escribirán al final del archivo. Esto puede resultar útil si necesita descargar nuevos mensajes de algún registro.
Además, si el archivo descargado es más grande porque cambió, luego recibirá un archivo dañado (es decir, el archivo puede terminar siendo completamente diferente del original). Debe tener especial cuidado al usar -C Juntos con -r ya que cada archivo modificado puede ser candidato para un "trabajo en progreso".
También obtendrá un archivo dañado si su servidor proxy HTTP es estúpido y escribe un mensaje de "transferencia interrumpida" en el archivo cuando la conexión se interrumpe. Wget probablemente solucionará este problema en versiones futuras.
recuérdalo -C sólo funciona con servidores FTP y HTTP que admiten encabezados "Range" (es decir, reanudar archivos). ––Progreso =escribe Descarga el indicador de progreso y su tipo. Valores posibles: "punto" y "barra". El valor predeterminado es "barra". Especificando una opción ––Progreso = barra conducirá a dibujar un hermoso indicador a partir de caracteres ASCII (como un "termómetro"). Si la salida estándar no es TTY, se utilizará "punto". ––Progreso = punto para cambiar al tipo "punto". El progreso de la carga se indicará agregando un punto o un signo igual en la barra, cada carácter representa la misma cantidad de datos. Al usar este tipo, puede especificar su estilo: punto:estilo... Si el estilo es "predeterminado", entonces cada carácter representará 1 KB, 10 caracteres por grupo y 50 por línea. El estilo "binario" tiene un aspecto más "informático": 8 Kb por carácter, 16 caracteres por grupo y 48 caracteres por línea (lo que da como resultado una cadena de 384 Kb). El estilo "mega" se utiliza para cargar archivos grandes- cada carácter representa 64 Kb, 8 caracteres por grupo y 48 caracteres por línea (3 MB por línea).
Puede definir el estilo predeterminado utilizando el comando "progreso" en .wgetrc... Si desea que el tipo de indicador "barra" se use siempre (y no solo cuando se imprime en la salida estándar), especifique ––Progreso = barra: fuerza. -NORTE --Marcando la hora Habilite la comparación de fechas. -S ––Respuesta-servidor Muestra los encabezados enviados a los servidores HTTP y las solicitudes enviadas a los servidores FTP. --Araña Configurar Wget para que se comporte como una araña, es decir, Wget no descargará archivos, solo los buscará. De esta manera puede consultar los marcadores y enlaces del sitio. Por ejemplo:

Wget ––spider ––force-html -i bookmarks.html

Wget no contiene todas las características de "arañas reales" para la WWW. -T segundos ––Timeout =segundos Espere el tiempo en segundos. El tiempo de espera predeterminado es de 900 segundos (15 minutos). Establecer el valor en 0 desactiva la verificación del tiempo de espera. No reduzca el valor de tiempo de espera a menos que sepa exactamente lo que está haciendo. -w segundos ––Esperar =segundos Haga una pausa en segundos entre varias descargas (incluidos los reintentos). Esto reduce la carga en el servidor. Para especificar el valor en minutos, use "m", en horas - "h", en días - "d" después del número. Especificar un valor grande para este parámetro es útil si la red es inestable (por ejemplo, cuando el módem la conexión se interrumpe). ––Waitretry =segundos Se detiene solo entre reintentos de descargas abortadas. Wget esperará 1 segundo después del primer aborto, 2 segundos después del segundo aborto de descargar el mismo archivo, etc. - hasta el máximo, que se indica en segundos. Por ejemplo, con un valor de 10 para este parámetro, Wget esperará un total de (1 + 2 +… + 10) = 55 segundos para cada archivo. Este es el valor predeterminado en el archivo. wgetrc. –– Espera aleatoria Algunos servidores, al generar archivos de registro con solicitudes de archivos en pausa, pueden detectar descargas de archivos recursivas, escaneadas por robots como Wget. Este parámetro establece el tiempo entre solicitudes, variando las pausas con un tiempo calculado de 0 a 2 * Espere(segundos) donde Espere especificado por parámetro -w para disfrazar a Wget. Recuerda que fuente Wget está disponible, por lo que incluso este enmascaramiento se puede calcular si se desea. -Y encendido / apagado ––Proxy = encendido / apagado Soporte de servidor proxy. Habilitado de forma predeterminada si se define el proxy. -Q cuota ––Quota =cuota Cuota para el tamaño de los archivos cargados. Especificado en bytes (predeterminado), en kilobytes KB (si al final k) o en megabytes MB (si al final metro Cuando se agota la cuota, el archivo actual se descarga hasta el final, es decir, la cuota no funciona al descargar un solo archivo. Por ejemplo, si ejecuta wget -Q10k ftp://wuarchive.wustl.edu/ls-lR.gz luego archivar ls-lR.gz estará completamente cargado. Además, todos los archivos especificados en la línea de comando se cargarán necesariamente, a diferencia de una lista de archivos en un archivo o como con la carga recursiva. Especificar 0 o inf cancelará la cuota.

Opciones de carga de carpetas

-Dakota del Norte –– Sin directorios No cree una estructura de carpetas al cargar de forma recursiva. Con el parámetro especificado, todos los archivos se descargarán en una carpeta. Si ya existe un archivo con el nombre de pila, se guardará con el nombre FileName.n. -X ––Directorios-de-fuerza Opuesto al parámetro -Dakota del Norte- crear una estructura de carpetas a partir de la página principal del servidor. Por ejemplo, wget -x http://fly.srk.fer.hr/robots.txt descargará el archivo a la carpeta fly.srk.fer.hr. -Nueva Hampshire ––Sin-directorios-de-host No crear carpetas vacías al comienzo de la estructura. Defecto / pub / xemacs /... Si lo carga con el parámetro -r, luego se guardará con el nombre ftp.xemacs.org/pub/xemacs/... Con parámetro -Nueva Hampshire cortar del nombre de la carpeta de inicio ftp.xemacs.org/ y se llamará pub / xemacs... Y el parámetro ––Cort-dirs se llevará número componentes. Ejemplos de operación de parámetros ––Cort-dirs: Sin parámetros -> ftp.xemacs.org/pub/xemacs/ -nH -> pub / xemacs / -nH ––cut-dirs = 1 -> xemacs / -nH ––cut-dirs = 2 ->. ––Cut-dirs = 1 -> ftp.xemacs.org/xemacs/ ...

Si solo desea deshacerse de la estructura de carpetas, puede reemplazar este parámetro con -Dakota del Norte y -PAG... diferente a -Dakota del Norte, -Dakota del Norte funciona con subdirectorios, por ejemplo, cuando -nH ––cut-dirs = 1 subdirectorio beta / será escrito como xemacs / beta. -PAG prefijo ––Prefijo-directorio =prefijo Define carpeta de inicio, en el que se guardará la estructura de carpetas del sitio (o solo los archivos). Por defecto, este parámetro es . (carpeta actual).

Parámetros HTTP

-MI –– Extensión-HTML Si el tipo de archivo cargado es texto / html y su dirección no termina en .? , al usar este parámetro, se agregará a su nombre .html... Esto puede resultar útil al duplicar páginas. .áspid a menos que desee que interfieran con su servidor Apache. Otro caso de uso de esta opción es cuando se cargan páginas de respuesta para scripts CGI. Una página con una URL como http://site.com/article.cgi?25 se guardará como article.cgi? 25.html.Nota: al actualizar o recargar páginas con este parámetro, este último se volverá a cargar en cualquier caso, porque Wget no puede averiguar si un archivo local está relacionado X.html para descargar de la url X... Para evitar reinicios innecesarios, use las opciones -k y -K... En este caso, las versiones originales de los archivos también se guardarán como X.orig. ––Http-user =usuario ––Http-passwd =contraseña Nombre de usuario usuario y contraseña contraseña por Servidor HTTP... Dependiendo del tipo de respuesta, Wget usará autenticación "básica" (insegura) o "digest" (segura) También puede especificar el nombre de usuario y la contraseña en la propia URL. -C encendido / apagado ––Caché = activar / desactivar Habilita o deshabilita el almacenamiento en caché del lado del servidor. Al mismo tiempo, Wget envía la solicitud correspondiente ( Pragma: sin caché). También se utiliza para actualizar rápidamente archivos en un servidor proxy. De forma predeterminada, el almacenamiento en caché está habilitado. ––Cookies = activar / desactivar Habilita o deshabilita el uso de cookies. El servidor envía una cookie al cliente usando el encabezado "Set-Cookie" y el cliente responde con la misma cookie. Gracias a esto, el servidor puede mantener estadísticas de visitantes. De forma predeterminada, se utilizan cookies, pero su escritura en el disco está deshabilitada. ––Cargar-cookies expediente Cargar cookie desde expediente antes de la primera descarga HTTP. expediente tiene un formato de texto como cookies.txt para Netscape Esta opción se utiliza al realizar la duplicación. Para ello, Wget envía las mismas cookies que envía su navegador cuando se conecta al servidor HTTP. Esto está habilitado por este parámetro, simplemente dé a Wget la ruta a cookies.txt... Los diferentes navegadores almacenan cookies en diferentes carpetas: Netscape 4.x. El archivo está en ~ / .netscape / cookies.txt... Mozilla y Netscape 6.x. Mozilla almacena cookies en cookies.txt ubicado en algún lugar de ~ / .mozilla, en su carpeta de perfil. El camino completo generalmente termina con algo como ~ / .mozilla / default / some-weird-string / cookies.txt... Explorador de Internet. Para exportar una cookie para Wget, seleccione Archivo, Importar y Exportar, en el asistente, seleccione Exportar Cookies. Probado en Internet Explorer 5; puede que no funcione en versiones anteriores. Otros revisores. Parámetro ––Cargar-cookies funcionará con cookies en el formato Netscape, que es compatible con Wget. Si no puede usar el parámetro ––Cargar-cookies, entonces todavía hay una salida. Si su navegador lo admite Escriba el nombre y el valor de la cookie y dígale a Wget manualmente que envíe estas cookies: wget ––cookies = off ––header "Cookie: I = Yo " ––Guardar-cookies expediente Guardar cookie de expediente al final de la sesión. Las cookies obsoletas no se guardan. ––Ignore-length Algunos servidores HTTP (más específicamente, scripts CGI) envían encabezados "Content-Length" que le dicen a Wget que no ha descargado todo. Y Wget descarga el mismo documento varias veces. Con este parámetro, Wget ignorará los encabezados "Content-Length". ––Encabezado =encabezado-adicional Define encabezado-adicional enviado al servidor HTTP. Debe contener : y los caracteres que le siguen. Puede definir varios encabezados adicionales con --Encabezamiento repetidamente. wget ––header = "Accept-Charset: iso-8859-2" ––header = "Accept-Language: hr" http://fly.srk.fer.hr/

Si especifica una cadena vacía en el valor del encabezado, se borrarán todos los encabezados definidos por el usuario previamente definidos. ––Proxy-user =usuario ––Proxy-passwd =contraseña Especifica el nombre de usuario usuario y la contraseña contraseña para autorizar el servidor proxy. El tipo de autorización será "básico". ––Referer =url Agrega el encabezado `Referer: url'v Solicitud HTTP... Se usa al cargar páginas que se transmiten correctamente solo si el servidor sabe de qué página proviene. -s ––Guardar-encabezados Conserva los encabezados enviados a los servidores HTTP. -U agente-cadena ––User-agent =agente-cadena Identificado como agente-cadena al solicitar un servidor HTTP El protocolo HTTP permite identificarse mediante un encabezado de agente. Wget se identifica de forma predeterminada como Wget /versión, dónde versión Es la versión de Wget. Algunos servidores solo brindan la información solicitada a los navegadores identificados como "Mozilla" o Microsoft "Internet Explorer". Esta opción le permite engañar a dichos servidores.

Opciones de FTP

-nr ––No eliminar-listado No borre archivos temporales .listado generado por la carga de FTP. Estos archivos contienen información sobre las carpetas de los servidores FTP. Si no desinstala, lo ayudará a identificar rápidamente la actualización de las carpetas del servidor (es decir, determinará que su espejo es uno). .listado¡Entonces recuerda tu seguridad! Por ejemplo, con este nombre puede crear un enlace simbólico a / etc / passwd o algo mas. -g encendido / apagado ––Glob = encendido / apagado Habilita o deshabilita el uso caracteres especiales (mascaras) a través de FTP. Podría ser * , ? , [ y ] ... Por ejemplo: wget ftp://gnjilux.srk.fer.hr/*.msg

De forma predeterminada, los caracteres de máscara están permitidos si la URL los contiene. También puede incluir la URL entre comillas. Esto solo funcionará en servidores FTP de Unix (y emulando la salida "ls" de Unix). –– FTP pasivo Habilita el modo FTP pasivo cuando el cliente inicia la conexión. Se usa cuando hay un firewall. ––Retr-enlaces simbólicos Cuando descarga carpetas FTP de forma recursiva, los archivos señalados por enlaces simbólicos no se descargan. Esta opción lo desactiva. ––Retr-enlaces simbólicos Actualmente solo funciona con archivos, no con carpetas. Recuerde que esta opción no funciona cuando se carga un solo archivo.

Opciones de carga recursiva

-r –– Recursivo Habilite la carga recursiva. -l profundidad ––Nivel =profundidad Profundidad máxima de carga recursiva profundidad... Por defecto, su valor es 5. ––Eliminar-después Eliminar todas las páginas (localmente) después Descargalo. Se utiliza para guardar nuevas versiones de páginas solicitadas con frecuencia en un proxy. Por ejemplo: wget -r -nd ––delete-after http://whatever.com/~popular/page/

Parámetro -r habilita la carga por defecto, parámetro -Dakota del Norte inhabilita la creación de carpetas. Con el parámetro especificado ––Eliminar-después el parámetro será ignorado ––Convert-links. -k ––Convert-links Una vez completada la descarga, convierta los enlaces del documento para verlos sin conexión. Esto se aplica no solo a los enlaces visibles a otros documentos, sino a los enlaces a todos los archivos locales externos. Cada enlace se modifica de dos formas:

* Los enlaces a los archivos descargados por Wget se cambian a los enlaces relativos correspondientes. Por ejemplo: si el archivo descargado /foo/doc.html luego vincular al archivo también descargado /bar/img.gif se vera como ../bar/img.gif... Este método funciona si existe una relación visible entre las carpetas de uno y otro archivo. * Los enlaces a archivos no descargados por Wget se cambiarán a las direcciones absolutas de esos archivos en el servidor remoto. Por ejemplo: si el archivo descargado /foo/doc.html contiene un enlace a /bar/img.gif(o en ../bar/img.gif), luego el enlace en el archivo doc.html cambiará a http: //host/bar/img.gif... Gracias a esto, es posible la visualización fuera de línea del sitio y los archivos: si se descarga un archivo al que hay un enlace, entonces el enlace lo apuntará, si no, el enlace apuntará a su dirección de Internet (si existe ). Al convertir, se utilizan enlaces relativos, lo que significa que puede mover el sitio descargado a otra carpeta sin cambiar su estructura. Solo después de que se completa la descarga, Wget sabe qué archivos se descargaron. Por lo tanto, para el parámetro -k la conversión tendrá lugar solo después de que se complete la descarga. -K –– Copia de seguridad convertida Convertir enlaces de nuevo - eliminar extensión .orig... Cambia el comportamiento de una opción. -NORTE. -metro --Espejo Habilite las opciones para la creación de reflejo del sitio. Este parámetro es igual a varios parámetros: -r -N -l inf -nr... Para el almacenamiento sin pretensiones de copias duplicadas de sitios, puede utilizar esta opción. -pag –– Requisitos de la página Cargue todos los archivos necesarios para representar páginas HTML. Por ejemplo: Imágenes, Sonidos, Estilos en cascada. De forma predeterminada, estos archivos no se cargan. Opciones -r y -l, enumerados juntos pueden ayudar, pero dado que Dado que wget no distingue entre documentos externos e internos, no hay garantía de que se cargue todo lo necesario. Por ejemplo, 1.html contiene la etiqueta " " , con referencia a 1.gif y la etiqueta " "haciendo referencia a un documento externo 2.html... Página 2.html es similar, pero su dibujo es 2.gif y ella se refiere a 3.html... Digamos que continúa hasta cierto número. Si se da el comando: wget -r -l 2 http: // I /1.html

luego 1.html, 1.gif, 2.html, 2.gif y 3.html se cargará. Como se puede ver, 3.html sin 3.gif ya que Wget solo cuenta el número de saltos por los que pasó, pasa a 2 y se detiene. Y con los parámetros:

Wget -r -l 2 -p http: // I /1.html

Todos los archivos y dibujo 3.gif paginas 3.html se cargará. igualmente

Wget -r -l 1 -p http: // I /1.html

cargará 1.html, 1.gif, 2.html y 2.gif... Para cargar una página HTML especificada con todos sus elementos, simplemente no especifique -r y -l:

Wget -p http: // I /1.html

En este caso, Wget se comportará como si el parámetro -r, pero se cargarán la página y sus archivos auxiliares. Si desea que se carguen archivos de soporte en otros servidores (es decir, a través de enlaces absolutos), use:

Wget -E -H -k -K -p http: // I / I

Finalmente, debo decir que para Wget referencia externa¿Es la URL especificada en las etiquetas " " , "" y " ", excepto" " .

Parámetros para deshabilitar / habilitar la carga recursiva

-A aclista --Aceptar aclista -R rejlist --Rechazar rejlist Una lista de nombres de archivo separados por comas para descargar o no descargar. Permitido establecer nombres de archivo por máscara. -D lista de dominios ––Dominios =lista de dominios Lista de dominios lista de dominios desde donde descargar archivos. Separado por comas. Este parámetro no incluye -H. ––Excluir dominios lista de dominios Lista de dominios de los que no permitido subir archivos ––Seguir-ftp Siga los enlaces FTP de las páginas HTML. De lo contrario, se ignoran los enlaces de archivos FTP. ––Follow-tags =lista Wget tiene una mesa incrustada Etiquetas HTML en el que busca enlaces a otros archivos. Puede especificar etiquetas adicionales en una lista separada por comas lista en este parámetro. -GRAMO lista ––Ignore-tags =lista atrás ––Etiquetas de seguimiento... Para omitir las etiquetas HTML cuando se cargan de forma recursiva, especifíquelas en una lista separada por comas lista.Anteriormente parámetro -GRAMO fue mejor para cargar páginas individuales con sus archivos de apoyo. Puedes ver cómo fue especificando el comando wget -Ga, area -H -k -K -r http: // I / I

Pero ahora se considera completamente el mejor parámetro para cargar una página. –– Requisitos de la página. -H ––Span-hosts Permite visitar cualquier servidor al que haya un enlace. -L --Relativo Siga solo enlaces relativos. Con este parámetro, definitivamente no se descargarán archivos de otros servidores. -I lista ––Incluir-directorios =lista Una lista de carpetas separadas por comas desde las que descargar archivos. Elementos de la lista lista -X lista ––Excluir-directorios =lista Una lista de carpetas separadas por comas para excluir para su descarga (consulte Restricción por carpetas). Elementos de la lista lista puede contener caracteres de máscara. -notario público –– Sin padre No suba por encima de la dirección inicial en carga recursiva.

EJEMPLOS DE USO

Los ejemplos se dividen en tres categorías según su dificultad.

Uso simple

* Si necesita descargar una URL, ingrese: wget http://fly.srk.fer.hr/ * Pero, ¿y si la conexión es lenta y el archivo es largo? Es posible desconectarse antes de completar la descarga. En este caso, Wget seguirá probando una nueva conexión hasta que se agote (20 por defecto). Puede cambiar este número, por ejemplo a 45: wget ––tries = 45 http://fly.srk.fer.hr/jpg/flyweb.jpg * Ahora dejemos Wget ejecutándose en segundo plano y escribamos sus mensajes en el registro. Iniciar sesión... Tomar mucho tiempo --Intentos entonces usamos -t... wget -t 45 -o log http://fly.srk.fer.hr/jpg/flyweb.jpg &

El ampersand al final le dice al shell que continúe sin esperar a que Wget salga. Para hacer que el programa se repita indefinidamente, use -t inf... * Usar FTP también es muy fácil. Wget se ocupa de todas las cuestiones de autorización.

Wget ftp://gnjilux.srk.fer.hr/welcome.msg * Si especifica una dirección de carpeta, Wget descargará la lista de esa carpeta (es decir, los archivos y subdirectorios que contiene) y la convertirá a HTML. Por ejemplo: wget ftp://prep.ai.mit.edu/pub/gnu/ links index.html

Uso extendido

* Si tiene un archivo con una URL que desea descargar, utilice el parámetro -I: wget -i yo

Si especifica en lugar de un nombre de archivo, la URL se leerá desde stdin. * Cree una copia de cinco niveles del sitio GNU con la estructura de carpetas original, con un intento de descarga, guarde los mensajes en gnulog:

Wget -r http://www.gnu.org/ -o gnulog * Como en el ejemplo anterior, pero convirtiendo enlaces en archivos HTML a locales para verlos más tarde sin conexión: wget ––convert-links -r http: // www .gnu.org / -o gnulog * Descarga una página HTML y todos los archivos necesarios para renderizar esta última (por ejemplo, imágenes, archivos de estilo en cascada, etc.). También convierta todos los enlaces a estos archivos: wget -p ––convert-links http://www.server.com/dir/page.html

La página HTML se guardará en www.server.com/dir/page.html e imágenes, estilos en cascada, etc. se guardarán en la carpeta www.server.com/, excepto en el caso de que los archivos se descarguen de otros servidores. * Como en el ejemplo anterior, pero sin la carpeta www.server.com/... También todos los archivos se guardarán en subcarpetas descargar /.

Wget -p ––convert-links -nH -nd -Pdownload http://www.server.com/dir/page.html * Descargar index.html desde www.lycos.com mostrando los encabezados del servidor: wget -S http://www.lycos.com/ * Guarde los encabezados en un archivo para su uso posterior. wget -s http://www.lycos.com/ more index.html * Descargue los dos niveles superiores wuarchive.wustl.edu v / tmp... wget -r -l2 -P / tmp ftp://wuarchive.wustl.edu/ * Descargar Archivos GIF carpetas en el servidor HTTP. Mando wget http://www.server.com/dir/*.gif no funcionará ya que no se admiten comodines al descargar a través de HTTP. Utilice: wget -r -l1 ––no-parent -A.gif http://www.server.com/dir/

-r -l1 permite la carga recursiva con una profundidad máxima de 1. –– Sin padre desactiva los siguientes enlaces a la carpeta principal que tiene el nivel superior, -A.gif permite cargar solo archivos con la extensión .GIF. -Un "* .gif" también funcionará. * Suponga que durante un arranque recursivo, necesita con urgencia apagar / reiniciar su computadora. Para evitar descargar archivos existentes, use:

Wget -nc -r http://www.gnu.org/ * Si desea proporcionar un nombre de usuario y contraseña para un servidor HTTP o FTP, utilice la sintaxis de URL adecuada: wget ftp: // hniksic: /.emacs * Usted ¿Quiere que los documentos cargados pasen a la salida estándar y no a los archivos? wget -O - http://jagor.srce.hr/ http://www.srce.hr/

Si desea configurar una canalización y cargar todos los sitios que están vinculados en la misma página:

Wget -O - ttp: //cool.list.com/ | wget ––force-html -i -

Uso profesional

* Para almacenar una página reflejada (o carpeta FTP), utilice --Espejo (-metro), que reemplaza -r -l inf -N... Puede agregar Wget a su crontab solicitando actualizaciones todos los domingos: crontab 0 0 * * 0 wget ––mirror http://www.gnu.org/ -o / home / me / weeklog * También desea que los enlaces se conviertan a local . Pero después de leer este tutorial, sabrá que la comparación de tiempos no funcionará. Dígale a Wget que guarde copias de seguridad de los archivos HTML antes de convertirlos. Comando: wget ––mirror ––convert-links ––backup-convertido http://www.gnu.org/ -o / home / me / weeklog * Y si la visualización local de archivos HTML con una extensión de archivo diferente a .html, por ejemplo index.cgi, luego debe enviar el comando para cambiar el nombre de todos esos archivos (content-type = texto / html) v nombre.html... wget ––mirror ––convert-links ––backup-convertido ––html-extensión -o / home / me / weeklog http://www.gnu.org/

Con análogos cortos de los comandos:

Wget -m -k -K -E http://www.gnu.org/ -o / home / me / weeklog

Archivos

/ usr / local / etc / wgetrc Por defecto, esta es la ubicación global archivo de configuración. .wgetrc Archivo de configuración de usuario.

ERRORES ENCONTRADOS

Puede enviar informes de errores al GNU Wget en< " " >(en inglés).
Antes de enviar:

1. Asegúrese de que el comportamiento del programa sea realmente erróneo. Si Wget falla, es un error. Si el comportamiento de Wget no coincide con la documentación, entonces se trata de un error. Si todo funciona de forma extraña, pero no está seguro de cómo debería funcionar realmente, esto también puede ser un error. 2. Intente repetir la situación con un error en el número mínimo de acciones. No se apresure a enviar .wgetrc, intente hacer todas las acciones que llevaron al error con otro archivo de configuración (o sin él). 3. Ejecute Wget con el parámetro -D y enviar la revista (o partes de ella). Mucho es más fácil encontrar errores con dichos registros. 4. Si Wget obtiene un error, intente ejecutarlo en un depurador, por ejemplo, "gdb` which wget` core" y escriba "where" para obtener un backtrace.

CM. ADEMÁS

Información GNU para wget.

AUTORES

TRADUCCIÓN

DERECHOS DE AUTOR

Copyright (c) 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004,
2005, 2006, 2007, 2008, 2009, 2010, 2011 Free Software Foundation, Inc.
Este es un software gratuito; busque las condiciones de copia en los textos fuente. NO hay garantías; el programa NO está destinado a VENTAS.

GNU Wget es un programa de consola gratuito y no interactivo para descargar archivos a través de la red. Admite los protocolos HTTP, FTP y HTTPS, y también admite el trabajo a través de un servidor proxy HTTP. El programa está incluido en casi todas las distribuciones GNU / Linux.

GNU Wget es un programa no interactivo. Esto significa que después de su lanzamiento, el usuario puede influir en su funcionamiento solo con la ayuda de las herramientas de control de procesos del propio sistema operativo. Como regla general, para esto, los atajos de teclado Ctrl + C se utilizan cuando es necesario interrumpir el trabajo del programa y Ctrl + Z para colocar la tarea actual en segundo plano.

Los navegadores modernos generalmente tienen la función de descargar archivos, sin embargo, dado que el navegador está diseñado para un modo de operación interactivo, descargar una gran cantidad de archivos manualmente puede ser tedioso. Los navegadores generalmente no proporcionan los medios para automatizar estas tareas. GNU Wget, por ejemplo, admite la carga de URL especificadas en un archivo. De esta manera, puede hacer una lista de archivos y, en cualquier momento conveniente, descargarlos usando GNU Wget.

La interfaz de línea de comandos le permite controlar GNU Wget desde otros programas y scripts, que se utiliza para automatizar las descargas de archivos (actualizaciones periódicas, supervisión de la disponibilidad del servidor, etc.).

GNU Wget le permite descargar cualquier archivo en la red mundial (incluidas las páginas HTML (X)) a través de HTTP y HTTPS, así como archivos y listas de directorios a través de FTP.

Los archivos se pueden descargar de forma recursiva desde enlaces en páginas HTML, tanto desde un sitio con una cierta profundidad de enlaces siguientes, como desde varios. Además, cuando se cargan a través de FTP, los archivos se pueden descargar "por máscara" con el nombre (es decir, puede especificar un grupo de archivos con "*").

GNU Wget también admite la reanudación de un archivo si se pierde la conexión.

Todos a veces descargamos archivos de Internet. Si usa programas con interfaz grafica, entonces todo resulta extremadamente simple. Sin embargo, cuando se trabaja en la línea de comandos de Linux, las cosas se complican un poco. Especialmente para aquellos que no están familiarizados con las herramientas adecuadas. Una de esas herramientas es la extremadamente poderosa utilidad wget, que es adecuada para todo tipo de descargas. Traemos a su atención doce ejemplos, analizando cuáles, puede dominar las características básicas de wget.

$ wget https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Después de ingresar este comando, comenzará la descarga de Nagios Core. Durante este proceso, podrá ver datos sobre la descarga, por ejemplo, información sobre cuántos datos ya se han descargado, la velocidad actual y cuánto tiempo queda hasta el final de la descarga.

2. Descarga el archivo y guárdalo con un nuevo nombre.

Si queremos guardar el archivo descargado con un nombre diferente a su nombre original, el comando wget con el parámetro -O es útil:

$ wget -O nagios_latest https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Con este enfoque, el archivo cargado se guardará con el nombre nagios_latest.

3. Limitar la velocidad de descarga de archivos

Puede limitar la velocidad de descarga de archivos usando wget si es necesario. Como resultado, esta operación no ocupará todo el canal de transmisión de datos disponible y no afectará a otros procesos asociados con la red. Esto se puede hacer usando el parámetro --limit-rate y especificando el límite de velocidad expresado en bytes (como un número regular), kilobytes (agregando una K después del número) o megabytes (M) por segundo:

$ wget ––limit-rate = 500K https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror = excellmedia
La velocidad de descarga se establece en 500 Kb / s.

4. Completar una descarga interrumpida

Si esta operación se interrumpe durante la descarga de archivos, puede reanudar la descarga utilizando el parámetro -c del comando wget:

$ wget –c https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia
Si no se utiliza este parámetro, la descarga del archivo incompleto comenzará desde el principio.

Si está cargando un archivo enorme y desea realizar esta operación en segundo plano, puede hacerlo usando la opción -b:

$ wget –b https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia

Si tiene una lista de URL de archivos para descargar, pero no desea activar manualmente las descargas de estos archivos, puede usar el parámetro -I. Sin embargo, antes de iniciar la descarga, debe crear un archivo que contenga todas las direcciones. Por ejemplo, puede hacer esto con el siguiente comando:

$ vi url.txt
Agregue direcciones a este archivo, una en cada línea. Además, solo queda iniciar wget, pasando el archivo recién creado con la lista de descargas a esta utilidad:

$ wget –I url.txt
La ejecución de este comando dará como resultado la carga secuencial de todos los archivos de la lista.

7. Aumento del número total de intentos de descarga de archivos.

Para configurar el número de reintentos para descargar un archivo, puede usar el parámetro --tries:

Wget ––tries = 100 https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia

El comando para descargar un archivo de un servidor FTP anónimo usando wget se ve así:

$ wget URL de FTP
Si se requiere un nombre de usuario y una contraseña para acceder al archivo, el comando se verá así:

$ wget –-ftp-user = dan ––ftp-password = ********* URL de FTP

9. Cree una copia local del sitio web.

Si necesita descargar el contenido de un sitio web completo, puede hacerlo usando el parámetro --mirror:

$ wget --mirror -p --convert-links -P / home / dan xyz.com
Tenga en cuenta los parámetros adicionales de la línea de comandos:

  • -p: descarga todos los archivos necesarios para la visualización correcta de páginas HTML.
  • --convert-links: los enlaces de los documentos se convertirán para fines de visualización del sitio local.
  • -P / home / dan: el contenido se guardará en la carpeta / home / dan.

10. Descarga del sitio solo archivos de cierto tipo

Para descargar solo archivos de un cierto tipo del sitio, puede usar los parámetros -r -A:

$ wget -r -A.txt Website_url

11. Omitir archivos de cierto tipo

Si desea copiar un sitio web completo, pero no necesita archivos de cierto tipo, puede deshabilitar su carga usando el parámetro --reject:

$ wget --reject = png Website_url

12. Descargue usando su propio archivo .log

Para cargar el archivo y usar su propio archivo .log, use la opción -o y especifique el nombre del archivo de registro:

$ wget -o wgetfile.log https://downloads.sourceforge.net/project/nagios/nagios-4.x/nagios-4.3.1/nagios-4.3.1.tar.gz?r=&ts=1489637334&use_mirror=excellmedia

Resultados

Wget es bastante fácil de usar, pero muy utilidad útil Linux. Y, de hecho, de lo que hablamos es solo una pequeña parte de lo que ella puede hacer. Con suerte, esta descripción general ayudará a quienes no están familiarizados con wget a evaluar este programa y posiblemente a incluirlo en su arsenal diario de herramientas de línea de comandos.

¡Queridos lectores!¿Está utilizando herramientas de línea de comandos de Linux para descargar archivos? En caso afirmativo, cuéntenos sobre ellos.

Al realizar conexiones TCP / IP de cliente, vincule a ADDRESS en la máquina local. ADDRESS se puede especificar como un nombre de host o una dirección IP. Esta opción puede resultar útil si su máquina está vinculada a varias direcciones IP.

Al crear conexiones TCP / IP de cliente, vincule a ADDRESS en la computadora local. ADDRESS se puede especificar como un nombre de host o una dirección IP. Esta opción puede ser útil si su computadora está asociada con varias direcciones IP.

'—Bind-dns-address = ADDRESS'

Esta dirección anula la ruta para las solicitudes de DNS. Si alguna vez necesita eludir la configuración estándar de /etc/resolv.conf, esta opción junto con "—dns-servers" es su amiga. ADDRESS debe especificarse como dirección IPv4 o IPv6. Wget debe construirse con libcares para que esta opción esté disponible.

[solo libcares] Esta dirección anula la ruta para las consultas de DNS. Si alguna vez necesita omitir la configuración predeterminada en /etc/resolv.conf, este parámetro, junto con "—dns-servers", es su amigo. ADDRESS debe especificarse como dirección IPv4 o IPv6. El wget debe construirse con libcares para que esta opción esté disponible.

"—Dns-servers = ADDRESSES"

Las direcciones dadas anulan las direcciones estándar del servidor de nombres, p. Ej. como está configurado en /etc/resolv.conf. Las DIRECCIONES se pueden especificar como direcciones IPv4 o IPv6, separadas por comas. Wget debe construirse con libcares para que esta opción esté disponible.

[solo libcares] Las direcciones proporcionadas anulan las direcciones predeterminadas del servidor de nombres, por ejemplo. como se indica en /etc/resolv.conf. Las DIRECCIONES se pueden especificar como direcciones IPv4 o IPv6 separadas por comas. El wget debe construirse con libcares para que esta opción esté disponible.

"-T número"
'—Tries = número'

Establecer el número de intentos de numerar. Especificar 0 o ' inf'Para reintentos infinitos. El valor predeterminado es reintentar 20 veces, con la excepción de errores fatales como "conexión rechazada" o " extraviado”(404), que no se reintegran.

Establezca el número de intentos para el número. Por favor indica 0 (cero) o " inf"Para un reintento sin fin. El valor predeterminado es reintentar 20 veces, excepto por errores fatales como "conexión rechazada" o "no encontrada" (404), que no se reintentarán.

"-O archivo"
'—Output-document = archivo'

Los documentos no se escribirán en los archivos correspondientes, pero todos se concatenarán y se escribirán en el archivo. Si se utiliza '-' como archivo, los documentos se imprimirán en la salida estándar, deshabilitando la conversión de enlaces. (Utilice "./-" para imprimir en un archivo llamado literalmente "-").

Los documentos no se escribirán en los archivos correspondientes, pero todos se fusionarán y se escribirán en el archivo. Si se utiliza "-" como archivo, los documentos se imprimirán en la salida estándar con la conversión de enlaces deshabilitada. (Utilice "./-" para imprimir en un archivo llamado literalmente "-").

El uso de "-O" no pretende significar simplemente "usar el archivo de nombre en lugar del que está en la URL"; más bien, es análogo a la redirección de shell: " wget -O archivo http: // foo"Está destinado a funcionar como" wget -O - http: // foo> archivo'; El archivo se truncará inmediatamente y todo el contenido descargado se escribirá allí.

Usar "-O" no solo significa "usar un archivo de nombre en lugar de una URL", sino que es similar a la redirección de shell: " wget -O archivo http: // foo"Está destinado a funcionar como" wget -O - http: // foo> archivo'; el archivo se truncará inmediatamente y todo el contenido cargado se escribirá allí.

Por esta razón, "-N" (para la verificación de la marca de tiempo) no se admite en combinación con "-O": dado que el archivo siempre se crea recientemente, siempre tendrá una marca de tiempo muy nueva. Se emitirá una advertencia si se utiliza esta combinación.

Por esta razón, "-N" (para verificar la marca de tiempo) no se admite junto con "-O": dado que el archivo siempre se crea, siempre tendrá una marca de tiempo muy nueva. Se emitirá una advertencia al usar esta combinación.

Del mismo modo, el uso de " -r'O' -pag'Con' -O'Puede que no funcione como esperaba: Wget no solo descargará el primer archivo a archivo y luego descargará el resto a sus nombres normales: todo el contenido descargado se colocará en un archivo. Esto se desactivó en la versión 1.11, pero se ha restablecido (con una advertencia) en 1.11.2, ya que hay algunos casos en los que este comportamiento puede tener algún uso.

Del mismo modo, el uso de " -r' o ' -pag' con ' -O Es posible que no funcione como esperaba: Wget no solo descargará el primer archivo a un archivo y luego cargará el resto con sus nombres normales: todo el contenido descargado se colocará en el archivo. Esto se desactivó en la versión 1.11, pero se ha restablecido (con una advertencia) en 1.11.2, ya que hay casos en los que este comportamiento podría usarse.

Una combinación con ' -Carolina del Norte'Solo se acepta si el archivo de salida dado no existe.

Combinación con ' -Carolina del Norte'Solo se acepta si el archivo de salida dado no existe.

Tenga en cuenta que una combinación con ' -k'Solo está permitido al descargar un solo documento, ya que en ese caso solo convertirá todos los URI relativos en externos; " -k'No tiene sentido para varios URI cuando todos se descargan en un solo archivo; " -k'Solo se puede usar cuando la salida es un archivo normal.

Tenga en cuenta que la combinación con " -k»Permitido solo al cargar un documento, ya que en este caso simplemente convertirá todos los URI relativos a externos; " -k»No tiene sentido para varios URI cuando todos están cargados en un archivo; " -k'Solo se puede usar cuando la salida es un archivo normal.

'-Carolina del Norte'
"No-clobber"

Si un archivo se descarga más de una vez en el mismo directorio, Wget's el comportamiento depende de algunas opciones, que incluyen ' -Carolina del Norte". En ciertos casos, el archivo local se machacará o sobrescribirá tras una descarga repetida. En otros casos se conservará.

Si un archivo se descarga más de una vez en el mismo directorio, el comportamiento Wget depende de varios parámetros que incluyen "-Carolina del Norte"... En algunos casos, el archivo local se volcará o sobrescribirá cuando se vuelva a cargar. En otros casos, se guardará.

Cuando se ejecuta Wget sin '-N', '-nc', '-r' o '-p', descargar el mismo archivo en el mismo directorio dará como resultado la conservación de la copia original del archivo y el nombre de la segunda copia ' archivo.1 '. Si ese archivo se descarga una vez más, la tercera copia se llamará "archivo.2", y así sucesivamente. (Este es también el comportamiento con "-nd", incluso si "-r" o "-p" están en vigor).

Si ejecuta Wget sin '-N', '-nc', '-r' o '-p', cargar el mismo archivo en el mismo directorio guardará la copia original del archivo, y la segunda copia se llamará 'archivo .1. Si este archivo se vuelve a cargar, la tercera copia se llamará "archivo.2" y así sucesivamente. (Este también es el comportamiento con -nd, incluso si -r o -p están en vigor).

Cuando ' -Carolina del Norte"Se especifica, este comportamiento se suprime y Wget se negará a descargar copias más recientes de" expediente". Por lo tanto, "no-clobber" es en realidad un nombre inapropiado en este modo; no es el clobbering lo que se evita (ya que los sufijos numéricos ya impedían el clobber), sino el guardado de múltiples versiones que se evita.

Cuando se indica "-Carolina del Norte", este comportamiento se suprime y Wget se negará a descargar nuevas copias " expediente". Así que "no-clobber" es realmente incorrecto en este modo - no es clobber lo que se evita (dado que los sufijos numéricos ya previenen el anti-aliasing), sino que evita que se almacenen varias versiones.

Al ejecutar Wget con ' -r'O' -pag', Pero sin' -NORTE’, ‘-Dakota del Norte', O' -Carolina del Norte", Volver a descargar un archivo dará como resultado que la nueva copia simplemente sobrescriba la anterior. Agregar '-nc' evitará este comportamiento y, en cambio, hará que se conserve la versión original y que se ignoren las copias más nuevas en el servidor.

Al iniciar Wget con ' -r' o ' -pag', pero sin ' -NORTE’, ‘-Dakota del Norte' o ' -Carolina del Norte', Volver a descargar el archivo hará que la nueva copia simplemente sobrescriba la anterior. Agregar "-nc" evitará este comportamiento, en su lugar, se mantendrá la versión original y se ignorará cualquier copia nueva en el servidor.

Cuando se ejecuta Wget con '-N', con o sin '-r' o '-p', la decisión de descargar o no una copia más reciente de un archivo depende de la marca de tiempo local y remota y del tamaño del archivo ( ver Sellado de tiempo). Es posible que '-Nc' no se especifique al mismo tiempo que '-N'.

Al ejecutar Wget con '-N', con o sin '-r' o '-p', la decisión de descargar o no descargar una copia más reciente del archivo depende de la marca de tiempo local y remota y del tamaño del archivo (consulte Sellado temporal ). Es posible que "-Nc" no se especifique al mismo tiempo que "-N".

Una combinación con "-O" / "- documento de salida" solo se acepta si el archivo de salida dado no existe.

La combinación con '-O' / '- output-document' solo se acepta si el archivo de salida dado no existe.

Tenga en cuenta que cuando " -Carolina del Norte"Si se especifica, los archivos con los sufijos" .html "o" .htm "se cargarán desde el disco local y se analizarán como si se hubieran recuperado de la Web.

Tenga en cuenta que cuando se especifique "-Carolina del Norte", los archivos con sufijos ".html" o ".htm" se descargarán de disco local y analizados como si fueran recuperados de Internet.

"—Copia de seguridad = copias de seguridad"

Antes de (sobre) escribir un archivo, haga una copia de seguridad de un archivo existente agregando un sufijo ".1" ("_1" en VMS) al nombre del archivo. Dichos archivos de copia de seguridad se rotan a ".2", ".3", etc., hasta las copias de seguridad (y luego se pierden).

Antes de (sobre) escribir el archivo, haga una copia de seguridad del archivo existente agregando el sufijo ".1" ("_1" en VMS) al nombre del archivo. Dichos archivos de copia de seguridad se rotan a ".2", ".3", etc., hasta incluir las copias de seguridad (y se pierden al hacerlo).

'-C'
'-Continuar'

Continúe obteniendo un archivo parcialmente descargado. Esto es útil cuando desea finalizar una descarga iniciada por una instancia anterior de Wget o por otro programa. Por ejemplo:

Siga obteniendo el archivo parcialmente descargado. Esto es útil cuando desea completar una descarga iniciada por una instancia anterior de Wget u otro programa. Por ejemplo:

wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

Si hay un archivo llamado ls-lR.Z en el directorio actual, Wget asumirá que es la primera parte del archivo remoto y le pedirá al servidor que continúe la recuperación desde un desplazamiento igual a la longitud del archivo local. ...

Si hay un archivo llamado ls-lR.Z en el directorio actual, Wget asumirá que es la primera parte del archivo remoto y le pedirá al servidor que continúe extrayendo con un desplazamiento igual a la longitud del archivo local.

Tenga en cuenta que no necesita especificar esta opción si solo desea que la invocación actual de Wget vuelva a intentar descargar un archivo en caso de que la conexión se pierda a mitad de camino. Este es el comportamiento predeterminado. " -C'Solo afecta a la reanudación de las descargas iniciadas antes de esta invocación de Wget, y cuyos archivos locales todavía están ahí.

Tenga en cuenta que no es necesario que especifique esta opción si solo desea que la llamada Wget actual vuelva a intentar la descarga del archivo si la conexión se pierde a la mitad. Este es el comportamiento predeterminado. " -C'Solo afecta a las descargas de currículums que se iniciaron antes de esta llamada de Wget y cuyos archivos locales aún están almacenados.

Sin '-c', el ejemplo anterior simplemente descargaría el archivo remoto a ls-lR.Z.1, dejando solo el archivo ls-lR.Z truncado.

Sin -c, el ejemplo anterior simplemente cargó el archivo remoto en ls-lR.Z.1, dejando el archivo con ls-lR.Z truncado.

Si utiliza ' -C'En un archivo que no está vacío, y el servidor no admite la descarga continua, Wget reiniciará la descarga desde cero y sobrescribirá el archivo existente por completo.

Si está utilizando " -C'En un archivo no vacío, y el servidor no admite descargas persistentes, Wget reiniciará la descarga desde cero y sobrescribirá completamente el archivo existente.

A partir de Wget 1.7, si usa ' -C'En un archivo que tiene el mismo tamaño que el del servidor, Wget se negará a descargar el archivo e imprimirá un mensaje explicativo. Lo mismo sucede cuando el archivo es más pequeño en el servidor que localmente (presumiblemente porque se cambió en el servidor desde su último intento de descarga), debido a que "continuar" no es significativo, no se produce ninguna descarga.

Desde Wget 1.7, si usa " -C"En un archivo del mismo tamaño que el del servidor, Wget se negará a descargar el archivo e imprimirá un mensaje explicativo. Lo mismo sucede cuando el archivo es más pequeño en el servidor que localmente (presumiblemente porque se ha modificado en el servidor desde el último intento de descarga), porque "continuar" no tiene sentido, no se produce ninguna descarga.

En el otro lado de la moneda, al usar '-c', cualquier archivo que sea más grande en el servidor que localmente se considerará una descarga incompleta y solo (longitud (remota) - longitud (local)) bytes se descargarán y agregarán el final del archivo local. Este comportamiento puede ser deseable en ciertos casos; por ejemplo, puede usar "wget ​​-c" para descargar solo la parte nueva que se ha agregado a una recopilación de datos o archivo de registro.

En el otro lado de la moneda, al usar '-c', cualquier archivo que sea más grande en el servidor que localmente se considerará una descarga parcial y solo (longitud (remota) longitud (local)) bytes se descargarán y adjuntarán a el final del archivo local. Este comportamiento puede ser deseable en algunos casos, por ejemplo, puede usar "wget ​​-c" para descargar solo la parte nueva que se ha agregado a la recopilación de datos o al archivo de registro.

Sin embargo, si el archivo es más grande en el servidor porque se cambió, en lugar de simplemente agregarlo, terminará con un archivo distorsionado. Wget no tiene forma de verificar que el archivo local sea realmente un prefijo válido del archivo remoto. Debe tener especial cuidado con esto cuando utilice "-c" junto con "-r", ya que cada archivo se considerará como un candidato de "descarga incompleta".

Sin embargo, si el archivo es más grande en el servidor porque se ha modificado en lugar de simplemente agregado, terminará con un archivo confuso. Wget no tiene forma de verificar que el archivo local sea un prefijo válido para el archivo remoto. Debe tener especial cuidado al utilizar "-c" junto con "-r", ya que cada archivo se considerará un candidato de "descarga parcial".

Otra instancia en la que obtendrá un archivo confuso si intenta usar '-c' es si tiene un proxy HTTP poco convincente que inserta una cadena de "transferencia interrumpida" en el archivo local. En el futuro, es posible que se agregue una opción de "reversión" para tratar este caso.

Otro ejemplo en el que obtiene un archivo con formato incorrecto si intenta utilizar "-c" es si tiene un proxy HTTP cojo que inserta la línea "redirección de interrupción" en un archivo local. En el futuro, es posible que se agregue una opción de reversión para resolver este caso.

Tenga en cuenta que ' -C'Solo funciona con servidores FTP y con servidores HTTP que admiten el encabezado Range.

Tenga en cuenta que ' -C'Solo funciona con servidores FTP y servidores HTTP que admiten el encabezado Range.

"—Start-pos = OFFSET"

Comience a descargar en la posición OFFSET basada en cero. El desplazamiento puede expresarse en bytes, kilobytes con el sufijo "k" o megabytes con el sufijo "m", etc.

Inicie la descarga en la posición cero OFFSET. El desplazamiento se puede expresar en bytes, kilobytes con el sufijo "k" o megabytes con el sufijo "m", etc.

"—Start-pos" tiene mayor precedencia sobre "—continuar". Cuando se especifican '—start-pos' y '—continue', wget emitirá una advertencia y luego procederá como si "—continue" no estuviera presente.

Se requiere soporte del servidor para la descarga continua; de lo contrario, '—start-pos' no puede ayudar. Consulte "-c" para obtener más detalles.

'—Progreso = tipo'

Seleccione el tipo de indicador de progreso que desea utilizar. Los indicadores legales son "punto" y "barra".

El indicador de "barra" se utiliza de forma predeterminada. Dibuja un gráfico de barra de progreso ASCII (también conocido como pantalla de "termómetro") que indica el estado de la recuperación. Si la salida no es un TTY, la barra de "puntos" se utilizará de forma predeterminada.

Utilice '—progress = dot' para cambiar a la pantalla de "puntos". Traza la recuperación imprimiendo puntos en la pantalla, cada punto representa una cantidad fija de datos descargados.

El tipo de progreso también puede tomar uno o más parámetros. Los parámetros varían según el tipo seleccionado. Los parámetros a escribir se pasan agregándolos al tipo marcado por dos puntos (:) así: "—progreso = tipo: parámetro1: parámetro2".

Cuando utilice la recuperación de puntos, puede establecer el estilo especificando el tipo como "punto: estilo". Los diferentes estilos asignan un significado diferente a un punto. Con el estilo predeterminado, cada punto representa 1K, hay diez puntos en un grupo y 50 puntos en una línea. El estilo binario tiene una orientación más parecida a la de una “computadora”: 8K puntos, grupos de 16 puntos y 48 puntos por línea (lo que da como resultado 384K líneas). El mega estilo es adecuado para descargar archivos grandes: cada punto representa 64K recuperados, hay ocho puntos en un grupo y 48 puntos en cada línea (por lo que cada línea contiene 3M). Si mega no es suficiente, puede usar el estilo giga: cada punto representa 1M recuperado, hay ocho puntos en un grupo y 32 puntos en cada línea (por lo que cada línea contiene 32M).

Con '—progress = bar', actualmente hay dos parámetros posibles, force y noscroll.

Cuando la salida no es un TTY, la barra de progreso siempre vuelve a "punto", incluso si "—progress = bar" se pasó a Wget durante la invocación. Este comportamiento se puede anular y la salida "bar" forzada mediante el uso del parámetro "force" como "—progress = bar: force".

De forma predeterminada, la barra de progreso de estilo 'barra' desplaza el nombre del archivo de izquierda a derecha para el archivo que se está descargando si el nombre del archivo excede la longitud máxima asignada para su visualización. En ciertos casos, como con '—progress = bar: force', es posible que no desee el nombre de archivo de desplazamiento en la barra de progreso. Al pasar el parámetro "noscroll", se puede forzar a Wget a mostrar la mayor cantidad posible del nombre de archivo sin tener que desplazarse por él.

Tenga en cuenta que puede establecer el estilo predeterminado utilizando el comando de progreso en .wgetrc. Esa configuración puede anularse desde la línea de comandos. Por ejemplo, para forzar la salida de la barra sin desplazamiento, use '—progress = bar: force: noscroll'.

"—Mostrar-progreso"

Obligar a wget a mostrar la barra de progreso en cualquier nivel de detalle.

De forma predeterminada, wget solo muestra la barra de progreso en modo detallado. Sin embargo, es posible que desee que wget muestre la barra de progreso en la pantalla junto con cualquier otro modo de verbosidad como "—no verbose" o "—quiet". Esta es a menudo una propiedad deseada cuando se invoca wget para descargar varios archivos pequeños / grandes. En tal caso, wget podría simplemente invocarse con este parámetro para obtener una salida mucho más limpia en la pantalla.

Esta opción también obligará a que la barra de progreso se imprima en stderr cuando se use junto con la opción "—logfile".

'-NORTE'
'-Marcando la hora'

Active el sellado de tiempo. Consulte Sellado de tiempo para obtener más detalles.

Activa el cronometraje. Consulte Sellado de tiempo para obtener más detalles.

"—No-si-modificado-desde"

No envíe el encabezado If-Modified-Since en modo "-N". En su lugar, envíe una solicitud HEAD preliminar. Esto solo tiene efecto en el modo "-N".

'No-use-server-timestamps'

No establezca la marca de tiempo del archivo local con la del servidor.

De forma predeterminada, cuando se descarga un archivo, sus marcas de tiempo se establecen para que coincidan con las del archivo remoto. Esto permite el uso de '—marcado de tiempo' en invocaciones posteriores de wget. Sin embargo, a veces es útil basar la marca de tiempo del archivo local en el momento en que se descargó; para ese propósito, se ha proporcionado la opción "—no-use-server-timestamps".

'-S'
"—Respuesta del servidor"

Imprima los encabezados enviados por los servidores HTTP y las respuestas enviadas por los servidores FTP.

'-Araña'

Cuando se invoca con esta opción, Wget se comportará como una araña web, lo que significa que no descargará las páginas, solo verifique que estén allí. Por ejemplo, puede utilizar Wget para comprobar sus marcadores:

wget -spider -force-html -i bookmarks.html
Esta función necesita mucho más trabajo para que Wget se acerque a la funcionalidad de las arañas web reales.

"-T segundos"
'—Timeout = segundos'

Establezca el tiempo de espera de la red en segundos segundos. Esto equivale a especificar "—dns-timeout", "—connect-timeout" y "—read-timeout", todo al mismo tiempo.

Al interactuar con la red, Wget puede verificar el tiempo de espera y cancelar la operación si demora demasiado. Esto evita anomalías como lecturas colgantes y conexiones infinitas. El único tiempo de espera habilitado de forma predeterminada es un tiempo de espera de lectura de 900 segundos. Establecer un tiempo de espera en 0 lo desactiva por completo. A menos que sepa lo que está haciendo, es mejor no cambiar la configuración predeterminada del tiempo de espera.

Todas las opciones relacionadas con el tiempo de espera aceptan valores decimales, así como valores de subsegundos. Por ejemplo, "0,1" segundos es una elección legal (aunque imprudente) de tiempo de espera. Los tiempos de espera de subsegundos son útiles para verificar los tiempos de respuesta del servidor o para probar la latencia de la red.

"—Dns-timeout = segundos"

Establezca el tiempo de espera de búsqueda de DNS en segundos segundos. Las búsquedas de DNS que no se completen dentro del tiempo especificado fallarán. De forma predeterminada, no hay tiempo de espera en las búsquedas de DNS, aparte del implementado por las bibliotecas del sistema.

'—Connect-timeout = segundos'

Establezca el tiempo de espera de la conexión en segundos segundos. Se cancelarán las conexiones TCP que tarden más en establecerse. De forma predeterminada, no hay tiempo de espera de conexión, excepto el implementado por las bibliotecas del sistema.

'—Read-timeout = segundos'

Establezca el tiempo de espera de lectura (y escritura) en segundos segundos. El “tiempo” de este tiempo de espera se refiere al tiempo de inactividad: si, en cualquier momento de la descarga, no se reciben datos durante más del número de segundos especificado, la lectura falla y la descarga se reinicia. Esta opción no afecta directamente la duración de toda la descarga.

Por supuesto, el servidor remoto puede optar por terminar la conexión antes de lo que requiere esta opción. El tiempo de espera de lectura predeterminado es de 900 segundos.

'—Tasa límite = monto'

Limite la velocidad de descarga a la cantidad de bytes por segundo. La cantidad puede expresarse en bytes, kilobytes con el sufijo "k" o megabytes con el sufijo "m". Por ejemplo, "—limit-rate = 20k" limitará la tasa de recuperación a 20 KB / s. Esto es útil cuando, por cualquier motivo, no desea que Wget consuma todo el ancho de banda disponible.

Esta opción permite el uso de números decimales, generalmente junto con sufijos de potencia; por ejemplo, "—limit-rate = 2.5k" es un valor legal.

Tenga en cuenta que Wget implementa la limitación durmiendo la cantidad de tiempo adecuada después de una lectura de red que tomó menos tiempo que el especificado por la tasa. Finalmente, esta estrategia hace que la transferencia de TCP se ralentice hasta aproximadamente la velocidad especificada. Sin embargo, puede llevar algún tiempo lograr este equilibrio, por lo que no se sorprenda si limitar la tasa no funciona bien con archivos muy pequeños.

"-W segundos"
"—Espere = segundos"

Espere el número especificado de segundos entre las recuperaciones. Se recomienda el uso de esta opción, ya que aligera la carga del servidor al hacer que las solicitudes sean menos frecuentes. En lugar de en segundos, el tiempo se puede especificar en minutos usando el sufijo m, en horas usando el sufijo h, o en días usando el sufijo d.

Especificar un valor grande para esta opción es útil si la red o el host de destino están inactivos, de modo que Wget pueda esperar lo suficiente como para esperar razonablemente que se solucione el error de red antes del reintento. El intervalo de espera especificado por esta función está influenciado por -random-wait, que vea.

"—Waitretry = segundos"

Si no desea que Wget espere entre cada recuperación, sino solo entre reintentos de descargas fallidas, puede usar esta opción. Wget utilizará el retroceso lineal, esperando 1 segundo después de la primera falla en un archivo dado, luego esperará 2 segundos después de la segunda falla en ese archivo, hasta el número máximo de segundos que especifique.

De forma predeterminada, Wget asumirá un valor de 10 segundos.

"—Espera aleatoria"

Algunos sitios web pueden realizar análisis de registros para identificar programas de recuperación como Wget al buscar similitudes estadísticamente significativas en el tiempo entre solicitudes. Esta opción hace que el tiempo entre solicitudes varíe entre 0,5 y 1,5 * segundos de espera, donde la espera se especificó mediante la opción "—esperar", para enmascarar la presencia de Wget de dicho análisis.

Un artículo de 2001 en una publicación dedicada al desarrollo en una popular plataforma de consumidores proporcionó código para realizar este análisis sobre la marcha. Su autor sugirió el bloqueo en el nivel de dirección de clase C para garantizar que los programas de recuperación automatizados estuvieran bloqueados a pesar de cambiar las direcciones proporcionadas por DHCP.

La opción "—espera aleatoria" se inspiró en esta recomendación desacertada de bloquear a muchos usuarios no relacionados de un sitio web debido a las acciones de uno.

"—No-proxy"

No utilice proxies, incluso si se define la variable de entorno * _proxy adecuada.

Consulte Proxies, para obtener más información sobre el uso de proxies con Wget.

'-Q cuota'
‘—Quota = quota’

Especifique la cuota de descarga para recuperaciones automáticas. El valor se puede especificar en bytes (predeterminado), kilobytes (con el sufijo "k") o megabytes (con el sufijo "m").

Tenga en cuenta que la cuota nunca afectará la descarga de un solo archivo. Entonces, si especifica "wget ​​-Q10k https://example.com/ls-lR.gz", se descargarán todos los ls-lR.gz. Lo mismo ocurre incluso cuando se especifican varias URL en la línea de comandos. Sin embargo, la cuota se respeta cuando se recupera de forma recursiva o de un archivo de entrada. Por lo tanto, puede escribir con seguridad 'wget -Q2m -i sites'; la descarga se cancelará cuando se exceda la cuota.

Establecer la cuota en 0 o en 'inf' no limita la cuota de descarga.

"—No-dns-cache"

Desactive el almacenamiento en caché de las búsquedas de DNS. Normalmente, Wget recuerda las direcciones IP que buscó en el DNS, por lo que no tiene que contactar repetidamente con el servidor DNS para el mismo conjunto (normalmente pequeño) de hosts del que recupera. Esta caché solo existe en la memoria; una nueva ejecución de Wget se pondrá en contacto con DNS nuevamente.

Sin embargo, se ha informado que en algunas situaciones no es deseable almacenar en caché los nombres de host, incluso mientras dure una aplicación de ejecución corta como Wget. Con esta opción, Wget emite una nueva búsqueda de DNS (más precisamente, una nueva llamada a gethostbyname o getaddrinfo) cada vez que establece una nueva conexión. Tenga en cuenta que esta opción no afectará el almacenamiento en caché que podría realizar la biblioteca de resolución o una capa de almacenamiento en caché externa, como NSCD.

Si no comprende exactamente lo que hace esta opción, probablemente no la necesite.

'—Restrict-file-names = modes'

Cambie los caracteres que se encuentran en las URL remotas que deben escaparse durante la generación de nombres de archivos locales. Los caracteres que están restringidos por esta opción se escapan, es decir, reemplazado por "% HH", donde "HH" es el número hexadecimal que corresponde al carácter restringido. Esta opción también se puede usar para forzar que todos los casos alfabéticos sean minúsculas o mayúsculas.

De forma predeterminada, Wget escapa los caracteres que no son válidos o seguros como parte de los nombres de archivo en su sistema operativo, así como caracteres de control que normalmente no se pueden imprimir. Esta opción es útil para cambiar estos valores predeterminados, tal vez porque está descargando a una partición no nativa, o porque desea deshabilitar el escape de los caracteres de control, o porque desea restringir aún más los caracteres a aquellos en el rango de valores ASCII.

Los modos son un conjunto de valores de texto separados por comas. Los valores aceptables son "unix", "windows", "nocontrol", "ascii", "minúsculas" y "mayúsculas". Los valores "unix" y "windows" son mutuamente excluyentes (uno anulará al otro), al igual que "minúsculas" y "mayúsculas". Esos últimos son casos especiales, ya que no cambian el conjunto de caracteres que se escaparían, sino que obligan a que las rutas de los archivos locales se conviertan a minúsculas o mayúsculas.

Cuando se especifica "unix", Wget escapa el carácter ’/’ y los caracteres de control en los rangos 0–31 y 128–159. Este es el valor predeterminado en los sistemas operativos similares a Unix.

Cuando se da "ventanas", Wget escapa de los caracteres "\", "|", "/", ":", "?", "" "," * ","<’, ‘>', Y los caracteres de control en los rangos 0-31 y 128-159. Además de esto, Wget en modo Windows usa '+' en lugar de ':' para separar el host y el puerto en los nombres de archivos locales, y usa '@' en lugar de '?' Para separar la parte de consulta del nombre del archivo del resto ... Por lo tanto, una URL que se guardaría como "www.xemacs.org:4300/search.pl?input=blah" en modo Unix se guardaría como "www.xemacs.org + 4300 / [correo electrónico protegido]= bla 'en modo Windows. Este modo es el predeterminado en Windows.

Si especifica "nocontrol", el escape de los caracteres de control también se desactiva. Esta opción puede tener sentido cuando está descargando URL cuyos nombres contienen caracteres UTF-8, en un sistema que puede guardar y mostrar nombres de archivo en UTF-8 (algunos valores de bytes posibles usados ​​en secuencias de bytes UTF-8 caen en el rango de valores designados por Wget como "controles").

El modo "ascii" se utiliza para especificar que cualquiera los bytes cuyos valores están fuera del rango de caracteres ASCII (es decir, mayores de 127) se escaparán. Esto puede ser útil al guardar nombres de archivos cuya codificación no coincide con la que se usa localmente.

‘-4’
'—Inet4-only'
‘-6’
"—Solo para Inet6"

Forzar la conexión a direcciones IPv4 o IPv6. Con "—sólo para nt4" o "-4", Wget solo se conectará a hosts IPv4, ignorando los registros AAAA en DNS y negándose a conectarse a las direcciones IPv6 especificadas en las URL. Por el contrario, con "—sólo para in6" o "-6", Wget solo se conectará a hosts IPv6 e ignorará los registros A y las direcciones IPv4.

Ninguna opción debería ser necesaria normalmente. De forma predeterminada, un Wget compatible con IPv6 utilizará la familia de direcciones especificada por el registro DNS del host. Si el DNS responde con direcciones IPv4 e IPv6, Wget las probará en secuencia hasta que encuentre una a la que pueda conectarse. (Consulte también la opción —prefer-family que se describe a continuación).

Estas opciones se pueden usar para forzar deliberadamente el uso de familias de direcciones IPv4 o IPv6 en sistemas de familia dual, generalmente para ayudar a la depuración o para tratar una configuración de red rota. Solo se puede especificar uno de "—sólo -inet6" y "—sólo -inet4" al mismo tiempo. Ninguna de las opciones está disponible en Wget compilado sin compatibilidad con IPv6.

'—Prefer-family = none / IPv4 / IPv6'

Cuando se le dé la opción de varias direcciones, conéctese primero a las direcciones con la familia de direcciones especificada. El orden de direcciones devuelto por DNS se utiliza sin cambios de forma predeterminada.

Al seleccionar varias direcciones, conéctese primero a las direcciones con la familia de direcciones especificada. El orden de direcciones devuelto por DNS no se modifica de forma predeterminada.

Esto evita errores espurios e intentos de conexión al acceder a hosts que se resuelven en direcciones IPv6 e IPv4 desde redes IPv4. Por ejemplo, "www.kame.net" se resuelve en "2001: 200: 0: 8002: 203: 47ff: fea5: 3085" y "203.178.141.194". Cuando la familia preferida es IPv4, la dirección IPv4 se usa primero; cuando la familia preferida es IPv6, la dirección IPv6 se usa primero; si el valor especificado es ninguno, el orden de direcciones devuelto por DNS se utiliza sin cambios.

Esto evita falsos errores e intentos de conexión al acceder a hosts que permiten direcciones IPv6 e IPv4 desde redes IPv4. Por ejemplo, "www.kame.net" resuelve "2001: 200: 0: 8002: 203: 47ff: fea5: 3085" y "203.178.141.194". Cuando la familia preferida es IPv4, la dirección IPv4 se usa primero; cuando la familia preferida es IPv6, la dirección IPv6 se usa primero; si el valor especificado es ninguno, la dirección devuelta por DNS se usa sin cambios.

A diferencia de "-4" y "-6", esta opción no inhibe el acceso a ninguna familia de direcciones, solo cambia el orden en el que se accede a las direcciones. También tenga en cuenta que el reordenamiento realizado por esta opción es estable, no afecta el orden de direcciones de la misma familia. Es decir, el orden relativo de todas las direcciones IPv4 y de todas las direcciones IPv6 permanece intacto en todos los casos.

A diferencia de "-4" y "-6", este parámetro no prohíbe el acceso a ninguna familia de direcciones, cambia el orden de acceso a las direcciones. También tenga en cuenta que el reordenamiento realizado por esta opción es estable; no afecta el orden de las direcciones en la misma familia de direcciones. Es decir, el orden relativo de todas las direcciones IPv4 y todas las direcciones IPv6 permanece intacto en todos los casos.

"—Reintento-rechazo"

Considere "conexión rechazada" como un error transitorio y vuelva a intentarlo. Normalmente, Wget renuncia a una URL cuando no puede conectarse al sitio porque la falta de conexión se toma como una señal de que el servidor no se está ejecutando en absoluto y que los reintentos no ayudarían. Esta opción es para duplicar sitios no confiables cuyos servidores tienden a desaparecer por períodos cortos de tiempo.

Tenga en cuenta que el error transitorio "se rechazó la conexión" y vuelva a intentarlo. Por lo general, Wget renunciará a la URL cuando no pueda conectarse al sitio, porque el rechazo de la conexión se toma como una señal de que el servidor no se está ejecutando en absoluto y que intentarlo no ayudará. Esta opción es para duplicar sitios que no son de confianza cuyos servidores tienden a desaparecer en cortos períodos de tiempo.

"—User = usuario"
'—Password = contraseña'

Especifique el nombre de usuario y la contraseña para la recuperación de archivos FTP y HTTP. Estos parámetros se pueden anular usando el ' —Ftp-user'Y' —Ftp-contraseña"Opciones para conexiones FTP y las opciones" —http-user "y" —http-password "para conexiones HTTP.

Proporcione la contraseña de usuario y la contraseña de usuario para la búsqueda de archivos FTP y HTTP. Estos parámetros se pueden anular utilizando las opciones " —Ftp-user" y " —Ftp-contraseña"Para conexiones FTP y" -http-user "y" -http-password "para conexiones HTTP.

"—Preguntar-contraseña"

Solicitar una contraseña para cada conexión establecida. No se puede especificar cuando ' -Contraseña'Se está utilizando, porque son mutuamente excluyentes.

Solicita una contraseña para todos conexión establecida... No se puede especificar cuando se usa " -Contraseña"Porque son mutuamente excluyentes.

"—No-iri"

Desactive el soporte de URI internacionalizado (IRI). Usar "—Iri" Encenderlo. La compatibilidad con IRI está activada de forma predeterminada.

Deshabilite el soporte de URI internacionalizado (IRI). Usar "—Iri" Encenderlo. La compatibilidad con IRI está habilitada de forma predeterminada.

Puede establecer el estado predeterminado de la compatibilidad con IRI mediante el comando iri en .wgetrc. Esa configuración puede anularse desde la línea de comando.

Puede establecer el estado IRI predeterminado mediante el comando iri en .wgetrc. Este parámetro se puede anular desde la línea de comandos.

'—Local-encoding = codificación'

Obligue a Wget a utilizar la codificación como codificación predeterminada del sistema. Eso afecta la forma en que Wget convierte las URL especificadas como argumentos de la configuración regional a UTF-8 para el soporte de IRI.

Obligar a Wget a utilizar la codificación predeterminada del sistema. Esto afecta la forma en que Wget convierte las URL proporcionadas como argumentos de la configuración regional a UTF-8 para el soporte de IRI.

Utilice la función nl_langinfo () y luego la variable de entorno CHARSET para obtener la configuración regional. Si falla, se usa ASCII.

Wget usa la función nl_langinfo () y luego la variable de entorno CHARSET para obtener la configuración regional. Si esto falla, se usa ASCII.

Puede establecer la codificación local predeterminada mediante el comando local_encoding en .wgetrc. Esa configuración puede anularse desde la línea de comando.

Puede establecer la codificación local predeterminada mediante el comando local_encoding en .wgetrc. Este parámetro se puede anular desde la línea de comandos.

'—Codificación remota = codificación'

Obligue a Wget a utilizar la codificación como codificación predeterminada del servidor remoto. Eso afecta la forma en que Wget convierte los URI que se encuentran en archivos de codificación remota a UTF-8 durante una búsqueda recursiva. Esta opción solo es útil para la compatibilidad con IRI, para la interpretación de caracteres que no son ASCII.

Obligue a Wget a usar la codificación como la codificación predeterminada del servidor remoto. Esto afecta la forma en que Wget convierte los URI que se encuentran en archivos codificados de forma remota a UTF-8 durante la recuperación recursiva. Estas opciones solo son útiles para la compatibilidad con IRI, para interpretar caracteres que no son ASCII.

Para HTTP, la codificación remota se puede encontrar en el encabezado HTTP Content-Type y en la metaetiqueta HTML Content-Type http-equiv.

Para HTTP, la codificación remota se puede encontrar en el encabezado HTTP Content-Type y en la metaetiqueta http-equiv HTML Content-Type.

Puede establecer la codificación predeterminada mediante el comando remoteencoding en .wgetrc. Esa configuración puede anularse desde la línea de comando.

Puede establecer la codificación predeterminada mediante el comando remoteencoding en .wgetrc. Este parámetro se puede anular desde la línea de comandos.

'-Desconectar'

Fuerza Wget para desvincular el archivo en lugar de golpear el archivo existente. Esta opción es útil para descargar al directorio con enlaces físicos.

Hacer Wget deshabilite el archivo en lugar de obstruir el archivo existente. Esta opción es útil para cargar en un directorio con enlaces físicos.