linux下载⽂件命令
wget命令
wget命令⽤来从指定的URL下载⽂件。wget⾮常稳定,它在带宽很窄的情况下和不稳定的⽹络中有很强的适应性,如果由于⽹络的原因下载失败,wget会不断的尝试,直到整个⽂件下载完毕。如果是服务器打断下载过程,它会再次连到服务器上从停⽌的地⽅继续下载。这对从那些限定了链接时间的服务器上下载⼤⽂件⾮常有⽤。
语法
wget(选项)(参数)
选项
-a<⽇志⽂件>:在指定的⽇志⽂件中记录资料的执⾏过程;
-A<;后缀名>:指定要下载⽂件的后缀名,多个后缀名之间使⽤逗号进⾏分隔;
-b:进⾏后台的⽅式运⾏wget;
-
B<;连接地址>:设置参考的连接地址的基地地址;
-c:继续执⾏上次终端的任务;
-C<;标志>:设置服务器数据块功能标志on为激活,off为关闭,默认值为on;
-d:调试模式运⾏指令;
-D<;域名列表>:设置顺着的域名列表,域名之间⽤“,”分隔;
-e<;指令>:作为⽂件“.wgetrc”中的⼀部分执⾏指定的指令;
-h:显⽰指令帮助信息;
-i<⽂件>:从指定⽂件获取要下载的URL地址;
-l<⽬录列表>:设置顺着的⽬录列表,多个⽬录⽤“,”分隔;
-L:仅顺着关联的连接;
-r:递归下载⽅式;
-
:⽂件存在时,下载⽂件不覆盖原有⽂件;
-nv:下载时只显⽰更新和出错信息,不显⽰指令的详细执⾏过程;
-q:不显⽰指令执⾏过程;
-nh:不查询主机名称;
-v:显⽰详细执⾏过程;
连接apple id服务器时出错-V:显⽰版本信息;
--passive-:使⽤被动模式PASV连接FTP服务器;
--follow-ftp:从HTML⽂件中下载FTP连接⽂件。
参数
URL:下载指定的URL地址。
实例
使⽤wget下载单个⽂件
wget www.linuxde/testfile.zip
以下的例⼦是从⽹络下载⼀个⽂件并保存在当前⽬录,在下载的过程中会显⽰进度条,包含(下载完成百分⽐,已经下载的字节,当前下载速度,剩余下载时间)。
下载并以不同的⽂件名保存
wget -O wordpress.zip www.linuxde/download.aspx?id=1080
wget默认会以最后⼀个符合/的后⾯的字符来命令,对于动态链接的下载通常⽂件名会不正确。
错误:下⾯的例⼦会下载⼀个⽂件并以名称download.aspx?id=1080保存:
wget www.linuxde/download?id=1
即使下载的⽂件是zip格式,它仍然以download.?id=1080命令。
正确:为了解决这个问题,我们可以使⽤参数-O来指定⼀个⽂件名:
wget -O wordpress.zip www.linuxde/download.aspx?id=1080
wget限速下载
wget --limit-rate=300k www.linuxde/testfile.zip
当你执⾏wget的时候,它默认会占⽤全部可能的宽带下载。但是当你准备下载⼀个⼤⽂件,⽽你还需要下载其它⽂件时就有必要限速了。
使⽤wget断点续传
wget -c www.linuxde/testfile.zip
使⽤wget -c重新启动下载中断的⽂件,对于我们下载⼤⽂件时突然由于⽹络等原因中断⾮常有帮助,我们可以继续接着下载⽽不是重新下载⼀个⽂件。需要继续中断的下载时可以使⽤-c参数。
使⽤wget后台下载
wget -b www.linuxde/testfile.zip
Continuing in background, pid 1840.
Output will be written to `wget-log'.
对于下载⾮常⼤的⽂件的时候,我们可以使⽤参数-b进⾏后台下载,你可以使⽤以下命令来察看下载进度:
tail -f wget-log
伪装代理名称下载
wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" www.linuxde/testfile.zip 有些⽹站能通过根据判断代理名称不是浏览器⽽拒绝你的下载请求。不过你可以通过--user-agent参数伪装。
测试下载链接
当你打算进⾏定时下载,你应该在预定时间测试下载链接是否有效。我们可以增加--spider参数进⾏检查。
wget --spider URL
如果下载链接正确,将会显⽰:
Spider mode enabled. Check if remote file exists.
HTTP request sent, 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
这保证了下载能在预定的时间进⾏,但当你给错了⼀个链接,将会显⽰如下错误:
wget --spider url
Spider mode enabled. Check if remote file exists.
HTTP request sent, 404 Not Found
Remote file does not exist -- broken link
你可以在以下⼏种情况下使⽤--spider参数:
定时下载之前进⾏检查
间隔检测⽹站是否可⽤
检查⽹站页⾯的死链接
增加重试次数
wget --tries=40 URL
如果⽹络有问题或下载⼀个⼤⽂件也有可能失败。wget默认重试20次连接下载⽂件。如果需要,你可以使⽤--tries增加重试次数。
下载多个⽂件
wget -
⾸先,保存⼀份下载链接⽂件:
cat >
url1
url2
url3
url4
接着使⽤这个⽂件和参数-i下载。
镜像⽹站
wget --mirror -p --convert-links -P ./LOCAL URL
下载整个⽹站到本地。
--miror开户镜像下载。
-p下载所有为了html页⾯显⽰正常的⽂件。
--convert-links下载后,转换成本地的链接。
-P ./LOCAL保存所有⽂件和⽬录到本地指定⽬录。
过滤指定格式下载
wget --reject=gif ur
下载⼀个⽹站,但你不希望下载图⽚,可以使⽤这条命令。
把下载信息存⼊⽇志⽂件
wget -o download.log URL
不希望下载信息直接显⽰在终端⽽是在⼀个⽇志⽂件,可以使⽤。
限制总下载⽂件⼤⼩
wget -Q5m -
当你想要下载的⽂件超过5M⽽退出下载,你可以使⽤。注意:这个参数对单个⽂件下载不起作⽤,只能递归下载时才有效。下载指定格式⽂件
wget -r -A.pdf url
可以在以下情况使⽤该功能:
下载⼀个⽹站的所有图⽚。
下载⼀个⽹站的所有视频。
下载⼀个⽹站的所有PDF⽂件。
FTP下载
wget ftp-url
wget --ftp-user=USERNAME --ftp-password=PASSWORD url
可以使⽤wget来完成ftp链接的下载。
使⽤wget匿名ftp下载:
wget ftp-url
使⽤wget⽤户名和密码认证的ftp下载:
wget --ftp-user=USERNAME --ftp-password=PASSWORD url
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论