前言
如何在linux上或者是mac上简单使用爬虫或者是 页下载工具呢,常规的我们肯定是要去下载一个软件下来使用啦,可怜的这两个系统总是找不到相应的工具,这时wget出来帮助你啦!!!wget本身是拿来下载东西的,但远不止那么强大,是一把强大利器。
使用指南
- 快速上手(整个bootstrap 页全被你抓取下来了~_~)
-
参数说明
-c:断点续传
-r:递归下载
-np:递归下载时不搜索上层目录
-nd:递归下载时不创建一层一层的目录,把所有文件下载当前文件夹中
-p:下载 页所需要的所有文件(图片,样式,js文件等)
-H:当递归时是转到外部主机下载图片或链接
-k:将绝对链接转换为相对链接,这样就可以在本地脱机浏览 页了
文章知识点与官方知识档案匹配,可进一步学习相关知识Linux技能树Linux实用命令cURL和wget命令3919 人正在系统学习中
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!