python数据爬虫——对爬取的数据进行保存(二)

前一篇文章介绍了如何抓取岗位信息,这一篇为大家带来如何把抓取的数据进行一些简单的处理,以及保存。
文章链接:https://blog.csdn.net/qq_31848185/article/details/88967352

先回顾一下源代码,要是对代码有不清楚的地方可以去看一下上方链接的文章:

运行上方的代码,我们可以发现多了很多”[ ]”,我们来对代码进行修改一下,只需要在获取的路径的后面加上[0],就可以将结果的括 消除掉。

试试运行结果:

数据分析师 四川众合智控科技有限公司 成都-金牛区 1.5-2万/月 数据分析师 深圳市宇轩 络技术有限公司武汉分… 武汉-洪山区
4.5-7千/月 数据分析师 大连颢源信息咨询有限公司 大连-中山区 6-8千/月 数据分析师 江苏物联 络科技发展有限公司 南京-雨花台区 1-1.5万/月 策略数据分析师(J10263) 会找房(北京) 络技术有限公司 北京-海淀区 6-8千/月 数据分析师(游戏)
上海绿岸 络科技股份有限公司 上海-宝山区 1-1.5万/月 应届毕业生可无经验带薪学习 直招数据分析师 北京瑞益信息咨询有限公司
北京-朝阳区 0.8-1万/月 GIS数据分析师 凯普奇软件(北京)有限公司 北京 0.6-1万/月 数据分析师(日语) IBM China
大连 0.8-1万/月 数据分析师(3776) 完美世界(北京)总部/完美时空 北京 1-1.5万/月

在运行的结果中已经没有括 啦,我们接着开始写上我们的数据保存代码,我们这里把数据保存为CSV文件。

我们来看看完整的代码,注意保存路径要修改成自己本地的路径哦。

输出结果:

python数据爬虫——对爬取的数据进行保存(二)
数据都保存下来,有没有很开心~大家快动手试试吧!
找找自己喜欢的 站,进行试验吧!记住一定要加上时间间隔time.sleep,文明爬取~

数据爬取多了,发现程序意外终止2333!
检查原因,原来是抓取到的数据为空,大家只需要把[0],这个格式限制取消掉就行了。

后面为大家带来如何爬取二级页面的方法。尽请关注!喜欢的点个赞哦!

文章知识点与官方知识档案匹配,可进一步学习相关知识Python入门技能树数据分析CSV文件211385 人正在系统学习中

声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2019年3月2日
下一篇 2019年3月2日

相关推荐