介绍
这篇文章给大家分享的是有python爬关虫中如何使用url下载器的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。
下载器的作用就是接受url管理器传递给它的一个url,然后把该网页的内容下载下来.python自带有urllib和urllib2等库(这两个库在python3中合并为urllib),它们的作用就是获取指定的网页内容,不过,在这里我们要使用一个更加简洁好用而且功能更加强大的模块:请求。
请求并非python自带模块,需要安装。关于其具体使用方法请查看以往文章,在此不多做介绍。
下载器接受一个url作为参数,返回值为下载到的网页内容(格式为str)。下面就是一个简单的下载器,其中只有一个简单的函数下载():
& # 39;& # 39;& # 39; ----------------------------------------------------------------- HtmlDownloader & # 39;& # 39;& # 39; class HtmlDownloader(对象): ,,,def 下载(自我,,url): ,,,,,,,print “start download" ,,,,,,,if url is 没有: ,,,,,,,,,,,return 没有 ,,,,,,,,,,,print “url is None" ,,,,,,,user_agent =, & # 39; Mozilla/5.0, (Windows NT 10.0;, Win64;, x64), AppleWebKit/537.36, (KHTML, like 壁虎),Chrome/63.0.3239.108 Safari/537.36 & # 39; ,,,,,,,headers =,{& # 39;用户代理# 39;:user_agent} ,,,,,,,print “start requests" ,,,,,,,r =, requests.get (url,头=标题) ,,,,,,,#判断响应状态 ,,,,,,,if r.status_code ==, 200: ,,,,,,,,,,,r.encoding =, & # 39; utf - 8 # 39; ,,,,,,,,,,,print “该页面下载成功! {}“.format (url) ,,,,,,,,,,,return r.text ,,,,,,,其他的: ,,,,,,,,,,,print “该页面下载失败! {}“.format (url) ,,,,,,,return 没有
在请求请求中设置用户代理的目的是伪装成浏览器,这是一只优秀的爬虫应该有的觉悟。
感谢各位的阅读!关于python爬虫中如何使用url下载器就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!