python爬虫中如何使用url下载器

  介绍

这篇文章给大家分享的是有python爬关虫中如何使用url下载器的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。

下载器的作用就是接受url管理器传递给它的一个url,然后把该网页的内容下载下来.python自带有urllib和urllib2等库(这两个库在python3中合并为urllib),它们的作用就是获取指定的网页内容,不过,在这里我们要使用一个更加简洁好用而且功能更加强大的模块:请求。

请求并非python自带模块,需要安装。关于其具体使用方法请查看以往文章,在此不多做介绍。

下载器接受一个url作为参数,返回值为下载到的网页内容(格式为str)。下面就是一个简单的下载器,其中只有一个简单的函数下载():

& # 39;& # 39;& # 39;   -----------------------------------------------------------------   HtmlDownloader   & # 39;& # 39;& # 39;   class  HtmlDownloader(对象):   ,,,def 下载(自我,,url):   ,,,,,,,print “start  download"   ,,,,,,,if  url  is 没有:   ,,,,,,,,,,,return 没有   ,,,,,,,,,,,print “url  is  None"   ,,,,,,,user_agent =, & # 39; Mozilla/5.0, (Windows  NT  10.0;, Win64;, x64), AppleWebKit/537.36, (KHTML, like 壁虎),Chrome/63.0.3239.108  Safari/537.36 & # 39;   ,,,,,,,headers =,{& # 39;用户代理# 39;:user_agent}   ,,,,,,,print “start  requests"   ,,,,,,,r =, requests.get (url,头=标题)   ,,,,,,,#判断响应状态   ,,,,,,,if  r.status_code ==, 200:   ,,,,,,,,,,,r.encoding =, & # 39; utf - 8 # 39;   ,,,,,,,,,,,print “该页面下载成功! {}“.format (url)   ,,,,,,,,,,,return  r.text   ,,,,,,,其他的:   ,,,,,,,,,,,print “该页面下载失败! {}“.format (url)   ,,,,,,,return 没有

在请求请求中设置用户代理的目的是伪装成浏览器,这是一只优秀的爬虫应该有的觉悟。

感谢各位的阅读!关于python爬虫中如何使用url下载器就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!

python爬虫中如何使用url下载器