介绍
这篇文章将为大家详细讲解有Python爬关虫中获取百科段子的案例,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
#,- *安康;编码:utf-8 - * - import urllib import urllib2 , , page =1 时间=url & # 39; http://www.qiushibaike.com/hot/page/& # 39;, +, str(页面) 试一试: ,,,request =, urllib2.Request (url) ,,,response =, urllib2.urlopen(请求) ,,,print response.read () except urllib2.URLError, e: ,,,if hasattr (e,“code"): ,,,,,,,print e.code ,,,if hasattr (e,“reason"): ,,,,,,,print e。原因
line 373年,_read_status拷贝 ,raise BadStatusLine(线) httplib.BadStatusLine: & # 39; & # 39;
#,- *安康;编码:utf-8 - * - import urllib import urllib2 , page =1 时间=url & # 39; http://www.qiushibaike.com/hot/page/& # 39;, +, str(页面) 时间=user_agent & # 39; Mozilla/4.0,(兼容;,MSIE 5.5;, Windows NT) & # 39; headers =,{, & # 39;用户代理# 39;,:,user_agent } 试一试: ,,,request =, urllib2.Request (url, headers =,头) ,,,response =, urllib2.urlopen(请求) ,,,print response.read () except urllib2.URLError, e: ,,,if hasattr (e,“code"): ,,,,,,,print e.code ,,,if hasattr (e,“reason"): ,,,,,,,print e。原因
HTML代码,大家可以运行下代码试试看。在这里运行结果太长就不贴了。
关于Python爬虫中获取百科段子的案例就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看的到。