介绍
这期内容当中小编将会给大家带来有关利用请求库怎么制作一个Python爬虫,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。
# !/usr/地方/env Python #,编码:utf - 8 import 请求 #下面开始介绍请求的使用,环境语言是python3,使用下面的网址作为参考 # http://www.sse.com.cn/market/bonddata/data/tb/request_param =, {& # 39; jsonCallBack& # 39;:, & # 39; jsonpCallback6588& # 39;, ,,& # 39;isPagination& # 39;:, & # 39;真正的# 39; ,,& # 39;sqlId& # 39;:, & # 39; COMMON_BOND_XXPL_ZQXX_L& # 39; ,,& # 39;BONDTYPE& # 39;:, & # 39;地×××府债券& # 39;, ,,& # 39;pageHelp.pageSize& # 39;:, & # 39; 25 & # 39; ,,& # 39;pageHelp.pageNo& # 39;:, & # 39; 2 & # 39; ,,& # 39;pageHelp.beginPage& # 39;:, & # 39; 2 & # 39; ,,& # 39;pageHelp.cacheSize& # 39;:, & # 39; 1 & # 39; ,,& # 39;pageHelp.endPage& # 39;:, & # 39; 21 & # 39;} 时间=user_agent & # 39; Mozilla/5.0, (Windows NT 10.0;, Win64;, x64), AppleWebKit/537.36, (KHTML, like 壁虎),Chrome/65.0.3325.146 Safari/537.36 & # 39; 时间=referer & # 39; http://www.sse.com.cn/market/bonddata/data/ltb/& # 39; #设置标头 headers =,{& # 39;用户代理# 39;:,user_agent,, & # 39;推荐人# 39;:,推荐人} #设置代理 proxy =, { ,“http":“http://113.214.13.1:8000" } #,需要请求的URL地址 时间=request_url & # 39; http://query.sse.com.cn/commonQuery.do?& # 39; #设置请求地址 response =, requests.get (request_url,标题=头,,=代理,代理,params=request_param); 打印(response.status_code) #文本响应内容 打印(response.text) # json格式响应内容 print (response.json ()) #二进制响应内容 打印(response.content) #原始格式 打印(response.raw)
上述就是小编为大家分享的利用请求库怎么制作一个Python爬虫了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注行业资讯频道。