介绍
这篇文章给大家分享的是有关如何用python爬虫下载图片的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。
<强> 强> <强> 强>
url中的指数
ctrl + F)搜索objURL url了。
<强> 强> <强> 强>
objURL, hoverURL…但是我们用的是objURL
<强> 强> <强> 强> <强> 强>
url代码:
#,获取图片url连接 def get_parse_page (pn,名称): ,,,for 小姐:拷贝范围(int (pn)): ,,,,,,,# 1。获取网页 ,,,,,,,印刷(& # 39;正在获取第{}页& # 39;.format (i + 1)) ,,,,,,,,号百度图片首页的url ,,,,,,,#,名字是你要搜索的关键词 ,,,,,,,#,pn是你想下载的页数 ,,,,,,,url =, & # 39; https://image.baidu.com/search/flip?tn=baiduimage&, ie=utf-8&词=% s& pn=% d # 39;, %(名字,我* 20) ,,,,,,,headers =, { ,,,,,,,,,,,& # 39;用户代理# 39;:,& # 39;Mozilla/5.0, (Windows NT 10.0;, WOW64), AppleWebKit/537.36, (KHTML, like 壁虎),Chrome/53.0.2785.104 Safari/537.36,核心/1.53.4843.400 QQBrowser/9.7.13021.400& # 39;} ,,,,,,,#,发送请求,获取相应的 ,,,,,,,response =, requests.get (url,头=标题) ,,,,,,,html =, response.content.decode () ,,,,,,,#,打印(html) ,,,,,,,# 2。正则表达式解析网页 ,,,,,,,,号“objURL":“https://cache.yisu.com/upload/information/20201110/129/1823.jpg" ,,,,,,,results =, re.findall (& # 39;“objURL":“(. * ?)“, & # 39;,, html), #,返回一个列的表 ,,,,,,,#,根据获取到的图片链接,把图片保存到本地 ,,,,,,,save_to_txt(结果,,名字,,i)
<强> 强> <强> 强>
#,保存图片到本地 def save_to_txt(名字,结果,还以为,我): ,,,j =0 ,,,#,在当目录下创建文件夹 ,,,if not os.path.exists(& # 39;。/& # 39;, +,名称): ,,,,,,,os.makedirs(& # 39;。/& # 39;, +,名称) ,,,#,下载图片 ,,,for result 结果:拷贝 ,,,,,,,印刷(& # 39;正在保存第{}个& # 39;.format (j)) ,,,,,,,试一试: ,,,,,,,,,,,pic =, requests.get(因此,超时=10) ,,,,,,,,,,,time . sleep (1) ,,,,,,,除了: ,,,,,,,,,,,印刷(& # 39;当前图片无法下载& # 39;) ,,,,,,,,,,,j +=1 ,,,,,,,,,,,继续 ,,,,,,,#,可忽略,这段代码有错误 ,,,,,,,#,file_name =, result.split (& # 39;/& # 39; ,,,,,,,#,file_name =, file_name (len (file_name),安康;1] ,,,,,,,#,打印(file_name) ,,,,,,# ,,,,,,,#,最终获得=,re.search (& # 39; (png | jpg | jpeg | gif) $ & # 39;,, file_name) ,,,,,,,#,if 最终获得==,没有: ,,,,,,,#,,,,,file_name =, file_name +, & # 39; jpg # 39; ,,,,,,,#,把图片保存到文件夹 ,,,,,,,file_full_name =, & # 39;。/& # 39;, +, name +, & # 39;/& # 39;, +, str (i), +, & # 39; & # 39;, +, str (j), +, & # 39; jpg # 39; ,,,,,,,with 开放(file_full_name, & # 39; wb # 39;), as f: ,,,,,,,,,,,f.write (pic.content) ,,,,,,,j +=, 1
感谢各位的阅读!关于如何用python爬虫下载图片就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!