介绍
这篇文章主要介绍用python爬虫在知乎上提取图片的示例,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
def download_img(自我、数据): ,,,,,,,# #,下载图片 ,,,,,,,for item 拷贝数据(“data"): ,,,,,,,,,,,=,content 项目(“content") ,,,,,,,,,,,pattern =, re.compile (& # 39; & lt; noscript> (. * ?) & lt;/noscript> & # 39;) ,,,,,,,,,,,imgs =, pattern.findall(内容) ,,,,,,,,,,,if len(一个),祝辞,0: ,,,,,,,,,,,,,,,for img 拷贝一个: ,,,,,,,,,,,,,,,,,,,match =, re.search (& # 39; & lt; img  src=https://www.yisu.com/zixun/?. * ?)“‘,img) 下载=match.groups () [0] 下载=下载。替换(“pic3”、“pic2”) #小BUG, pic3的下载不到 打印(“正在下载{}“.format(下载),结束=" ") 试一试: 用requests.Session()年代: img_down s.get(下载): #获取文件名称 文件下载=[download.rindex (“/? + 1:] 内容=img_down.content 打开(“一个/{}”.format(文件),”世行+”)f: #这个地方进行了硬编码 f.write(内容) 打印(“图片下载完成”,结束=癨 n”) 除了例外e: 打印(e.args) 其他: 通过