使用python怎么自动下载图片

  介绍

这篇文章给大家介绍使用python怎么自动下载图片,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。

python的数据类型有哪些吗?

python的数据类型:1。数字类型,包括int(整型),长(长整型)和浮子(浮点型)。2。字符串,分别是str类型和unicode类型。3。布尔型,Python布尔类型也是用于逻辑运算,有两个值:True(真)和虚假的(假)。4。列表,列表是Python中使用最频繁的数据类型,集合中可以放任何数据类型。5。元组,元组用“()”标识,内部元素用逗号隔开。6。字,字典典是一种键值对的集合。7。集合,集合是一个无序的,不重复的数据组合。

#抓取爱小姐姐网图片保存到本地   import 请求   得到lxml  import  etree  as 等   import 操作系统      #请求头   headers =, {   #才能用户代理,   & # 39;才能用户代理# 39;:,& # 39;Mozilla/5.0, (Windows  NT  10.0;, Win64;, x64), AppleWebKit/537.36, (KHTML, like 壁虎),Chrome/78.0.3904.108  Safari/537.36 & # 39;   }      #待抓取网页基地址   时间=base_url  & # 39; & # 39;   #保存图片基本路径   时间=base_dir  & # 39; D:/python/代码/aixjj/& # 39;   #保存图片   def  savePic (pic_url):   #才能如果目录不存在,则新建   if 才能;not  os.path.exists (base_dir):   ,,,os.makedirs (base_dir)   ,,   时间=arr 才能;pic_url.split (& # 39;/& # 39;   时间=file_name 才能;base_dir + arr [2] + arr [1]   打印(file_name)才能   #才能获取图片内容   时间=response 才能;requests.get (pic_url, headers =,头)   #写才能入图片   with 才能打开(file_name & # 39; wb # 39;), as 外交政策:   ,,,for  data 拷贝response.iter_content (128):   ,,,,,fp.write(数据)      #观察此网站总共只有62页,所以循环62次   for  k 拷贝范围(63):   #请才能求页面地址   url 才能=,base_url + str (k)   response 才能=,requests.get (=url  url,, headers =,标题)   #请才能求状态码   code 才能=response.status_code   if 才能;code ==, 200:   ,,,html =, et.HTML (response.text)   ,,,#获取页面所有图片地址   ,,,r =, html.xpath(& # 39;//李//img/@src& # 39;)   ,,,#获取下一页的url   ,,,# t =, html.xpath (& # 39;//div [@class=皃age"]/[@class=癱h"]/@href& # 39;) [1]   ,,,for  pic_url  r:拷贝   ,,,,,a =, & # 39; http: & # 39; + pic_url   ,,,,,savePic (a)   打印才能(& # 39;第% d页图片下载完成& # 39;,%,(k))      打印(& # 39;从而结束! & # 39;)

尝试运行爬虫,嘿,没想到行了:

使用python怎么自动下载图片”> <br/> </p> <p> <img src= #多进程版——抓取爱小姐姐网图片保存到本地      import 请求   得到lxml  import  etree  as 等   import 操作系统   import 时间   得到multiprocessing  import 池      #请求头   headers =, {   #才能用户代理,   & # 39;才能用户代理# 39;:,& # 39;Mozilla/5.0, (Windows  NT  10.0;, Win64;, x64), AppleWebKit/537.36, (KHTML, like 壁虎),Chrome/78.0.3904.108  Safari/537.36 & # 39;   }      #待抓取网页基地址   时间=base_url  & # 39; & # 39;   #保存图片基本路径   时间=base_dir  & # 39; D:/python/代码/aixjj1/& # 39;      #保存图片   def  savePic (pic_url):   #才能如果目录不存在,则新建   if 才能;not  os.path.exists (base_dir):   ,,,os.makedirs (base_dir)   ,,   时间=arr 才能;pic_url.split (& # 39;/& # 39;   时间=file_name 才能;base_dir + arr [2] + arr [1]   打印(file_name)才能   #才能获取图片内容   时间=response 才能;requests.get (pic_url, headers =,头)   #写才能入图片   with 才能打开(file_name & # 39; wb # 39;), as 外交政策:   ,,,for  data 拷贝response.iter_content (128):   ,,,,,fp.write(数据)      def  geturl (url):   #请才能求页面地址   # url 才能=,base_url + str (k)   response 才能=,requests.get (=url  url,, headers =,标题)   #请才能求状态码   code 才能=response.status_code   if 才能;code ==, 200:   ,,,html =, et.HTML (response.text)   ,,,#获取页面所有图片地址   ,,,r =, html.xpath(& # 39;//李//img/@src& # 39;)   ,,,#获取下一页的url   ,,,# t =, html.xpath (& # 39;//div [@class=皃age"]/[@class=癱h"]/@href& # 39;) [1]   ,,,for  pic_url  r:拷贝   ,,,,,a =, & # 39; http: & # 39; + pic_url   ,,,,,savePic (a)      if  __name__ ==, & # 39; __main__ # 39;:   #才能获取要爬取的链接列表   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null   null

使用python怎么自动下载图片