Python3爬虫利器Scrapyd API如何安装

  介绍

Python3爬虫利器Scrapyd API如何安装?这个问题可能是我们日常学习或工作经常见到的。希望通过这个问题能让你收获颇深。下面是小编给大家带来的参考内容,让我们一起来看看吧!

安装好了Scrapyd之后,我们可以直接请求它提供的API来获取当前主机的Scrapy任务运行状况。比如,某台主机的IP为192.168.1.1,则可以直接运行如下命令获取当前主机的所有Scrapy项目:

curl  http://localhost: 6800/listprojects。json

运行结果如下:

{“status":“ok",,“projects":, (“myproject",,“otherproject"]}

返回结果是json字符串,通过解析这个字符串,便可以得到当前主机的所有项目。

但是用这种方式来获取任务状态还是有点烦琐,所以Scrapyd API就为它做了一层封装,下面我们来看下它的安装方式。

<强> 1。相关链接

GitHub: https://pypi.python.org/pypi/python-scrapyd-api/

PyPI: https://pypi.python.org/pypi/python-scrapyd-api

官方文档:http://python-scrapyd-api.readthedocs.io/en/latest/usage.html

<强> 2。pip安装

这里推荐使用脉冲安装,命令如下:

pip  install  python-scrapyd-api

<强> 3。验证安装

安装完成之后,便可以使用Python来获取主机状态了,所以上面的操作便可以用Python代码实现:

得到scrapyd_api  import  ScrapydAPI   时间=scrapyd  ScrapydAPI (& # 39; http://localhost: 6800 & # 39;)   print (scrapyd.list_projects ())

运行结果如下:

(“myproject",,“otherproject"]

这样我们便可以用Python直接来获取各个主机上Scrapy任务的运行状态了。

感谢各位的阅读!看完上述内容,你们对Python3爬虫利器Scrapyd API如何安装大概了解了吗?希望文章内容对大家有所帮助。如果想了解更多相关文章内容,欢迎关注行业资讯频道。

Python3爬虫利器Scrapyd API如何安装