Scrapyd简易食用教程
Scrapyd安装:
1 | #服务端 |
打开命令行,输入
1 | scrapyd |
访问 127.0.0.1:6800 即可看到web界面
部署scrapy项目
在scrapy项目目录下,有一个scrapy.cfg的配置文件:
1 | # Automatically created by: scrapy startproject |
test——项目名 (随便)
project 工程名 (你创建 项目时使用的名字)
windows环境下配置:
到python虚拟环境下找到 Scripts/scrapyd-deploy
新建scrapyd-deploy.bat
这里路径需要自己修改
1 | "E:\python_venv\envTest\Scripts\python.exe" "E:\python_venv\envTest\Scripts\scrapyd-deploy" %1 %2 %3 %4 %5 %6 %7 %8 %9 |
然后,进入到我们爬虫的根目录,运行scrapyd-deploy
把爬虫项目上传到服务端
准备工作:查看当前目录下的 spider
1 | (base) $ scrapy list |
- 执行打包命令
scrapyd-deploy 部署名称 -p 项目名称
如scrapyd-deploy bushu -p test
可以去网页中127.0.0.1:6800查看爬虫运行状态 - 停止爬虫
curl http://localhost:6800/cancel.json -d project=scrapy项目名称 -d job=运行ID
- 删除scrapy项目
curl http://localhost:6800/delproject.json -d project=scrapy项目名称 - 查看有多少个scrapy项目在api中
curl http://localhost:6800/listprojects.json - 查看指定的scrapy项目中有多少个爬虫
curl http://localhost:6800/listspiders.json?project=scrapy项目名称
总结几个请求url
1 | 1、获取状态 |
- 标题: Scrapyd简易食用教程
- 作者: hybpjx
- 创建于 : 2024-12-02 11:07:00
- 更新于 : 2024-12-02 11:36:35
- 链接: http://hybpjx.github.io/2024/12/02/Scrapyd简易食用教程/
- 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
评论