Scrapyd简易食用教程
Scrapyd安装:
1 |
|
打开命令行,输入
1 |
|
访问 127.0.0.1:6800 即可看到web界面
部署scrapy项目
在scrapy项目目录下,有一个scrapy.cfg的配置文件:
1 |
|
test——项目名 (随便)
project 工程名 (你创建 项目时使用的名字)
windows环境下配置:
到python虚拟环境下找到 Scripts/scrapyd-deploy
新建scrapyd-deploy.bat
这里路径需要自己修改
1 |
|
然后,进入到我们爬虫的根目录,运行scrapyd-deploy
把爬虫项目上传到服务端
准备工作:查看当前目录下的 spider
1 |
|
- 执行打包命令
scrapyd-deploy 部署名称 -p 项目名称
如scrapyd-deploy bushu -p test
可以去网页中127.0.0.1:6800查看爬虫运行状态 - 停止爬虫
curl http://localhost:6800/cancel.json -d project=scrapy项目名称 -d job=运行ID
- 删除scrapy项目
curl http://localhost:6800/delproject.json -d project=scrapy项目名称 - 查看有多少个scrapy项目在api中
curl http://localhost:6800/listprojects.json - 查看指定的scrapy项目中有多少个爬虫
curl http://localhost:6800/listspiders.json?project=scrapy项目名称
总结几个请求url
1 |
|
Scrapyd简易食用教程
https://hybpjx.cn/2024/12/02/Scrapyd简易食用教程/