部署scrapy爬蟲

2022-01-11 06:33:35 字數 3217 閱讀 4764

pip install scrapyd

1、新建資料夾,用來放之後的專案檔案

在部署的專案資料夾裡開啟乙個服務

cmd管理員執行:

spiderd

預設的訪問位址 是 http://localhost:6800/

如果啟動成功,可以看到jobs裡面的**內容即是要部署上去的scrapy服務,現在還沒部署

2、專案目錄裡,cmd輸入 scrapyd  執行, 執行完成後新建乙個dbs空資料夾, 用來存放爬蟲專案的資料檔案

3、安裝scrapyd-client,這是乙個類似打包工具,把我們的scrapy程式打包成egg後扔給scrapyd, 這是乙個打包和部署的工具

pip install scrapy-client==1.1.0

執行命令, 安裝完成後, 在python環境的scripts中會出現scrapyd-deploy無字尾檔案, 這個scrapyd-deploy無字尾檔案是啟動檔案, 在linux系統下可以執行, 在windows下是不能執行的, 所以我們需要編輯一下使其在windows可以執行

c:\program files (x86)\python36-32\scripts中,新建乙個scrapyd-deploy.bat空白檔案,兩個內容之間切記乙個空格

@echo off

"c:\program files (x86)\python36-32\python.exe""

c:\program files (x86)\python36-32\scripts\scrapyd-deploy

" %1 %2 %3 %4 %5 %6 %7 %8 %9

4、進入到你的爬蟲專案中, 進入帶有scrapy.cfg檔案的目錄, 執行scrapyd-deploy, 測試scrapyd-deploy是否可以執行, 如果出現以下提示則正常:

unknown target: default

5、開啟爬蟲專案中的scrapy.cfg檔案, 這個檔案就是給scrapyd-deploy使用的將url這行**解掉注釋, 並且設定你的部署名稱 

[settings]

default = huawei.settings

[deploy:hw]  # hw 自定義

project = huawei  # 專案名字

6、再次執行scrapyd-deploy -l啟動服務, 可以看到設定的名稱

7、開始打包前, 執行乙個命令 scrapy list, 這個命令執行成功說明可以打包了, 如果沒執行成功說明還有工作沒完成

注意執行 scrapy list命令的時候很有可能出現錯誤, 如果是python無法找到scrapy專案, 需要再scrapy專案裡的settings.py配置檔案裡設定成python可識別路徑

# 將當前爬蟲專案的setting.py增加

import sys

import os

base_dir = os.path.dirname(os.path.dirname(os.path.abspath(__file__)))

sys.path.insert(0, os.path.join(base_dir, 'huawei'))

8、到此我們就可以開始打包scrapy專案到scrapyd了, 用命令結合scrapy專案中的scrapy.cfg檔案設定來打包

執行打包命令: scrapyd-deploy 部署名稱 -p 專案名稱

如: scrapyd-deploy hw -p huawei

部署成功就可以去網頁中127.0.0.1:6800 檢視爬蟲執行狀態

9、執行爬蟲

命令:

示例:curl http://localhost:6800/schedule.json -dproject=huawei -d spider=hw

其他:停止爬蟲

爬蟲執行成功後,終端會給出該爬蟲的 jobid 值,表示該爬蟲,後面停止爬蟲需要提供jobid

http://localhost:6800/jobs  可以檢視jobid

curl http://localhost:6800/listjobs.json?project=huawei  可以獲取當前jobid

切記:停止後如果**需要修改,記得重新部署再執行。

刪除scrapy專案

注意:一般刪除scrapy專案,需要先執行命令停止專案下在遠行的爬蟲

curl http://localhost:6800/delproject.json -d project=scrapy專案名稱

常用介面:

排程爬蟲

# 帶上引數

取消curl http://localhost:6800/cancel.json -d project=myproject -d job=jobid

列出專案

列出版本

列出爬蟲

列出job

刪除版本

刪除專案

scrapy爬蟲部署

在開始之前先要吐槽一下csdn,昨晚懷著激動得心情寫下了我人生中的第一篇博文,今天審核通過後發現所有的都不見了,瞬間就不開心了。所以不得不又申請了的賬號,重新開始。前段時間一直研究通用爬蟲,做的過程中也是各種問題,不過好在磕磕絆絆搞出點眉目,中間學到了不少東西,感覺網際網路真的好神奇。但是接下來問題...

scrapy爬蟲框架

作者經過幾周的python爬蟲實踐之後,深入學習了一下scrapy這個爬蟲框架,現將一些基本知識和 總結整理一下,以備後查。2.scrapy的命令列使用 這部分網上很多部落格都有總結,不需要背,理解會用主要的命令 startproject crawl fetch list genspider.即可,...

scrapy 爬蟲框架

1.安裝 公升級pip版本 pip install upgrade pip 通過pip安裝scrapy框架 pip install scrapy 安裝成功 只執行scrapy 進行測試是否安裝成功 2.scrapy startproject 爬蟲專案名稱 執行此命令,可以生成乙個爬蟲專案 會預先生成...