Scrapy搭建爬蟲專案

2021-09-11 10:52:51 字數 806 閱讀 6020

1.進入到conda環境中,執行conda create --name scrapy_env python=3.6.5 scrapy建立乙個關於scrapy專案的虛擬環境。(只需要建立乙個scrapy的虛擬環境就可以,不需要每次都建立)

2.執行conda activate scrapy_env切換到 scrapy_env這個虛擬環境當中

3.執行命令cd +爬蟲存放的資料夾位置(如果不指定爬蟲專案存放的位置,則缺省會將爬蟲專案建立在administrator資料夾當中)

4.執行命令 scrapy startproject +爬蟲專案名稱

5.執行命令:cd baiduspider 進入到爬蟲專案中

執行命令 scrapy genspider +爬蟲的名稱+爬取要爬取的網域名稱

6.scrapy專案的目錄結構就是基於scrapy中的模本建立出來的。

7.爬蟲專案的目錄結構

Mac python 搭建scrapy爬蟲框架

1 在mac上安裝好python3,以及相關元件 2 進入python3的虛擬環境 workon env3.7 3 安裝scrapy pip install scrapy 4 建立乙個scrapy專案 4.1選擇路徑專案路徑 cd users panstark pycharmprojects 4.2...

如何使用Scrapy 搭建乙個爬蟲專案

scrapy是適用於python的乙個快速 高層次的螢幕抓取和web抓取框架,用於抓取web站點並從頁面中提取結構化的資料。scrapy用途廣泛,可以用於資料探勘 監測和自動化測試。1 和requests庫對比 requests scrapy 功能庫框架 併發效能不足,效能較差 併發性好,效能較高 ...

Scrapy建立爬蟲專案步驟

1.開啟cmd命令列工具,輸入 scrapy startproject 專案名稱 2.使用pycharm開啟專案,檢視專案目錄 3.建立爬蟲,開啟cmd,cd命令進入到爬蟲專案資料夾,輸入 scrapy genspider 爬蟲檔名 爬蟲基礎網域名稱 4.開啟pycharm,發現 spider 目錄...