提高scrapy爬取效率配置

2022-05-17 02:28:07 字數 446 閱讀 4698

#增加併發:

預設scrapy開啟的併發執行緒為32個,可以適當進行增加。在settings配置檔案中修改concurrent_requests = 100值為100,併發設定成了為100。

#降低日誌級別:

在執行scrapy時,會有大量日誌資訊的輸出,為了減少cpu的使用率。可以設定log輸出資訊為info或者error即可。在配置檔案中編寫:log_level = 『info』

#禁止cookie:

如果不是真的需要cookie,則在scrapy爬取資料時可以禁止cookie從而減少cpu的使用率,提公升爬取效率。在配置檔案中編寫:cookies_enabled = false

#禁止重試:

對失敗的http進行重新請求(重試)會減慢爬取速度,因此可以禁止重試。在配置檔案中編寫:retry_enabled = false

scrapy爬取效率提公升配置

增加併發 預設scrapy開啟的併發執行緒為32個,可以適當進行增加。在settings配置檔案中修改concurrent requests 100值為100,併發設定成了為100。降低日誌級別 在執行scrapy時,會有大量日誌資訊的輸出,為了減少cpu的使用率。可以設定log輸出資訊為info或...

02 27 提高scrapy爬取效率的方法

1 增加併發 增加併發執行緒數 scrapy預設開啟的執行緒為32個,可以適當增加。在setting檔案中修改為 1002 降低日誌級別 在執行scrapy時會有大量日誌資訊輸出,為了減少日誌資訊的輸出,降低cpu的使用率,可以設定 輸出錯誤日誌 log level error 或者 info 3 ...

提公升scrapy的爬取效率

增加併發 預設scrapy開啟的併發執行緒為32個,可以適當進行增加。在settings配置檔案中修改concurrent requests 100值為100,併發設定成了為100。降低日誌級別 在執行scrapy時,會有大量日誌資訊的輸出,為了減少cpu的使用率。可以設定log輸出資訊為info或...