scrapy使用筆記

2021-07-26 19:33:32 字數 471 閱讀 9976

我是用anaconda安裝的scrapy

安裝完成,使用scrapy 建立爬蟲工程,之後把工程資料夾整個移動到ecipse,配置下run configure就可以執行了

初步了解了下xpath語法,會簡單地使用xpath摳取網頁裡面的內容

例子: //td[@class='hello']選取所有class標籤為hello的td節點

//td[1] 選取第乙個td節點

當然也可以巢狀搜尋

例子:parent = response.xpath('//td[@class="test"]')

child = parent.xpath('.//div[1]/text()')

記得使用extract()方法把結果轉換為list

學習了結合item和pipeline處理爬取到的資料

這個pipeline是要在setting文件裡面宣告的,前面是類名,後面是優先順序,很有趣

收工!

scrapy使用筆記

1.先裝python環境 2.安裝pip 3.使用pip安裝 pip install lxml 3.4.2 有報錯提示 考慮到是網路不穩定的問題,這時我們用國內的映象源來加速 用pip安裝依賴包時預設訪問,但是經常出現不穩定以及訪問速度非常慢的情況,國內廠商提供的pipy映象目前可用的有 參考文章 ...

Scrapy框架 使用筆記

本文記錄scrapy基本使用方法,不涉及框架底層原理說明。建立專案 scrapy startproject 進入專案 cd 建立爬蟲 scrapy genspider 爬蟲名 com 爬取域 生成檔案 scrapy crawl o json 生成某種型別的檔案 執行爬蟲 scrapy crawl 列...

Vim 使用筆記

set hlsearch set nohlsearch 搜尋後清除上次的加亮 nohl nohlsearch 拷貝 很有用的一句話,規定了格式選項,讓它換行不自動空格 set formatoptions tcrqn set fo r set noautoindent 再 shift insert 正...