python爬蟲學習(七)

2021-10-06 04:53:48 字數 2331 閱讀 6191

from selenium.webdriver.common.keys import keys

browser = webdriver.chrome(

)browser.get(

'')# 1、在搜尋框中輸入"selenium"

browser.find_element_by_id(

'kw'

).send_keys(

'趙麗穎'

)# 2、輸入空格

browser.find_element_by_id(

'kw'

).send_keys(keys.space)

# 3、ctrl+a 模擬全選

browser.find_element_by_id(

'kw'

).send_keys(keys.control,

'a')

# 4、ctrl+c 模擬複製

browser.find_element_by_id(

'kw'

).send_keys(keys.control,

'c')

# 5、ctrl+v 模擬貼上

browser.find_element_by_id(

'kw'

).send_keys(keys.control,

'v')

# 6、輸入回車,代替 搜尋 按鈕

browser.find_element_by_id(

'kw'

).send_keys(keys.enter)

from selenium import webdriver

# 匯入滑鼠事件類

from selenium.webdriver import actionchains

driver = webdriver.chrome(

)driver.get(

'')# 移動到 設定,perform()是真正執行操作,必須有

element = driver.find_element_by_xpath(

'//*[@id="u1"]/a[8]'

)actionchains(driver)

.move_to_element(element)

.perform(

)# 單擊,彈出的ajax元素,根據鏈結節點的文字內容查詢

driver.find_element_by_link_text(

'高階搜尋'

).click(

)

【1】執行3條命令,建立專案基本結構

【2】完成爬蟲檔案: spiders/baidu.py

【3】完成settings.py配置

3.1) robotstxt_obey =

false

3.2) default_request_headers =

【4】執行爬蟲

4.1) 建立run.py(和scrapy.cfg同路徑)

【5】執行 run.py 執行爬蟲

【1】使用selenium+瀏覽器 獲取有道翻譯結果

【2】使用selenium+瀏覽器 登入網易qq郵箱 : https:

【3】使用selenium+瀏覽器 登入網易163郵箱 : https:

【4】熟記scrapy的五大元件,以及工作流程,能夠描述的很清楚

Python爬蟲學習筆記 七

json是輕量級的資料互動格式 給使用者看的,展示資料的 簡單理解就是乙個字點或者list 書寫格式 不能寫注釋 key value 必須都是雙引號 末尾不能寫逗號 整個檔案有且僅有乙個或 字串 loads coding gbk import json 1 字串和dic list轉換 字串 json...

Python爬蟲學習(七)Scrapy爬蟲框架詳解

engine從spider處獲得爬取請求 request engine將爬取請求 給scheduler,用於排程 engine從scheduler處獲得下乙個要爬取的請求 engine將爬取請求通過中介軟體傳送給 爬取網頁後,形成響應 response 通過中介軟體發給engine engine將收...

爬蟲學習日記(七)

今天上午繼續在弄whlc的東西,是環境的問題。關於這個是因為我之前研究過這個 確實是不能搜尋超過乙個月,會報乙個錯,所以當時間超過1個月是,我會返回乙個noresult的exception,我以為這是正確的。但是站在客戶的角度講,他可能會需要搜尋到兩個月,三個月的的資訊,而這些資訊是存在的,只要在 ...