Python版Selenium庫簡單介紹

2022-07-25 21:39:18 字數 1098 閱讀 3519

在我們操作電腦的時候,我們經常會在網頁上進行一些重複性的工作,例如web測試,賬號註冊,資料獲取。當我們不想做這些重複性的操作時,我們就可以寫程式讓電腦幫我們去處理這些事情。

selenium庫是乙個 web 應用的自動化框架。selenium庫可以通過瀏覽器驅動對瀏覽器進行操作(點選按鈕),然後瀏覽器也通過瀏覽器驅動把操作之後的資料(點選成功)返回給selenium庫。如下圖:

這樣的話就可以寫python程式呼叫selenium庫來模擬人操作瀏覽器的過程,從而實現自動化。

安裝selenium庫,selenium庫有多個語言的版本。python版的selenium庫安裝

在程式中把搜尋操作分解成:

from selenium import webdriver

# 建立 webdriver 物件,指明使用chrome瀏覽器驅動

wd = webdriver.chrome(r'd:\webdrivers\chromedriver.exe')

# 呼叫webdriver 物件的get方法 可以讓瀏覽器開啟指定**

wd.get('')

# 根據id選擇元素,返回的就是該元素對應的webelement物件

element = wd.find_element_by_id('kw')

# 通過該 webelement物件,就可以對頁面元素進行操作了

element = wd.find_element_by_id('su')

element.click()

# 退出

# wd.quit()

selenium庫使用的核心在在網頁中定位篩選出需要的元素。學習參考鏈結

Python 爬蟲利器 Selenium

前面幾節,我們學習了用 requests 構造頁面請求來爬取靜態網頁中的資訊以及通過 requests 構造 ajax 請求直接獲取返回的 json 資訊。還記得前幾節,我們在構造請求時會給請求加上瀏覽器 headers,目的就是為了讓我們的請求模擬瀏覽器的行為,防止被 的反爬蟲策略限制。今天要介紹...

Python 爬蟲利器 Selenium

前面幾節,我們學習了用 requests 構造頁面請求來爬取靜態網頁中的資訊以及通過 requests 構造 ajax 請求直接獲取返回的 json 資訊。還記得前幾節,我們在構造請求時會給請求加上瀏覽器 headers,目的就是為了讓我們的請求模擬瀏覽器的行為,防止被 的反爬蟲策略限制。今天要介紹...

python使用selenium 自動登入百度賬號

要點 1.使用火狐瀏覽器 2.注意驗證碼的彈出,我還不會自動化輸入驗證碼,希望後面能學會 from selenium import webdriver browser webdriver.firefox 使用火狐 browser.get browser.implicitly wait 3 brows...