python的selenium實現自動登陸

2022-09-07 22:18:29 字數 1357 閱讀 8779

知道思想,參考其他文件,python的request模組和selenium模組都可以實現get_cookie()和 add_cookie()的功能。

由於現在在學習selenium自動化測試,我選用selenium的webdriver來實現。

from selenium import webdriver

import time,json

url = ''

driver = webdriver.chrome()

driver.get(url)

time.sleep(30) # 在此時輸入使用者名稱和密碼,先登入進**

cookies = driver.get_cookies()

print(cookies)

f1 = open('cookie.txt','w')

f1.write(json.dumps(cookies))

f1.close()

from selenium import webdriver

import time,json

driver = webdriver.chrome()

driver.delete_all_cookies()

time.sleep(2)

with open('cookie.txt') as f:

cookie = json.loads(f.read())

print(cookie)

for c in cookie:

driver.add_cookie(c)

driver.get('')

居然報錯了-_-||,console的內容,提示selenium.common.exceptions.invalidcookiedomainexception: message: invalid cookie domain

查了資料,是由於在新增cookie之前沒有訪問**,也就是說,需要先訪問微博的某個**,然後才能新增cookie,即新增cookie需要明確在哪個**上新增cookie

把driver.get('')換下地方,簡單調整如下。執行成功~~~

driver = webdriver.chrome()

driver.delete_all_cookies()

driver.get('')

time.sleep(2)

with open('cookie.txt') as f:

cookie = json.loads(f.read())

print(cookie)

for c in cookie:

driver.add_cookie(c)

driver.refresh()

Python 爬蟲利器 Selenium

前面幾節,我們學習了用 requests 構造頁面請求來爬取靜態網頁中的資訊以及通過 requests 構造 ajax 請求直接獲取返回的 json 資訊。還記得前幾節,我們在構造請求時會給請求加上瀏覽器 headers,目的就是為了讓我們的請求模擬瀏覽器的行為,防止被 的反爬蟲策略限制。今天要介紹...

Python 爬蟲利器 Selenium

前面幾節,我們學習了用 requests 構造頁面請求來爬取靜態網頁中的資訊以及通過 requests 構造 ajax 請求直接獲取返回的 json 資訊。還記得前幾節,我們在構造請求時會給請求加上瀏覽器 headers,目的就是為了讓我們的請求模擬瀏覽器的行為,防止被 的反爬蟲策略限制。今天要介紹...

關於 python中的selenium 錯誤

今天在學習python中的selenium時出現了一些錯誤,後來解決了,在這裡與大家分享解決方法。程式碼如下 from selenium import webdriver brower webdriver.firefox brower.get print brower.page source bro...