python爬蟲 使用cookie登入豆瓣

2022-04-28 22:27:13 字數 661 閱讀 3299

64位win10系統,同時裝python2.7和python3.6兩個版本(本次使用python3.6),ide為pycharm,瀏覽器為chorme,使用的python第三方庫為requests

首先登陸豆瓣首頁,並且登入賬戶(注意練習爬蟲時最好用小號),右鍵檢查,點選network,然後按fn+f5重新整理頁面,點選最上面的www.douban.com選項,即可找到cookie資訊

複製cookie到如下**中:

import

requests

headers =

cookies =

url = '

'r = requests.get(url, cookies = cookies, headers =headers)

with open(

'douban_2.txt

', '

wb+'

) as f:

f.write(r.content)

注意:user-agent也用如上方式獲取並複製到**中

執行**,即可在指令碼檔案目錄下找到"douban_2.txt"的text檔案,裡面是豆瓣登入主頁的源**。

python爬蟲免登入 爬蟲使用cookie免登陸

由於前程無憂上崗位投遞記錄只保留兩個月,想記錄下。程式 放在github 對於怎麼獲取登陸後的頁面,有兩種思路使用賬號,密碼登陸,如果該 登陸系統簡單的話,沒有驗證碼啥的,有驗證碼的話,可以使用圖形識別庫 使用cookie繞過登陸頁面cookie cookie 複數形態cookies 中文名稱為 小...

sqlmap使用post方法對cookie進行注入

sqlmap預設使用get方法,並且只有在注入level 2的時候才會對cookie進行注入,要想使用post方法,但是如果post的引數為0,可以指定 data 為空,下面以cookie名為cnzzdata3834609為例進行注入 sqlmap u cookie cnzzdata3568186 ...

python爬蟲 使用requests

前面了解了urllib的基本用法,但是其中確實有不方便的地方。比如處理網頁驗證 處理cookies等等,需要寫 opener handler 來進行處理。為了更加方便地實現這些操作,在這裡就有了更為強大的庫requests,有了它,cookies 登入驗證 設定等等的操作都不是事兒。import r...