Python 第三方庫requests常用用法

2021-09-13 03:38:43 字數 1103 閱讀 8423

response =requests.get(url,params,headers,cookies,timeout)
其中url是請求的網頁位址,params可以傳遞引數,一般是字典的資料格式,headers是請求頭,也是字典的格式,一般包含ua資訊(user-agent)和referer(防盜煉)。timeout是設定超時的時間。

response.text 返回headers中的編碼解析的結果

response.content 返回二進位制結果

response.json() 返回json格式,等同於json.loads(response.text)方法,可能丟擲異常。

response.status_code 返回獲取網頁時的狀態碼,200為正常訪問。

response.raw 返回原始socket respons,需要加引數stream=true。

response.encoding 可以定義網頁的編碼方式

response = requests.post(url,data,files)
url是提交請求的**,data是乙個字典形式的資料表單,files是在檔案上傳時使用的,需要傳入乙個類似於的字典。

cookies的乙個作用就是可以用於模擬登陸,做會話維持,而使用session可以將cookies資訊儲存下來,下次請求時就不需要再次傳入cookies。

session = requests.session()
session.get(url)將網頁的cookies資訊傳入session中,下次訪問網頁時會自動傳入cookies。

requests.get(url,verify)中verify預設是true,可以設為false,會跳過證書驗證,也可以設為乙個證書路徑,則會驗證該指定證書。

proxies =
當需要使用者名稱和密碼時就要新增「user:password@」這一段,如果不需要密碼,則去除這一段。

通過response = requests.get(url, proxies=proxies)使用**ip來訪問網頁。

PyThon第三方庫

本文 自 戀花蝶的部落格 今天公司停電,沒上班。跑上來更新個部落格,跟大家分享一下我常用的幾個第三方 python 庫。python 語言之所以能夠如此流行,除了本身內建許多程式庫來保障快速開發之外,目不睱接的第三方庫也是一大主因。結合我目前的工作 網遊開發 我常用的幾個第三方庫如下 wxpytho...

python 第三方庫

requests 模組 具體詳見 requests 是用python語言編寫的第三方庫,基於 urllib,採用 apache2 licensed 開源協議的 http 庫。它比 urllib 更加方便,完全滿足 http 測試需求,多用於介面測試 常用介面 1.requests.request m...

python第三方庫

網路爬蟲是自動進行http訪問並獲取html頁面的程式。常用的python網路爬蟲庫 一 requests requests庫是乙個簡潔且簡單的處理http請求的第三方庫,它的最大優點是程式編寫過程更接近正常url訪問 過程。這個庫建立在python語言的urllib3庫基礎上。request庫支援...