1 爬蟲基礎requests模組的get請求

2021-10-07 13:20:16 字數 2371 閱讀 2219

graph td

a[url-list]-->b[傳送請求獲取響應]

b --> c[解析響應]

c --> |提取資料|d[儲存資料]

c --> a

請求頭

響應頭set-cookie:伺服器設定的使用者cookie

所有的狀態碼都不可信,一切以是否從抓包得到的響應中獲取到資料為準

import requests

url =

''response = requests.get(url)

print

(response.content.decode())

# 預設utf-8

print

(response.url)

# 返回實際請求的url,有時會不同

print

(response.status_code)

# 返回狀態碼

print

(response.headers)

# 返回響應報文的請求頭

print

(response.request.headers)

# 返回請求者的請求頭

print

(response.cookies)

# 返回服務端給使用者設定的cookie

print

(response.request._cookies)

# 返回請求者的cookie

import requests

url =

''# 請求位址

header =

kw =

# 引數通過關鍵字形式傳入

response = requests.get(url, headers= header, params=kw)

with

open

('request_params.html'

,'wb'

)as f:

# 存入檔案中

f.write(response.content)

import requests

url =

''header =

response = requests.get(url, headers= header)

with

open

('request_without_cookie_github.html'

,'wb'

)as f:

f.write(response.content)

import requests

url =

''header =

cookie=

'_octo=gh1.1.339554947.1578661733; ...'

cookie_list = cookie.split(

'; '

)# 切割生成列表

cookies =

# 1. 通過簡單for迴圈生成

for cookie in cookie_list:

cookies[ cookie.split(

'=')[0

]]= cookie.split(

'=')[1

]# 2. 通過字典生成器

# cookies =

response = requests.get(url, headers= header, cookies=cookies)

with

open

('request_cookie_params.html'

,'wb'

)as f:

f.write(response.content)

import requests..

.response = requests.get(url, headers=header)

# 方法三:通過requests中的utils.dict_from_cookiejar方法對response物件提取生成

cookie_dict = requests.utils.dict_from_cookiejar(response.cookies)

print

(cookie_dict)

語法:提前定義proxies, 使用proxies引數

proxies =

requests.get(url, proxies= proxies, timeout=5)

# 防止**不可用,等待時間過長

python爬蟲requests模組

首先,沒有安裝的先安裝 cmd pip conda install requests 先給大家乙個模板,如果已經很熟悉了,直接忽略,不懂得就可以看看了 接下來解釋一下相應的 的意思 這個和上和上面的是一樣的,執行後輸出的 都是一樣的啦 coding utf 8 引入網路請求模組,該模組有兩個重要的物...

python爬蟲 requests模組

功能 模擬瀏覽器發請求 指定url 發起請求 獲取響應資料 持久化儲存 import requests 指定url url 發起請求,返回乙個響應對像 response requests.get url url 獲取響應資料 text返回的是字串型別的響應資料 page text response....

爬蟲之requests模組

requests 唯一的乙個非轉基因的 python http 庫,人類可以安全享用。警告 非專業使用其他 http 庫會導致危險的 包括 安全缺陷症 冗餘 症 重新發明輪子症 啃文件症 抑鬱 頭疼 甚至死亡。今日概要 知識點回顧 為什麼要使用requests模組 使用requests模組 如何使用...