爬蟲系列之request庫的簡單應用

2021-10-23 03:16:33 字數 2857 閱讀 4844

當前想要從網路上批量獲取大量資源就需要使用爬蟲這一項技術,今天我來分享一下python的request庫的簡單應用。

response =requests.get(

"")

print

(response.text)

import requests

import json

response = requests.get(

"")print

(type

(response.text)

)print

(response.json())

print

(json.loads(response.text)

)print

(type

(response.json())

)

# coding:utf-8

import requests

url =

""r = requests.get(url)

f =open

("d:\桌面\《美國工廠》.mp4"

,'wb'

)f.write(r.content)

f.close(

)

headers是**的頭部資訊,我們可以自由定製,如當我們直接通過requests請求知乎**的時,預設是無法訪問的。這時候我們就需要定製頭部資訊,使它能夠通過**的識別,從而對其進行訪問。

import requests

response =requests.get(

"")print

(response.text)

>>

>

400 bad request<

/title>

<

/head>

"white"

>

400 bad request<

/h1>

<

/center>

openresty<

/center>

<

/body>

<

/html>

因為訪問知乎需要頭部資訊,這個時候我們在谷歌瀏覽器裡輸入chrome://version,就可以看到使用者**,將使用者**新增到頭部資訊。

mozilla/

5.0(windows nt 10.0

537.36

(khtml, like gecko) chrome/

72.0

.3626

.109 safari/

537.36

獲取到瀏覽器的頭部資訊後我們將其新增進去:

import requests

headers =

response =requests.get(

"",headers=headers)

print

(response.text)

通過在傳送post請求時新增乙個data引數,這個data引數可以通過字典構造成,這樣對於傳送post請求就非常方便。

import requests

data =

response = requests.post(

"",data=data)

print

(response.text)

獲取cookie

import requests

response = requests.get(

"")print

(response.cookies)

for key,value in response.cookies.items():

print

(key+

"="+value)

cookie的乙個作用就是可以用於模擬登陸,做會話維持。

import requests

s = requests.session(

)#建立乙個session物件

s.get(

"")#請求**1

response = s.get(

"")#請求**2,這時同一網域名稱下,用的是同乙個session

insecurerequestwarning)

解決方法為:

import requests

from requests.packages import urllib3

urllib3.disable_warnings(

)response = requests.get(

"",verify=

false

)print

(response.status_code)

**設定

import requests

proxies=

response = requests.get(

"",proxies=proxies)

print

(response.text)

一 解密網路爬蟲之Request庫

request庫的七個常用方法 方法 說明1 request.request 構造乙個請求,支援以下各種方法的基礎方法 2 request.get 獲得html網頁的主要資訊,對應於http的get 3 request.head 獲取html網頁的頭資訊,對應於http的head 4 request...

python爬蟲利器 request庫

request庫比urllib2庫更為高階,因為其功能更強大,更易於使用。使用該庫可以十分方便我們的抓取。基本請求 r requests.get r requests.post r requests.put r requests.delete r requests.head r requests.o...

爬蟲request庫簡單使用

為什麼要學習requests,而不是urllib requests的底層實現就是urllib requests在python2和python3通用,法完全 樣 requests簡單易 requests能夠 動幫助我們解壓 gzip壓縮的 網頁內容 requests的作用 作 傳送 絡請求,返回相應資...