資料爬蟲 requests庫

2021-10-05 00:25:25 字數 1776 閱讀 5818

import requests

response = requests.get(

"")

模擬瀏覽器,欺騙瀏覽器,獲取和瀏覽器一致的內容。

url =

""headers =

requests.get(url, headers = headers)

url問號後面的就是請求引數,也叫查詢字串。

kw =

response = requests.get(

"s?"

, params = kw, headers = headers)

print

(type

(response)

)print

('-'

*100

)print

('檢視響應碼:'

,response.status_code)

# 檢視響應碼,200即成功

print

('-'

*100

)print

(type

(response.text)

)print

('-'

*100

)print

(response.text)

#檢視響應內容 response.text 返回的是unicode格式的資料

print

('-'

*100

)print

(response.cookies)

#response.content返回的位元組流資料

print

('-'

*100

)print

(response.encoding)

# 檢視響應頭部字元編碼,

print

('-'

*100

)print

(response.url)

# 檢視完整url位址

#response.encoding =『utf-8』

response.text #將響應內容中的亂碼改為中文

import requests

data =

response = requests.post(

"", data=data)

print

(response.text)

import requests

from requests.exceptions import readtimeout, connectionerror, requestexception

try:

response = requests.get(

"", timeout =

0.5)

print

(response.status_code)

except readtimeout:

print

('timeout'

)except connectionerror:

print

('connection error'

)except requestexception:

print

('error'

)

requests.request(

'get'

,'')

爬蟲入門 Requests庫

首先用管理員許可權開啟cmd命令列,然後直接輸入 pip install requests,即可安裝成功 需要聯網 方法 作用requests.request 構造乙個請求,它是支撐以下方法的基礎方法 requests.get 獲取html網頁的主要方法,請求獲取url位置的資源 requests....

爬蟲之Requests庫

處理cookie 雖然python的標準庫中urllib模組已經包含我們平常使用的大多數功能,但是它的api使用起來讓人感覺不太好,而requests使用起來更加方便 利用pip 可以非常方便安裝 pip install requests最簡單的傳送get請求的方式就是通過requests.get呼...

Python 爬蟲 關於requests庫

1 requests 有try except模式,利用r.raise for status 函式引發except機制 2 requests.get url,kwargs 裡面的引數有headers 定製http頭 kv r requests.get url,headers kv params url...