Python爬蟲中Requests的使用

2021-09-26 06:31:00 字數 954 閱讀 5068

import requests

url =

""# 兩種請求方式

# 使用get請求

rsp = requests.get(url)

print

(rsp.text)

# 使用request請求

rsp = requests.request(

"get"

, url)

print

(rsp.text)

'''

使用引數headers和params

研究返回結果

'''import requests

# 完整訪問url是下面url加上引數構成

url =

"/s?"

kw =

headers =

rsp = requests.get(url, params=kw, headers=headers )

print

(rsp.text)

# 返回主頁html

print

(rsp.content)

# 返回bytes流

print

(rsp.url)

# 返回請求**,編碼後的

print

(rsp.encoding)

# 返回編碼方式

print

(rsp.status_code)

# 請求返回碼

proxy

使用者驗證

web客戶端驗證

cookie

session

https請求驗證ssl證書

Python爬蟲 HTTP協議 Requests庫

http協議 http hypertext transfer protocol 即超文字傳輸協議。url是通過http協議訪問資源的internet路徑,乙個url對應乙個資料資源。http協議對資源的操作 requests庫提供了http所有的基本請求方式。官方介紹 requests庫的6個主要方...

python 爬蟲系列02 認識 requests

本系列所有文章基於 python3.5.2 requests 是基於 urllib 的三方模組,相比於 uillib,操作更簡潔,功能更強大,而且支援 python3 getimport requests r requests.get url print r.status code print r....

python小白學習記錄 爬蟲requests篇

一 引用庫 import requests 二 請求訪問url,網頁相應 res requests.get 網頁位址 三 表明返回內容 目前返回的response物件有四種屬性 status code 檢查請求是否成功 content 將資料轉換為二進位制資料 text 將資料轉換為字串型資料 en...