學姐教我requests庫入門,太高興了!

2021-10-14 05:51:01 字數 1351 閱讀 7479

眾所周知,學好requests庫模組,就能解決爬蟲一半的問題,下面讓我們一起來看一看這個模組的使用例項

指定url、發起請求、獲取響應資料、持久化儲存

#  需求: 爬取搜狗首頁的頁面資料

# ''

import requests

if __name__ ==

'__main__'

:# 指定url

url =

''# 發起請求

response = requests.get(url=url)

# 獲取響應資料

content = response.text

print

(content)

# 持久化儲存

with

open

('sogou.html'

,'w'

, encoding=

'utf-8'

)as fp:

fp.write(content)

print

('爬取資料結束!!'

)

ua偽裝: user-agent(請求載體的身份標識),總體來說就是讓你爬取的**伺服器將你視為正常瀏覽器訪問而不是爬蟲程式

# 實現簡單的爬取你想要查詢內容的網頁

import requests

if __name__ ==

'__main__'

: url =

'web'

key =

str(

input

('輸入您想要查詢的內容: '))

# ua偽裝

headers =

# 處理url攜帶的引數: 封裝到字典中

param =

# 傳送攜帶引數的url,並且加入了headers實現ua偽裝

response = requests.get(url=url, params=param, headers=headers)

content = response.text

search_result = key +

'.html'

with

open

(search_result,

'w', encoding=

'utf-8'

)as fp:

fp.write(content)

print

(search_result,

'查詢頁面儲存成功: '

)

在這個星球上,你很重要,請珍惜你的珍貴~~~~夜斗小神社

Requests庫的入門

windows平台下,以管理員模式執行cmd方法 說明requests.requests 構造乙個請求,支撐以下各方法的基礎方法 requests.get 獲取html網頁的主要方法,對應於http的get requests.head 獲取網頁頭資訊的的方法,對應於http的head request...

爬蟲入門 Requests庫

首先用管理員許可權開啟cmd命令列,然後直接輸入 pip install requests,即可安裝成功 需要聯網 方法 作用requests.request 構造乙個請求,它是支撐以下方法的基礎方法 requests.get 獲取html網頁的主要方法,請求獲取url位置的資源 requests....

requests庫入門筆記1

1.使用requests庫傳送請求,fiddler無法抓到包 使用瀏覽器請求相同的url,可以抓到包 2.列印get post請求的返回值 3.返回值列印漂亮 4.請求方法對應的引數 引數說明 getpost putdelete url有有有 有params 如果傳入的是字段。自動編碼為表單 字串 ...