爬蟲偽裝頭部

2022-05-01 22:12:17 字數 1222 閱讀 6053

偽裝頭部是最基本的反反爬蟲方法,下面假設我們有乙個**:

from flask import

flask)'

/getinfo')

defhello_world():

return

"這裡假裝有很多資料"'

/')def

index():

return

"個人主頁"if

__name__ == "

__main__":

現在就可以通過 訪問了。

我們想看看請求的 header 資訊

/getinfo')

defhello_world():

print

(request.headers)

return

"這裡假裝有很多資料

"

結果看到的 headers 資訊是這樣的

host: 127.0.0.1:5000user-agent: python-requests/2.22.0

accept-encoding: gzip, deflate

accept: */*connection: keep-alive

「user-agent: python-requests/2.21.0」,居然使用 python 的庫來請求,於是服務端判斷一下就把你封了。

/getinfo')

defhello_world():

if(str(request.headers.get('

user-agent

')).find('

python

') >=0):

return

"小子,使用爬蟲是吧?

"else

:

return

"這裡假裝有很多資料

"怎麼辦呢?現在的你學會假裝自己是瀏覽器,

import

requests

if__name__ == '

__main__':

headers =

url = '

getinfo

'response = requests.get(url, headers=headers)

print(response.text)

這樣又能開心的獲取資料了。

當然,你還可以搞個使用者**列表,每次從中隨機選取。

Scrapy 爬蟲偽裝

scrapy 設定 ip 設定隨機user agent 防止對方發現我們 設定 ip middleware.py class my proxy object def process request self,request,spider 伺服器的ip 與埠號 註冊乙個 阿布雲 設定通行使用者的使用者...

爬蟲筆記(9 30) 爬蟲偽裝技術

反爬蟲機制主要有 1 分析使用者請求的headers資訊進行反爬蟲 反爬蟲會對使用者請求的headers資訊的 user agent 進行檢測 反爬蟲 還會對 referer 字段進行檢測 2 檢測使用者行為,ip在短時間內是否頻繁訪問 使用 伺服器,經常切換 3 動態頁面增加爬蟲難度 利用工具軟體...

python爬蟲之偽裝User Agent

因為爬蟲的需要,所以需要多個user agent,之前一直也是這樣用的,後來接觸到了fake useragent這個包後,一切都變得那麼簡單簡單了,fake useragent是乙個整合了市面上大部分的user agent,可以指定瀏覽器,也可隨機生成任意乙個 這裡簡單做個生成指定瀏覽器的請求頭 f...