爬蟲瀏覽器偽裝

2021-10-02 01:18:57 字數 1915 閱讀 1582

先引入模組 urllib.request和re

import requests

import re

定義乙個url鏈結

url=

""

瀏覽器偽裝,定義乙個headers頭

headers=

("user-agent"

:)

將headers新增到真實的報頭中去,首先建立乙個opener物件,再將其新增進去

opener=urllib.request.build_opener(

)opener.addheaders=

[headers]

將其安裝為全域性(不然就只能用opener開啟)

urllib.request.install_opener(opener)
然後獲取首頁資訊

data=urllib.request.urlopen(url)

.read.decode(

"utf-8"

,"ignore"

)

寫正規表示式

pat=

'

將想要的鏈結用正規表示式獲取出來

alllink=re.

compile

(pat)

.findall(data)

for i in

range(0

,len

(alllink)):

localpath=

"d:\\python**\\rst\\"

+str

(i)+

".html"

thislink=alllink[i]

urllib.request.urlretrieve(thislink,filename=localpath)

print

("當前文章(第"

+str

(i)+

"篇)爬取成功!"

)

最後附上全部**

import urllib.request

import re

url=

"/"headers=

("user-agent":)

opener=urllib.request.build_opener(

)opener.addheaders=

[headers]

#安裝為全域性

urllib.request.install_opener(opener)

data=urllib.request.urlopen(url)

.read(

).decode(

"utf-8"

,"ignore"

)pat=

'alllink=re.

compile

(pat)

.findall(data)

#print(alllink)

for i in

range(0

,len

(alllink)):

localpath=

"d:\\python**\\rst\\"

+str

(i)+

".html"

thislink=alllink[i]

urllib.request.urlretrieve(thislink,filename=localpath)

print

("當前文章(第"

+str

(i)+

"篇)爬取成功!"

)

爬蟲瀏覽器的偽裝技術

1 大部分反爬蟲 會檢查使用者的 user agent 字段。簡單的偽裝只需要設定好 user agent 字段。高相似度的偽裝瀏覽器設定headers常見字段。2 通過獲取伺服器資訊進行反爬。通過使用 伺服器的方式解決。3 對於更加複雜的反爬機制的 可以運用selenium phantomjs聯合...

Python 爬蟲瀏覽器偽裝技術

瀏覽器偽裝技術實戰 1 常見的反爬蟲和應對方法 前兩種比較容易遇到,大多數 都從這些角度來反爬蟲。第三種一些應用ajax的 會採用,這樣增大了爬取的難度。通過headers反爬蟲 基於使用者行為反爬蟲 動態頁面的反爬蟲 2 請求頭headers介紹 1 請求 客戶端 服務端 request get ...

爬蟲筆記(十二) 瀏覽器偽裝技術

1.通過分析使用者請求的headers資訊進行反爬蟲 2.通過檢測使用者行為進行反爬蟲,比如通過判斷同乙個ip在短時間內是否頻繁訪問對應 等進行分析 3.通過動態頁面增加爬蟲的爬取難度,達到反爬蟲的目的 第一種反爬蟲機制在目前 中應用的最多,大部分反爬蟲 會對使用者請求的headers資訊的 use...