Python網路爬蟲(瀏覽器偽裝技術)

2021-10-24 12:35:45 字數 1605 閱讀 4185

基本格式:」欄位名:字段值「

2)欄位2:accept-encoding: gzip, deflate

這一行欄位的資訊表示瀏覽器可以支援gzip,deflate等壓縮編碼。

3)欄位3:accept-language: zh-cn,zh;q=0.8,en-us;q=0.5,en;q=0.3

這一行欄位的資訊表示瀏覽器可以支援zh-cn,zh,en-us,en等語言。

4)欄位4:user-agent:mozilla/5.0 (windows nt 6.1; wow64;rv:47.0) gecko/20100101firefox/47.0

這一行欄位的資訊表示為對應的使用者**資訊是mozilla/5.0 (windows nt 6.1; wow64;rv:47.0) gecko/20100101firefox/47.0。

5)欄位5:connection:keep-alive

這一行欄位的資訊表示客戶端與伺服器的連線是永續性連線。

6)欄位6:host:www.baidu.com

import urllib.requestimport http.cookiejarurl= ""#以字典的形式設定headers"accept-language":" zh-cn,zh;q=0.8,en-us;q=0.5,en;q=0.3","connection": "keep-alive","referer":""}# 設定cookiecjar=http.cookiejar.cookiejar()proxy= urllib.request.proxyhandler()opener = urllib.request.build_opener(proxy, urllib.request.httphandler,urllib.request.httpcookieprocessor(cjar))# 建立空列表,以指定格式儲存頭資訊headall=# 通過for迴圈遍歷字典,構造出指定格式的headers資訊for key,value in headers.items():item=(key,value)# 將指定格式的headers資訊新增號opener.addheaders = headall# 將opener安裝為全域性urllib.request.install_opener(opener)data=urllib.request.urlopen(url).read()fhandle=open("./6.html","wb")fhandle.write(data)fhandle.close()

爬蟲瀏覽器偽裝

先引入模組 urllib.request和re import requests import re定義乙個url鏈結 url 瀏覽器偽裝,定義乙個headers頭 headers user agent 將headers新增到真實的報頭中去,首先建立乙個opener物件,再將其新增進去 opener ...

Python 爬蟲瀏覽器偽裝技術

瀏覽器偽裝技術實戰 1 常見的反爬蟲和應對方法 前兩種比較容易遇到,大多數 都從這些角度來反爬蟲。第三種一些應用ajax的 會採用,這樣增大了爬取的難度。通過headers反爬蟲 基於使用者行為反爬蟲 動態頁面的反爬蟲 2 請求頭headers介紹 1 請求 客戶端 服務端 request get ...

爬蟲瀏覽器的偽裝技術

1 大部分反爬蟲 會檢查使用者的 user agent 字段。簡單的偽裝只需要設定好 user agent 字段。高相似度的偽裝瀏覽器設定headers常見字段。2 通過獲取伺服器資訊進行反爬。通過使用 伺服器的方式解決。3 對於更加複雜的反爬機制的 可以運用selenium phantomjs聯合...