04 爬蟲 urllib2庫的基本使用

2021-09-26 15:17:43 字數 3419 閱讀 4905

所謂網頁抓取,就是把url位址中指定的網路資源從網路流中讀取出來,儲存到本地。 在python中有很多庫可以用來抓取網頁,比如urllib2

urllib2 在 python3.x 中被改為urllib.request

我們先來段**:

# urllib2_urlopen.py

# 匯入urllib2 庫

import urllib2

# 向指定的url傳送請求,並返回伺服器響應的類檔案物件

response = urllib2.urlopen(

"")# 類檔案物件支援 檔案物件的操作方法,如read()方法讀取檔案全部內容,返回字串

html = response.read(

)# 列印字串

print html

執行寫的python**,將列印結果

power@powermac ~$: python urllib2_urlopen.py
乙個基本的url請求對應的python**真的非常簡單。

在我們第乙個例子裡,urlopen()的引數就是乙個url位址;

但是如果需要執行更複雜的操作,比如增加http報頭,必須建立乙個 request 例項來作為urlopen()的引數;而需要訪問的url位址則作為 request 例項的引數。

我們編輯urllib2_request.py

# urllib2_request.py

import urllib2

# url 作為request()方法的引數,構造並返回乙個request物件

request = urllib2.request(

"")# request物件作為urlopen()方法的引數,傳送給伺服器並接收響應

response = urllib2.urlopen(request)

html = response.read(

)print html

執行結果是完全一樣的:

新建request例項,除了必須要有 url 引數之外,還可以設定另外兩個引數:

data(預設空):是伴隨 url 提交的資料(比如要post的資料),同時 http 請求將從 "get"方式 改為 "post"方式。

headers(預設空):是乙個字典,包含了需要傳送的http報頭的鍵值對。

這兩個引數下面會說到。

但是這樣直接用urllib2給乙個**傳送請求的話,確實略有些唐突了,就好比,人家每家都有門,你以乙個路人的身份直接闖進去顯然不是很禮貌。而且有一些站點不喜歡被程式(非人為訪問)訪問,有可能會拒絕你的訪問請求。

瀏覽器 就是網際網路世界上公認被允許的身份,如果我們希望我們的爬蟲程式更像乙個真實使用者,那我們第一步,就是需要偽裝成乙個被公認的瀏覽器。用不同的瀏覽器在傳送請求的時候,會有不同的user-agent頭。 urllib2預設的user-agent頭為:python-urllib/x.y(x和y是python主版本和次版本號,例如 python-urllib/2.7)

#urllib2_useragent.py

import urllib2

url =

""#ie 9.0 的 user-agent,包含在 ua_header裡

ua_header =

# url 連同 headers,一起構造request請求,這個請求將附帶 ie9.0 瀏覽器的user-agent

request = urllib2.request(url, headers = ua_header)

# 向伺服器傳送這個請求

response = urllib2.urlopen(request)

html = response.read(

)print html

在 http request 中加入特定的 header,來構造乙個完整的http請求訊息。

可以通過呼叫request.add_header()新增/修改乙個特定的header 也可以通過呼叫request.get_header()來檢視已有的header。

新增乙個特定的header:

# urllib2_headers.py

import urllib2

url =

""#ie 9.0 的 user-agent

header =

request = urllib2.request(url, headers = header)

#也可以通過呼叫request.add_header() 新增/修改乙個特定的header

request.add_header(

"connection"

,"keep-alive"

)# 也可以通過呼叫request.get_header()來檢視header資訊

# request.get_header(header_name="connection")

response = urllib2.urlopen(req)

print response.code #可以檢視響應狀態碼

html = response.read(

)print html

隨機新增/修改user-agent:

# urllib2_add_headers.py

import urllib2

import random

url =

""ua_list =[,

"mozilla/5.0 (x11; cros i686 2268.111.0)... "

,"mozilla/5.0 (macintosh; u; ppc mac os x.... "

,"mozilla/5.0 (macintosh; intel mac os... "

]user_agent = random.choice(ua_list)

request = urllib2.request(url)

#也可以通過呼叫request.add_header() 新增/修改乙個特定的header

request.add_header(

"user-agent"

, user_agent)

# 第乙個字母大寫,後面的全部小寫

request.get_header(

"user-agent"

)response = urllib2.urlopen(req)

html = response.read(

)print html

爬蟲之urllib2庫的基本使用

所謂網頁抓取,就是把url位址中指定的網路資源從網路流中讀取出來,儲存到本地。在python中有很多庫可以用來抓取網頁,我們先學習urllib2。urllib2 官方文件 urllib2 原始碼 urllib2在 python3.x 中被改為urllib.request 我們先來段 urllib2 ...

爬蟲 urllib2庫的使用

所謂網頁抓取,就是把url位址中指定的網路資源從網路流中讀取出來,儲存到本地。在python中有很多庫可以用來抓取網頁,我們先學習urllib2。urllib2 官方文件 urllib2 原始碼 urllib2在 python3.x 中被改為urllib.request 我們先來段 urllib2 ...

2 爬蟲基礎 urllib2模組

底層操作request物件 請求頭設定之useragent使用者 請求頭設定 使用者 useragent 自定義請求頭訊息 請求方式之get post請求 get請求處理 post請求處理 handler處理器自定義開鎖人opener 自定義http opener 自定義proxy opener 會...