爬蟲通用爬取框架 try except的運用

2021-10-08 16:35:14 字數 419 閱讀 5658

爬蟲通用爬取框架——try-except的運用

這裡可以顯示錯誤的情況

def

gethtmltext

(url)

:try

: r = requests.get(url, timeout =30)

r.raise_for_status(

) return r.text

except exception as e:

print

(e)

這個**中我們用r.raise_for_status()方法,它能夠判斷返回的response型別狀態是不是200。如果是200,他將表示返回的內容是正確的,如果不是200,他就會產生乙個httperror的異常。如果網連線出現錯誤,那麼它就會用try-except來獲取乙個異常。

Scrapy爬蟲框架 二 匯出爬取結果

功能描述 爬取 豆瓣 電影 top 250,爬取內容 電影標題,評分人數,評分 編輯 items.py 檔案 coding utf 8 import scrapy class doubanmovieitem scrapy.item 排名 ranking scrapy.field 電影名稱 title...

爬蟲爬取bilibili

1.根據url傳送請求給伺服器,獲取html文字 2.解析html文字,把需要的資料挑出來 3.從html中解析出超連結,繼續爬取其中的頁面 爬蟲的協議b站的爬蟲協議 尾巴加上 robots.txt 獲取相應的api 控制抓取的頻率 import requests url 發起網路請求 respon...

Python 爬蟲爬取網頁

工具 python 2.7 import urllib import urllib2 defgetpage url 爬去網頁的方法 request urllib.request url 訪問網頁 reponse urllib2.urlopen request 返回網頁 return response...