爬蟲中request庫的爬取例項

2021-09-29 02:16:49 字數 1461 閱讀 9699

首先,需要安裝requests庫

安裝requests庫

管理員方式執行cmd,輸入pip install requests即可

#亞馬遜會檢測**

import requests

url=

""try:

kv=r=requests.get(url,headers=kv)

r.raise_for_status(

) print

(r.text[

1000

:2000])

except

:print

("抓取失敗"

)

import requests

keyword=

"python"

try:

kv=r=requests.get(

"",params=kv)

r.raise_for_status(

)print

(len

(r.text)

)except

:print

("爬取失敗"

)

3.ip位址的查詢

import requests

url=

""try:

r=requests.get(url+

'222.204.3.221'

) r.raise_for_status(

) print

(r.text[

-500:]

)except

:print

("爬取失敗"

)

#的爬取

import requests

import os

url=

""root=

"e://pic//"

path=root+url.split(

'/')[-

1]try:

ifnot os.path.exists(root)

: os.mkdir(root)

ifnot os.path.exists(path)

: r=requests.get(url)

with

open

(path,

'wb'

)as f:

f.write(r.content)

f.close(

)print

("檔案儲存成功"

)else

:print

("檔案已存在"

)except

:print

("爬取失敗"

)

python爬蟲 Requests庫爬取實戰(三)

我們先開始最簡單的抓取頁面,import requests 匯入requests庫 url try r requests.get url 通過requests庫的get方法 r.raise for status 判斷返回的狀態碼是否為200,不是200返回異常 print r.text 輸出網頁的源...

爬蟲筆記 Requests庫的應用(網頁爬取)

上次介紹了requests庫的一些引數和函式,今天我給大家介紹一些requests庫的小應用,所有學習都是基於 python網路爬蟲與資訊提取 對於requests這個庫來說,最主要的功能就是進行網頁的爬取,其實爬取的方式基本上都大致相同,所以在這裡我們介紹一種網頁爬取框架 爬取網頁通用 框架 im...

簡單的爬蟲爬取文章

我們會用一些簡單的爬蟲去爬取 等,那麼在別人的 中我們的應選擇對應的標題等資料作為爬取的內容標桿 如以下 模擬瀏覽器發請求 connection connect jsoup.connect document doc connect.get elements select doc.select lis...