Python爬取資料基礎語法(獲取資料)

2021-09-29 13:32:31 字數 1033 閱讀 7410

爬蟲分為四個步驟:

想檢視第

二、三、四步驟,上方對應鏈結

若想查詢含引數url的獲取資料方式,:python爬取資料基礎語法(獲取資料-含引數位址)

import requests  #引入requests庫

req = requests.get(

'url'

)#呼叫庫中的get()方法 向url所指向的伺服器傳送請求,並將請求返回,返回結果儲存在req中

由於req是乙個response物件,則可以使用response對應的屬性和方法

屬性作用

status_code

100:收到請求,繼續提出請求

200:請求成功

305:重定向,應使用**訪問

403:客戶端錯誤,禁止訪問

503:伺服器端錯誤,服務不可用

content

text

把reponse物件轉換成字串資料,用於抓取網頁源**、文字

encoding

定義reponse物件的編碼,當requests庫對資料編碼錯誤導致亂碼時,可重定義編碼型別與目標資料編碼一致,使其正確編碼

content = req.content   #二進位制

#複製存入aa.jpg

ejz.close(

)text = req.text

ee =

open

('aa.txt'

,'a'

,encoding=

'utf-8'

)#文字

ee.write(ee)

ee.close(

)print

(req.status_code)

#請求結果

req.encoding =

'gbk'

#重定義編譯編碼

Python資料爬取

二.scrapy爬蟲框架 資料 網路資料採集模型 第三方庫實現爬取 pyspider爬蟲框架 scrapy爬蟲框架 安裝scrapy 配置scrapy環境變數 建立scrapy專案的命令 建立spider 使用python指令碼執行命令列啟動爬蟲 from scrapy.cmdline import...

Python爬取疫情資料

實現 輸出結果 import requests 請求庫 import pandas as pd 日期 today time.strftime y m d time.localtime format y 年 m 月 d 日 url 請求頭 headers 傳送請求 response requests....

python入門 資料爬取

很多人剛開始學習python的時候,都會聽到python能做爬蟲 資料分析等,但是為什麼要用它來做爬蟲有所不知,今天我們就來好好聊聊。做爬蟲的需求一般都是出自於實際應用的需要,比如某某 上有你喜歡的mm,你想把這些高畫質 儲存到本地。比如做安全掃瞄時,一般 都會封ip,那這個時候就需要在 爬取多個 ...