Python網路爬蟲學習(二)

2021-08-22 15:22:22 字數 2171 閱讀 5404

十五. 京東商品頁面的爬取

import requests

r = requests.get("")

r.status_code

r.encoding

r.text[:1000]

十六. 亞馬遜商品頁面的爬取

import requests

def main():

url = ""

try:

kv =

r = requests.get(url,headers = kv)

r.raise_for_status()

print(r.text[1000:2000])

except:

print("爬取失敗")

print("爬取失敗")

if __name__ == "__main__":

main()

360搜尋**

#360 research code#

import requests

def main():

keyword = "python"

try:

kv =

r = requests.get("",params = kv)

print(r.request.url)

r.raise_for_status()

print(len(r.text))

except:

print("爬取失敗")

if __name__ == "__main__":

main()

十八. 網路的爬取和儲存

import requests

import os

def main():

url = ""

root = "d://pics//"

path = root + url.split('/')[-1]

try:

if not os.path.exists(root):

os.mkdir(root)

if not os.path.exists(path):

r = requests.get(url)

with open(path,'wb') as f:

f.write(r.content)

f.close()

print("檔案儲存成功")

else:

print("檔案已存在")

except:

print("爬取失敗")

if __name__ == "__main__":

main()

十九. ip位址歸屬地的自動查詢

import requests

def main():

url = ""

try:

r = requests.get(url+ '202.204.80.112')

r.raise_for_status()

print(r.text[-500:])

except:

print("爬取失敗")

if __name__ == "__main__":

main()

二十。單元小結

二十一. 第二週內容導學

二十二. beautiful soup庫的安裝

python語言網路爬蟲學習(二)

這一章節主要寫如何將python爬取的內容儲存在json檔案和mysql資料庫。import requests from bs4 import beautifulsoup rqq requests.get http請求 soup beautifulsoup rqq.content,lxml 轉換格式...

python網路爬蟲(二)

在第一篇中,我們介紹了如何進行發起乙個http請求,並接受響應。在這一部分中,我們介紹一下如何解析網頁並提取我們需要的資料。我們採用requests這個庫進行乙個網頁請求。r requests.get headers,kwargs 通過這一句 我們即可獲得伺服器傳給我們的響應內容 不考慮連線錯誤等情...

Python網路爬蟲學習

最近有時間學習在慕課網上跟著嵩天老師上他的python網路爬蟲與資訊提取這門課,想著可以寫些部落格將學的爬蟲知識總結起來。win平台下 前提是安裝好python,在cmd中執行 pip installl requests 其他方法的話可以在網上搜尋。r requests.get url 其中get返...