乙個簡單的Python爬蟲

2021-08-19 07:05:27 字數 1969 閱讀 9781

乙個簡單測試爬蟲的網頁

1.獲取**的html**

import urllib.request

request=urllib.request.urlopen("")

str=request.read()

print(str)

2.返回網頁標題

輸出目標網頁內title標籤內的文字:,gettitle()函式返回網頁的標題,如果獲取網頁遇到問題就返回乙個 none 物件。 如果伺服器不存在, html 就是乙個 none 物件,html.read() 就會丟擲 attributeerror 。

則執行輸出結果為:

d:\test\python>python reptile.py
3.查詢html

#!/usr/bin/env python #**來自:

#coding=utf-8

import requests

from bs4 import beautifulsoup

url = ''

r = requests.get(url)

soup = beautifulsoup(r.content, 'lxml')

bbs_nes = soup.find_all(name='span',attrs=)

for news in bbs_nes:

print (news.string)

規律是查詢:

在這個html源**中一共有:

now with super-colorful bell peppers!

8 entire dolls per set! octuple the presents!

also hand-painted by trained monkeys!

or maybe he's only resting?

keep your friends guessing!

所以最後的輸出結果為:

d:\test\python>python reptile.py

now with super-colorful bell peppers!

8 entire dolls per set! octuple the presents!

also hand-painted by trained monkeys!

or maybe he's only resting?

keep your friends guessing!

python 乙個簡單的貪婪爬蟲

這個爬蟲的作用是,對於乙個給定的url,查詢頁面裡面所有的url連線並依次貪婪爬取 主要需要注意的地方 1.lxml.html.iterlinks 可以實現對頁面所有url的查詢 2.獲取頁面要設定超時,否則遇到沒有響應的頁面,容易卡死 3.對所有異常的捕獲 4.廣度優先搜尋實現 具體 如下 usr...

python 乙個簡單的貪婪爬蟲

這個爬蟲的作用是,對於乙個給定的url,查詢頁面裡面所有的url連線並依次貪婪爬取 主要需要注意的地方 1.lxml.html.iterlinks 可以實現對頁面所有url的查詢 2.獲取頁面要設定超時,否則遇到沒有響應的頁面,容易卡死 3.對所有異常的捕獲 4.廣度優先搜尋實現 具體 如下 usr...

Python爬蟲入門筆記 乙個簡單的爬蟲架構

上次我們從對爬蟲進行簡單的介紹,今天我們引入乙個簡單爬蟲的技術架構,解釋爬蟲技術架構中的幾個模組,對爬蟲先有乙個整體的認知,方便對爬蟲的理解和後面的程式設計。1 url管理器 防止重複抓取 防止迴圈抓取 url是爬蟲爬取的入口和橋梁,除了入口url外,剩下的url我們需要在網頁上獲取並統一管理,防止...