python爬蟲 第乙個爬蟲

2021-10-08 02:07:28 字數 1866 閱讀 2546

1.本地安裝了nginx, 在預設的html目錄下建立測試html**:

**如圖,即index.html導向a,b,c 3個html,a.html又可以導向aa,bb兩個html,c.html可以導向cc.html。

2.修改nignx配置使得本地可以訪問寫的kmtest裡的index.html。

參考文件

nginx預設訪問html目錄下的index,我在html下新建立了kmtest,然後kmtest裡建立了測試用的index.html。修改完conf下的nginx.conf完之後,記得重啟nginx生效。

3.然後訪問本地http://localhost:1024/,發現自己寫的html已經生效。

到此,準備工作已經完成,開始編寫爬蟲指令碼。

二.爬蟲指令碼

1.如圖

#!/usr/bin/env python3

#-*-coding=utf-8-*

__author__='km'

import urllib.request

from re import *

def download(url):

result = urllib.request.urlopen(url=url)

#注意這裡是result.read(),而非response.read()

content = result.read()

# 解碼

htmlstr = content.decode('utf-8')

#print('1:',htmlstr) 除錯

return htmlstr

def analyse(htmlstr):

#獲取所有的a節點

alist = findall(']*>',htmlstr)

result =

#print(alist) 除錯 輸出:

#["", "", ""]

#遍歷a節點

for a in alist:

#從a節點中提取herf屬性的值,比如a.html

g = search('herf[\s]*=\s]*\'"]([^>\'""]*)[\'"]',a)

if g != none:

#獲取herf的值,即a.html

#print('3',url) 除錯,輸出類似:http://localhost:1024/a.html

return result

def crawler(url):

print(url)

html = download(url)

urls = analyse(html)

#對每乙個url遞迴呼叫

2.執行結果:

ps:備註下search()和re.search()的區別。

Python 第乙個爬蟲

1 import urllib.request 2importre3 4class downpic 56 def init self,url,re str 7 self.url url 8 self.re str re str910 defgethtml self,url 11 page urlli...

第乙個爬蟲

很多人學習python的目的就是為了學習能夠實現爬蟲的功能,這裡,我使用了scrapy框架來實現了乙個簡單的爬蟲功能,這裡我簡單的介紹一下scrapy專案的建立,和執行。1,第一步是安裝scrapy,我相信到了這一步,大多數人都已經會安裝第三方庫檔案了,這裡主要是使用命令pip install sc...

第乙個爬蟲

一 程式測試 二 開啟360網頁 三 html計算 四 中國大學排名 爬取年費2018 五 函式介紹總結 1.requests 庫的網頁請求函式 函式 說明 get url timeout n 對應http的get方式,設定請求超時時間為n秒 post url,data 對應http的post方式,...