Python 爬蟲系列(一)

2021-08-13 11:02:08 字數 2328 閱讀 5211

1、為了省去時間投入學習,推薦直接安裝整合環境 anaconda

2、ide:pycharm、pydev

3、工具:jupyter notebook(安裝完anaconda會有的)

1、瘋狂的python:快速入門精講(python2.x,可體驗到與python3.x的差異)

看完這些課程,自己對python有乙個感覺和掌握,可以繼續看一些高階教程

3、python3大全(pasword:bf3e)

1、python網路爬蟲實戰(完整的看下來,收穫不小)

2、python3爬蟲三大案例實戰分享(非常好的課程,很多乾貨)

1、python爬蟲的最佳實踐

2、python網路爬蟲實戰專案**大全

3、零基礎製作乙個python 爬蟲

4、python爬蟲入門

5、python3(csdn部落格)

7、抓取鬥魚tv的房間資訊

1、python爬蟲小白入門

2、輕鬆自動化---selenium-webdriver(python)

3、python 正規表示式 re 模組簡明筆記

4、【python 筆記】selenium 簡介

5、selenium webdriver定位頁面元素的幾種方式

6、python爬蟲利器selenium+phantomjs系列入門

7、python爬蟲入門(7):正規表示式

(大家可以關注寫這些文章的作者,一般他們有python文集,大家可以收藏下有參考價值的文章)

我直接把原始碼貼在這裡了,是參考python網路爬蟲實戰課程做下來的

import re

import json

import requests

commenturl='

channel=gn&newsid=comos-{}&\

group=&compress=0&ie=utf-8&oe=utf-8&page=1&page_size=20&jsvar=loader_1491395188566_53913700'

def getcommentcounts(newsurl):

#獲取新聞id

m=re.search('doc-i(.+).shtml',newsurl)

newsid=m.group(1)

comments=requests.get(commenturl.format(newsid))

#將資訊解析為json格式

jd=json.loads(comments.text.strip('var loader_1491395188566_53913 700='))

return jd['result']['count']['total']

新聞內文資訊抽取函式

import requests

from datetime import datetime

from bs4 import beautifulsoup

def getnewsdetail(newsurl):

result={}

res=requests.get(newsurl)

res.encoding='utf-8'

soup=beautifulsoup(res.text,'html.parser')

result['title']=soup.select('#artibodytitle')

timesource=soup.select('.time-source')[0].contents[0].strip()

result['dt']=datetime.strptime(timesource,'%y年%m月%d日%h:%m')

result['source']=soup.select('.time-source span a')[0].text

result['article']=' '.join([p.text.strip() for p in soup.select('#artibody p')[:-1]])

return result

**

python爬蟲系列(一)

整理這番外篇的原因是希望能夠讓爬蟲的朋友更加理解這塊內容,因為爬蟲爬取資料可能很簡單,但是如何高效持久的爬,利用程序,執行緒,以及非同步io,其實很多人和我一樣,故整理此系列番外篇 程式並不能單獨和執行只有將程式裝載到記憶體中,系統為他分配資源才能執行,而這種執行的程式就稱之為程序。程式和程序的區別...

Python爬蟲系列

部落格 python,爬蟲 由於近來學 lan 業 ai 繁 fa 忙 zuo 快乙個月沒有更新部落格了。這周完成了兩門課的結課考試,現下時間開始變得充裕。準備梳理一下前段時間學習的關於python爬蟲的內容,權當複習鞏固知識。而初次學習時遇到的疑難雜症,那時候的應對策略是抓大放下,在這梳理過程會下...

Python爬蟲簡述系列之一

根據使用場景,網路爬蟲可分為通用爬蟲和聚焦爬蟲兩種.搜尋引擎網路爬蟲的基本工作流程如下 1,首先選取一部分的種子url,將這些url放入待抓取url佇列 3,分析已抓取url佇列中的url,分析其中的其他url,並且將url放入待抓取url佇列,從而進入下乙個迴圈 在其他 上設定新 外鏈 盡可能處於...