爬蟲分頁爬取獵聘 15python爬取百度貼吧

2021-10-17 07:06:16 字數 1855 閱讀 8294

不要問我這個十一去哪兒旅遊了,我還在家沒日沒夜的碼**。

這次我們用urllib爬取頁面,再用beautifulsoup提取有用資訊,最後用xlsxwriter把獲取的資訊 寫入到excel表

python 基礎

xlsxwriter用來寫入excel檔案的 

urllib python內建爬蟲工具 

beautifulsoup解析提取資料

•win+r 開啟執行•輸出cmd 進入控制台•分別安裝beautifulsoup4,lxml,xlsxwriter

pip install   lxmlpip install   beautifulsoup4pip install   xlsxwriter
我們單擊分頁按鈕,拿到頁面最後乙個引數的規律 

第二頁:旅遊&ie=utf-8&pn=50

第三頁:旅遊&ie=utf-8&pn=100

第四頁:旅遊&ie=utf-8&pn=150

旅遊資訊列表*開啟網頁旅遊&ie=utf-8&pn= 50按鍵盤f12鍵或者 滑鼠右鍵"檢查元素"(我用的谷歌chrome瀏覽器)

發現所有旅遊列表都有個共同的class類名j_thread_list

作者與建立時間作者的class為frs-author-name,建立時間的class為is_show_create_time

標題標題的class為j_th_tit

《0基礎python爬蟲系列教程》

01為什麼要學習爬蟲

02-認識python爬蟲

03-爬蟲基本原理

04-爬蟲利器fiddler

05-http協議-

06-爬蟲庫urllib

07-tcp3

08-頁面解析之資料提取

09-xpath 語言

10-lxml庫

11-beautiful soup

12-正規表示式

13-python爬蟲json操作

14-python 讀寫 excel

it入門 感謝關注

爬蟲爬取百度貼吧 python

本爬蟲是在pycharm中編寫完成,伺服器環境是ubuntu16.04,使用語言是python3,匯入的模組包是requests模組 匯入模組 import requests class tiebaspider object def init self self.base url self.head...

爬取百度貼吧

import urllib.request import urllib.parse import os,time 輸入貼吧名字 baname input 請輸入貼吧的名字 start page int input 請輸入起始頁 end page int input 請輸入結束頁 不完整的url ur...

爬取百度貼吧

帶入需要使用的包 from urllib import request,parse importos 基礎知識 變數賦值 字串賦值 爬取的關鍵字 kw lol 數值賦值 爬取的頁數範圍 start 1end 4 輸出 print kw,start,end 宣告需要爬取的連線 base url 建立資...