沃保網爬蟲(二) 爬蟲資料儲存MySQL 建表

2021-08-19 16:27:14 字數 2499 閱讀 5100

沃保網爬的每乙個**人資料,最後以字典形式儲存

這樣的鍵值對結構,具體通過desc  表名;可以檢視表結構,我們建好表結構後,就可以通過按照字典的鍵值對儲存在表對應的字段中,紅框標出的是表結構的欄位名稱,下面我會講如何建立這個結構的表

照顧不懂mysql資料庫的同學,我會從連線資料庫,建立資料庫,建立表詳細的講

1、連線資料庫

開啟終端,輸入命令mysql -uroot -pmysql,-u後面跟使用者名稱,-p後面跟密碼

show databases;顯示所有資料庫,表明連線成功

2、建立資料庫

create database 表名 charset=utf8;    

一定要加charset=utf8;指定編碼格式,並且show databases;後建立的ty資料庫已經建立成功

3、建立表

建立表我們一定要先用指定的資料庫,命令是use 資料庫名;(use ty)

接下來這幾行**是建立表結構的

create table 表名(*****;)建立表

注意末尾以分號結尾,id預設是主鍵,即primary key,整數自增排序

name、ltd、city等字段,一般對字串型,我們用varchar(20)來表示,裡面的數值代表該欄位填充內容的最大長度,

比如我給name、ltd設定的為20,給id_num(資格證號)設定的40,給photo(**位址)設定的100,根據實際需求設定

create table pabx(

id intunsigned

primary key

auto_increment

not null,

name

varchar(20)

default '',

ltd  varchar(20) default '',

city varchar(20) default '',

id_num varchar(40) default '',

photo varchar(100) default '',

level varchar(20) default '',

num varchar(20) default 0,

wechat varchar(100) default '',

website varchar(100) default '',

detail_url varchar(100) default '' );

最後我們desc pabx;檢視表結構,成功建立,就可以正常儲存資料了

4、檢視表資料

select * from pabx;  看到新建的表裡面是空資料

5、python操作mysql儲存字典型別的爬蟲資料

該方法我覺得很好用,比沃保網原始碼中我之前手動拼接sql語句的寫法好用的多,建議大家用這種方式傳引數的方式來寫,欄位我舉例子,寫了name、ltd、city三個,你可以對爬蟲資料的所有欄位都加上

檢視儲存的字典已經正常儲存,num=0是因為我們在建立表時候指定了預設值為0,id是預設自增,從1開始,跟多字段內容儲存,大家可以嘗試手動構造,由淺入深,慢慢就會知道很多套路和簡單的寫法

Python爬蟲(二) 爬蟲獲取資料儲存到檔案

本篇文章 繼續介紹另外兩種方式來實現python爬蟲獲取資料,並將python獲取的資料儲存到檔案中。說明一下我的 環境是python3.7,本地環境是python2.x的可能需要改部分 用python3.x環境的沒問題。coding utf 8 import urllib.request impo...

爬蟲資料儲存csv

一,csv檔案的簡單讀寫import csv csv也叫逗號分分隔,一般以逗號分隔,也可以使用空格或者tab分隔 csv file open file test.csv w 寫入 try csv write csv.writer csv file csv write.writerow col1 co...

scrapy 爬蟲儲存資料

scrapy儲存資訊的最簡單的方法主要有四種,o 輸出指定格式的檔案,命令如下 json格式,預設為unicode編碼 scrapy crawl itcast o teachers.json json lines格式,預設為unicode編碼 scrapy crawl itcast o teache...