用Python做爬蟲時,提取Excel資料

2021-09-25 07:01:59 字數 771 閱讀 4398

需求:爬蟲時,根據excel裡的資料進行爬取,再將獲取的資料匯入並儲存到新的excel裡:

import xlrd

data = xlrd.

open_workbook

(r'此處為excel檔案.xlsx'

) #預設當前路徑

# 獲取所有的sheet

sheet_name = data.

sheet_names()

[0]# 根據sheet索引或者名稱獲取sheet內容

sheet = data.

sheet_by_index(0

) # sheet索引從0開始

print

(sheet.

cell_value(1

,2)) #獲取指定單元格裡第2行,第3列的值

# 獲取整行和整列的值(陣列)

#rows = sheet.

row_values(0

) # 獲取第1行的內容

cols = sheet.

col_values(1

) # 獲取第2列的內容

print

(cols)

# 第2列

(cols對應列),從第1行開始, 獲取至第6行

value =

for i in

range(1

,6):

value.

(cols[i]

)print

(value)

python做爬蟲 python怎麼做爬蟲

python編寫爬蟲的整體思路簡單清晰,下面來說一下具體的步驟 整體思路流程通過url獲取說要爬取的頁面的響應資訊 requests庫的使用 通過python中的解析庫來對response進行結構化解析 beautifulsoup庫的使用 通過對解析庫的使用和對所需要的資訊的定位從response中...

八 用scikit learn做特徵提取

現實世界中多數特徵都不是連續變數,比如分類 文字 影象等,為了對非連續變數做特徵表述,需要對這些特徵做數學化表述,因此就用到了特徵提取 比如城市作為乙個特徵,那麼就是一系列雜湊的城市標記,這類特徵我們用二進位制編碼來表示,是這個城市為1,不是這個城市為0 比如有三個城市 北京 天津 上海,我們用sc...

python做爬蟲難嗎 python寫爬蟲難嗎

所謂網路爬蟲,通俗的講,就是通過向我們需要的url發出http請求,獲取該url對應的http報文主體內容,之後提取該報文主體中我們所需要的資訊。下面是乙個簡單的爬蟲程式 http基本知識 當我們通過瀏覽器訪問指定的url時,需要遵守http協議。本節將介紹一些關於http的基礎知識。http基本流...