利用c 從網上爬取成語的解釋

2021-09-19 08:13:12 字數 2966 閱讀 7760

一年前寫的**,今天整理資料夾時偶然發現,**寫的很糟糕,原本打算刪掉的,但又想到當時兩眼昏沉地熬夜編**,心中生出了一絲不捨,今天把它放到這裡,就當是留個紀念吧!

**的功能是從本地的txt成語文件中提取成語,利用c#的 webrequest從網頁中爬取程式的解釋並分別存入txt文件和access資料庫中。

using system;

using system.collections.generic;

using system.componentmodel;

using system.data;

using system.drawing;

using system.linq;

using system.text;

using system.threading.tasks;

using system.windows.forms;

using system.data.oledb;

using system.io;

using system.net;

namespace 成語查詢v1._0

private

void

button1_click

(object sender, eventargs e)

//if (file.exists(textbox2.text + ".txt"))

//streamwriter = file.createtext(textbox2.text + ".txt");

streamwriter =

newstreamwriter

(file.

openwrite

(textbox2.text +

".txt"

),encoding.utf8)

; adox.catalog catalog =

newadox.catalog()

;if(textbox3.text == null || textbox3.text=="")

dbname = textbox3.text +

".mdb";if

(file.

exists

(dbname)

)else

catch

(exception ee)

} messagebox.

show

("連線本地成功!");

}private

void

button2_click

(object sender, eventargs e)

string name;

//成語的名字

string content;

//成語的解釋

string url;

string format1;

string format2;

string result1;

string result2;

//搜狗上搜尋結果數

if(path ==

""|| path == null)

num =

getcolnumber

(path)

;try

i++; progressbar1.value = i*

100/ num;}}

catch

(exception ex)

finally

}///

///

///

///

///

public

void

serchfromweb1

(string name,out string content)

else

}catch

(exception ee)

}///

/// 從www.51bc.net**上獲得成語的解釋

///

///

///

public

void

serchfromweb2

(string name,out string content)

else

}catch

(exception ee)

}///

/// 統計文件中的總行數

///

///

///

public

intgetcolnumber

(string thepath)

thereader.

close()

;return i;

}///

/// 在搜尋引擎上搜尋的結果數

利用selenium實現動態網頁的爬取

import re from selenium import webdriver from selenium.webdriver.chrome.options import options 通過獲取關鍵字職位數量 def numberpositionsbykeyword searchword 建立c...

簡單利用Python爬取豆瓣網某網頁的出版社資訊

真的有好久好久沒有寫部落格了,今天就隨便寫乙個吧,利用簡單的python知識爬取某網頁的文字資訊並寫入到本地 如下 import urllib.request import re 豆瓣出版社資訊爬取 實際上爬蟲需要幾個步驟 1.明確目標 要知道你準備在哪個範圍或者 去爬取資料 2.爬 將 的全部內容...

利用jieba對已爬取好的中國地名資訊進行分詞

import jieba import pandas as pd import os 定義乙個獲取分詞結果的函式,以列表形式返回 def get jieba output corpus dataframe word set 空列表 for i in corpus dataframe 0 因為地名資訊...