Python批量合併文字檔案

2022-08-19 02:27:13 字數 1529 閱讀 3266

這幾天在coursela(乙個著名的mooc平台)上報名參加了一門課程:georgia institute of technology開設的machine design。

machine design是一門專業性很強的課程,主要講述了諸如靜力破壞和疲勞破壞理論、常見機械結構的分析,機械系統設計等內容。

分析一下,其實解決起來還是很簡單的:

markdown文件中加入目錄

markdown中,要加入目錄,只需要在文件正文前加入[toc]即可。

這裡通過向文件中寫入字幕稿前先寫入[toc]的方式解決。

為文字增加標題

為了增加辨識度且便於在文件中閱讀,需要為每段字幕稿在開始的位置加入標題。

這裡通過為獲取到的文字前和後增加對應字串的方式解決。

查詢並替換文件中的換行符\n

這裡選擇通過使用pythonreplace()方法將文字中的換行符\n替換掉,換成空格。

replace()方法需要輸入2個引數,第乙個引數即舊字串(需要被替換掉的字串),第二個引數即新字串(需要的字串)。

修改後的**:

# 1 迭代讀取字幕稿文字文件中的內容

for n in range(rangew):

f=open(fname,encoding='utf-8')

ftxt = f.read()

# 替換換行符為空格

chtxt = ftxt.replace('\n', ' ')

# 為markdown文件插入標題

addfilename = '#subtitle-' + str(n+1) + '\n' + chtxt

# 2 寫入markdown文件

fmd = open('transcript.md','w+')

# 寫入目錄

fmd.write('[toc]\n')

for t in range(len(text)):

fmd.write(text[t])

# 當前文件內容寫入完成後加入換行符隔開兩段內容

fmd.write('\n')

fmd.close()

**修改後的執行效果:

圖3 修改**後生成文件

圖4 修改**後生成文件(兩字幕稿之間)

對比**修改前後生成的markdown文件,**修改後的文件顏值增加明顯,十分便於閱讀。

以後工作中再遇到需要進行文字稿的批量彙總,調整一下**就可以嗖的一下完成,可以為自己節省出更多的時間給思考。

spark sql hive批量匯入文字檔案

在很多情況下,會需要將批量生成 如按天生成的記錄 匯入到hive中。針對這種應用場景,進行實驗。首先需要進行檔案目錄的遍歷,借助scala強大的函式式程式設計能力,利用array中的map函式進行操作即可。如函式如下 def loadintohive sc hivecontext,dir strin...

C 實現文字檔案合併

c 實現文字檔案合併 讀取n個文字檔案,把檔案內容合併到乙個文字檔案中。主要用了filestream的readbyte和writebyte方法 class filecombine catch system.exception ex finally 呼叫方法如下 class testcombine 揀...

合併多個文字檔案方法

把多個文字檔案合併的小方法 如何快速合併多個文字 如txt 檔案呢?這個其實很簡單。實驗 建立多個txt文字檔案,如下 其中內容分別為 1 a2 b 3 c4 d 現要把這四個txt檔案合成為乙個 sql 檔案。合併後的效果如下 linux下面其實更為簡單,想想如果把乙個日誌檔案清空,我們一般會怎樣...