磁碟擴容(原先資料不丟失)

2022-06-01 23:00:08 字數 864 閱讀 4414

mongodb擴容方案

1、 現狀

兩塊100g的iscsi儲存,分別掛載在/mnt/mongodata和/mnt/mongodata2

其中player_db,repository_d_telecom,task_db,upns_db在mongodata2上,並通過軟鏈的方式連到mongodata

2、 擴容步驟一(停機前準備)

在現有4臺mongodb主機10.127.6.112/117/121/126上,分別分配500giscsi儲存,格式化並掛載到/mnt/mongotemp上

3、 擴容步驟二(停機)

發布pc端和手機端停機公告,測試公告有效後進行下一步

4、 擴容步驟三(停機後操作過程)

按照126,121,117,112的順序關閉4臺mongodb應用

將兩塊資料盤內容複製到新的儲存上

cp –r /mnt /mongodata2/* /mnt/mongotemp

cp –r /mnt/mongodata/* /mnt/mongotemp

確認複製完畢後,先移除mongodata的掛載,將500g儲存掛載到mongodata

umount –l /mnt/mongodata

umount –l /mnt/mongotemp

按112,117,121,126的順序啟動mongodb,並檢視同步是否正常

5、 結果確認

檢視閘道器和基礎資料是否有報錯,資料庫連線是否恢復,若無法自動重連則重啟應用

嘗試登陸並測試各業務,確認是否成功。

撤銷維護公告

一周後,**原有的兩塊100g儲存

6、 回退方案

恢復掛載

重啟相關應用,並確認業務恢復,撤消維護公告

kafka 資料不丟失

設定引數 props.put bootstrap.servers 10.176.2.170 9092,10.176.1.97 9092,10.176.7.57 9092 producer用於壓縮資料的壓縮型別。預設是無壓縮 props.put compression.type gzip 增加延遲 p...

Kafka重複消費,不丟失資料

kafka0.11.0.0版本正式支援精確一次處理語義exactly once semantic eos kafka冪等性參考 1 冪等producer 保證單個分割槽的只會傳送一次,不會出現重複訊息 2 事務 transation 保證原子性的寫入多個分割槽,即寫入到多個分割槽的訊息要麼全部成功,...

Kafka如何保證資料不丟失

kafka的ack機制 在kafka傳送資料的時候,每次傳送訊息都會有乙個確認反饋機制,確保訊息正常的能夠被收到,其中狀態有0,1,1。producer.type sync request.required.acks 1 producer.type async request.required.ac...