GO語言手動處理TCP粘包

2021-09-11 21:54:25 字數 1899 閱讀 2216

大部分tcp通訊場景下,使用自定義通訊協議

粘包處理原理:通過請求頭中資料報大小,將客戶端n次傳送的資料緩衝到乙個資料報中例如: 請求頭佔3個位元組(指令頭1位元組、資料報長度2位元組),版本佔1個位元組,指令佔2個位元組 協議規定乙個資料報最大是512位元組,請求頭中資料報記錄是1300位元組,完整的資料報是1307個位元組,此時伺服器端需要將客戶端3次傳送資料進行粘包處理

package server

import (

"net"

"bufio"

"ftj-data-synchro/protocol"

"golang.org/x/text/transform"

"golang.org/x/text/encoding/simplifiedchinese"

"io/ioutil"

"bytes"

"ftj-data-synchro/logic"

"fmt"

"strconv")/*

客戶端結構體

*/type client struct

func newclient(conn *net.tcpconn) *client

return c

}/**

資料讀取(粘包處理)

*/func (this *client)read

() //返回緩衝中現有的可讀取的位元組數

var bytesize = this.reader.buffered()

fmt.printf("讀取位元組長度:%d\n", bytesize)

//生成乙個位元組陣列,大小為緩衝中可讀位元組數

data = make(byte, bytesize)

//讀取緩衝中的資料

this.reader.read(data)

fmt.printf("讀取位元組:%d\n", data)

//儲存到新的緩衝區

for _, v := range data

if len(this.data) < 4

fmt.printf("非法資料,無指令頭...\n")

continue

} data, err = protocol.hexbytestobytes(this.data[:4])

instructhead, _ := strconv.parseuint(string(data), 16, 16)

//指令頭效驗

if uint16(instructhead) != 42330

continue

} data = this.data[:protocol.header_size]

var p = protocol.decode(data)

fmt.printf("訊息體長度:%d\n", p.len)

var bodylength = len(this.data)

/**判斷資料報緩衝區的大小是否小於協議請求頭中資料報大小

如果小於,等待讀取下乙個客戶端資料報,否則對資料報解碼進行業務邏輯處理

*/if int(p.len) > len(this.data) - protocol.header_size

fmt.printf("實際處理位元組:%v\n", this.data)

p = protocol.decode(this.data)

//邏輯處理

go this.logichandler(p)

//資料報緩衝區清空

this.data = byte{} }}

複製**

type client struct 

複製**

結構體中data屬性可考慮使用bytes.buffer實現。

golang標準庫文件:

go語言處理TCP拆包 粘包的具體實現

目錄 最近在學習go自帶的rpc,看完了一遍想著自己實現乙個codec,也就是自定義訊息的序列化和反序列化。訊息的序列化和反序列化涉及到兩步 1 從網路中讀取資料和將資料寫到網路中 2 根據拿到的二進位制資料反序列化以及把現有的物件序列化成二進位制資料。而這個過程中就需要處理程式設計客棧tcp的拆包...

處理tcp粘包問題

tcp是位元組流,無邊界,udp是訊息,是有邊界的。就是udp返回的就是乙個訊息。所以tcp會產生粘包問題。如何解決粘包問題,所以我們要在應用層維護訊息與訊息的邊界。比如說定長包,包尾加 r n ftp 包頭加包體長度,更複雜的應用層協議。readn接受確切資料的讀操作 cli include in...

TCP粘包的拆包處理

因為tcp是流式處理的,所以包沒有邊界,必須設計乙個包頭,裡面表示包的長度 一般用位元組表示 根據這個來逐個拆包。如果對於傳送 接收頻率不高的話,一般也就不做拆包處理了,因為不大可能有粘包現象。以下是粘包和拆包的分析 用qt的tcpsocket讀出的資料來拆 1 m imp m thread boo...