解決get提交資料量太大的問題

2021-07-31 17:33:55 字數 569 閱讀 6955

由於引數中是base64編碼後的資料,比較大,導致get請求失敗,提示資料太大。

get最大是256b,post是2m。

解決方式:

使用偽post方式:

//上傳方法

function picupload(){

var ocrimagesrc = document.queryselector('#ocr_img').childnodes[0].src;

"?reportlet=/crm/聯絡人新建_名片資訊錄入.cpt&op=write&photo="+ocrimagesrc)),"_self");

openpostwindow(encodeuri(hosturl+"?reportlet=/crm/聯絡人新建_名片資訊錄入.cpt&op=write"),encodeuri(ocrimagesrc),'_parent');

//alert(encodeuri((hosturl+"?reportlet=/crm/聯絡人新建_名片資訊錄入.cpt&op=write&photo=")));

重點:可以使用ajax post跨域方式,詳情請見:

MySQL 資料量太大怎麼提公升查詢效能?

比如隨著業務的發展,訂單表的資料量越來越大,這個時候查詢變慢了,我們可以採取什麼措施來提公升查詢效能呢?當單錶的訂單資料太多,多到影響效能的時候,首選的方案是,歸檔歷史訂單。所謂歸檔,其實也是一種拆分資料的策略。簡單地說,就是把大量的歷史訂單移到另外一張歷史訂單表中。為什麼這麼做呢?因為像訂單這類具...

資料量太大,節省記憶體的幾種方式

1 使用nrows和skip rows來讀取。提前申明dtype和usecols,可以節省記憶體空間。train data pd.read csv train dir,skiprows range 1,skip rows nrows train rows,dtype dtypes,usecols u...

請教,需要處理的資料量太大怎麼辦

請教,需要處理的資料量太大怎麼辦?情況是這樣的 資料庫中有幾個表,每個表記錄都超過10萬條,在查詢時需要交叉連線查詢 outer join 三個表,這就造成資料庫會生成一千萬條以上記錄的情況,所以這樣每查詢一次都需要兩秒以上時間.像這樣的查詢客戶每次請求都需要執行好幾百次,所以要等十幾分鐘才能結束....