SQL Server大資料量插入

2021-07-15 15:42:37 字數 1542 閱讀 3287

sql server大資料插入方法比較多,下面我們先談談bulk insert 方法。

首先,我們建立一張table,如下面t-sql指令碼:

create table testtable2

(id int,

amount int check(amount >=1000 and amount<=5000))

假設有這樣的文字資料 testdata.txt:

1    700
2    2000
3    870
4    4500

下面這個語句不檢查約束:

1:  

bulk insert testtable2

2:  

from

'd:\testdata\testdata.txt'

3:  

with

4:  (fieldterminator=',',
5:  rowterminator='\n')

這個是啟用約束的:

1:  

bulk insert testtable2

2:  

from

'd:\testdata\testdata.txt'

3:  

with

4:  (fieldterminator=',',
5:  rowterminator='\n',
6:  check_constraints)
7:  

select * from test

還可以使用firstrow和lastrow限制行數。如下copy前三行:

1:  

bulk insert testtable2

2:  

from

'd:\testdata\testdata.txt'

3:  

with

4:  (fieldterminator=',',
5:  rowterminator='\n',
6:  firstrow =1,
7:  lastrow=3)

使用errorfile選項 錯誤處理,如下記錄到d:\error.txt

1:  

bulk insert test

2:  

from

'd:\testdata\testdata.txt'

3:  

with

4:  (fieldterminator=',',
5:  rowterminator='\',
6:  firstrow =1,
7:  lastrow=3,
8:  errorfile ='f:\error.txt',
9:  check_constraints)

SQL Server百萬級大資料量刪除

原文 sql server百萬級大資料量刪除 刪除乙個表中的部分資料,資料量百萬級。一般delete from 表 delete from ysh where date 2016 06 21 此操作可能導致,刪除操作執行的時間長 日誌檔案急速增長 針對此情況處理 delete top from de...

MySQL效能優化大資料量插入資料

專案背景 對mysql資料進行初始化加密 假設待加密表 表名student,列名a,擁有5000w資料量 這個方案缺陷在於,修改列 刪除列會重建表,給所有資料行新增一段資料,所以會導致資料量越大越耗時。如果無法繞過新增列,那麼就得使用online ddl,最大限度減少鎖的使用。使用方式 alter ...

大資料量演算法

給40億個不重複的unsigned int的整數,沒排過序的,然後再給乙個數,如何快速判斷這個數是否在那40億個數當中 位圖思想解法 include stdio.h include stdlib.h include memory.h define max num 4294967295 int mai...