clickhouse簡單使用 函式整理

2021-09-21 18:01:31 字數 1926 閱讀 9672

一、ddl

如果想按集群操作,需要借助zookeeper,在config.xml中新增配置

/clickhouse/task_queue/ddl

乙個節點建立表,會同步到各個節點

create table db.table [on cluster cluster] (…)

新增、刪除、修改列

alter table [db].table [on cluster cluster] add|drop|modify column …

rename 支援*mergetree和distributed

rename table db.table1 to db.table2 [on cluster cluster]

truncate table db.table;不支援distributed引擎

二、delete/update 不支援distributed引擎

alter table [db.]table delete where filter_expr…

alter table [db.]table update column1 = expr1 [, …] where …

三、分割槽表

按時間分割槽:

toyyyymm(eventdate):按月分割槽

tomonday(eventdate):按周分割槽

todate(eventdate):按天分割槽

按指定列分割槽:

partition by cloumn_name

對分割槽的操作:

alter table test1 drop partition [partition] #刪除分割槽

alter table test1 detach partition [partition]#下線分割槽

alter table test1 attach partition [partition]#恢復分割槽

alter table .test1 freeze partition [partition]#備份分割槽

四、資料同步

採用remote函式

insert into db.table select * from remote(『目標ip』,db.table,『user』,『passwd』)

csv檔案匯入clickhouse

cat test.csv | clickhouse-client -u user --password password --query=「insert into db.table format csv」

同步mysql庫中表

create table tmp engine = mergetree order by id as select * from mysql(『hostip:3306』, 『db』, 『table』, 『user』, 『passwd』) ;

4) clickhouse-copier 工具

五、時間戳轉換

select tounixtimestamp(『2018-11-25 00:00:02』) --datetime轉化為時間戳

注意:可以指定時區,例如:select tounixtimestamp(『2018-11-25 00:00:02』,『asia/shanghai』)

select todatetime(1543075202) --時間戳轉化為datetime

select todatetime(『2018-04-30 00:00:00』) --轉化為datetime的標準格式

結果:2018-04-30t00:00:00+00:00

六、函式彙總分類

1、日期類函式

2、型別轉化類函式

3、字串操作

4、條件語句

5、數學函式

6、捨入函式

7、url操作函式

8、ip操作函式

9、表操作

10、字典操作

具體參考:

簡單的clickhouse安裝

一 載入clickhouse源 curl s sudo bash ps 未安裝 curl 的先把 curl 裝上 sudo yum install y curl 二 看一下clickhouse源有沒有新增成功 sudo yum list clickhouse 三 安裝servier和client s...

clickhouse的使用教程

在檔案末尾新增 soft nofile 65536 hard nofile 65536 soft nproc 131072 hard nproc 131072 安裝依賴檔案 示例clickhouse client q show databases clickhouse client d system...

click house函式的使用

格式 hdfs url,format,struct select toint32ornull id name jobfrom hdfs hdfs linux01 8020 doit18 user2.csv csv id string name string,job string 格式 file pa...