docker操作詳解及步驟分析和錯誤分析

2021-08-20 02:01:59 字數 1680 閱讀 8363

用docker的原因:技術儲備,無技術債、跟上節奏,提公升自身能力,符合當前業務需求,執行快。

docker的缺點:伺服器掛了,所有資料消失。

2.啟動docker服務/etc/init.d/docker start

3.檢視docker映象庫 docker search centos

5.檢視映象 docker images(repository=來自哪個倉庫tag=映象的標籤image id=映象唯一的id created=建立時間sizee=映象大小)

6.刪除映象 docker rmi +id(如果該映象已經建立了容器則不能刪除)

7.用docker列印hello world:docker run centos /bin /echo 'hello world'

8.檢視所有容器的詳細資料:docker ps -a

9.重新命名容器執行進入容器 :docker run  --name mydocker -it centos /bin/bash(-t:建立的偽終端tty登入進去,-i容器的標準輸入開啟/bin/bash: 執行命令就是/bin/bash)

10.每次啟動只能啟動乙個容器

11.退出容器exit

12.啟動容器:docker start+id

13.後台執行容器:docker run -d --name mydocker1 centos(-d就是到後台執行)

14.停止容器:docker stop +id

15.刪除容器 docker rm +id

17.第二種方法進去:nsenter(安裝apt-get install util-linux)。nsenter -t +pid -u -i -n -p

18.獲取pid(容器必須啟動):docker inspect --format "}" +id

第三種方法:docker exec -it +id bash

19.看進入容器的方法cat in.sh

#! /bin/bash

pid=docker inspect --format "}" $1

nsenter -t $pid -u -i -n -p

20.容器退出後自動刪除:docker run --rm centos /bin/echo 'hello world'

21.關閉正在執行所有的容器:docker kill $(docker ps -a -q)

22.檢視日誌:docker log +id

23.隨機埠對映docker run -p nginx

24.指定埠對映docker run -p 81:80(容器) nginx

25.容器的資料卷:docker run -it --name myubuntu -v /data ubuntu 將data資料卷掛載到了物理機(或者直接將某個目錄掛載到某個目錄下也用-v(-v src:dec))

26.檢視資料卷掛載到物理機的位置:docker inspect -f } +容器名稱

27.指定許可權docker -v/data:/opt:ro(唯讀)(冒號前後都不能有\)

28.讓乙個容器去訪問另乙個容器卷(容器):docker run -it --name myubuntu2 --volumes-from myubuntu ubuntu (將myubuntu下的/data掛載到myubuntu2上面)

29.製作映象docker commit -m"my nginx" +id +倉庫名:v1

大資料分析步驟及分析方法詳解

1 識別目標需求 首先必須明確資料分析的目標需求,從而為資料的收集和分析提供清晰的方向,該步驟是資料分析有效性的首要條件。2 採集資料3 資料預處理 對資料進行必要的預處理,常用的資料預處理方法包括 資料整合 資料清洗 資料去冗餘。4 資料探勘 資料探勘的目的是在現有資料基礎之上利用各類有效的演算法...

Redis批量操作詳解及效能分析

指令執行開銷 高併發下 資源競爭和系統排程排程開銷 管道 pipelining 事務 transaction 基於事務的管道 transaction in pipelining mset 適用於string型別 hmget 適用於hash型別 hmset 適用於hash型別 批量命令在key數目巨大...

變數及變數操作步驟

變數 存放資料的,並且該變數中的資料是可以發生改變的 常用資料型別 整數型別 int 浮點型別 double 字串型別 string 字元型別 char 布林型別 boolean 變數的操作步驟 第一步 宣告變數,也就是確定當前變數存放資料的型別 語法格式 資料型別 變數名稱 如 int a 資料型...