嘰裡呱啦實習第三十四天

2021-09-29 13:24:12 字數 1113 閱讀 3428

對於hive的使用,在hadoop集群裡,先啟動hadoop集群,再啟動mysql服務,然後,再hive即可。

對於hive的使用,在spark集群裡,先啟動hadoop集群,再啟動spark集群,再啟動mysql服務,然後,再hive即可。

hive操作命令:

進入mysql:mysql -uroot -p

10.9.1.229:3306

mysql的賬號密碼:

zhaojianfeng

jiligualazhaojianfeng

本地mysql:

data-source: com.mysql.jdbc.driver

url: jdbc:mysql:

username: root

password: 123456

問題:1:hive下的mysql裡的表匯入本地的mysql中手動建立相同結構相同名字的表?

2:這個hivetest的**沒有實現定時同步任務每五秒執行一次

3:hivetest類中的for迴圈是不是用來檢查結果集的值是否正確

4:insert這個sql引數怎麼填

5:動態是否要用 preparedstatement stmt = con.preparestatement(sql)

6:是否需要寫乙個executeupdate方法來進行新增,邏輯大概是什麼?

7:只能執行乙個sql,如何多個sql同時執行

spring boot 定時排程,jdbcutil

boolean rs = stmt.execute(sql);

if (rs == true)

今日學習心得:

現在的主要任務就是趕緊熟記jdbc util

對於hive的使用,在hadoop集群裡,先啟動hadoop集群,再啟動mysql服務,然後,再hive即可。

對於hive的使用,在spark集群裡,先啟動hadoop集群,再啟動spark集群,再啟動mysql服務,然後,再hive即可。

定時同步任務流程:

將hive下的mysql裡的表(查詢欄位t,a,u),在自己的mysql下新建乙個表(根據自己需求來建,欄位t,u,s),最後使自己的mysql裡的表(tnot null,unot null,s==null);

實習篇 第三十四天

為什麼直接寫三十四天,因為三十三那天過的太匆忙,上午好像又開了一次會議,下午便開始寫做任務!寫的東西都是第一次接觸的,難免有不懂不會的,然後師傅那邊又在忙他的事,就這樣過了一下午,下班後,我又趕著回學校參加明後兩天的畢業設計開題報告!真是 屋漏偏逢連夜雨 今天上午來到公司,任務剛做了一點,另乙個同事...

學習python的第三十四天 檔案

文中這段話很準確的說明了有關檔案的使用 你可以通過建立乙個file類的物件來開啟乙個檔案,分別使用file類的read readline或write方法來恰當地讀寫檔案。對檔案的讀寫能力依賴於你在開啟檔案時指定的模式。最後,當你完成對檔案的操作的時候,你呼叫close方法來告訴python我們完成了...

NeHe OpenGL第三十四課 地形

nehe opengl第三十四課 地形 從高度圖生成地形 這一課將教會你如何從乙個2d的灰度圖建立地形 歡迎來到新的一課,ben humphrey寫了這一課的 它是基於第一課所寫的。在這一課裡,我們將教會你如何使用地形,你將知道高度圖這個概念。下面我們來定義一些全域性變數,map size是你使用的...