小強的Hadoop學習之路

2022-09-11 15:06:34 字數 868 閱讀 8155

本人一直在做net開發,接觸這行有6年了吧。畢業也快四年了(6年是因為大學就開始在一家小公司做門戶**,哈哈哈),之前一直秉承著學要精,就一直一門心思的在做net(也是懶吧)。最近的工作一直都和大資料清洗相關,想著要學學真正的大資料懶,不然都不好意思說自己是做資料清洗的。

目前關於hadoop的學習資料已經非常多了,寫出來只當作是自己學習經歷的筆記,如果順便還能幫助下後面的學習者,那當然是再好不過了。所以 目前起的是我(小強)的學習之路。

以下是我現在的學習步驟,所以學到哪寫到哪,不是系統學習的路線,望見諒!

環境準備三步

1、 ssh 免密碼登陸

ssh localhost

驗證是否可以登陸,如無配置,此時應是需要輸入密碼的

cd ~/.ssh #檢視是否存在

若不存在 

ssh-keygen -t rsa

生成公鑰和私鑰。密碼直接回車跳過,預設即可。

cd ~/.ssh 資料夾下 ls 命令會看到公鑰和私鑰。

然後

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

如無許可權,則輸入以下命令修改許可權

chmod 600 ~/.ssh/authorized_keys

此時輸入 ssh localhost,應該是直接進入了,大功告成!!!

2、jdk 1.8 

檢視j**a安裝路徑

/usr/libexec/j**a_home -v

3、hadoop 3.0.0

適用於自己的電腦版本,我的電腦是mac 64位。

4、用來執行其他指令碼語言的mapreduce,使用流標準的轉化處理

小強的Hadoop學習之路(二)

接著第一遍。中間間隔了大約半年的時間了,話不多說,直接進入主題。這篇是主要是應用篇。目前的環境是4臺機器 環境 centos 7.2 cdh5.10.2 網上很多安裝教程,這邊就不說明了。hive hdfs篇。1 路徑問題 進入hive 的命令。直接 hive 當前的登陸使用者登陸 或者 sudo ...

Hadoop學習之路

hadoop是谷歌的集群系統的開源實現 google集群系統 gfs mapreduce bigtable hadoop主要由hdfs hadoop distrubuted file system mapreduce和hbase組成。hadoop的初衷是為解決nutch的海量資料爬取和儲存的需要 h...

開啟Hadoop和Spark的學習之路

hadoop是乙個由apache 會所開發的分布式系統基礎架構。使用者可以在不了解分布式底層細節的情況下,開發分布式程式。充分利用集群的威力進行高速運算和儲存。hadoop實現了乙個分布式檔案系統 hadoop distributed file system 簡稱hdfs。hdfs有高容錯性的特點,...