spark學習筆記(1)

2021-09-13 17:41:02 字數 715 閱讀 1566

apache spark是一種新型的快速通用的集群計算引擎。spark是基於記憶體計算的大資料計算框架,提高了在大資料環境下資料處理的實時性,同時保證了高容錯性和高可伸縮性,允許使用者將spark部署在大量廉價的硬體之上。形成集群。

分布式計算;

記憶體計算

容錯多計算正規化

byte,char,short,int,long,float,double

scala

宣告方法

def f1(x:int,y:int) : int = x + y

宣告函式

var f1(x: int, y : int)=> x + y

函式作為方法的引數

def m2(f:(int,int)=>int) = f(3,4)

val f1 = (x: int, y :int) => x + y

m2(f1)

var res = for(i <- 1 to 10) yield i

res: scala.collection.immutable.indexedseq[int] = vector(1, 2, 3, 4, 5, 6, 7, 8,9, 10)

println(res)

(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)

var arr1 = new arrayint

array[int] = array(0, 0, 0, 0, 0, 0, 0, 0)

spark學習筆記(1)初來乍到

spark適用於需要多次操作特定資料集的應用場合。需要反覆操作的次數越多,所需讀取的資料量越大,受益越大,資料量小但是計算密集度較大的場合,受益就相對較小。是spark的核心概念是,指的是乙個唯讀的,可分割槽的分布式資料集,這個資料集的全部或部分可以快取在記憶體中,在多次計算間重用。這個很容易理解,...

Spark學習筆記(1) 基本函式

spark學習筆記 1 基本函式 前言 spark之精髓遠未領略,基本的函式和指令只能說是初體驗。希望日後可以將這個工具熟練掌握。語言 scala 內容 scala rdd.foreach println 字串內容 自己瞎輸的幾個字串 leige ddf dfe efefe sdcd dfe eff...

spark複習筆記 1

1 用sc.textfile 來實現檔案的載入 val rdd1 sc.testfile home centos test.txt 載入文字檔案,以換行符的方式切割文字檔案.array hello world1 產生第乙個彈性分布式資料集 2 元素拿來之後對集合中的每個元素進行切割,按照空格進行切割...