Spark 寒假 實驗2

2022-09-14 17:06:12 字數 2526 閱讀 5961

printf("級數的前n項和為:%f \n",sum)

}}測試截圖:

//圓形

class circle(point: point,r:double) extends shape(point: point) with

drawable

//重寫,列印

override def draw(): unit =

//重寫,移動

override def moveto(point2: point): unit =}//

直線class line(point: point, point1: point)extends shape(point: point) with

drawable

//重寫,列印

override def draw(): unit =

//重寫,移動

override def moveto(point2: point): unit =

}object moni

}測試結果:

獲取第一行中的課程名

val allstudents = originaldata.tail //

去除第一行剩下的資料

val coursenum =coursenames.length

//統計函式,引數為需要常用統計的行

//用到了外部變數 coursenum,屬於閉包函式

def statistc(lines:list[array[string]])=

(temp.sum,temp.min,temp.max)

}) map //

最後乙個 map 對 for 的結果進行修改,將總分轉為平均分}//

輸出結果函式

def printresult(theresult:seq[(double,double,double)])%-10s$%5.2f$%8.2f$%8.2f")

} }//

分別呼叫兩個函式統計全體學生並輸出結果

val allresult =statistc(allstudents)

println("course **erage min max")

printresult(allresult)

//按性別劃分為兩個容器

val (malelines,femalelines) =allstudents partition //

分別呼叫兩個函式統計男學生並輸出結果

val maleresult =statistc(malelines)

println("course **erage min max")

printresult(maleresult)

//分別呼叫兩個函式統計男學生並輸出結果

val femaleresult =statistc(femalelines)

println("course **erage min max")

printresult(femaleresult)

} }測試截圖:

2020寒假學習記錄(9) spark實驗三

實驗3 spark讀取檔案系統的資料 1.在spark shell中讀取linux系統本地檔案 home hadoop test.txt 然後統計出檔案的行數 2.在spark shell中讀取hdfs系統檔案 user hadoop test.txt 如果該檔案不存在,請先建立 然後,統計出檔案的...

spark實驗總結

4,5實驗的問題在於spark儲存和讀取json的時候列名容易不是本來需要的欄位名而是c1,c2這樣的列名,解決辦法是不要用建議讀取方法而要指定讀取表頭。不用spark.read csv 而是 spark.read.format json option header true load hdfs n...

寒假打卡2

猜數字遊戲的提示 樣例輸入 41 3 5 5 1 1 2 3 4 3 3 5 6 5 5 1 0 0 0 0 101 2 2 2 4 5 6 6 6 9 1 2 3 4 5 6 7 8 9 1 1 1 2 2 3 3 4 4 5 5 0 0 0 0 0 0 0 0 0 0 0樣例輸出 game 1 ...