SparkSQL的執行模式

2021-08-20 13:47:38 字數 530 閱讀 8767

1、dsl模式 【通過呼叫方法】

datafame.select("name").show

datafame.filter($"age" > 25).show

2、sql模式 【通過執行sql】

1、先建立一張表:

乙個sparkcontext可以多次建立  sparksession

//session內可訪問, 乙個sparksession結束後,表自動刪除。

dataframe.createorreplacetempview("people")    使用表名不需要任何字首。

//應用級別內可訪問,乙個sparkcontext結束後,表自動刪除。

dataframe.createglobaltempview("people")     使用表名需要加上 "

global_temp." 字首,  比如  global_temp.people

2、執行sql

spark.sql("select * from people") 即可

Spark SQL執行原理和架構

一 spark sql執行架構 spark sql對sql語句的處理和關係型資料庫類似,即詞法 語法解析 繫結 優化 執行。spark sql會先將sql語句解析成一棵樹,然後使用規則 rule 對tree進行繫結 優化等處理過程。spark sql由core catalyst hive hive ...

spark sql 執行計畫生成案例

公尺妮中文網 乙個sql從詞法解析 語法解析 邏輯執行計畫 物理執行計畫最終轉換為可以執行的rdd,中間經歷了很多的步驟和流程。其中詞法分析和語法分析均有antlr4完成,可以進一步學習antlr4的相關知識做進一步了解。本篇文章主要對乙個簡單的sql生成的邏輯執行計畫物理執行計畫的做乙個簡單地說明...

spark sql 執行計畫生成案例

乙個sql從詞法解析 語法解析 邏輯執行計畫 物理執行計畫最終轉換為可以執行的rdd,中間經歷了很多的步驟和流程。其中詞法分析和語法分析均有antlr4完成,可以進一步學習antlr4的相關知識做進一步了解。本篇文章主要對乙個簡單的sql生成的邏輯執行計畫物理執行計畫的做乙個簡單地說明。case c...