自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

通過擴展 Spark SQL ,打造自己的大數(shù)據(jù)分析引擎

大數(shù)據(jù) Spark
Spark SQL 的 Catalyst ,這部分真的很有意思,值得去仔細(xì)研究一番,今天先來說說Spark的一些擴展機制吧,上一次寫Spark,對其SQL的解析進(jìn)行了一定的魔改,今天我們按套路來,使用磚廠為我們提供的機制,來擴展Spark...

[[403924]]

Spark SQL 的 Catalyst ,這部分真的很有意思,值得去仔細(xì)研究一番,今天先來說說Spark的一些擴展機制吧,上一次寫Spark,對其SQL的解析進(jìn)行了一定的魔改,今天我們按套路來,使用磚廠為我們提供的機制,來擴展Spark...

首先我們先來了解一下 Spark SQL 的整體執(zhí)行流程,輸入的查詢先被解析成未關(guān)聯(lián)元數(shù)據(jù)的邏輯計劃,然后根據(jù)元數(shù)據(jù)和解析規(guī)則,生成邏輯計劃,再經(jīng)過優(yōu)化規(guī)則,形成優(yōu)化過的邏輯計劃(RBO),將邏輯計劃轉(zhuǎn)換成物理計劃在經(jīng)過代價模型(CBO),輸出真正的物理執(zhí)行計劃。

我們今天舉三個擴展的例子,來進(jìn)行說明。

擴展解析器

這個例子,我們擴展解析引擎,我們對輸入的SQL,禁止泛查詢即不許使用select *來做查詢,以下是解析的代。

  1. package wang.datahub.parser 
  2.  
  3. import org.apache.spark.sql.catalyst.analysis.UnresolvedStar 
  4. import org.apache.spark.sql.catalyst.expressions.Expression 
  5. import org.apache.spark.sql.catalyst.parser.ParserInterface 
  6. import org.apache.spark.sql.catalyst.plans.logical.{LogicalPlan, Project} 
  7. import org.apache.spark.sql.catalyst.{FunctionIdentifier, TableIdentifier} 
  8. import org.apache.spark.sql.types.{DataType, StructType} 
  9.  
  10. class MyParser(parser: ParserInterface) extends ParserInterface { 
  11.  /** 
  12.   * Parse a string to a [[LogicalPlan]]. 
  13.   */ 
  14.  override def parsePlan(sqlText: String): LogicalPlan = { 
  15.    val logicalPlan = parser.parsePlan(sqlText) 
  16.    logicalPlan transform { 
  17.      case project @ Project(projectList, _) => 
  18.        projectList.foreach { 
  19.          name => 
  20.            if (name.isInstanceOf[UnresolvedStar]) { 
  21.              throw new RuntimeException("You must specify your project column set," + 
  22.                " * is not allowed."
  23.           } 
  24.       } 
  25.        project 
  26.   } 
  27.    logicalPlan 
  28.  
  29.  /** 
  30.   * Parse a string to an [[Expression]]. 
  31.   */ 
  32.  override def parseExpression(sqlText: String): Expression = parser.parseExpression(sqlText) 
  33.  
  34.  /** 
  35.   * Parse a string to a [[TableIdentifier]]. 
  36.   */ 
  37.  override def parseTableIdentifier(sqlText: String): TableIdentifier = 
  38.    parser.parseTableIdentifier(sqlText) 
  39.  
  40.  /** 
  41.   * Parse a string to a [[FunctionIdentifier]]. 
  42.   */ 
  43.  override def parseFunctionIdentifier(sqlText: String): FunctionIdentifier = 
  44.    parser.parseFunctionIdentifier(sqlText) 
  45.  
  46.  /** 
  47.   * Parse a string to a [[StructType]]. The passed SQL string should be a comma separated 
  48.   * list of field definitions which will preserve the correct Hive metadata. 
  49.   */ 
  50.  override def parseTableSchema(sqlText: String): StructType = 
  51.    parser.parseTableSchema(sqlText) 
  52.  
  53.  /** 
  54.   * Parse a string to a [[DataType]]. 
  55.   */ 
  56.  override def parseDataType(sqlText: String): DataType = parser.parseDataType(sqlText) 

接下來,我們測試一下

  1. package wang.datahub.parser 
  2.  
  3. import org.apache.spark.sql.{SparkSession, SparkSessionExtensions} 
  4. import org.apache.spark.sql.catalyst.parser.ParserInterface 
  5.  
  6. object MyParserApp { 
  7.  def main(args: Array[String]): Unit = { 
  8.    System.setProperty("hadoop.home.dir","E:\\devlop\\envs\\hadoop-common-2.2.0-bin-master"); 
  9.    type ParserBuilder = (SparkSession, ParserInterface) => ParserInterface 
  10.    type ExtensionsBuilder = SparkSessionExtensions => Unit 
  11.    val parserBuilder: ParserBuilder = (_, parser) => new MyParser(parser) 
  12.    val extBuilder: ExtensionsBuilder = { e => e.injectParser(parserBuilder)} 
  13.    val spark =  SparkSession 
  14.     .builder() 
  15.     .appName("Spark SQL basic example"
  16.     .config("spark.master""local[*]"
  17.     .withExtensions(extBuilder) 
  18.     .getOrCreate() 
  19.  
  20.    spark.sparkContext.setLogLevel("ERROR"
  21.  
  22.    import spark.implicits._ 
  23.  
  24.    val df = Seq( 
  25.     ( "First Value",1, java.sql.Date.valueOf("2010-01-01")), 
  26.     ( "First Value",4, java.sql.Date.valueOf("2010-01-01")), 
  27.     ("Second Value",2,  java.sql.Date.valueOf("2010-02-01")), 
  28.     ("Second Value",9,  java.sql.Date.valueOf("2010-02-01")) 
  29.   ).toDF("name""score""date_column"
  30.    df.createTempView("p"
  31.  
  32.    //   val df = spark.read.json("examples/src/main/resources/people.json"
  33.    //   df.toDF().write.saveAsTable("person"
  34.    //,javg(score) 
  35.  
  36.    // custom parser 
  37.    //   spark.sql("select * from p ").show 
  38.  
  39.    spark.sql("select * from p").show() 

下面是執(zhí)行結(jié)果,符合我們的預(yù)期。

擴展優(yōu)化器

接下來,我們來擴展優(yōu)化器,磚廠提供了很多默認(rèn)的RBO,這里可以方便的構(gòu)建我們自己的優(yōu)化規(guī)則,本例中我們構(gòu)建一套比較奇怪的規(guī)則,而且是完全不等價的,這里只是為了說明。

針對字段+0的操作,規(guī)則如下:

  1. 如果0出現(xiàn)在+左邊,則直接將字段變成右表達(dá)式,即 0+nr 等效為 nr
  2. 如果0出現(xiàn)在+右邊,則將0變成3,即 nr+0 變成 nr+3
  3. 如果沒出現(xiàn)0,則表達(dá)式不變

下面是代碼:

  1. package wang.datahub.optimizer 
  2.  
  3. import org.apache.spark.sql.SparkSession 
  4. import org.apache.spark.sql.catalyst.expressions.{Add, Expression, Literal} 
  5. import org.apache.spark.sql.catalyst.plans.logical.LogicalPlan 
  6. import org.apache.spark.sql.catalyst.rules.Rule 
  7.  
  8. object MyOptimizer extends Rule[LogicalPlan] { 
  9.  
  10.  def apply(logicalPlan: LogicalPlan): LogicalPlan = { 
  11.    logicalPlan.transformAllExpressions { 
  12.      case Add(leftright) => { 
  13.        println("this this my add optimizer"
  14.        if (isStaticAdd(left)) { 
  15.          right 
  16.       } else if (isStaticAdd(right)) { 
  17.          Add(left, Literal(3L)) 
  18.       } else { 
  19.          Add(leftright
  20.       } 
  21.     } 
  22.   } 
  23.  
  24.  private def isStaticAdd(expression: Expression): Boolean = { 
  25.    expression.isInstanceOf[Literal] && expression.asInstanceOf[Literal].toString == "0" 
  26.  
  27.  def main(args: Array[String]): Unit = { 
  28.    System.setProperty("hadoop.home.dir","E:\\devlop\\envs\\hadoop-common-2.2.0-bin-master"); 
  29.    val testSparkSession: SparkSession = SparkSession.builder().appName("Extra optimization rules"
  30.     .master("local[*]"
  31.     .withExtensions(extensions => { 
  32.        extensions.injectOptimizerRule(session => MyOptimizer) 
  33.     }) 
  34.     .getOrCreate() 
  35.  
  36.    testSparkSession.sparkContext.setLogLevel("ERROR"
  37.  
  38.    import testSparkSession.implicits._ 
  39.    testSparkSession.experimental.extraOptimizations = Seq() 
  40.    Seq(-1, -2, -3).toDF("nr").write.mode("overwrite").json("./test_nrs"
  41. //   val optimizedResult = testSparkSession.read.json("./test_nrs").selectExpr("nr + 0"
  42.    testSparkSession.read.json("./test_nrs").createTempView("p"
  43.  
  44.    var sql = "select nr+0 from p"
  45.    var t = testSparkSession.sql(sql) 
  46.    println(t.queryExecution.optimizedPlan) 
  47.    println(sql) 
  48.    t.show() 
  49.  
  50.    sql = "select 0+nr from p"
  51.    var  u = testSparkSession.sql(sql) 
  52.    println(u.queryExecution.optimizedPlan) 
  53.    println(sql) 
  54.    u.show() 
  55.  
  56.    sql = "select nr+8 from p"
  57.    var  v = testSparkSession.sql(sql) 
  58.    println(v.queryExecution.optimizedPlan) 
  59.    println(sql) 
  60.    v.show() 
  61. //   println(optimizedResult.queryExecution.optimizedPlan.toString() ) 
  62. //   optimizedResult.collect().map(row => row.getAs[Long]("(nr + 0)")) 
  63.    Thread.sleep(1000000) 
  64.  

執(zhí)行如下

  1. this this my add optimizer 
  2. this this my add optimizer 
  3. this this my add optimizer 
  4. Project [(nr#12L + 3) AS (nr + CAST(0 AS BIGINT))#14L] 
  5. +- Relation[nr#12L] json 
  6.  
  7. select nr+0 from p 
  8. this this my add optimizer 
  9. this this my add optimizer 
  10. this this my add optimizer 
  11. +------------------------+ 
  12. |(nr + CAST(0 AS BIGINT))| 
  13. +------------------------+ 
  14. |                       2| 
  15. |                       1| 
  16. |                       0| 
  17. +------------------------+ 
  18.  
  19. this this my add optimizer 
  20. Project [nr#12L AS (CAST(0 AS BIGINT) + nr)#21L] 
  21. +- Relation[nr#12L] json 
  22.  
  23. select 0+nr from p 
  24. this this my add optimizer 
  25. +------------------------+ 
  26. |(CAST(0 AS BIGINT) + nr)| 
  27. +------------------------+ 
  28. |                     -1| 
  29. |                     -2| 
  30. |                     -3| 
  31. +------------------------+ 
  32.  
  33. this this my add optimizer 
  34. this this my add optimizer 
  35. this this my add optimizer 
  36. Project [(nr#12L + 8) AS (nr + CAST(8 AS BIGINT))#28L] 
  37. +- Relation[nr#12L] json 
  38.  
  39. select nr+8 from p 
  40. this this my add optimizer 
  41. this this my add optimizer 
  42. this this my add optimizer 
  43. +------------------------+ 
  44. |(nr + CAST(8 AS BIGINT))| 
  45. +------------------------+ 
  46. |                       7| 
  47. |                       6| 
  48. |                       5| 
  49. +------------------------+ 

擴展策略

SparkStrategies包含了一系列特定的Strategies,這些Strategies是繼承自QueryPlanner中定義的Strategy,它定義接受一個Logical Plan,生成一系列的Physical Plan

通過Strategies把邏輯計劃轉(zhuǎn)換成可以具體執(zhí)行的物理計劃,代碼如下

  1. package wang.datahub.strategy 
  2.  
  3. import org.apache.spark.sql.{SparkSession, Strategy} 
  4. import org.apache.spark.sql.catalyst.plans.logical.LogicalPlan 
  5. import org.apache.spark.sql.execution.SparkPlan 
  6.  
  7. object MyStrategy extends Strategy { 
  8.  def apply(plan: LogicalPlan): Seq[SparkPlan] = { 
  9.    println("Hello world!"
  10.    Nil 
  11.  
  12.  def main(args: Array[String]): Unit = { 
  13.    System.setProperty("hadoop.home.dir","E:\\devlop\\envs\\hadoop-common-2.2.0-bin-master"); 
  14.    val spark = SparkSession.builder().master("local").getOrCreate() 
  15.  
  16.    spark.experimental.extraStrategies = Seq(MyStrategy) 
  17.    val q = spark.catalog.listTables.filter(t => t.name == "six"
  18.    q.explain(true
  19.    spark.stop() 

執(zhí)行效果

好了,擴展部分就先介紹到這,接下來我計劃可能會簡單說說RBO和CBO,結(jié)合之前做過的一個小功能,一條SQL的查詢時間預(yù)估。

本文轉(zhuǎn)載自微信公眾號「麒思妙想」,可以通過以下二維碼關(guān)注。轉(zhuǎn)載本文請聯(lián)系麒思妙想公眾號。

 

責(zé)任編輯:武曉燕 來源: 麒思妙想
相關(guān)推薦

2015-10-16 09:21:13

SparkMySQL數(shù)據(jù)分析

2013-07-31 09:20:07

大數(shù)據(jù)引擎云計算個性化搜索

2017-10-11 11:10:02

Spark Strea大數(shù)據(jù)流式處理

2015-08-14 10:28:09

大數(shù)據(jù)

2019-06-19 16:01:14

Spark數(shù)據(jù)分析SparkSQL

2014-03-27 09:36:36

Spark

2021-08-06 11:01:23

大數(shù)據(jù)數(shù)據(jù)分析技術(shù)

2015-04-20 14:36:52

大數(shù)據(jù)大數(shù)據(jù)分析提升客戶體驗

2017-07-22 00:41:27

大數(shù)據(jù)數(shù)據(jù)存儲

2015-03-20 16:40:40

Spark大數(shù)據(jù)分析大數(shù)據(jù)

2019-07-31 14:16:35

大數(shù)據(jù)人工智能算法

2022-06-13 08:00:00

數(shù)據(jù)湖數(shù)據(jù)倉庫大數(shù)據(jù)

2015-07-29 14:41:35

2015-08-11 15:52:52

大數(shù)據(jù)數(shù)據(jù)分析

2021-10-12 15:25:08

大數(shù)據(jù)數(shù)據(jù)分析

2022-03-29 14:49:14

大數(shù)據(jù)數(shù)據(jù)分析

2013-04-09 09:28:20

大數(shù)據(jù)大數(shù)據(jù)全球技術(shù)峰會

2015-07-23 09:34:57

大數(shù)據(jù)數(shù)據(jù)分析

2012-08-21 16:32:41

IBM大數(shù)據(jù)數(shù)據(jù)分析

2023-12-22 15:49:02

大數(shù)據(jù)科學(xué)家Python數(shù)據(jù)分析師
點贊
收藏

51CTO技術(shù)棧公眾號