自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Spark UDF變長(zhǎng)參數(shù)的二三事兒

大數(shù)據(jù) Spark
在復(fù)雜業(yè)務(wù)邏輯中,我們經(jīng)常會(huì)用到Spark的UDF,當(dāng)一個(gè)UDF需要傳入多列的內(nèi)容并進(jìn)行處理時(shí),UDF的傳參該怎么做呢? 下面通過變長(zhǎng)參數(shù)引出,逐一介紹三種可行方法以及一些不可行的嘗試...

[[196259]]

在復(fù)雜業(yè)務(wù)邏輯中,我們經(jīng)常會(huì)用到Spark的UDF,當(dāng)一個(gè)UDF需要傳入多列的內(nèi)容并進(jìn)行處理時(shí),UDF的傳參該怎么做呢? 下面通過變長(zhǎng)參數(shù)引出,逐一介紹三種可行方法以及一些不可行的嘗試...

引子

變長(zhǎng)參數(shù)對(duì)于我們來說并不陌生,在Java里我們這么寫

  1. public void varArgs(String... args) 

在Scala里我們這么寫

  1. def varArgs(cols: String*): String 

而在Spark里,很多時(shí)候我們有自己的業(yè)務(wù)邏輯,現(xiàn)成的functions滿足不了我們的需求,而當(dāng)我們需要處理同一行的多個(gè)列,將其經(jīng)過我們自己的邏輯合并為一個(gè)列時(shí),變長(zhǎng)參數(shù)及其變種實(shí)現(xiàn)可以給我們提供幫助。

但是在Spark UDF里我們是 無法使用變長(zhǎng)參數(shù)傳值 的,但之所以本文以變長(zhǎng)參數(shù)開頭,是因?yàn)樾枨笃鹩谒?,而通過對(duì)它進(jìn)行變換,我們可以使用變長(zhǎng)參數(shù)或Seq類型來接收參數(shù)。

下面通過Spark-Shell來做演示,以下三種方法都可以做到多列傳參,分別是

  • 變長(zhǎng)參數(shù)(接受array類型)
  • Seq類型參數(shù)(接受array類型)
  • Row類型參數(shù)(接受struct類型)

變長(zhǎng)參數(shù)類型的UDF

定義UDF方法

  1. def myConcatVarargs(sep: String, cols: String*): String = cols.filter(_ != null).mkString(sep) 

注冊(cè)UDF函數(shù)

由于變長(zhǎng)參數(shù)只能通過方法定義,所以這里使用部分應(yīng)用函數(shù)來轉(zhuǎn)換

  1. val myConcatVarargsUDF = udf(myConcatVarargs _) 

可以看到該UDF的定義如下

  1. UserDefinedFunction(<function2>,StringType,List(StringType, ArrayType(StringType,true))) 

也即變長(zhǎng)參數(shù)轉(zhuǎn)換為了ArrayType,而且函數(shù)是只包括兩個(gè)參數(shù),所以變長(zhǎng)參數(shù)列表由此也可看出無法使用的。

變長(zhǎng)參數(shù)列表傳值

我們構(gòu)造一個(gè)DataFrame如下

  1. val df = sc.parallelize(Array(("aa""bb""cc"),("dd","ee","ff"))).toDF("A""B""C"

然后直接傳入多個(gè)String類型的列到myConcatVarargsUDF

  1. df.select(myConcatVarargsUDF(lit("-"), col("A"), col("B"), col("C"))).show 

結(jié)果出現(xiàn)如下報(bào)錯(cuò)

  1. java.lang.ClassCastException: anonfun$1 cannot be cast to scala.Function4 

由此可以看出,使用變長(zhǎng)參數(shù)列表的方式Spark是不支持的,它會(huì)被識(shí)別為四個(gè)參數(shù)的函數(shù),而UDF確是被定義為兩個(gè)參數(shù)而不是四個(gè)參數(shù)的函數(shù)!

變換:使用array()轉(zhuǎn)換做第二個(gè)參數(shù)

我們使用Spark提供的array() function來轉(zhuǎn)換參數(shù)為Array類型

  1. df.select(myConcatVarargsUDF(lit("-"), array(col("A"), col("B"), col("C")))).show 

結(jié)果如下

  1. +-------------------+ 
  2. |UDF(-,array(A,B,C))| 
  3. +-------------------+ 
  4. |           aa-bb-cc| 
  5. |           dd-ee-ff| 
  6. +-------------------+ 

由此可以看出,使用變長(zhǎng)參數(shù)構(gòu)造的UDF方法,可以通過構(gòu)造Array的方式傳參,來達(dá)到多列合并的目的。

使用Seq類型參數(shù)的UDF

上面提到,變長(zhǎng)參數(shù)***被轉(zhuǎn)為ArrayType,那不禁要想我們?yōu)槁锊皇褂肁rray或List類型呢?

實(shí)際上在UDF里,類型并不是我們可以隨意定義的,比如使用List和Array就是不行的,我們自己定義的類型也是不行的,因?yàn)檫@涉及到數(shù)據(jù)的序列化和反序列化。

以Array/List為示例的錯(cuò)誤

下面以Array類型為示例

定義函數(shù)

  1. val myConcatArray = (cols: Array[String], sep: String) => cols.filter(_ != null).mkString(sep) 

注冊(cè)UDF

  1. val myConcatArrayUDF = udf(myConcatArray) 

可以看到給出的UDF簽名是

  1. UserDefinedFunction(<function2>,StringType,List()) 

應(yīng)用UDF

  1. df.select(myConcatArrayUDF(array(col("A"), col("B"), col("C")), lit("-"))).show 

會(huì)發(fā)現(xiàn)報(bào)錯(cuò)

  1. scala.collection.mutable.WrappedArray$ofRef cannot be cast to [Ljava.lang.String 

同樣List作為參數(shù)類型也會(huì)報(bào)錯(cuò),因?yàn)榉葱蛄谢臅r(shí)候無法構(gòu)建對(duì)象,所以List和Array是無法直接作為UDF的參數(shù)類型的

以Seq做參數(shù)類型

定義調(diào)用如下

  1. val myConcatSeq = (cols: Seq[Any], sep: String) => cols.filter(_ != null).mkString(sep)  
  2. val myConcatSeqUDF = udf(myConcatSeq)  
  3. df.select(myConcatSeqUDF(array(col("A"), col("B"), col("C")), lit("-"))).show 

結(jié)果如下

  1. +-------------------+ 
  2. |UDF(array(A,B,C),-)| 
  3. +-------------------+ 
  4. |           aa-bb-cc| 
  5. |           dd-ee-ff| 
  6. +-------------------+ 

使用Row類型參數(shù)的UDF

我們可以使用Spark functions里struct方法構(gòu)造結(jié)構(gòu)體類型傳參,然后用Row類型接UDF的參數(shù),以達(dá)到多列傳值的目的。

  1. def myConcatRow: ((Row, String) => String) = (row, sep) => row.toSeq.filter(_ != null).mkString(sep)  
  2. val myConcatRowUDF = udf(myConcatRow)  
  3. df.select(myConcatRowUDF(struct(col("A"), col("B"), col("C")), lit("-"))).show 

可以看到UDF的簽名如下

  1. UserDefinedFunction(<function2>,StringType,List()) 

結(jié)果如下

  1. +--------------------+ 
  2. |UDF(struct(A,B,C),-)| 
  3. +--------------------+ 
  4. |            aa-bb-cc| 
  5. |            dd-ee-ff| 
  6. +--------------------+ 

使用Row類型還可以使用模式提取,用起來會(huì)更方便

  1. row match { 
  2.   case Row(aa:String, bb:Int) => 

***

對(duì)于上面三種方法,變長(zhǎng)參數(shù)和Seq類型參數(shù)都需要array的函數(shù)包裝為ArrayType,而使用Row類型的話,則需要struct函數(shù)構(gòu)建結(jié)構(gòu)體類型,其實(shí)都是為了數(shù)據(jù)的序列化和反序列化。三種方法中,Row的方式更靈活可靠,而且支持不同類型并且可以明確使用模式提取,用起來相當(dāng)方便。

而由此我們也可以看出,UDF不支持List和Array類型的參數(shù),同時(shí) 自定義參數(shù)類型 如果沒有混合Spark的特質(zhì)實(shí)現(xiàn)序列化和反序列化,那么在UDF里也是 無法用作參數(shù)類型 的。當(dāng)然,Seq類型是可以 的,可以接多列的數(shù)組傳值。

此外,我們也可以使用柯里化來達(dá)到多列傳參的目的,只是不同參數(shù)個(gè)數(shù)需要定義不同的UDF了。

責(zé)任編輯:武曉燕 來源: oschina博客
相關(guān)推薦

2012-09-21 09:49:37

HadoopHDFS

2023-12-04 18:31:59

C語言函數(shù)

2022-07-03 23:07:48

Go語言參數(shù)

2022-07-04 14:41:31

Go 語言變長(zhǎng)參數(shù)變長(zhǎng)參數(shù)函數(shù)

2014-06-23 09:48:02

VLAN

2022-03-16 19:04:33

設(shè)計(jì)模式場(chǎng)景

2013-08-07 14:19:30

禁用

2022-01-08 21:33:39

反入侵安全風(fēng)險(xiǎn)攻擊

2021-03-31 07:39:18

pythonHIVEUDF函數(shù)

2011-12-26 11:13:24

密碼

2015-12-08 14:49:13

SDN軟件定義網(wǎng)絡(luò)

2015-06-18 05:55:05

大數(shù)據(jù)大數(shù)據(jù)背后的事

2021-03-18 09:01:53

軟件開發(fā)軟件選型

2023-04-11 07:34:40

分布式系統(tǒng)算法

2020-01-03 07:57:39

UDPTCP網(wǎng)絡(luò)協(xié)議

2020-04-20 10:40:19

紅藍(lán)對(duì)抗網(wǎng)絡(luò)攻擊數(shù)據(jù)泄露

2012-08-15 16:03:25

Ubuntu 12.0服務(wù)器

2021-11-03 06:25:58

確定性網(wǎng)絡(luò)網(wǎng)絡(luò)無線網(wǎng)絡(luò)

2015-06-15 12:30:10

Hadooplong編碼剖析

2018-02-02 13:58:59

數(shù)據(jù)存儲(chǔ)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)