自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Hive基于UDF進(jìn)行文本分詞

運(yùn)維 數(shù)據(jù)庫運(yùn)維
Hive作為一個(gè)sql查詢引擎,自帶了一些基本的函數(shù),比如count(計(jì)數(shù)),sum(求和),有時(shí)候這些基本函數(shù)滿足不了我們的需求,這時(shí)候就要寫hive hdf(user defined funation),又叫用戶自定義函數(shù)。

 [[361269]]

本文轉(zhuǎn)載自微信公眾號(hào)「Java大數(shù)據(jù)與數(shù)據(jù)倉庫」,作者劉不二 。轉(zhuǎn)載本文請(qǐng)聯(lián)系Java大數(shù)據(jù)與數(shù)據(jù)倉庫公眾號(hào)。  

UDF 簡(jiǎn)介

Hive作為一個(gè)sql查詢引擎,自帶了一些基本的函數(shù),比如count(計(jì)數(shù)),sum(求和),有時(shí)候這些基本函數(shù)滿足不了我們的需求,這時(shí)候就要寫hive hdf(user defined funation),又叫用戶自定義函數(shù)。編寫Hive UDF的步驟:

  • 添加相關(guān)依賴,創(chuàng)建項(xiàng)目,這里我用的管理工具是maven,所以我創(chuàng)建的也是一個(gè)maven 項(xiàng)目(這個(gè)時(shí)候你需要選擇合適的依賴版本,主要是Hadoop 和 Hive,可以使用hadoop version和hive --version 來分別查看版本)
  • 繼承org.apache.hadoop.hive.ql.exec.UDF類,實(shí)現(xiàn)evaluate方法,然后打包;
  • 使用 add方法添加jar 包到分布式緩存,如果jar包是上傳到$HIVE_HOME/lib/目錄以下,就不需要執(zhí)行add命令了;
  • 通過create temporary function創(chuàng)建臨時(shí)函數(shù),不加temporary就創(chuàng)建了一個(gè)永久函數(shù);
  • 在SQL 中使用你創(chuàng)建的UDF;

UDF分詞

這個(gè)是一個(gè)比較常見的場(chǎng)景,例如公司的產(chǎn)品有每天都會(huì)產(chǎn)生大量的彈幕或者評(píng)論,這個(gè)時(shí)候我們可能會(huì)想去分析一下大家最關(guān)心的熱點(diǎn)話題是什么,或者是我們會(huì)分析最近一段時(shí)間的網(wǎng)絡(luò)趨勢(shì)是什么,但是這里有一個(gè)問題就是你的詞庫建設(shè)的問題,因?yàn)槟闶褂猛ㄓ玫脑~庫可能不能達(dá)到很好的分詞效果,尤其有很多網(wǎng)絡(luò)流行用語它是不在詞庫里的,還有一個(gè)就是停用詞的問題了,因?yàn)楹芏鄷r(shí)候停用詞是沒有意義的,所以這里我們需要將其過濾,而過濾的方式就是通過停用詞詞表進(jìn)行過濾。

這個(gè)時(shí)候我們的解決方案主要有兩種,一種是使用第三方提供的一些詞庫,還有一種是自建詞庫,然后有專人去維護(hù),這個(gè)也是比較常見的一種情況。

最后一個(gè)就是我們使用的分詞工具,因?yàn)槟壳爸髁鞯姆衷~器很多,選擇不同的分詞工具可能對(duì)我們的分詞結(jié)果有很多影響。

分詞工具

1:Elasticsearch的開源中文分詞器 IK Analysis(Star:2471)

IK中文分詞器在Elasticsearch上的使用。原生IK中文分詞是從文件系統(tǒng)中讀取詞典,es-ik本身可擴(kuò)展成從不同的源讀取詞典。目前提供從sqlite3數(shù)據(jù)庫中讀取。es-ik-plugin-sqlite3使用方法:1. 在elasticsearch.yml中設(shè)置你的sqlite3詞典的位置:ik_analysis_db_path: /opt/ik/dictionary.db

2:開源的java中文分詞庫 IKAnalyzer(Star:343)

IK Analyzer 是一個(gè)開源的,基于java語言開發(fā)的輕量級(jí)的中文分詞工具包。從2006年12月推出1.0版開始, IKAnalyzer已經(jīng)推出了4個(gè)大版本。最初,它是以開源項(xiàng)目Luence為應(yīng)用主體的,結(jié)合詞典分詞和文法分析算法的中文分詞組件。從3.0版本開始,IK發(fā)展為面向Java的公用分詞組件,獨(dú)立于Lucene項(xiàng)目

3:java開源中文分詞 Ansj(Star:3019)

Ansj中文分詞 這是一個(gè)ictclas的java實(shí)現(xiàn).基本上重寫了所有的數(shù)據(jù)結(jié)構(gòu)和算法.詞典是用的開源版的ictclas所提供的.并且進(jìn)行了部分的人工優(yōu)化 分詞速度達(dá)到每秒鐘大約200萬字左右,準(zhǔn)確率能達(dá)到96%以上。

目前實(shí)現(xiàn)了.中文分詞. 中文姓名識(shí)別 . 詞性標(biāo)注、用戶自定義詞典,關(guān)鍵字提取,自動(dòng)摘要,關(guān)鍵字標(biāo)記等功能。

可以應(yīng)用到自然語言處理等方面,適用于對(duì)分詞效果要求高的各種項(xiàng)目.

4:結(jié)巴分詞 ElasticSearch 插件(Star:188)

elasticsearch官方只提供smartcn這個(gè)中文分詞插件,效果不是很好,好在國(guó)內(nèi)有medcl大神(國(guó)內(nèi)最早研究es的人之一)寫的兩個(gè)中文分詞插件,一個(gè)是ik的,一個(gè)是mmseg的

5:Java分布式中文分詞組件 - word分詞(Star:672)

word分詞是一個(gè)Java實(shí)現(xiàn)的分布式的中文分詞組件,提供了多種基于詞典的分詞算法,并利用ngram模型來消除歧義。能準(zhǔn)確識(shí)別英文、數(shù)字,以及日期、時(shí)間等數(shù)量詞,能識(shí)別人名、地名、組織機(jī)構(gòu)名等未登錄詞

6:Java開源中文分詞器jcseg(Star:400)

Jcseg是什么?Jcseg是基于mmseg算法的一個(gè)輕量級(jí)開源中文分詞器,同時(shí)集成了關(guān)鍵字提取,關(guān)鍵短語提取,關(guān)鍵句子提取和文章自動(dòng)摘要等功能,并且提供了最新版本的lucene, solr, elasticsearch的分詞接口, Jcseg自帶了一個(gè) jcseg.properties文件…

7:中文分詞庫Paoding

庖丁中文分詞庫是一個(gè)使用Java開發(fā)的,可結(jié)合到Lucene應(yīng)用中的,為互聯(lián)網(wǎng)、企業(yè)內(nèi)部網(wǎng)使用的中文搜索引擎分詞組件。Paoding填補(bǔ)了國(guó)內(nèi)中文分詞方面開源組件的空白,致力于此并希翼成為互聯(lián)網(wǎng)網(wǎng)站首選的中文分詞開源組件。Paoding中文分詞追求分詞的高效率和用戶良好體驗(yàn)。

8:中文分詞器mmseg4j

mmseg4j 用 Chih-Hao Tsai 的 MMSeg 算法(http://technology.chtsai.org/mmseg/ )實(shí)現(xiàn)的中文分詞器,并實(shí)現(xiàn) lucene 的 analyzer 和 solr 的TokenizerFactory 以方便在Lucene和Solr中使…

9:中文分詞Ansj(Star:3015)

Ansj中文分詞 這是一個(gè)ictclas的java實(shí)現(xiàn).基本上重寫了所有的數(shù)據(jù)結(jié)構(gòu)和算法.詞典是用的開源版的ictclas所提供的.并且進(jìn)行了部分的人工優(yōu)化 內(nèi)存中中文分詞每秒鐘大約100萬字(速度上已經(jīng)超越ictclas) 文件讀取分詞每秒鐘大約30萬字 準(zhǔn)確率能達(dá)到96%以上 目前實(shí)現(xiàn)了….

10:Lucene中文分詞庫ICTCLAS4J

ictclas4j中文分詞系統(tǒng)是sinboy在中科院張華平和劉群老師的研制的FreeICTCLAS的基礎(chǔ)上完成的一個(gè)java開源分詞項(xiàng)目,簡(jiǎn)化了原分詞程序的復(fù)雜度,旨在為廣大的中文分詞愛好者一個(gè)更好的學(xué)習(xí)機(jī)會(huì)。

代碼實(shí)現(xiàn)

第一步:引入依賴

這里我們引入了兩個(gè)依賴,其實(shí)是兩個(gè)不同分詞工具

  1. <dependency> 
  2.   <groupId>org.ansj</groupId> 
  3.   <artifactId>ansj_seg</artifactId> 
  4.   <version>5.1.6</version> 
  5.   <scope>compile</scope> 
  6. </dependency> 
  7. <dependency> 
  8.   <groupId>com.janeluo</groupId> 
  9.   <artifactId>ikanalyzer</artifactId> 
  10.   <version>2012_u6</version> 
  11. </dependency> 

在開始之前我們先寫一個(gè)demo 玩玩,讓大家有個(gè)基本的認(rèn)識(shí)

  1. @Test 
  2. public  void testAnsjSeg() { 
  3.     String str = "我叫李太白,我是一個(gè)詩人,我生活在唐朝" ; 
  4.       // 選擇使用哪種分詞器 BaseAnalysis ToAnalysis NlpAnalysis  IndexAnalysis 
  5.     Result result = ToAnalysis.parse(str); 
  6.     System.out.println(result); 
  7.     KeyWordComputer kwc = new KeyWordComputer(5); 
  8.     Collection<Keyword> keywords = kwc.computeArticleTfidf(str); 
  9.     System.out.println(keywords); 

輸出結(jié)果

  1. 我/r,叫/v,李太白/nr,,/w,我/r,是/v,一個(gè)/m,詩人/n,,/w,我/r,生活/vn,在/p,唐朝/t 
  2. [李太白/24.72276098504223, 詩人/3.0502185968368885, 唐朝/0.8965677022546215, 生活/0.6892230219652541] 

[李太白/24.72276098504223, 詩人/3.0502185968368885, 唐朝/0.8965677022546215, 生活/0.6892230219652541]

第二步:引入停用詞詞庫

因?yàn)槭峭S迷~詞庫,本身也不是很大,所以我直接放在項(xiàng)目里了,當(dāng)然你也可以放在其他地方,例如HDFS 上

第三步:編寫UDF

代碼很簡(jiǎn)單我就不不做詳細(xì)解釋了,需要注意的是GenericUDF 里面的一些方法的使用規(guī)則,至于代碼設(shè)計(jì)的好壞以及還有什么改進(jìn)的方案我們后面再說,下面兩套實(shí)現(xiàn)的思路幾乎是一致的,不一樣的是在使用的分詞工具上的不一樣

ansj的實(shí)現(xiàn)

  1. /** 
  2.  * Chinese words segmentation with user-dict in com.kingcall.dic 
  3.  * use Ansj(a java open source analyzer) 
  4.  */ 
  5.  
  6. // 這個(gè)信息就是你每次使用desc 進(jìn)行獲取函數(shù)信息的時(shí)候返回的 
  7. @Description(name = "ansj_seg", value = "_FUNC_(str) - chinese words segment using ansj. Return list of words."
  8.         extended = "Example: select _FUNC_('我是測(cè)試字符串') from src limit 1;\n" 
  9.                 + "[\"我\", \"是\", \"測(cè)試\", \"字符串\"]"
  10.  
  11. public class AnsjSeg extends GenericUDF { 
  12.     private transient ObjectInspectorConverters.Converter[] converters; 
  13.     private static final String userDic = "/app/stopwords/com.kingcall.dic"
  14.  
  15.     //load userDic in hdfs 
  16.     static { 
  17.         try { 
  18.             FileSystem fs = FileSystem.get(new Configuration()); 
  19.             FSDataInputStream in = fs.open(new Path(userDic)); 
  20.             BufferedReader br = new BufferedReader(new InputStreamReader(in)); 
  21.  
  22.             String line = null
  23.             String[] strs = null
  24.             while ((line = br.readLine()) != null) { 
  25.                 line = line.trim(); 
  26.                 if (line.length() > 0) { 
  27.                     strs = line.split("\t"); 
  28.                     strs[0] = strs[0].toLowerCase(); 
  29.                     DicLibrary.insert(DicLibrary.DEFAULT, strs[0]); //ignore nature and freq 
  30.                 } 
  31.             } 
  32.             MyStaticValue.isNameRecognition = Boolean.FALSE
  33.             MyStaticValue.isQuantifierRecognition = Boolean.TRUE
  34.         } catch (Exception e) { 
  35.             System.out.println("Error when load userDic" + e.getMessage()); 
  36.         } 
  37.     } 
  38.  
  39.     @Override 
  40.     public ObjectInspector initialize(ObjectInspector[] arguments) throws UDFArgumentException { 
  41.         if (arguments.length < 1 || arguments.length > 2) { 
  42.             throw new UDFArgumentLengthException( 
  43.                     "The function AnsjSeg(str) takes 1 or 2 arguments."); 
  44.         } 
  45.  
  46.         converters = new ObjectInspectorConverters.Converter[arguments.length]; 
  47.         converters[0] = ObjectInspectorConverters.getConverter(arguments[0], PrimitiveObjectInspectorFactory.writableStringObjectInspector); 
  48.         if (2 == arguments.length) { 
  49.             converters[1] = ObjectInspectorConverters.getConverter(arguments[1], PrimitiveObjectInspectorFactory.writableIntObjectInspector); 
  50.         } 
  51.         return ObjectInspectorFactory.getStandardListObjectInspector(PrimitiveObjectInspectorFactory.writableStringObjectInspector); 
  52.     } 
  53.  
  54.  
  55.     @Override 
  56.     public Object evaluate(DeferredObject[] arguments) throws HiveException { 
  57.         boolean filterStop = false
  58.         if (arguments[0].get() == null) { 
  59.             return null
  60.         } 
  61.         if (2 == arguments.length) { 
  62.             IntWritable filterParam = (IntWritable) converters[1].convert(arguments[1].get()); 
  63.             if (1 == filterParam.get()) filterStop = true
  64.         } 
  65.  
  66.         Text s = (Text) converters[0].convert(arguments[0].get()); 
  67.         ArrayList<Text> result = new ArrayList<>(); 
  68.  
  69.         if (filterStop) { 
  70.             for (Term words : DicAnalysis.parse(s.toString()).recognition(StopLibrary.get())) { 
  71.                 if (words.getName().trim().length() > 0) { 
  72.                     result.add(new Text(words.getName().trim())); 
  73.                 } 
  74.             } 
  75.         } else { 
  76.             for (Term words : DicAnalysis.parse(s.toString())) { 
  77.                 if (words.getName().trim().length() > 0) { 
  78.                     result.add(new Text(words.getName().trim())); 
  79.                 } 
  80.             } 
  81.         } 
  82.         return result; 
  83.     } 
  84.  
  85.  
  86.     @Override 
  87.     public String getDisplayString(String[] children) { 
  88.         return getStandardDisplayString("ansj_seg", children); 
  89.     } 

ikanalyzer的實(shí)現(xiàn)

  1. @Description(name = "ansj_seg", value = "_FUNC_(str) - chinese words segment using Iknalyzer. Return list of words."
  2.         extended = "Example: select _FUNC_('我是測(cè)試字符串') from src limit 1;\n" 
  3.                 + "[\"我\", \"是\", \"測(cè)試\", \"字符串\"]"
  4. public class IknalyzerSeg extends GenericUDF { 
  5.     private transient ObjectInspectorConverters.Converter[] converters; 
  6.     //用來存放停用詞的集合 
  7.     Set<String> stopWordSet = new HashSet<String>(); 
  8.  
  9.     @Override 
  10.     public ObjectInspector initialize(ObjectInspector[] arguments) throws UDFArgumentException { 
  11.         if (arguments.length < 1 || arguments.length > 2) { 
  12.             throw new UDFArgumentLengthException( 
  13.                     "The function AnsjSeg(str) takes 1 or 2 arguments."); 
  14.         } 
  15.         //讀入停用詞文件 
  16.         BufferedReader StopWordFileBr = null
  17.         try { 
  18.             StopWordFileBr = new BufferedReader(new InputStreamReader(new FileInputStream(new File("stopwords/baidu_stopwords.txt")))); 
  19.             //初如化停用詞集 
  20.             String stopWord = null
  21.             for(; (stopWord = StopWordFileBr.readLine()) != null;){ 
  22.                 stopWordSet.add(stopWord); 
  23.             } 
  24.         } catch (FileNotFoundException e) { 
  25.             e.printStackTrace(); 
  26.         } catch (IOException e) { 
  27.             e.printStackTrace(); 
  28.         } 
  29.  
  30.         converters = new ObjectInspectorConverters.Converter[arguments.length]; 
  31.         converters[0] = ObjectInspectorConverters.getConverter(arguments[0], PrimitiveObjectInspectorFactory.writableStringObjectInspector); 
  32.         if (2 == arguments.length) { 
  33.             converters[1] = ObjectInspectorConverters.getConverter(arguments[1], PrimitiveObjectInspectorFactory.writableIntObjectInspector); 
  34.         } 
  35.         return ObjectInspectorFactory.getStandardListObjectInspector(PrimitiveObjectInspectorFactory.writableStringObjectInspector); 
  36.  
  37.     } 
  38.  
  39.     @Override 
  40.     public Object evaluate(DeferredObject[] arguments) throws HiveException { 
  41.         boolean filterStop = false
  42.         if (arguments[0].get() == null) { 
  43.             return null
  44.         } 
  45.         if (2 == arguments.length) { 
  46.             IntWritable filterParam = (IntWritable) converters[1].convert(arguments[1].get()); 
  47.             if (1 == filterParam.get()) filterStop = true
  48.         } 
  49.         Text s = (Text) converters[0].convert(arguments[0].get()); 
  50.         StringReader reader = new StringReader(s.toString()); 
  51.         IKSegmenter iks = new IKSegmenter(reader, true); 
  52.         List<Text> list = new ArrayList<>(); 
  53.         if (filterStop) { 
  54.             try { 
  55.                 Lexeme lexeme; 
  56.                 while ((lexeme = iks.next()) != null) { 
  57.                     if (!stopWordSet.contains(lexeme.getLexemeText())) { 
  58.                         list.add(new Text(lexeme.getLexemeText())); 
  59.                     } 
  60.                 } 
  61.             } catch (IOException e) { 
  62.             } 
  63.         } else { 
  64.             try { 
  65.                 Lexeme lexeme; 
  66.                 while ((lexeme = iks.next()) != null) { 
  67.                     list.add(new Text(lexeme.getLexemeText())); 
  68.                 } 
  69.             } catch (IOException e) { 
  70.             } 
  71.         } 
  72.         return list; 
  73.     } 
  74.  
  75.     @Override 
  76.     public String getDisplayString(String[] children) { 
  77.         return "Usage: evaluate(String str)"
  78.     } 

第四步:編寫測(cè)試用例

GenericUDF 給我們提供了一些方法,這些方法可以用來構(gòu)建測(cè)試需要的環(huán)境和參數(shù),這樣我們就可以測(cè)試這些代碼了

 

  1. @Test 
  2. public void testAnsjSegFunc() throws HiveException { 
  3.     AnsjSeg udf = new AnsjSeg(); 
  4.     ObjectInspector valueOI0 = PrimitiveObjectInspectorFactory.javaStringObjectInspector; 
  5.     ObjectInspector valueOI1 = PrimitiveObjectInspectorFactory.javaIntObjectInspector; 
  6.     ObjectInspector[] init_args = {valueOI0, valueOI1}; 
  7.     udf.initialize(init_args); 
  8.  
  9.     Text str = new Text("我是測(cè)試字符串"); 
  10.  
  11.     GenericUDF.DeferredObject valueObj0 = new GenericUDF.DeferredJavaObject(str); 
  12.     GenericUDF.DeferredObject valueObj1 = new GenericUDF.DeferredJavaObject(0); 
  13.     GenericUDF.DeferredObject[] args = {valueObj0, valueObj1}; 
  14.     ArrayList<Object> res = (ArrayList<Object>) udf.evaluate(args); 
  15.     System.out.println(res); 
  16.  
  17.  
  18. @Test 
  19. public void testIkSegFunc() throws HiveException { 
  20.     IknalyzerSeg udf = new IknalyzerSeg(); 
  21.     ObjectInspector valueOI0 = PrimitiveObjectInspectorFactory.javaStringObjectInspector; 
  22.     ObjectInspector valueOI1 = PrimitiveObjectInspectorFactory.javaIntObjectInspector; 
  23.     ObjectInspector[] init_args = {valueOI0, valueOI1}; 
  24.     udf.initialize(init_args); 
  25.  
  26.     Text str = new Text("我是測(cè)試字符串"); 
  27.  
  28.     GenericUDF.DeferredObject valueObj0 = new GenericUDF.DeferredJavaObject(str); 
  29.     GenericUDF.DeferredObject valueObj1 = new GenericUDF.DeferredJavaObject(0); 
  30.     GenericUDF.DeferredObject[] args = {valueObj0, valueObj1}; 
  31.     ArrayList<Object> res = (ArrayList<Object>) udf.evaluate(args); 
  32.     System.out.println(res); 

我們看到加載停用詞沒有找到,但是整體還是跑起來了,因?yàn)樽x取不到HDFS 上的文件

但是我們第二個(gè)樣例是不需要從HDFS 上加載停用詞信息,所以可以完美的測(cè)試運(yùn)行

注 后來為了能在外部更新文件,我將其放在了HDFS 上,和AnsjSeg 中的代碼一樣

第五步:創(chuàng)建UDF 并使用

  1. add jar /Users/liuwenqiang/workspace/code/idea/HiveUDF/target/HiveUDF-0.0.4.jar; 
  2. create temporary function ansjSeg as 'com.kingcall.bigdata.HiveUDF.AnsjSeg'
  3. select ansjSeg("我是字符串,你是啥"); 
  4. -- 開啟停用詞過濾 
  5. select ansjSeg("我是字符串,你是啥",1); 
  6. create temporary function ikSeg as 'com.kingcall.bigdata.HiveUDF.IknalyzerSeg'
  7. select ikSeg("我是字符串,你是啥"); 
  8. select ikSeg("我是字符串,你是啥",1); 

上面方法的第二個(gè)參數(shù),就是是否開啟停用詞過濾,我們使用ikSeg函數(shù)演示一下

下面我們嘗試獲取一下函數(shù)的描述信息

如果沒有寫的話,就是下面的這樣的

其它應(yīng)用場(chǎng)景

通過編寫Hive UDF可以輕松幫我們實(shí)現(xiàn)大量常見需求,其它應(yīng)該場(chǎng)景還有:

  • ip地址轉(zhuǎn)地區(qū):將上報(bào)的用戶日志中的ip字段轉(zhuǎn)化為國(guó)家-省-市格式,便于做地域分布統(tǒng)計(jì)分析;
  • 使用Hive SQL計(jì)算的標(biāo)簽數(shù)據(jù),不想編寫Spark程序,可以通過UDF在靜態(tài)代碼塊中初始化連接池,利用Hive啟動(dòng)的并行MR任務(wù),并行快速導(dǎo)入大量數(shù)據(jù)到codis中,應(yīng)用于一些推薦業(yè)務(wù);
  • 還有其它sql實(shí)現(xiàn)相對(duì)復(fù)雜的任務(wù),都可以編寫永久Hive UDF進(jìn)行轉(zhuǎn)化;

總結(jié)

這一節(jié)我們學(xué)習(xí)了一個(gè)比較常見的UDF,通過實(shí)現(xiàn)GenericUDF 抽象類來實(shí)現(xiàn),這一節(jié)的重點(diǎn)在于代碼的實(shí)現(xiàn)以及對(duì)GenericUDF類中方法的理解

上面的代碼實(shí)現(xiàn)上有一個(gè)問題,那就是關(guān)于停用詞的加載,就是我們能不能動(dòng)態(tài)加載停用詞呢?

 

 

責(zé)任編輯:武曉燕 來源: Java大數(shù)據(jù)與數(shù)據(jù)倉庫
相關(guān)推薦

2023-11-28 09:00:00

機(jī)器學(xué)習(xí)少樣本學(xué)習(xí)SetFit

2024-10-30 16:59:57

Python機(jī)器學(xué)習(xí)

2020-09-25 09:58:37

谷歌Android開發(fā)者

2023-11-13 18:37:44

2018-03-27 13:33:48

百度

2021-08-30 07:57:26

OpenAttack文本對(duì)抗攻擊

2016-11-16 15:05:42

情感分析

2023-06-11 17:00:06

2022-10-09 08:00:00

機(jī)器學(xué)習(xí)文本分類算法

2021-03-31 07:39:18

pythonHIVEUDF函數(shù)

2016-12-14 09:32:49

FileChanne文件復(fù)制

2023-05-06 07:15:59

Hive內(nèi)置函數(shù)工具

2023-07-05 07:36:36

SpringJava代碼

2022-01-16 08:00:28

PythonFor循環(huán)

2017-04-07 09:00:46

UbuntuVim文本選擇

2019-11-06 16:40:31

awkLinux文本分析工具

2020-07-07 10:50:19

Python丄則表達(dá)文本

2019-03-21 14:30:15

Linux文本分析命令

2010-07-19 08:51:58

SQL Server

2024-01-19 12:11:31

大語言模型知識(shí)圖譜人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)