自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

手把手教會你使用Python進行jieba分詞

開發(fā) 后端
jieba這款分詞工具,總體來說還是挺厲害的,我們可以用它來獲取并過濾許多對于我們來說比較核心的東西,它就等于數(shù)據(jù)分析中的一塊敲門磚,當然它只是其中的一塊而已。

[[405821]]

前言

大家好,我是黃偉。上周我們分享了詞云,手把手教你使用Python打造絢麗的詞云圖,這次我們來看看分詞。我們從之前學習過的wordcloud可以得知它只能進行英文分詞,中文暫不支持,這也正是它美中不足的地方,但是有個模塊正好彌補了這一點,它就是----jieba,中文名結(jié)巴,沒錯,你沒聽錯也沒看錯,就是結(jié)巴。

一、jieba的使用

1.安裝

jieba的安裝不管在哪個地方安裝都是一個老大難的問題,這也真是讓小編頭痛欲裂,幸好小編昨天下好了(花了一天,不好意思說出口)。。

下載好后,我們解壓它,在文件主目錄中按住shift鍵然后右擊選擇‘在此處打開命令窗口’,然后輸入命令:

 

  1. python setup.py install 

安裝即可,可以看到安裝的版本信息:

2.jieba的分詞模式

一、精確模式

它可以將結(jié)果十分精確分開,不存在多余的詞。

常用函數(shù):lcut(str) 、 cut(str)

比如我隨便找一段話進行拆分:

 

  1. import jieba 
  2. aa=jieba.cut('任性的90后boy'

這樣我們就得到了aa這樣一個生成器序列,然后我們將它遍歷即可得到最終結(jié)果:

如果不想讓它換行顯示,想讓它在一行顯示并且能看到效果的話,可以這樣做:

很顯然,我的關鍵字太少,導致它的效果不是很明顯,下面增加關鍵字:

經(jīng)過這次的修改,是不是就清楚多了了。

二、全模式

它可以將結(jié)果全部展現(xiàn),也就是一段話可以拆分進行組合的可能它都給列舉出來了,不信可以來看看

常用函數(shù):

 

  1. lcut(str,cut_all=True) 、 cut(str,cut_all=True

還是來看下它的妙處:

可以看到,它將這段話中所有可能的組合都列舉出來了,但是有些組合顯然不是我們想要的。

三、搜索引擎模式

將結(jié)果精確分開,對比較長的詞進行二次切分。

 

  1. lcut_for_search(str) 、cut_for_search(str) 

它的妙處在于它可以將全模式的所有可能再次進行一個重組,下面來看下:

這樣就可以看到我們想要的結(jié)果了,所以說這種模式十分適合搜索引擎搜索查找功能。

我們還可以使用列表的count方法統(tǒng)計出分詞中某個詞出現(xiàn)的頻率:

 

  1. print(ab.count('武漢')) #這樣的話就是1 

通過對上文的了解,相信大家對于lcut 和cut的區(qū)別還有點陌生,其實lcut和cut都能達到中文分詞的效果,只是不同的是lcut返回的結(jié)果是列表,而cut返回的是生成器罷了。

3.jieba的其它應用

1)、添加新詞

它是將本身存在于文本中的詞進行一個重組,讓它成為一個個體,使之更為形象而設立的:

可以看到,它現(xiàn)在就可以將我設置的兩個詞連貫起來,這對于名字分詞是很有幫助的,有時候分詞會將三個字甚至是多個字的人名劃分開來,這個時候我們就需要用到添加新詞了。當然,如果你添加了文本中沒有的詞,那是沒有任何效果,可以看到:

這個自己定義的是無法顯示在這上面的,jieba添加新詞只會添加文本里有的詞,如果想添加其它詞,我們得用到字典,添加屬于自己的字典。

2)、添加字典

jieba可以添加屬于自己的字典,用來切分查找關鍵詞。這樣就可以有效縮小查找范圍,從而使得匹配完成度更高,時間更短。我們可以使用load_userdict函數(shù)來讀取自定義詞典,它需要傳入一個文件名,格式如下:

  1. #文件一行只可寫三項參數(shù),分別為詞語、詞頻(可省略)、詞性(可省略)空格隔開,順序不可顛倒 
  2. jieba.load_userdict(file) 

這樣就可以讀取到該文件中的所有文本,然后我們讓它去匹配我們要進行分詞的文本,然后利用三大模式中的一種就可以精確匹配到要查找的內(nèi)容。

可以看到,我們成功匹配到了以文件字典為結(jié)構(gòu)體的內(nèi)容,這樣我們就可以更加精確的匹配到結(jié)果而不至于添字掉字。

3)、刪除新詞

有添加肯定就有刪除,那么刪除新詞是怎么一回事呢?如果我們對自己所添加的新詞不滿意,可以直接刪除,這樣就可以。

可以看到,分詞結(jié)果又回到了原來的形式,不過由于我只刪除了一個,所以另一個保留,依然是‘湖北武漢’。

4)、處理停用詞

在有時候我們處理大篇幅文章時,可能用不到每個詞,需要將一些詞過濾掉,這個時候我們需要處理掉這些詞,比如我們比較熟悉的‘的’ ‘了’、 ‘哈哈’ 什么的,這些都是可有可無的詞,下面我們來學習下如何去除:

可以看到,我們成功去除了我們不需要的詞:‘的’,‘了’,‘哈哈’,那么這到底是個什么騷操作呢?哦,其實很簡單,就是將這些需要摒棄的詞添加到列表中,然后我們遍歷需要分詞的文本,然后進行判讀,如果遍歷的文本中的某一項存在于列表中,我們便棄用它,然后將其它不包含的文本添加到字符串,這樣生成的字符串就是最終的結(jié)果了。

5)、權重分析

很多時候我們需要將關鍵詞以出現(xiàn)的次數(shù)頻率來排列,這個時候就需要進行權重分析了,這里提供了一個函數(shù)可以很方便我們進行分析,

可以看到它將字符串中出現(xiàn)頻率最高的幾個詞按順序排列了出來,如果你想打印出這幾個詞的頻率的話,只需添加一個withWeight參數(shù)即可:

那么這些參數(shù)是什么意思呢?哦,原來topK就是指你想輸出多少個詞,withWeight指輸出的詞的詞頻。

6)、調(diào)節(jié)單個詞語的詞頻

在分詞過程中,我們可以將某個詞顯示進行劃分。不過,詞頻在使用 HMM 新詞發(fā)現(xiàn)功能時可能無效,需要將它設置為False。

 

  1. aa=jieba.lcut('我再也回不到童年美好的時光了,哈哈,想想都覺得傷心了',HMM=False) #為調(diào)節(jié)詞頻做準備 
  2. print('/'.join(aa)) 
  3. jieba.suggest_freq(('美','好'),tune=True)#加上tune參數(shù)表示可以劃分 
  4. aa=jieba.lcut('我再也回不到童年美好的時光了,哈哈,想想都覺得傷心了',HMM=False
  5. print('/'.join(aa)) #生成新詞頻 

 

可以看到它將美和好分開了。

7)、查看文本內(nèi)詞語的開始和結(jié)束位置

有時候我們?yōu)榱说玫侥硞€詞的準確位置以及分布情況我們可以使用函數(shù)tokenize()來定位。

8)、修改字典路徑

如果你覺得當前使用字典無法滿足要求,你可以重新設置字典,剛才我們介紹了讀取字典、添加字典、刪除字典的方法,現(xiàn)在我們來說一種重新設置字典的方法,它就是:jieba.set_dictionary(file),里面還是加的文件名,但是你在重新設置前必須要初始化jieba,不然可能設置失誤,方法如下:

 

  1. import jieba 
  2. jieba.initialize() #初始化jeiba 
  3. jieba.set_dictionary('OSI.txt') #設置字典 

四、總結(jié)

jieba這款分詞工具,總體來說還是挺厲害的,我們可以用它來獲取并過濾許多對于我們來說比較核心的東西,它就等于數(shù)據(jù)分析中的一塊敲門磚,當然它只是其中的一塊而已,哈哈哈。

 

責任編輯:姜華 來源: Python爬蟲與數(shù)據(jù)挖掘
相關推薦

2009-12-11 09:04:10

Windows搭建Li

2009-12-21 11:36:24

Linux啟動加密

2009-10-22 15:23:32

VB.NET函數(shù)

2021-12-09 10:24:47

Javascript 高階函數(shù)前端

2010-07-30 10:41:23

DB2打補丁

2020-12-13 11:38:09

Go語言clac包

2020-10-26 15:09:35

Python爬蟲網(wǎng)頁數(shù)據(jù)

2022-10-30 10:31:42

i2ccpuftrace

2021-07-14 09:00:00

JavaFX開發(fā)應用

2021-07-01 09:31:50

MySQL SQL 語句數(shù)據(jù)庫

2023-03-29 10:02:36

2022-12-07 08:42:35

2009-08-28 17:00:50

C# for

2025-04-01 01:35:00

NodeMySQL數(shù)據(jù)庫

2020-08-12 09:07:53

Python開發(fā)爬蟲

2020-12-08 10:32:15

Python郵件tcp

2021-08-02 07:35:19

Nacos配置中心namespace

2020-11-10 09:00:00

JavaMule ESB開發(fā)

2017-07-31 09:20:52

Elastic seaKibana數(shù)據(jù)

2021-06-10 07:49:28

Python詞云圖wordcloud
點贊
收藏

51CTO技術棧公眾號