自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

用Keras+LSTM+CRF的實(shí)踐命名實(shí)體識(shí)別NER

人工智能 深度學(xué)習(xí)
命名實(shí)體識(shí)別屬于序列標(biāo)注任務(wù),其實(shí)更像是分類任務(wù),NER是在一段文本中,將預(yù)先定義好的實(shí)體類型識(shí)別出來。

[[339715]]

文本分詞、詞性標(biāo)注和命名實(shí)體識(shí)別都是自然語言處理領(lǐng)域里面很基礎(chǔ)的任務(wù),他們的精度決定了下游任務(wù)的精度,其實(shí)在這之前我并沒有真正意義上接觸過命名實(shí)體識(shí)別這項(xiàng)工作,雖然說讀研期間斷斷續(xù)續(xù)也參與了這樣的項(xiàng)目,但是畢業(yè)之后始終覺得一知半解的感覺,最近想重新?lián)炱饋恚詫?shí)踐為學(xué)習(xí)的主要手段來比較系統(tǒng)地對(duì)命名實(shí)體識(shí)別這類任務(wù)進(jìn)行理解、學(xué)習(xí)和實(shí)踐應(yīng)用。

當(dāng)今的各個(gè)應(yīng)用里面幾乎不會(huì)說哪個(gè)任務(wù)會(huì)沒有深度學(xué)習(xí)的影子,很多子任務(wù)的發(fā)展歷程都是驚人的相似,最初大部分的研究和應(yīng)用都是集中在機(jī)器學(xué)習(xí)領(lǐng)域里面,之后隨著深度學(xué)習(xí)模型的發(fā)展,也被廣泛應(yīng)用起來了,命名實(shí)體識(shí)別這樣的序列標(biāo)注任務(wù)自然也是不例外的,早就有了基于LSTM+CRF的深度學(xué)習(xí)實(shí)體識(shí)別的相關(guān)研究了,只不過與我之前的方向不一致,所以一直沒有化太多的時(shí)間去關(guān)注過它,最近正好在學(xué)習(xí)NER,在之前的相關(guān)文章中已經(jīng)基于機(jī)器學(xué)習(xí)的方法實(shí)踐了簡(jiǎn)單的命名實(shí)體識(shí)別了,這里以深度學(xué)習(xí)模型為基礎(chǔ)來實(shí)現(xiàn)NER。

命名實(shí)體識(shí)別屬于序列標(biāo)注任務(wù),其實(shí)更像是分類任務(wù),NER是在一段文本中,將預(yù)先定義好的實(shí)體類型識(shí)別出來。

NER是一種序列標(biāo)注問題,因此他們的數(shù)據(jù)標(biāo)注方式也遵照序列標(biāo)注問題的方式,主要是BIO和BIOES兩種。這里直接介紹BIOES,明白了BIOES,BIO也就掌握了。

先列出來BIOES分別代表什么意思: 

  1. B,即Begin,表示開始  
  2. I,即Intermediate,表示中間  
  3. E,即End,表示結(jié)尾  
  4. S,即Single,表示單個(gè)字符  
  5. O,即Other,表示其他,用于標(biāo)記無關(guān)字符 

比如對(duì)于下面的一句話:

  1. 姚明去哈爾濱工業(yè)大學(xué)體育館打球了 

標(biāo)注結(jié)果為: 

  1. 姚明 去 哈爾濱工業(yè)大學(xué) 體育館 打球 了  
  2. B-PER E-PER O B-ORG I-ORG I-ORG I-ORG I-ORG I-ORG E-ORG B-LOC I-LOC E-LOC O O O 

簡(jiǎn)單的溫習(xí)就到這里了,接下來進(jìn)入到本文的實(shí)踐部分,首先是數(shù)據(jù)集部分,數(shù)據(jù)集來源于網(wǎng)絡(luò)獲取,簡(jiǎn)單看下樣例數(shù)據(jù),如下所示:

train_data部分樣例數(shù)據(jù)如下所示: 

  1. 當(dāng) O  
  2. 希 O  
  3. 望 O  
  4. 工 O  
  5. 程 O  
  6. 救 O  
  7. 助 O  
  8. 的 O  
  9. 百 O  
  10. 萬 O  
  11. 兒 O 
  12. 童 O  
  13. 成 O  
  14. 長(zhǎng) O  
  15. 起 O  
  16. 來 O  
  17. , O  
  18. 科 O  
  19. 教 O  
  20. 興 O  
  21. 國 O  
  22. 蔚 O  
  23. 然 O  
  24. 成 O  
  25. 風(fēng) O  
  26. 時(shí) O  
  27. , O  
  28. 今 O  
  29. 天 O  
  30. 有 O  
  31. 收 O  
  32. 藏 O  
  33. 價(jià) O  
  34. 值 O  
  35. 的 O  
  36. 書 O  
  37. 你 O  
  38. 沒 O  
  39. 買 O  
  40. , O  
  41. 明 O  
  42. 日 O  
  43. 就 O  
  44. 叫 O  
  45. 你 O  
  46. 悔 O  
  47. 不 O  
  48. 當(dāng) O  
  49. 初 O  
  50. !O 

test_data部分樣例數(shù)據(jù)如下所示: 

  1. 高 O  
  2. 舉 O  
  3. 愛 O  
  4. 國 O  
  5. 主 O  
  6. 義 O 
  7. 和 O  
  8. 社 O  
  9. 會(huì) O  
  10. 主 O  
  11. 義 O  
  12. 兩 O  
  13. 面 O  
  14. 旗 O  
  15. 幟 O  
  16. , O  
  17. 團(tuán) O  
  18. 結(jié) O  
  19. 全 O  
  20. 體 O  
  21. 成 O  
  22. 員 O  
  23. 以 O  
  24. 及 O  
  25. 所 O  
  26. 聯(lián) O  
  27. 系 O  
  28. 的 O  
  29. 歸 O  
  30. 僑 O 
  31. 、 O  
  32. 僑 O  
  33. 眷 O  
  34. , O  
  35. 發(fā) O  
  36. 揚(yáng) O  
  37. 愛 O  
  38. 國 O  
  39. 革 O  
  40. 命 O  
  41. 的 O  
  42. 光 O  
  43. 榮 O  
  44. 傳 O  
  45. 統(tǒng) O  
  46. , O  
  47. 為 O  
  48. 統(tǒng) O  
  49. 一 O  
  50. 祖 O  
  51. 國 O  
  52. 、 O  
  53. 振 O  
  54. 興 O  
  55. 中 B-LOC  
  56. 華 I-LOC  
  57. 而 O  
  58. 努 O  
  59. 力 O  
  60. 奮 O  
  61. 斗 O  
  62. ;O 

簡(jiǎn)單了解訓(xùn)練集數(shù)據(jù)和測(cè)試集數(shù)據(jù)結(jié)構(gòu)后就可以進(jìn)行后面的數(shù)據(jù)處理,主要的目的就是生成特征數(shù)據(jù),核心代碼實(shí)現(xiàn)如下所示: 

  1. with open('test_data.txt',encoding='utf-8') as f:  
  2.     test_data_list=[one.strip().split('\t') for one in f.readlines() if one.strip()]  
  3. with open('train_data.txt',encoding='utf-8') as f:  
  4.     train_data_list=[one.strip().split('\t') for one in f.readlines() if one.strip()]  
  5. char_list=[one[0] for one in test_data_list]+[one[0] for one in train_data_list]  
  6. label_list=[one[-1] for one in test_data_list]+[one[-1] for one in train_data_list]  
  7. print('char_list_length: ', len(char_list))  
  8. print('label_list_length: ', len(label_list))  
  9. print('char_num: ', len(list(set(char_list))))  
  10. print('label_num: ', len(list(set(label_list)))) 
  11. char_count,label_count={},{}  
  12. #字符頻度統(tǒng)計(jì)  
  13. for one in char_list:  
  14.     if one in char_count:  
  15.         char_count[one]+=1  
  16.     else:  
  17.         char_count[one]=1  
  18. for one in label_list:  
  19.     if one in label_count:  
  20.         label_count[one]+=1  
  21.     else:  
  22.         label_count[one]=1    
  23. #按頻度降序排序  
  24. sortedsorted_char=sorted(char_count.items(),key=lambda e:e[1],reverse=True 
  25. sortedsorted_label=sorted(label_count.items(),key=lambda e:e[1],reverse=True)   
  26. #字符-id映射關(guān)系構(gòu)建  
  27. char_map_dict={}  
  28. label_map_dict={}  
  29. for i in range(len(sorted_char)):  
  30.     char_map_dict[sorted_char[i][0]]=i  
  31.     char_map_dict[str(i)]=sorted_char[i][0]  
  32. for i in range(len(sorted_label)):  
  33.     label_map_dict[sorted_label[i][0]]=i  
  34.     label_map_dict[str(i)]=sorted_label[i][0]  
  35. #結(jié)果存儲(chǔ)  
  36. with open('charMap.json','w') as f:  
  37.     f.write(json.dumps(char_map_dict))  
  38. with open('labelMap.json','w') as f:  
  39.     f.write(json.dumps(label_map_dict)) 

代碼實(shí)現(xiàn)的很清晰,關(guān)鍵的部分也都有對(duì)應(yīng)的注釋內(nèi)容,這里就不多解釋了,核心的思想就是將字符或者是標(biāo)簽類別數(shù)據(jù)映射為對(duì)應(yīng)的index數(shù)據(jù),這里我沒有對(duì)頻度設(shè)置過濾閾值,有的實(shí)現(xiàn)里面會(huì)過濾掉只出現(xiàn)了1次的數(shù)據(jù),這個(gè)可以根據(jù)自己的需要進(jìn)行對(duì)應(yīng)的修改。

charMap數(shù)據(jù)樣例如下所示:

labelMap數(shù)據(jù)樣例如下所示:

在生成上述映射數(shù)據(jù)之后,就可以對(duì)原始的文本數(shù)據(jù)進(jìn)行轉(zhuǎn)化計(jì)算,進(jìn)而生成我們所需要的特征數(shù)據(jù)了,核心代碼實(shí)現(xiàn)如下所示: 

  1. X_train,y_train,X_test,y_test=[],[],[],[]  
  2. #訓(xùn)練數(shù)據(jù)集  
  3. for i in range(len(trainData)):  
  4.     one_sample=[one.strip().split('\t') for one in trainData[i]]  
  5.     char_list=[O[0] for O in one_sample]  
  6.     label_list=[O[1] for O in one_sample]  
  7.     char_vec=[char_map_dict[char_list[v]] for v in range(len(char_list))]  
  8.     label_vec=[label_map_dict[label_list[l]] for l in range(len(label_list))]  
  9.     X_train.append(char_vec)  
  10.     y_train.append(label_vec)  
  11. #測(cè)試數(shù)據(jù)集  
  12. for i in range(len(testData)):  
  13.     one_sample=[one.strip().split('\t') for one in testData[i]] 
  14.     char_list=[O[0] for O in one_sample]  
  15.     label_list=[O[1] for O in one_sample]  
  16.     char_vec=[char_map_dict[char_list[v]] for v in range(len(char_list))]  
  17.     label_vec=[label_map_dict[label_list[l]] for l in range(len(label_list))]  
  18.     X_test.append(char_vec)  
  19.     y_test.append(label_vec)  
  20. feature={}  
  21. feature['X_train'],feature['y_train']=X_train,y_train  
  22. feature['X_test'],feature['y_test']=X_test,y_test  
  23. #結(jié)果存儲(chǔ)  
  24. with open('feature.json','w') as f:  
  25.     f.write(json.dumps(feature)) 

到這里我們已經(jīng)得到了我們所需要的特征數(shù)據(jù),且已經(jīng)劃分好了測(cè)試集數(shù)據(jù)和訓(xùn)練集數(shù)據(jù)。

接下來就可以構(gòu)建模型了,這里為了簡(jiǎn)化實(shí)現(xiàn),我采用的是Keras框架,相比于原生態(tài)的Tensorflow框架來說,上手門檻更低,核心代碼實(shí)現(xiàn)如下所示: 

  1. #加載數(shù)據(jù)集  
  2. with open('feature.json') as f:  
  3.     F=json.load(f)  
  4. X_train,X_test,y_train,y_test=F['X_train'],F['X_test'],F['y_train'],F['y_test']  
  5. #數(shù)據(jù)對(duì)齊操作 
  6.  X_train = pad_sequences(X_train, maxlen=max_lenvalue=0 
  7. y_train = pad_sequences(y_train, maxlen=max_lenvalue=-1)  
  8. y_train = np.expand_dims(y_train, 2)  
  9. X_test = pad_sequences(X_test, maxlen=max_lenvalue=0 
  10. y_test = pad_sequences(y_test, maxlen=max_lenvalue=-1)  
  11. y_test = np.expand_dims(y_test, 2)  
  12. #模型初始化、訓(xùn)練  
  13. if not os.path.exists(saveDir):  
  14.     os.makedirs(saveDir)  
  15. #模型初始化  
  16. model = Sequential() 
  17. model.add(Embedding(voc_size, 256, mask_zero=True))  
  18. model.add(Bidirectional(LSTM(128, return_sequences=True)))  
  19. model.add(Dropout(rate=0.5))  
  20. model.add(Dense(tag_size))  
  21. crf = CRF(tag_size, sparse_target=True 
  22. model.add(crf)  
  23. model.summary() 
  24. model.compile('adam', loss=crf.loss_function, metrics=[crf.accuracy])  
  25. #訓(xùn)練擬合  
  26. history=model.fit(X_train,y_train,batch_size=100,epochs=500,validation_data=[X_test,y_test])  
  27. model.save(saveDir+'model.h5')  
  28. #模型結(jié)構(gòu)可視化  
  29. try: 
  30.      plot_model(model,to_file=saveDir+"model_structure.png",show_shapes=True 
  31. except Exception as e:  
  32.     print('Exception: ', e) 
  33.  #結(jié)果可視化  
  34. plt.clf()  
  35. plt.plot(history.history['acc'])  
  36. plt.plot(history.history['val_acc'])  
  37. plt.title('model accuracy')  
  38. plt.ylabel('accuracy')  
  39. plt.xlabel('epochs')  
  40. plt.legend(['train','test'], loc='upper left' 
  41. plt.savefig(saveDir+'train_validation_acc.png')  
  42. plt.clf()  
  43. plt.plot(history.history['loss'])  
  44. plt.plot(history.history['val_loss'])  
  45. plt.title('model loss')  
  46. plt.ylabel('loss')  
  47. plt.xlabel('epochs')  
  48. plt.legend(['train', 'test'], loc='upper left' 
  49. plt.savefig(saveDir+'train_validation_loss.png')  
  50. scores=model.evaluate(X_test,y_test,verbose=0 
  51. print("Accuracy: %.2f%%" % (scores[1]*100))  
  52. modelmodel_json=model.to_json()  
  53. with open(saveDir+'structure.json','w') as f:  
  54.     f.write(model_json)  
  55. model.save_weights(saveDir+'weight.h5')  
  56. print('===Finish====') 

訓(xùn)練完成后,結(jié)構(gòu)目錄文件結(jié)構(gòu)如下所示:

模型結(jié)構(gòu)圖如下所示:

訓(xùn)練過程中準(zhǔn)確度曲線如下所示:

訓(xùn)練過程中損失值曲線如下所示:

由于訓(xùn)練計(jì)算資源占用比較大,且時(shí)間比較長(zhǎng),我這里只是簡(jiǎn)單地設(shè)置了20次的迭代計(jì)算,這個(gè)可以根據(jù)自己的實(shí)際情況設(shè)置更高的或者是更低的迭代次數(shù)來實(shí)現(xiàn)不同的需求。

簡(jiǎn)單的預(yù)測(cè)實(shí)例如下所示:

到這里,本文的實(shí)踐就結(jié)束了,后面有時(shí)間繼續(xù)深入研究,希望對(duì)您有所幫助,祝您工作順利,學(xué)有所成! 

 

責(zé)任編輯:龐桂玉 來源: Python中文社區(qū)
相關(guān)推薦

2017-05-31 12:59:44

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

2024-03-18 13:36:36

大型語言模型個(gè)人可識(shí)別信息

2017-05-25 11:24:18

達(dá)觀數(shù)據(jù)NER系統(tǒng)

2023-06-26 06:55:25

2018-01-04 15:50:44

深度學(xué)習(xí)自然語言機(jī)器學(xué)習(xí)

2020-05-27 11:10:54

KerasLSTM神經(jīng)網(wǎng)絡(luò)

2022-07-19 14:01:44

阿里達(dá)摩院AI

2017-11-20 11:51:40

KerasLSTM深度學(xué)習(xí)

2021-07-16 08:10:06

識(shí)別實(shí)體對(duì)象

2017-11-10 11:51:39

Python自然語言分析器

2024-04-11 10:20:57

JavaScript前端Web

2017-04-26 09:30:53

卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)

2020-03-04 10:51:35

Python算法腳本語言

2021-02-03 13:56:09

KerasAPI深度學(xué)習(xí)

2022-02-23 09:03:29

JavaScript開發(fā)命名約定

2020-06-05 18:57:41

BiLSTMCRF算法

2023-12-06 07:24:42

屬性命名云原生

2023-02-14 10:37:43

API端點(diǎn)版本

2022-06-17 10:44:49

實(shí)體鏈接系統(tǒng)旅游AI知識(shí)圖譜攜程
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)