自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

情感計(jì)算是人機(jī)交互核心?談深度學(xué)習(xí)在情感分析中的應(yīng)用

移動(dòng)開發(fā) 深度學(xué)習(xí)
除自然語言理解(NLU)外,情感計(jì)算(Affective Computing)也成為近年來 AI 領(lǐng)域熱門的研究方向之一。本文將梳理一下情感計(jì)算在人機(jī)交互中的價(jià)值,同時(shí)分享一些情感分析的工具與方法。希望對從事人機(jī)交互研究的朋友們有所啟發(fā)。

情感計(jì)算在人機(jī)交互中的作用

在談?wù)撉楦杏?jì)算之前,先來說說情感本身在人類信息溝通中的意義。

情感對于人類的智力、理性決策、社交、感知、記憶和學(xué)習(xí)以及創(chuàng)造都有很重要的作用,甚至有研究顯示「人類交流中 80% 的信息都是情感性的信息」。但為什么不是內(nèi)容,而是情感能傳遞最多的狀態(tài)信息呢?其實(shí)從認(rèn)知科學(xué)角度來看,情感本身是高級智能的一部分。作為大腦運(yùn)行資源的調(diào)配者,情感狀態(tài)的不同會(huì)導(dǎo)致大腦計(jì)算和分配資源的方式有巨大差異,思維執(zhí)行路徑也會(huì)完全不同。另外,人類進(jìn)化使其情感判斷的準(zhǔn)確性不斷提高,不斷的正向反饋也使得我們越來越依賴用識別對方情感的方法來判斷其行為傾向,甚至已經(jīng)成為自動(dòng)運(yùn)行的認(rèn)知方式了。

由于情感在人類信息溝通中的意義重大,所以情感計(jì)算是實(shí)現(xiàn)人性化的人機(jī)交互過程中必不可少的部分,情感識別與理解技術(shù)也是人機(jī)交互的基礎(chǔ)性技術(shù)之一。在此基礎(chǔ)上,「需求分析」、「深度用戶建?!?、「情感表達(dá)」、「人性化交互體驗(yàn)」等更深入的交互設(shè)計(jì)才能成為可能。

  • 拿深度建模來說,通過和人聊天,AI 可以用情感分析對實(shí)體進(jìn)行高效率的自動(dòng)化標(biāo)注,實(shí)現(xiàn)專屬的情感詞典。了解用戶的偏好甚至偏好程度,并利用這些信息進(jìn)行建模,久而久之就能夠?qū)崿F(xiàn)「個(gè)性化」,而不是像 Siri 這種號稱個(gè)人助手卻實(shí)際上不夠個(gè)性化的存在。
  • 對情感表達(dá)來說,可以實(shí)現(xiàn)人機(jī)對話系統(tǒng)對情感的誘導(dǎo)。在判斷出情感之后就可以用不同的回復(fù)來改變情感傾向,比如對話系統(tǒng)能判斷接下來的哪一句答復(fù)能讓用戶產(chǎn)生一個(gè)情感傾向,如高興、驚訝或傷心等。事實(shí)上能夠讓人產(chǎn)生感受就是在進(jìn)一步實(shí)現(xiàn)更人性化的交互。

人性化交互體驗(yàn)的應(yīng)用方向是不言自明的,當(dāng)智能體的「智商」沒有過于顯著的差別的時(shí)候,一個(gè)稍微有些情商的智能系統(tǒng)就會(huì)更容易被選擇。當(dāng)然這一點(diǎn)的實(shí)現(xiàn)需要一整套的情感分析系統(tǒng)。

從文本情感分析到多模態(tài)情感分析

一般情況下,我們探討的情感分析多指文本中的情感分析,但多維度的情感分析,如文字+圖片+表情+顏文字的綜合分析,文本+語音+圖像的綜合,即多模態(tài)情感分析,是目前來說,比較前沿和更為重要的情感分析的研究方向。

對于多模態(tài)情感分析研究的必要性,這里需要提一個(gè)概念——「情感帶寬」,即人類能表達(dá)的情感的信息量的大小和維度。比如面對面交流時(shí),情感性的信息往往是從語音語調(diào)、面部表情、肢體等多個(gè)維度表達(dá)出來的。然而到了人機(jī)交互中,情感寬帶的整個(gè)范式會(huì)發(fā)生較大的變化,如通過人機(jī)對話系統(tǒng)交流時(shí),少了肢體這個(gè)維度,人類的情感帶寬似乎瞬間驟降了。但實(shí)際上也增加了幾個(gè)新的輸出維度,如圖片、表情包、回復(fù)時(shí)間的長短等。

除自然語言理解技術(shù)外,人機(jī)交互的另一困難就是信息維度的稀疏性。因此人機(jī)交互中情感分析應(yīng)盡可能從多個(gè)維度入手,將缺失的情感帶寬補(bǔ)上——多模態(tài)情感分析成為一個(gè)重要的研究方向。內(nèi)部的多模態(tài)分析即 emoji+照片+表情包+文本長度等,外部的多模態(tài)即加入面部表情識別+提供的標(biāo)簽(性格,愛好,年齡等)+語音等。如竹間智能在構(gòu)建基于自然語言理解技術(shù)的人機(jī)交互系統(tǒng)時(shí),加入多模態(tài)情感分析技術(shù)(文字、語音、圖像),打破了以往情感識別在單一文本維度上的局限性,讓機(jī)器能進(jìn)一步讀懂、聽懂、看懂人類,從而達(dá)到了更好的人機(jī)交互效果。

情感分析的工具和方法

深度學(xué)習(xí)在情感分析中的應(yīng)用已經(jīng)較為普遍了,如利用 LSTM 結(jié)合句法分析樹、基于卷積神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)等。一般情況下,對于各種方法的綜合創(chuàng)新應(yīng)用,能達(dá)到取長補(bǔ)短的效果,進(jìn)而能夠提高情感分析的準(zhǔn)確率,另外還能從無標(biāo)注的文本里學(xué)習(xí)到其中的隱藏特征,以實(shí)現(xiàn)端到端的分類。

文本情感分析最常見的 dataset 是 IMDB Movie Reviews,那么該如何入手與練習(xí)呢?下面以 python 為例,從簡單的文本情感分析說起。

前置作業(yè):

1. 先安裝 Keras (https://keras.io/),Keras 是一個(gè) high-level networks API,底層使用了 Tensorflow, CNTK, 或 Theano 運(yùn)算 (這取決于具體安裝了哪一個(gè))。

Keras 的安裝指南: https://keras.io/#installation

代碼1

2. 當(dāng) Keras 已安裝完畢,則 IMDB 可由此方式入手 (https://keras.io/datasets/)。此 API 的底層:https://github.com/fchollet/keras/blob/master/keras/datasets/imdb.py

接下來,依序分享一下怎么用 LSTM, Bi-directional LSTM, CNN, CNN-LSTM 等 Neural Network 來解情感分析(sentiment analysis)的問題。

LSTM (long-short term memory)

LSTM 的詳細(xì)原理,在此不加贅述,有興趣的朋友,可以參考這篇文章:http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 

以下會(huì)使用 RNN 的 concept 來解 sentiment analysis 的問題。

example: 假設(shè),使用者輸入:「我今天好傷心」,分詞完的結(jié)果是「我 今天 好 傷心」,則我們希望 model 可以輸出「難過」。model 里面的簡單運(yùn)算概念如下圖所示。LSTM 會(huì)一直把資訊往后傳,并擁有記憶功能,***整合所有資訊后,再做出判斷。

透過 Keras,可以快速建出上面的模型:

 

  • 完整代碼:https://github.com/fchollet/keras/blob/master/examples/imdb_lstm.py
  • 詳細(xì)的代碼解說: http://machinelearningmastery.com/sequence-classification-lstm-recurrent-neural-networks-python-keras/

Bi-directional LSTM

Bi-directional LSTM 和 LSTM 非常類似,只是把句子透過兩個(gè)不同方向來看,如下圖所示:

這種做法有一個(gè)好處,以這句話「我今天好傷心」為例,重點(diǎn)剛好在句尾。但如果換一個(gè)句子,「真開心,明天要出去玩了」,此句的重點(diǎn)則在句首。因此,可以用 Bi-directional LSTM 來處理這種問題。

一樣,透過 Keras,可以快速建出這種模型:

 

  • 只要在 LSTM 外面包上「Bidirectional」這個(gè) wrapper,馬上就能制作完成。
  • 完整代碼:https://github.com/fchollet/keras/blob/master/examples/imdb_bidirectional_lstm.py

CNN

近年來 CNN 在影像領(lǐng)域大有突破,不過也有人把 CNN 的方法應(yīng)用到文字處理上面。在此先分享一篇 arxiv 上的文章,「Recent Advances in Convolutional Neural Networks」,于 2017 年年初做了更新:https://arxiv.org/pdf/1512.07108.pdf

里面對 CNN 做了 overview,同時(shí)在「5.10. Natural Language Processing」對 NLP 做了些整理。

 

然后我們回歸主題,怎么使用 CNN 來做情感分類呢?

 

  • 詳細(xì)的原理,可以參考這篇文獻(xiàn):https://arxiv.org/abs/1408.5882
  • 這篇?jiǎng)t是知名的博客 WildML 寫的介紹:http://www.wildml.com/2015/12/implementing-a-cnn-for-text-classification-in-tensorflow/

不過,從實(shí)作面的角度來看,透過 Keras,CNN 的原理也不是太重要,只要找對 API 即可 (Conv1D)。在以下這個(gè)實(shí)作范例中,大約需要 20 行的代碼,即可建出這個(gè) model:

完整代碼:https://github.com/fchollet/keras/blob/master/examples/imdb_cnn.py

CNN-LSTM

上面介紹完 LSTM & CNN,那是不是有辦法可以把兩者的特性結(jié)合起來,融合成一個(gè) CNN-LSTM 的 model?透過 Keras,當(dāng)然還是可以的!

完整代碼: https://github.com/fchollet/keras/blob/master/examples/imdb_cnn_lstm.py

以上主要分享了比較普遍的實(shí)作面內(nèi)容,也許能夠幫助大家解決手頭上的問題。不過上面用 LSTM 與 CNN 來解 sentiment analysis 的問題大約是近 5 年內(nèi)發(fā)展的技術(shù),不是最近***的技術(shù)。

關(guān)于多模態(tài)情感分析:最直覺的做法,就是把文本、語音、圖像的原始輸入資料,利用深度學(xué)習(xí)的技術(shù),映射到共同的 feature space 中。以文本的例子來說,原始輸入的文字,使用分詞(前處理)轉(zhuǎn)成字符與字元后,透過一層 embedding layer 映射到向量空間,可以使用 CNN 去擷取里面的信息。同理,以圖像為例子,原始輸入的照片,利用影像前處理 (ex: whitening) 后,再使用 CNN 去擷取里面的訊息。

責(zé)任編輯:張子龍 來源: 機(jī)器之心
相關(guān)推薦

2021-12-26 22:57:57

Java開發(fā)深度學(xué)習(xí)

2013-02-19 10:47:17

情感交互產(chǎn)品交互趨勢

2021-04-18 13:50:10

人機(jī)交互人工智能

2017-05-04 08:48:36

達(dá)觀數(shù)據(jù)分析架構(gòu)

2016-11-06 23:21:49

深度學(xué)習(xí)情感分析

2012-03-21 14:29:30

人機(jī)交互

2023-02-03 11:40:49

機(jī)器學(xué)習(xí)分析情感

2020-12-08 09:12:22

人機(jī)交互智能

2017-05-15 14:00:28

大數(shù)據(jù)Python情感極性分析

2013-05-31 17:14:40

情感設(shè)計(jì)Android Des

2023-05-05 11:27:26

2017-03-21 10:55:22

大數(shù)據(jù)

2019-10-12 10:14:41

AI情感分析情感AI

2023-03-02 09:27:00

智能

2016-12-07 14:45:25

KNIME情感分析數(shù)據(jù)分析

2022-06-27 15:06:03

元宇宙人工智能區(qū)塊鏈

2023-01-18 10:06:07

數(shù)字人自然語言生成

2012-10-26 12:47:27

Emotion UI華為Emotion U

2018-09-04 11:45:31

前端JavaScriptNodeJS

2018-02-07 17:32:54

情感分析
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號