自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

MIT提出:引入貝葉斯深度學(xué)習(xí)在醫(yī)療監(jiān)控上的應(yīng)用

人工智能 深度學(xué)習(xí)
來給大家講一下我們發(fā)表在Nature Medicine上的一個(gè)工作,這算是我在MIT期間做的最有意思的工作之一了。

 

Paper:

http://wanghao.in/paper/NatureMedicine21_MSA.pdf

Bayesian Formulation及算法細(xì)節(jié):

http://wanghao.in/BayesDL4MSA.html

Bayesian Deep Learning Survey:

http://wanghao.in/paper/CSUR20_BDL.pdf

Bayesian Deep Learning Github Repo:

https://github.com/js05212/BayesianDeepLearning-Survey/blob/master/README.md

來給大家講一下我們發(fā)表在Nature Medicine上的一個(gè)工作,這算是我在MIT期間做的最有意思的工作之一了。希望這個(gè)帖子能夠貢獻(xiàn)一個(gè)數(shù)據(jù)點(diǎn),讓大家看看機(jī)器學(xué)習(xí)(特別是貝葉斯深度學(xué)習(xí),or Bayesian Deep Learning)在醫(yī)療監(jiān)控(Health Monitoring)上的應(yīng)用。

一、應(yīng)用場(chǎng)景

簡(jiǎn)單(科幻)地說,我們做的這個(gè)系統(tǒng)能夠通過感知房子里面的wifi信號(hào),來監(jiān)測(cè)病人是否遵醫(yī)囑,按時(shí)使用胰島素筆(Insulin Pen)或者定量吸入器(Inhaler)之類的醫(yī)療工具來治療自己。因?yàn)檫@類醫(yī)療工具的使用有點(diǎn)復(fù)雜(比如胰島素筆有8個(gè)步驟,而定量吸入器有6個(gè)步驟),病人經(jīng)常會(huì)出現(xiàn)使用失誤,我們這個(gè)系統(tǒng)還能自動(dòng)檢測(cè)出病人有沒有漏掉哪個(gè)步驟,或者有沒有哪個(gè)步驟做得不到位。我們把這個(gè)應(yīng)用叫做‘ 自我給藥 ’(Medication Self-Administration,or MSA)。具體使用場(chǎng)景如下圖。

關(guān)于胰島素筆和定量吸入器的使用步驟可以看下圖。

二、 連續(xù)時(shí)間域的概率推理

熟悉機(jī)器學(xué)習(xí)的同學(xué)可能已經(jīng)發(fā)現(xiàn)了,這個(gè)問題其實(shí)是個(gè)比較復(fù)雜的概率推理問題:

1. 不同的步驟持續(xù)的時(shí)間長(zhǎng)度不同,比如上圖Fig. 4a的第1步(Step 1)的‘拿起工具’一般只有4秒左右,而第6步(Step 6)‘用藥并按住’一般會(huì)持續(xù)12秒左右。因此可以認(rèn)為,不同步驟的時(shí)長(zhǎng)都遵循不同的概率分布。如下圖。而我們的模型需要把這些先驗(yàn)知識(shí)整合進(jìn)去。

2. 不同步驟之間的空白時(shí)間也有長(zhǎng)有短(比如上面綠色中間的白色區(qū)域)。

3. 病人經(jīng)常會(huì)忘記里面的一些關(guān)鍵步驟。比如,對(duì)于胰島素筆(見上圖)來說,病人經(jīng)常會(huì)忘記的步驟是第2步‘放入藥芯’(Load Cartridge)和第4步‘預(yù)備胰島素筆’(Prime Insulin Pen)。那么此時(shí),我們可以把整個(gè)胰島素筆的流程畫成如下圖的有限狀態(tài)機(jī)。圖中的從Step 1出發(fā)的2個(gè)’50%’的路徑表示,一個(gè)病人有一半的(先驗(yàn))概率會(huì)忘記Step 2而直接進(jìn)行Step 3。而這個(gè)也是我們的模型需要整合的先驗(yàn)知識(shí)。

三、 貝葉斯深度學(xué)習(xí)

(深度學(xué)習(xí)和概率推理的結(jié)合)

從技術(shù)的角度上說,在這個(gè)work里面,我們結(jié)合底層的FMCW雷達(dá)Perception和頂層的Continuous-time BayesNet Reasoning做了一個(gè)Bayesian Deep Learning的model,用于全天候、無接觸地推斷慢性病人是否按時(shí)使用Insulin Pen、Inhaler之類的醫(yī)療工具治療自己,同時(shí)檢測(cè)自動(dòng)具體使用步驟的異常。整個(gè)系統(tǒng)的流程圖如下。

這里面包含兩個(gè)聯(lián)動(dòng)的模型。

第一個(gè)模型是用來處理類Wifi信號(hào)(底層的FMCW雷達(dá)信號(hào))的深度神經(jīng)網(wǎng)絡(luò)。對(duì)應(yīng)上圖的階段1(Stage 1)和階段2(Stage 2)的合并。這個(gè)深度模型的 輸入 是:長(zhǎng)達(dá)幾分鐘的很多幀(frame)的雷達(dá)信號(hào)(見上圖的第一行);而他的 輸出 是:每一幀屬于不同步驟的概率(見上圖的Stage 2的輸出),也就是說,如果這個(gè)用藥過程包含6個(gè)步驟,那么每一幀的輸出會(huì)是一個(gè)6維的向量,這6維的數(shù)字加起來會(huì)恒等于1。

第二個(gè)模型對(duì)應(yīng)上圖的階段3(Stage 3),它是基于Stage 2的原始概率分?jǐn)?shù)(Raw Probability Score),然后結(jié)合我們前面講到的‘ 連續(xù)時(shí)間域的概率推理 ’來進(jìn)行進(jìn)一步的概率推斷,從而輸出最終預(yù)測(cè)(見上圖最后一行)。

這兩個(gè)模型一個(gè)作為 深度模塊(也叫做感知模塊) ,負(fù)責(zé)對(duì)高維信號(hào)進(jìn)行處理,另一個(gè)作為 概率推斷模塊(也叫做任務(wù)模塊) ,負(fù)責(zé)進(jìn)行任務(wù)相關(guān)的概率推斷。兩個(gè)模塊可以聯(lián)動(dòng)地、端到端(end-to-end)地起作用,我們把這個(gè)稱為 貝葉斯深度學(xué)習(xí)

有興趣的同學(xué)請(qǐng)看  A Survey on Bayesian Deep Learning :

http://wanghao.in/paper/CSUR20_BDL.pdf

四、 深度學(xué)習(xí)vs貝葉斯深度學(xué)習(xí)

那么問題來了,此處為何需要第二個(gè)模型的聯(lián)動(dòng)呢?為何直接使用第一個(gè)模型沒法解決問題?

這是因?yàn)椋?nbsp;第一個(gè)模型作為一個(gè)深度神經(jīng)網(wǎng)絡(luò),只負(fù)責(zé)給出每幀獨(dú)立的概率預(yù)測(cè),無法結(jié)合本幀的前后部分來進(jìn)行推理。 這樣的后果是,它直接輸出的逐幀預(yù)測(cè)經(jīng)常是不符合常理的。比如它可能輸出這樣的預(yù)測(cè):前0.1秒這個(gè)病人還在使用設(shè)備的第3步,后0.1秒就直接跳回到第1步,而后的0.1秒又是在第4步。一個(gè)正常人顯然無法做出這樣的動(dòng)作序列。因此,第二個(gè)模型的作用就是,把我們?cè)谶B續(xù)時(shí)間域上的先驗(yàn)知識(shí)(前面‘ 連續(xù)時(shí)間域的概率推理 ’章節(jié)講到的那三個(gè)方面)整合入模型里面,進(jìn)行端到端(end-to-end)的推斷,從而拿到最終的預(yù)測(cè)。這整個(gè)結(jié)合概率推理和深度學(xué)習(xí)的框架,我們把它叫做 貝葉斯深度學(xué)習(xí) 。

這樣做的好處有兩方面。 第一方面 是大大提高模型的 準(zhǔn)確度和魯棒性 。由于概率推理的存在,模型會(huì)根據(jù)整個(gè)幾分鐘的動(dòng)作序列來判斷病人是否在使用醫(yī)療用藥工具,這樣既自動(dòng)糾正了第一個(gè)模型的一些錯(cuò)誤預(yù)測(cè),同時(shí)也使得整個(gè)系統(tǒng)受無關(guān)噪音的影響大大減小。 第二方面 是給模型提供了 可解釋性 。正如  @kkhenry  所說,在醫(yī)療相關(guān)的應(yīng)用中,可解釋性異常重要,因?yàn)檫@個(gè)關(guān)系到,AI系統(tǒng)的使用者(醫(yī)生等醫(yī)療從業(yè)人員)能否相信你模型的預(yù)測(cè)。有了概率推斷的部分,我們就可以給出對(duì)每個(gè)步驟預(yù)測(cè)的概率,以及模型預(yù)測(cè)于先驗(yàn)知識(shí)的偏差程度,從而提供解釋。比如,模型可以給出‘此病人在早上9點(diǎn)使用了醫(yī)療工具,但是使用錯(cuò)誤’的結(jié)論,同時(shí)解釋‘這是因?yàn)槟P陀?5%的把握他/她跳過了Step 2。而醫(yī)生可以根據(jù)模型提供的解釋,來決定要不要進(jìn)一步檢查此病人的具體數(shù)據(jù),并提醒病人。如下圖。

五、技術(shù)細(xì)節(jié)之如何結(jié)合

兩個(gè)模型的預(yù)測(cè)

關(guān)于Output,每個(gè)幀會(huì)有2個(gè)預(yù)測(cè)(Prediction)。第一個(gè)預(yù)測(cè)是來自于第一個(gè)模型(深度學(xué)習(xí)模型)給出的逐幀(Frame-level)預(yù)測(cè),這個(gè)很簡(jiǎn)單,可以理解為神經(jīng)網(wǎng)絡(luò)對(duì)輸出進(jìn)行Softmax操作后,得到的各類的概率。第二個(gè)預(yù)測(cè)來自于第二個(gè)模型(概率推斷模型)。它是來自于一個(gè)作為先驗(yàn)(Prior)的隨機(jī)過程,具體地講,這是一個(gè)連續(xù)時(shí)間域的 點(diǎn)過程 (Point Process)和 馬爾科夫鏈 (Markov chain)的結(jié)合。點(diǎn)過程負(fù)責(zé)對(duì)每個(gè)步驟(比如Step 2)的長(zhǎng)度進(jìn)行建模,馬爾科夫鏈負(fù)責(zé)對(duì)各個(gè)步驟之間的轉(zhuǎn)換進(jìn)行建模(比如進(jìn)行Step 1后,有一半的概率會(huì)進(jìn)行Step 2,有另一半的概率會(huì)進(jìn)行Step 3)。

這里有一個(gè)有趣的點(diǎn)就是,如果我們只用一般的點(diǎn)過程,比如 泊松過程 (Poisson Process),是沒有辦法很好的對(duì)每個(gè)步驟的長(zhǎng)度進(jìn)行建模的。這是因?yàn)椴此蛇^程假設(shè)每個(gè)步驟的長(zhǎng)度是一個(gè)指數(shù)分布(Exponential Distribution),而指數(shù)分布一旦他的期望值(均值)確定了(比如是a),他的方差也就確定了(等于a^2)。因此它沒法像高斯分布(Gaussian Distribution)一樣那么靈活,可以自由地描述一個(gè)分布的期望值和方差。所以這個(gè)地方我們靈機(jī)一動(dòng),把泊松過程的指數(shù)分布替換成 高斯分布 ,用來作為我們模型的先驗(yàn)之一。而每個(gè)步驟持續(xù)時(shí)間的高斯分布的期望值和方差都不一樣,這些都可以從訓(xùn)練數(shù)據(jù)里面直接估計(jì)出來。

所以,我們直接結(jié)合了第一個(gè)模型(深度學(xué)習(xí)模型)的 預(yù)測(cè)分?jǐn)?shù) ,以及第二個(gè)模型提供的 先驗(yàn)分?jǐn)?shù) ,在加上一個(gè) 近似的動(dòng)態(tài)規(guī)劃算法 ,就可以進(jìn)行聯(lián)動(dòng)的(jointly or end-to-end)概率推斷,得到最終的預(yù)測(cè)。下圖展示了一些我們模型預(yù)測(cè)(AI Prediction)和人工標(biāo)注(Human Annotation)的對(duì)比,前3個(gè)例子(a、b、c)是3個(gè)不同的病人在使用胰島素筆,總共有8個(gè)步驟。后面3個(gè)例子是3個(gè)不同的病人在使用定量吸入器,總共有6個(gè)步驟??梢钥吹?, 我們的模型最終預(yù)測(cè)是非常準(zhǔn)確的,而且不會(huì)出現(xiàn) physically impossible 的預(yù)測(cè)。

六、寫在最后

整個(gè)帖子算是拋磚引玉,講了下機(jī)器學(xué)習(xí)(更具體的是貝葉斯深度學(xué)習(xí))及其在醫(yī)療上的應(yīng)用。

最后要感謝一下趙老板拉我入伙一起做這個(gè)work。遙想當(dāng)年剛進(jìn)去MIT的時(shí)候就想著把貝葉斯深度學(xué)習(xí)用到醫(yī)療上,說要用深度模塊(即感知模塊)來對(duì)無線信號(hào)建模,用概率模塊(即任務(wù)模塊)來做醫(yī)療相關(guān)的概率推斷。沒想到最后真的實(shí)現(xiàn)了??芍^念念不忘必有回響:)

Illustration by  Maria Shukshina   from Icons8

 

責(zé)任編輯:張燕妮 來源: 將門創(chuàng)投
相關(guān)推薦

2012-09-24 10:13:35

貝葉斯

2017-06-12 06:31:55

深度學(xué)習(xí)貝葉斯算法

2022-05-06 12:13:55

模型AI

2023-01-31 15:49:51

機(jī)器學(xué)習(xí)函數(shù)評(píng)分函數(shù)

2016-08-30 00:14:09

大數(shù)據(jù)貝葉斯

2020-05-21 14:50:37

算法深度學(xué)習(xí)人工智能

2021-11-05 15:22:46

神經(jīng)網(wǎng)絡(luò)AI算法

2023-09-12 11:36:15

攜程模型

2017-07-24 10:36:37

Python機(jī)器學(xué)習(xí)樸素貝葉斯

2021-08-30 11:53:36

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2017-08-07 13:02:32

全棧必備貝葉斯

2013-05-08 09:05:48

狐貍貝葉斯大數(shù)據(jù)

2017-03-29 14:50:18

2016-08-30 00:19:30

2021-04-18 09:57:45

Java樸素貝葉斯貝葉斯定理

2024-10-11 16:53:16

貝葉斯人工智能網(wǎng)絡(luò)

2023-10-18 08:00:00

貝葉斯網(wǎng)絡(luò)Python醫(yī)療保健

2020-10-09 12:41:04

算法優(yōu)化場(chǎng)景

2012-02-14 10:55:24

2017-07-12 11:27:05

樸素貝葉斯情感分析Python
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)