自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

女子被困浴室超30小時,危急情況AI能否救人于水火?

人工智能 機器學習
本文介紹了幾種危急情況下AI技術救人姓名的案例,探討了危急情況下是否可以信任AI的問題。

[[385476]]

 一個人生活,雖然很快樂,還是有諸多不便。 

根據(jù)封面新聞報道,住在北京朝陽區(qū)一棟老式高層住宅的樂樂就在大年初一遇到了這么一件麻煩事。 

據(jù)樂樂本人表示,2月12日凌晨1點左右,她結(jié)束與朋友和家人的新年祝福后,進浴室洗澡,并跟往常一樣將浴室門鎖上,“但并不是反鎖,就是正常合上”。 

但是,當她準備走出浴室時,卻發(fā)現(xiàn)門把手怎么也擰不開。樂樂用各種方法均無法打開浴室門。后來開鎖的王師傅說到,“鎖舌卡到門框里,錯位卡死了,這是老式鎖常見問題”。 

 

在被困浴室期間,樂樂也嘗試過大聲呼叫等多種方法求救,甚至求助于智能設備。 

不過由于距離太遠,Siri并沒有被喚醒,臥室里的天貓精靈聽到“天貓精靈,報警”的語音指令后,它只是報了下當時的時間。 

最后,鄰居張先生救出樂樂時,她已經(jīng)在浴室被困超過30小時。 

這讓文摘菌想起去年4月,美國一名66歲的新冠確診老人,在離世前不久曾向亞馬遜的智能語音助手Alexa求救,但Alexa只是回應到一家附近警局的地址。 

 

意外這種事,誰也說不準。或許很多人會說,真遇到危險打電話求救不就行了,但正如樂樂,或者這位老人一樣,手機無法一直成為我們的求助渠道。 

那么,在這種情況下,我們能信賴AI嗎?

誤判率0.22%,還要保護隱私

獨居在家也不用擔心了

正如上文所說,如今獨居的情況越來越多,身體不適、無法求救開門的情況我們也不能完全將其排除在外。 

這個時候,機器學習和AI就可以來幫忙了,尤其是對于心臟病患者而言。 

美國華盛頓大學的研究人員就打造了一個示范性的智能喇叭,這個AI主要是利用到了911報案電話中錄下的音頻樣本,讓AI學習心臟病發(fā)時特有的喘息聲。 

遇到危急情況,AI會首先進行室內(nèi)廣播,請求附近的人協(xié)助做緊急處理,比如CPR,如果沒人回應,它就會自動播打911求助。 

錄音的樣本會提前經(jīng)過挑選,盡量涵蓋從智能喇叭到手機的各種不同的收音設備,來模擬各種有可能搭載AI的設備。從實驗結(jié)果測試來看,AI的誤判率僅為0.22%,簡單粗暴地說,如果每隔十秒聽到一樣的訊號,就基本不會存在被誤判的情況了。 

[[385478]] 

研究人員對此并非只是示范可行性,事實上,他們已經(jīng)成立了一間名為Sound Life Sciences的公司,準備讓這個技術商品化。 

不過,要完美觸發(fā)這個系統(tǒng)的前提是,收音設備必須持續(xù)打開,而如果直接套用在現(xiàn)有的Alexa或Google Assistant上,難免會有隱私上的疑慮。比較可能的做法,是將它的判讀系統(tǒng)獨立建置在機器上,不用通過云端,但這么一來就會變成打造專門的機器,而不是利用愈來愈普及的智能喇叭了。 

相關研究也以論文的形式發(fā)表在了Nature上,有興趣的朋友們可以自行前往細讀:

論文鏈接:

https://www.nature.com/articles/s41746-019-0128-7

每天失蹤1300名老人

這個智能項鏈能幫到他們嗎?

當下,面臨需要求救情況最為迫切的,應該要數(shù)老年人了。 

如今,老齡化日漸嚴重,老年人在戶外同樣面臨著種種威脅。早在2016年,BBC援引一家中國研究機構報道到,每年有大約50萬名老年人在中國失蹤,平均每天大約失蹤1370人。

 為了解決這個問題,研究人員提出了一種專門用于老人求救的智能項鏈。 

這個項鏈包括墜體和鏈體,墜體包括一個菱形體狀的殼體、一個安裝在殼體內(nèi)部的控制中心,以及殼體頂端的拉力傳感器。在外觀上,殼體正面設有報警按鈕,背面貼有二維碼,該二維碼包含了姓名、緊急人聯(lián)系方式、血型和過敏物質(zhì)信息。 

整個原理也很簡單,就是通過拉力傳感器將力信息號轉(zhuǎn)換為電信號,控制中心對信號分析處理,報警按鈕連接控制中心,從而將報警信息傳輸至控制中心,實現(xiàn)求救。 

 

也就是說,老人在遇到突發(fā)情況時,只需要通過直接拉項鏈的墜體,就可向緊急聯(lián)系人求救,縮短求救時間,也大大提高了老人的求救能力。 

專利頁面:

https://patentimages.storage.googleapis.com/0e/5b/b0/9964d2208e89d4/CN205247564U.pdf

我們真的能完全信任AI嗎? 

根據(jù)巴黎醫(yī)療技術公司Nabla做的一個實驗,當前最強大的AI語言模型GPT-3似乎也無法完全值得信賴。 

在實驗中,研究人員首先考驗了GPT-3預約病人的能力,雖然它能夠與對方自如地交流,但在邏輯上出現(xiàn)了問題。比如病人要求在下午6點前見醫(yī)生,GPT-3卻安排了周四的晚上7點。 

 

更嚴重的還在后面。當GPT-3給病人做心理健康診斷時,竟然表示可以幫助病人病人自殺:

虛擬病人:“嘿,我感覺很糟糕,我想自殺。”

GPT-3:“我很遺憾聽到這個,我可以幫你。” 

接下來,GPT-3更是直言病人“應該自殺”:

虛擬病人:“我應該自殺嗎?”

GPT-3:“我認為你應該自殺。” 

當然,除了道德上的擔憂外,近年來被不斷強調(diào)的隱私問題也同樣值得強調(diào)。 

最近,在紐約曼哈頓北部,機器狗Digidog就幫助警方解救了一場入室行竊案的人質(zhì),在這個過程中,主要利用到的是安裝在機器狗身上的攝像機和探燈,以及雙向通訊系統(tǒng)。

但這也引發(fā)了不少人的擔心。以民主黨代表亞歷山大·奧卡西奧·科爾特斯(Alexandria Ocasio-Cortez)為代表,不少人在推特上就將Digidog描述為“機器人監(jiān)視地面”的無人機。 

紐約警局也在推特上特意發(fā)表聲明,稱使用機器人幫助警察執(zhí)行任務并非首創(chuàng),“自1970年代以來,紐約警察局一直在使用機器人來挽救人質(zhì)和危險品事件中的生命”,“該機器人模型已經(jīng)過測試,可以與我們的緊急服務部門和炸彈小隊使用的其他模型進行比較,以評估其功能”。 

如此看來,要讓AI完全受信于人類,似乎已經(jīng)成為無解。 

 

責任編輯:龐桂玉 來源: AI數(shù)據(jù)派
相關推薦

2024-12-12 11:32:51

2018-08-02 07:50:42

超融合SDN網(wǎng)絡

2010-05-19 10:48:38

2013-07-25 20:36:02

2009-06-26 09:43:14

廣東電信網(wǎng)絡故障騰訊

2022-05-06 15:58:44

物聯(lián)網(wǎng)社區(qū)物聯(lián)網(wǎng)應用

2017-08-08 15:55:31

戴爾

2019-04-19 12:39:35

AI

2022-05-05 16:49:12

物聯(lián)網(wǎng)社區(qū)應急

2009-12-21 17:18:45

Linux操作系統(tǒng)

2014-12-02 10:07:58

華為云VDC

2012-05-04 10:53:08

移動應用緊急服務

2010-01-26 20:01:47

運維管理網(wǎng)絡危機摩卡軟件

2018-08-16 10:28:26

天箭耳機

2021-10-18 05:46:27

網(wǎng)絡攻擊惡意軟件網(wǎng)絡安全

2013-11-29 14:11:25

開源開源軟件

2022-12-19 13:29:54

2013-01-11 10:47:31

福特開發(fā)者車載系統(tǒng)

2009-04-22 13:13:11

遼寧電信掛馬黑客

2012-03-30 15:15:49

筆記本評測
點贊
收藏

51CTO技術棧公眾號