詐騙者利用 AI 聲音冒充親人竊取數(shù)百萬(wàn)美元
2022 年,超過(guò) 5,000 名受害者通過(guò)電話被騙走錢(qián)財(cái)。
- 人工智能語(yǔ)音生成軟件讓騙子可以模仿親人的聲音。
- 這些假冒行為導(dǎo)致人們?cè)?2022 年通過(guò)電話被騙走 1100 萬(wàn)美元。
- 老年人占目標(biāo)人群的大多數(shù)。
一段時(shí)間以來(lái),人工智能一直是科技界的中心話題,因?yàn)槲④浝^續(xù)在其產(chǎn)品中注入ChatGPT,而谷歌則試圖通過(guò)推出自己的人工智能產(chǎn)品來(lái)跟上潮流。雖然人工智能有潛力做一些真正令人印象深刻的事情——比如根據(jù)一行文本生成圖像——但我們開(kāi)始看到幾乎不受監(jiān)管的技術(shù)的更多缺點(diǎn)。最新的例子是人工智能語(yǔ)音發(fā)生器被用來(lái)騙取人們的錢(qián)財(cái)。
人工智能語(yǔ)音生成軟件近來(lái)一直是頭條新聞,主要是因?yàn)楦`取了配音演員的聲音。最初,軟件只需要幾句話就可以令人信服地再現(xiàn)揚(yáng)聲器的聲音和語(yǔ)氣。該技術(shù)已經(jīng)發(fā)展到只需幾秒鐘的對(duì)話就足以準(zhǔn)確模仿某人的程度。
在《華盛頓郵報(bào)》的一份新報(bào)告中,數(shù)以千計(jì)的受害者聲稱他們被冒充親人的冒名頂替者所欺騙。據(jù)報(bào)道,冒名頂替詐騙已成為美國(guó)第二大最受歡迎的欺詐類(lèi)型,2022 年提交的案件超過(guò) 36,000 起。根據(jù) FTC 官員的說(shuō)法,在這 36,000 起案件中,超過(guò) 5,000 名受害者通過(guò)電話騙走了他們的錢(qián),損失總額達(dá) 1,100 萬(wàn)美元.
一個(gè)突出的故事涉及一對(duì)老年夫婦,他們認(rèn)為他們與兒子交談過(guò)后,通過(guò)比特幣終端向詐騙者發(fā)送了超過(guò) 15,000 美元。人工智能的聲音讓這對(duì)夫婦相信,他們的兒子在一場(chǎng)車(chē)禍中殺死了一名美國(guó)外交官后陷入了法律糾紛。
與故事中的受害者一樣,這些襲擊似乎主要針對(duì)老年人。這并不奇怪,因?yàn)樵谏婕敖鹑谠p騙時(shí),老年人是最脆弱的群體之一。不幸的是,法院尚未就公司是否應(yīng)對(duì)人工智能語(yǔ)音發(fā)生器或其他形式的人工智能技術(shù)造成的損害承擔(dān)責(zé)任做出決定。