詐騙者利用 AI 聲音冒充親人竊取數(shù)百萬美元
2022 年,超過 5,000 名受害者通過電話被騙走錢財。
- 人工智能語音生成軟件讓騙子可以模仿親人的聲音。
- 這些假冒行為導致人們在 2022 年通過電話被騙走 1100 萬美元。
- 老年人占目標人群的大多數(shù)。
一段時間以來,人工智能一直是科技界的中心話題,因為微軟繼續(xù)在其產(chǎn)品中注入ChatGPT,而谷歌則試圖通過推出自己的人工智能產(chǎn)品來跟上潮流。雖然人工智能有潛力做一些真正令人印象深刻的事情——比如根據(jù)一行文本生成圖像——但我們開始看到幾乎不受監(jiān)管的技術(shù)的更多缺點。最新的例子是人工智能語音發(fā)生器被用來騙取人們的錢財。
人工智能語音生成軟件近來一直是頭條新聞,主要是因為竊取了配音演員的聲音。最初,軟件只需要幾句話就可以令人信服地再現(xiàn)揚聲器的聲音和語氣。該技術(shù)已經(jīng)發(fā)展到只需幾秒鐘的對話就足以準確模仿某人的程度。
在《華盛頓郵報》的一份新報告中,數(shù)以千計的受害者聲稱他們被冒充親人的冒名頂替者所欺騙。據(jù)報道,冒名頂替詐騙已成為美國第二大最受歡迎的欺詐類型,2022 年提交的案件超過 36,000 起。根據(jù) FTC 官員的說法,在這 36,000 起案件中,超過 5,000 名受害者通過電話騙走了他們的錢,損失總額達 1,100 萬美元.
一個突出的故事涉及一對老年夫婦,他們認為他們與兒子交談過后,通過比特幣終端向詐騙者發(fā)送了超過 15,000 美元。人工智能的聲音讓這對夫婦相信,他們的兒子在一場車禍中殺死了一名美國外交官后陷入了法律糾紛。
與故事中的受害者一樣,這些襲擊似乎主要針對老年人。這并不奇怪,因為在涉及金融詐騙時,老年人是最脆弱的群體之一。不幸的是,法院尚未就公司是否應對人工智能語音發(fā)生器或其他形式的人工智能技術(shù)造成的損害承擔責任做出決定。