欺詐團伙采用深度偽造語音技術欺詐了銀行3500萬美元的資金
根據《福布斯》獲得的一份法庭文件披露的信息,一個欺詐團伙利用音頻深度偽造技術克隆了一家企業(yè)董事的聲音,將3500萬美元的資金轉移到幾個海外賬戶。這是迄今為止最成功的“deep voice” 欺詐案,盡管這可能只是這樣的案例日益增長趨勢的一部分。
深度偽造(Deepfake)技術可以訓練人工智能系統(tǒng)來模仿某人的面孔,通常是演員或其他知名人士的面孔。然后,人工智能技術可以制作動畫并將其面孔粘貼到視頻中,從而將克隆的對象插入到場景中。
但是不能只是他們的影像放在視頻中,還要偽造他們的聲音。這就是音頻深度偽造發(fā)揮作用的地方,可以訓練人工智能技術來模仿某人的聲音,然后以其聲音說出內容。
專家認為,一旦深度造假技術達到一定的水平,將推動一個充滿錯誤信息、騷擾和蹩腳電影的新時代。
在2020年,阿聯(lián)酋的一名銀行經理接到了一家大公司董事的電話。該董事聲稱其所在的公司正在進行一項大型收購,所以要求這家銀行授權向美國的幾個賬戶轉賬3500萬美元。他表示已經發(fā)送一封來自律師的電子郵件來確認這筆轉賬,由于一切看起來都是合法的,銀行經理確認了這筆轉賬。
但這家公司的“董事”實際上是一個經過訓練的“deep voice”算法,聽起來就像他的聲音。阿聯(lián)酋有關部門目前正在尋求美國警方的幫助,以追回丟失的這些資金。據悉,這些資金被17名或更多的欺詐者轉移到他們在全球各地的賬戶上。
這并不是Deepfake實施的第一次欺詐和搶劫,但卻是迄今為止最成功的一次。類似的事件顯然將來還會發(fā)生,而且規(guī)??赡軙蟮枚?。那么企業(yè)和政府能做些什么來減輕威脅呢?很難說。
因為Deepfakes技術仍在不斷改進,最終會變得更強大,以至于人類無法正確識別。但經過訓練的人工智能可能識別出深度偽造的行為,因為克隆受害者的面孔和聲音往往包含一些錯誤,例如數(shù)字噪音或人類不可能發(fā)出的一些聲音。