最新消息:

DeepFake狂害人! 專家示警「下波受害對象」 網:真的難防

   2021-10-19 12:59 蘇祐萱 OBSERVER 點閱:0


已引退的YouTuber小玉利用深偽技術(DeepFake)將女網紅、名人等換臉製作造假謎片,遭到刑事局逮捕,此案成為台灣首例DeepFake換臉技術的新型犯罪。事實上,這種技術在全球盛行已有一段時間,且專家認為,下一波遭攻擊的對象恐是金融數位服務。


▲Deepfakec換臉技術盛行全球。(圖/翻攝自VentureBeat YouTube)


「DeepFake」是一種AI換臉技術,透過分析大量不同角度照片、影像以及聲音後,只要深度學習要仿造的對象,就能達到換臉效果。這項技術危險,但價格卻便宜,過去小玉就曾透露自己僅花人民幣150元(約新台幣653元)購買換臉軟體,至於DeepFake網路版本價錢,平均美金15元(約新台幣419元)即可製作基本品質的影片,因此馬上大量使用到色情領域。


▼小玉過去自曝花150人民幣買下換臉軟體。(圖/翻攝自小玉YouTube)


目前網路上有高達96%的DeepFake影片是合成色情影片,受害者遍及全球,不僅多名好好萊塢明星黑寡婦史嘉蕾・喬韓森(Scarlett Johansson)、蓋兒・加朵(Gal Gadot)等人都曾被製作出造假不雅影片,南韓明星IU、潤娥等也是受害者,即便DeepFake的作品遭到Reddit、Twitter和Pornhub等網站所禁止,但私下製作販售的行為,層出不窮。


▼專家認為DeepFake下一波攻擊對象是金融數位服務。(圖/翻攝自CNBC YouTube)


不過,近年以色列AI新創Cyabra,成功開發出能偵破DeepFake的技術,可以辨識出91%的假影片和照片,以及98%的真實影片。但專家仍警告,由於深偽技術不斷進步,國際金融行業已經開始意識到這種風險,特別是「生物辨識」需要留意,因為透過DeepFake創作出的圖像,可能會騙過臉部辨識或是聲紋辨識的技術,即便聲音樣本並非來自本人,但AI只要經過訊練,就能產生與人相似的聲音。

熱門新聞
推薦文章
  • 壹電視新聞台客服: 0809-009-995
  • 客服信箱: service@nexttv.com.tw
  • 壹電視綜合台客服: (02)7737-4681
  • 客服信箱: webservice1@nexttv.com.tw
  • 壹電視電影台客服: (02)7737-4683
  • 客服信箱: movieservice@nexttv.com.tw