AI生成聲音成電話詐騙新工具 7成的人難辨真假
  • Line
AI生成聲音軟體方便人們使用,卻遭犯罪份子利用。合成照片非犯罪工具,取自clipchamp、Resemble.ai、Play.ht網頁 

AI生成聲音軟體方便人們使用,卻遭犯罪份子利用。合成照片非犯罪工具,取自clipchamp、Resemble.ai、Play.ht網頁 

A A A
2023-06-13 11:25

(王秋燕/綜合外電報導)人工智慧(AI)生成聲音已成為詐騙集團犯罪新工具,利用AI模仿親人聲音的詐騙案陸續在美國被舉報,而根據最新調查,高達70%的人無法確認來電是AI或是真人聲音。

網路安全公司McAfee旗下的McAfee Labs威脅中心針對美國等全球主要9個國家、7000名受訪者進行調查後發現,25的受訪者曾親身經歷或知道有人曾遭遇AI聲音詐騙案;70%的受訪者認為無法分辨來電是真人或AI。

美國官方警告,利用AI生成孫子等親人的聲音,以電話詐騙祖父母的案件正日益增加。

現在網路上已經夠搜尋到免費的AI生成聲音的軟體,只需要提供一個真實的樣本,只需要幾秒鐘,就能夠創造AI複製聲音,而詐騙犯罪份子能夠輕易自網路上搜索到真實聲音樣本。

美國Blackbird.AI行政總裁哈立德(Wasim Khaled)接受法新社訪問時指出,AI聲音複製技術已到達與真人對話高度相似水準,只需一個細小的聲音檔案,數秒便能生成高度擬真的留言或語音訊息,使行騙者更有效地騙取資訊及金錢。

美國加州大學柏克萊分校資訊系教授費力德(Hany Farid)表示,由於AI輕易生成高模仿度聲音,近乎全數網路用戶成為類似騙局的目標。有專家表示,AI聲音詐騙十分猖狂,或有需要發展全新科技,讓民眾確認來電者身份。