排 版丨KIM
「AI」是2023年開(kāi)年來(lái)最熱門的話題,當(dāng)人們?yōu)槿斯ぶ悄艿尼绕鸲械脚d奮之時(shí),一場(chǎng)危機(jī)也隨之而來(lái)。
在過(guò)去幾個(gè)月時(shí)間里,我們見(jiàn)識(shí)到了「AI問(wèn)答」、「AI制圖」和「AI換臉」,每一項(xiàng)技術(shù)的曝光,都引起不小的討論。在設(shè)想「AI」成為我們的得力助手之前,這些工具已經(jīng)率先成了不法之徒的「好伙伴」。
(資料圖片僅供參考)
全球最大的專業(yè)安全技術(shù)公司McAfee不久前公開(kāi)了一項(xiàng)調(diào)查數(shù)據(jù),在受到電話詐騙的人群中,有超過(guò)77%的受害者被「AI語(yǔ)音」所欺騙。這些受害者難以辨別來(lái)電中的聲音是否來(lái)自家人、朋友,于是,在陌生來(lái)電的請(qǐng)求下,向不法分子打去一筆又一筆錢款。
利用「AI」,人們可以輕松地克隆任何人的聲音,除了行騙之外,還可能出現(xiàn)在任何場(chǎng)合、任何地點(diǎn),乃至于網(wǎng)友們普遍認(rèn)為,「AI語(yǔ)音」遲早會(huì)出現(xiàn)在法庭上,成為偽證的主要來(lái)源。
「AI孫燕姿《發(fā)如雪》Cover From周杰倫」
「AI霉霉《反方向的鐘》Cover From周杰倫」
「AI周杰倫《普通朋友》Cover From陶喆」
這些利用「AI」創(chuàng)作的歌曲,成為網(wǎng)友們熱捧的二次創(chuàng)作。
(圖源:bilibili)
事實(shí)上,「AI」創(chuàng)作歌曲和「AI語(yǔ)音」詐騙案,手法是一樣的。創(chuàng)作者通過(guò)某些工具,將語(yǔ)音素材導(dǎo)入其中,以高性能顯卡進(jìn)行訓(xùn)練,不需要花費(fèi)太多時(shí)間,即可輕易地獲得一段“以假亂真”的音頻內(nèi)容。
用「AI」創(chuàng)作歌曲,還需要調(diào)整音調(diào),使這些音頻與原曲的節(jié)奏、音高保持一致。當(dāng)然,在最新版本的創(chuàng)作工具中,已經(jīng)可以做到“一鍵處理”,效果不會(huì)太差。而「AI語(yǔ)音」的難點(diǎn)在于處理情緒,除了調(diào)整仿真音頻的節(jié)奏之外,還需要加上因不同情緒而產(chǎn)生的內(nèi)容變化。
(圖源:Veer)
在McAfee提到的兩個(gè)真實(shí)案例中,一位母親接到詐騙團(tuán)伙撥來(lái)的綁架電話,在電話那頭,她的女兒正聲嘶力竭地呼救。不僅聲音相似,就連情緒也十分到位,這正是受害者“上鉤”的重要原因。
今年3月,一款名為“Mocking Bird”的AI工具誕生,據(jù)開(kāi)發(fā)者介紹,它能在電話、視頻中提取人聲,以AI算法進(jìn)行模擬匹配,最后根據(jù)分析出來(lái)的內(nèi)容,“拼湊”你所需要的語(yǔ)音內(nèi)容。經(jīng)網(wǎng)友實(shí)測(cè),這款工具確實(shí)可以制作出「AI語(yǔ)音」,但要求并不算低。
為了了解「AI語(yǔ)音」現(xiàn)階段的真實(shí)情況,我采訪了一位在該領(lǐng)域比較資深的創(chuàng)作者明治老師,聽(tīng)聽(tīng)他對(duì)「AI語(yǔ)音」的看法。
小雷:明治老師,看您在「AI」領(lǐng)域的研究頗為深入,您如何看待「AI語(yǔ)音」詐騙案?
明治:目前來(lái)說(shuō),光靠一通電話、一段視頻就能提取出足夠用于語(yǔ)言訓(xùn)練的素材,難度很大,從被報(bào)道出來(lái)的案例看,大多數(shù)被騙的用戶在當(dāng)時(shí)是處于緊張的狀態(tài)中,因?yàn)椴恢缹?duì)方是不是真的,大腦自動(dòng)匹配想象對(duì)象的聲音,這也是有可能的。
小雷:也就是說(shuō),現(xiàn)階段還不能單純依靠「AI」制作足以以假亂真的語(yǔ)音嗎?
明治:我們看到網(wǎng)絡(luò)上有很多AI翻唱的內(nèi)容,還有很多主播整活的語(yǔ)音音頻,但你有沒(méi)有發(fā)現(xiàn),這些二創(chuàng)內(nèi)容都有一個(gè)共同點(diǎn)——“樣本足量”。就像孫燕姿這類歌手,她能不斷被作為AI創(chuàng)作對(duì)象,正是因?yàn)樗凶銐虻穆曇羲夭?。即便有了足量的聲音素材,?duì)硬件也有很高的要求,即便是最好的消費(fèi)級(jí)顯卡4090Ti,模型生成也需要耗費(fèi)很多時(shí)間。
小雷:假如說(shuō),只用一段音頻作為素材去制作「AI語(yǔ)音」,能實(shí)現(xiàn)以假亂真嗎?
明治:上面也說(shuō)過(guò)了,聲音樣本不夠,是很難做出所謂的「AI語(yǔ)音」內(nèi)容的,就算強(qiáng)行制作,得到的成果質(zhì)量也不會(huì)很高?!耙约賮y真”,其實(shí)有很多判定標(biāo)準(zhǔn),例如童聲,大多數(shù)童聲聽(tīng)起來(lái)都是差不多的,尤其是在電話中,不太清晰的語(yǔ)音加上比較普遍的聲線,混淆視聽(tīng)也不足為奇。
(圖源:Veer)
從簡(jiǎn)單的訪談中我們可以了解到一些關(guān)于「AI」內(nèi)容創(chuàng)作者的想法,總體來(lái)說(shuō),「AI語(yǔ)音」除了技術(shù)加持之外,更多還是利用了人們對(duì)于未知事物的恐懼、慌張。而「AI」工具,只是讓原本的電話詐騙提升了一點(diǎn)可信度。
在ChatGPT初代公開(kāi)之時(shí),所有人都沒(méi)有預(yù)料到這樣一個(gè)人工智能問(wèn)答平臺(tái)可以衍生出這么繁多且強(qiáng)大的功能。同樣地「AI語(yǔ)音」現(xiàn)階段還不算是全民化、普世化的工具,但即便是在這個(gè)階段,已經(jīng)足夠讓電話詐騙成功幾率大大提升。很難想象,當(dāng)「AI語(yǔ)音」工具簡(jiǎn)化后,這個(gè)領(lǐng)域會(huì)被「玩」成什么花樣。
不久前,一位全網(wǎng)擁有百萬(wàn)粉絲的女網(wǎng)紅發(fā)布長(zhǎng)文,痛斥「AI換臉」正在對(duì)她的名譽(yù)、精神造成傷害。文中,這名網(wǎng)紅揭露,有不法分子通過(guò)這項(xiàng)技術(shù),將其她的臉換在成人視頻里,讓她“成為”影片中的女主角。
(圖源:Veer)
不僅是「AI換臉」,利用「AI」工具,用戶可以隨時(shí)輸入相應(yīng)的關(guān)鍵詞,生成任何他們想要的內(nèi)容,「18禁圖片」、「名人」或是任何「沒(méi)有發(fā)生的事情」,精制的圖片難辨真?zhèn)?,影響了用戶們的判斷力?/p>
從前,“有圖有真相”,是我們判斷事情真?zhèn)蔚闹饕C據(jù),再后來(lái),配合動(dòng)態(tài)視頻、真人語(yǔ)音,衍生出“視頻不能P”的判定標(biāo)準(zhǔn)。在「AI」蓬勃發(fā)展的今天,圖片可以自制、真人可以被移花接木,甚至是語(yǔ)音,也能被「AI」克隆。盡管「AI語(yǔ)音」并不能完全被認(rèn)定位電話詐騙成功的主因,但它提供的幫助,是被安全機(jī)構(gòu)所認(rèn)定為「具有風(fēng)險(xiǎn)」的。
目前,我國(guó)已經(jīng)出臺(tái)《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,對(duì)于“非真實(shí)音視頻信息”,應(yīng)當(dāng)予以標(biāo)識(shí),禁止利用大數(shù)據(jù)深度學(xué)習(xí)制作、發(fā)布虛擬新聞。而這僅僅只是一個(gè)開(kāi)始,想要給「AI」戴上鐐銬,任重道遠(yuǎn)。
McAfee出具的報(bào)告中提到,光是2022年這一年時(shí)間里,涉及「AI語(yǔ)音」詐騙的金額就達(dá)到了26億美元,約合人民幣180億元。
面對(duì)「AI語(yǔ)音」詐騙,我們?cè)撊绾畏婪赌兀?/strong>
(圖源:Veer)
如前面提到的,「AI語(yǔ)音」的生成需要大量克隆對(duì)象的聲音樣本,減少在未知風(fēng)險(xiǎn)的社交平臺(tái)中發(fā)送帶有自己真實(shí)聲音的視頻、音頻內(nèi)容,其實(shí)是最保險(xiǎn)的方案。另外,「AI語(yǔ)音」詐騙成功率高達(dá)77%,與人們的恐懼心理離不開(kāi)關(guān)系,在沒(méi)法確認(rèn)對(duì)方的真實(shí)身份前,盡量不要接受對(duì)方的要求,尤其是轉(zhuǎn)賬。
無(wú)論如何,現(xiàn)階段的「AI語(yǔ)音」并沒(méi)有如同網(wǎng)上流傳的那樣神乎其神,我們普通網(wǎng)民也沒(méi)必要過(guò)于著急自己的聲音被克隆,在遇到有可能是詐騙的情況,先保持冷靜,整理情緒,理清思路,才能更好地應(yīng)對(duì)。
責(zé)任編輯: