91伊人久久大香线蕉_青久久久久国产线免观_亚洲无码久久精品视频_熟妇在线观看免费视频

首頁 > 淘吧 > 正文

李鬼變李逵!“深度造假”視頻危害日益加劇

核心提示: 用來創(chuàng)造這類數(shù)字內(nèi)容的技術(shù)已經(jīng)“飛入尋常百姓家”,被稱為“深度造假”。

相機(jī)應(yīng)用變得越來越復(fù)雜。用戶可以拉長(zhǎng)腿部,去除臉上的粉刺,加上動(dòng)物耳朵等等?,F(xiàn)在,有些人甚至可以制作出看起來非常逼真的虛假視頻。用來創(chuàng)造這類數(shù)字內(nèi)容的技術(shù)已經(jīng)“飛入尋常百姓家”,被稱為“深度造假”。

美國(guó)消費(fèi)者新聞與商業(yè)頻道網(wǎng)站(CNBC)在近日的報(bào)道中指出,隨著技術(shù)的不斷進(jìn)步,“李鬼變李逵”!“深度造假”的危害日益加劇,正帶來一系列具有挑戰(zhàn)性的政策、技術(shù)和法律問題。

深度學(xué)習(xí)+造假=深度造假

“深度造假”是指經(jīng)過處理的視頻,或者通過尖端的人工智能技術(shù)生成的其他數(shù)字內(nèi)容,它們會(huì)產(chǎn)生看似真實(shí)的虛假圖像和聲音。

“深度造假”這個(gè)詞結(jié)合了“深度學(xué)習(xí)”和“造假”,是一種人工智能形式。深度學(xué)習(xí)是人工智能的一個(gè)子集,指的是能夠?qū)W習(xí)和自行做決定的一些算法。

美國(guó)紐約大學(xué)法學(xué)兼職教授保羅·巴雷特說,簡(jiǎn)單來講,“深度造假”就是借助深度學(xué)習(xí)手段制作的虛假視頻。深度學(xué)習(xí)系統(tǒng)可以從多個(gè)角度研究目標(biāo)人物的照片和視頻,然后模仿其行為和說話模式,從而制造出具有說服力的虛假內(nèi)容。

巴雷特解釋說:“一旦制造出了初步的假象,就可以通過名為‘生成式對(duì)抗網(wǎng)絡(luò)’(GAN)的方法讓它看起來更加可信。GAN可發(fā)現(xiàn)偽造過程中的瑕疵,從而改進(jìn)這些瑕疵。經(jīng)過多輪檢查和改進(jìn)后,‘深度造假’視頻就完成了。”

在公共政策機(jī)構(gòu)布魯金斯學(xué)會(huì)下設(shè)的技術(shù)革新中心從事治理研究的非常駐高級(jí)研究員、加利福尼亞大學(xué)洛杉磯分校電子工程系教授約翰·維拉塞納認(rèn)為,從技術(shù)的角度來說,任何人只要擁有電腦并且能夠上網(wǎng),就可以制造“深度造假”的內(nèi)容。

“李鬼變李逵”

智庫(kù)新美國(guó)(New America)關(guān)注網(wǎng)絡(luò)安全與防御的戰(zhàn)略家、高級(jí)研究員彼得·辛格指出,“深度造假”的危險(xiǎn)在于,這種技術(shù)可以讓人相信原本并不真實(shí)存在的東西是真實(shí)的。

辛格不是唯一一個(gè)提醒“深度造假”所帶來的危險(xiǎn)的人。

維拉塞納也表示,這類視頻“變得越來越復(fù)雜、越來越容易制作,‘深度造假’正帶來一系列具有挑戰(zhàn)性的政策、技術(shù)和法律問題”。這項(xiàng)技術(shù)“可以讓政治候選人看上去像是說了或做了什么從未真正說過的話或做過的事,以此來破壞他們的聲譽(yù)”。

麻省理工學(xué)院的一項(xiàng)技術(shù)報(bào)告指出,可以進(jìn)行“深度造假”的設(shè)備可能成為“偽造虛假新聞?wù)叩睦硐胛淦?,他們希望影響從股票價(jià)格到選舉的一切”。

CNBC網(wǎng)站在其報(bào)道中稱,“深度造假”將成為“2020年美國(guó)總統(tǒng)選舉中的大事件”。就像2016年的“虛假新聞”一樣,“深度造假”視頻將在2020年的美國(guó)大選中,掀起更強(qiáng)大的血雨腥風(fēng)。當(dāng)然,為了未雨綢繆,包括加州和德州在內(nèi)的不少州都已經(jīng)制定法律,當(dāng)這些“深度造假”視頻用于2020年的選舉中時(shí),將被認(rèn)為不合法。

《麻省理工學(xué)院技術(shù)評(píng)論》雜志舊金山分支機(jī)構(gòu)負(fù)責(zé)人馬丁·賈爾斯在一份報(bào)告中寫道,事實(shí)上,“人工智能工具已被用于把其他人的面部照片安在色情明星身上,讓其他人說的話從政客們的口中說出。”他說,這個(gè)問題并非由GAN制造,但GAN會(huì)讓問題變得更糟糕。

成也蕭何敗也蕭何

正所謂成也蕭何敗也蕭何!維拉塞納今年2月份曾撰文指出,雖然人工智能可以用來生成“深度造假”視頻,但也可以用來檢測(cè)它們。由于任何計(jì)算機(jī)用戶都可以使用該技術(shù),越來越多的研究人員將注意力集中在“深度造假”視頻的檢測(cè)上,并且正在殫精竭慮地尋求管控這些“深度造假”視頻的方法。

臉書和微軟等大公司已經(jīng)采取行動(dòng),旨在發(fā)現(xiàn)并刪除“深度造假”視頻。據(jù)路透社報(bào)道,這兩家公司于今年早些時(shí)候宣布,他們將與美國(guó)頂級(jí)大學(xué)合作,建立一個(gè)龐大的假視頻數(shù)據(jù)庫(kù),以進(jìn)行深入的分析研究。

辛格指出,普通用戶也可以用自己的雙眼來觀測(cè)并檢查出“深度造假”視頻。他說:“目前,如果你近距離觀察,會(huì)出現(xiàn)一些輕微的突兀之處,比如耳朵或眼睛不匹配、臉部輪廓模糊、皮膚太光滑等等。”

但是他也強(qiáng)調(diào),隨著“深度造假”技術(shù)日益精進(jìn),視頻會(huì)看起來越來越真實(shí),人們要分辨也變得越來越困難。

維拉塞納也提醒人們,在技術(shù)不斷發(fā)展演進(jìn)的同時(shí),用來發(fā)現(xiàn)造假的檢測(cè)技術(shù)“往往落后于最先進(jìn)的生成造假的手法”。因此,更值得深思的一個(gè)問題是:人們更有可能相信“深度造假”視頻,還是將這類視頻作為“深度造假”的檢測(cè)算法?

  • 微笑
  • 流汗
  • 難過
  • 羨慕
  • 憤怒
  • 流淚
責(zé)任編輯:趙文源