基于深度合成技術(shù)引發(fā)的侵權(quán)案例,常見的手法是冒充熟人實(shí)施電信詐騙。不久前,江蘇句容的楊女士,在收到自己“女兒”多條要求繳納報(bào)名費(fèi)的語音后,向騙子賬戶轉(zhuǎn)賬3.5萬元。相關(guān)辦案民警反復(fù)提醒:“遇到轉(zhuǎn)賬一定要慎之又慎,眼見不一定為實(shí)?!?/p>
“利用AI技術(shù)治理AI犯罪,本身也是一個(gè)不斷博弈的過程?!碧锾旖榻B,“紅隊(duì)測(cè)試”是目前生成式AI治理的重要手段,旨在通過模擬攻擊者行為,對(duì)目標(biāo)系統(tǒng)進(jìn)行全面網(wǎng)絡(luò)攻擊,針對(duì)性地發(fā)現(xiàn)、修補(bǔ)潛在系統(tǒng)漏洞,使模型在面向公眾開放前,充分接受安全技術(shù)檢驗(yàn)。視頻合成AI平臺(tái)Sora,在上市前就曾邀請(qǐng)數(shù)名從事信息安全漏洞研究的專家充當(dāng)紅隊(duì)進(jìn)行對(duì)抗測(cè)試,找出相當(dāng)數(shù)量的安全漏洞。
去年國家網(wǎng)信辦等部門發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》標(biāo)志著生成式AI有了專門性行政法規(guī)。2023年1月施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確提出,“任何組織和個(gè)人不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息”“可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識(shí)”,等等。
千亿体育app官网AI“換臉”實(shí)施詐騙、AI偽造圖片傳播謠言、AI“復(fù)活”逝者引發(fā)爭(zhēng)議……隨著人工智能技術(shù)的不斷發(fā)展,AI深度偽造的例子屢見不鮮。不少網(wǎng)民驚呼,以前總說“有圖有真相”,如今我們連圖片和視頻也不敢輕易相信了。
今年1月,美國一位流行歌手被人用AI惡意生成虛假照片,在社交媒體迅速傳播,給歌手本人造成困擾。2月,香港一家公司遭遇“AI變臉”詐騙,損失高達(dá)2億元港幣。據(jù)悉,這家公司一名員工在視頻會(huì)議中被首席財(cái)務(wù)官要求轉(zhuǎn)賬。然而,會(huì)議中的這位“領(lǐng)導(dǎo)”和其他員工,實(shí)際都是深度偽造的AI影像。詐騙者通過公開渠道獲取的資料,合成了首席財(cái)務(wù)官的形象和聲音,并制作出多人參與視頻會(huì)議的虛假場(chǎng)景。
在倫理層面,AI“復(fù)活”等行為引起部分用戶的反感和恐懼。對(duì)此,科技部等10部門印發(fā)《科技倫理審查辦法(試行)》,列出了需要開展倫理審查復(fù)核的科技活動(dòng)清單,其中就包括具有社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)研發(fā)等。
此外,業(yè)界也在推動(dòng)落實(shí)AI生成內(nèi)容標(biāo)識(shí)制度。中國政法大學(xué)數(shù)據(jù)法治研究院教授張凌寒表示,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)在《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——生成式人工智能服務(wù)內(nèi)容標(biāo)識(shí)方法》中給出了內(nèi)容標(biāo)識(shí)方法:通過在交互界面中添加半透明文字的方式顯示水印標(biāo)識(shí),或通過人類無法直接感知但可通過技術(shù)手段從內(nèi)容中提取的隱式水印標(biāo)識(shí),提示內(nèi)容由人工智能生成?!皹?biāo)識(shí)制度可以提升AI信息內(nèi)容治理能力,減少虛假信息生成,防止虛假信息污染下一代訓(xùn)練數(shù)據(jù),營造良好的網(wǎng)絡(luò)信息生態(tài)環(huán)境?!睆埩韬f。
在法律層面,中國已經(jīng)出臺(tái)了《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個(gè)人信息保護(hù)法》等法律,但針對(duì)AI領(lǐng)域的司法治理仍有進(jìn)一步細(xì)化的空間。“現(xiàn)有法律法規(guī)對(duì)數(shù)據(jù)權(quán)屬、保護(hù)范圍等問題暫無具體規(guī)定。在人工智能生成結(jié)果的保護(hù)方面,《民法典》的原則性條款在具體適用方面還有一定難度?!北本┗ヂ?lián)網(wǎng)法院綜合審判三庭負(fù)責(zé)人顏君建議,要進(jìn)一步加快人工智能方面的法律供給,推動(dòng)國家層面生成式人工智能規(guī)范的確立。對(duì)已有案例出現(xiàn)的疑難法律問題,要通過學(xué)術(shù)討論和司法實(shí)踐,逐步形成共識(shí),總結(jié)確立法律適用規(guī)則,推動(dòng)《人工智能法草案》的立法進(jìn)程。
如何把生成式AI的強(qiáng)大能力用于建立信息安全規(guī)范,將制約行業(yè)發(fā)展的“絆腳石”變?yōu)椤皦号撌保繕I(yè)界一直在探索“用技術(shù)治理技術(shù)”的方案。
瑞萊智慧是清華大學(xué)人工智能研究院孵化的企業(yè),專攻人工智能安全領(lǐng)域。瑞萊智慧總裁田天介紹,其公司研發(fā)的生成式人工智能內(nèi)容檢測(cè)平臺(tái),支持多種合成類型的圖片、視頻、音頻、文本的真?zhèn)螜z測(cè),應(yīng)用場(chǎng)景包括打擊網(wǎng)絡(luò)詐騙和聲譽(yù)侵害行為、檢測(cè)網(wǎng)絡(luò)內(nèi)容合規(guī)性、檢測(cè)音視頻物證真實(shí)性等。
“深度偽造技術(shù)利用AI深度學(xué)習(xí)功能,實(shí)現(xiàn)圖像、聲音、視頻的篡改、偽造和自動(dòng)生成,產(chǎn)生以假亂真的效果。”上海人工智能研究院院長(zhǎng)宋海濤給公眾應(yīng)對(duì)深度偽造支了三招:一是掌握甄別AI“換臉”的簡(jiǎn)單技巧,比如要求對(duì)方在視頻對(duì)話時(shí)在臉前揮揮手,看是否出現(xiàn)圖像擾動(dòng)等;二是學(xué)會(huì)使用檢測(cè)深度偽造的工具和軟件;三是保持合理懷疑?!氨3种?jǐn)慎和警惕,是公眾應(yīng)對(duì)AI造假的第一道防線?!彼魏f。
不少專家表示,盡快建立健全相關(guān)治理規(guī)范至關(guān)重要?!斑@一領(lǐng)域的治理不能完全寄希望于企業(yè)自治,更需要法律硬性監(jiān)管?!睂?duì)外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任張欣表示,“通過立法為AI開發(fā)劃定基本底線,明確合規(guī)義務(wù),可以從源頭防范風(fēng)險(xiǎn),避免‘先污染后治理’的被動(dòng)局面?!?/p>
國際測(cè)試委員會(huì)創(chuàng)始人、中國科學(xué)院計(jì)算所研究員詹劍鋒建議,應(yīng)將AI深度偽造納入監(jiān)測(cè)機(jī)制,遇到負(fù)面影響較大的造假行為,第一時(shí)間快速反應(yīng)。通過建立針對(duì)深度偽造有害內(nèi)容的群眾舉報(bào)機(jī)制,提高公眾的判斷力、鑒別力。
網(wǎng)友評(píng)論更多
46華亭g
巴黎奧運(yùn)會(huì)開幕式松弛感拉滿🥞🥟
2024-09-23 03:34:28 推薦
187****3843 回復(fù) 184****4739:傅聰大使在聯(lián)合國就加沙沖突發(fā)問🥠來自西寧
187****3406 回復(fù) 184****4712:1953年-朝鮮戰(zhàn)爭(zhēng)結(jié)束🥡來自海東
157****5245:按最下面的歷史版本🥢🥣來自格爾木
28德令哈642
1958年-“飛虎隊(duì)”隊(duì)長(zhǎng)克萊爾·李·陳納德逝世🥤🥥
2024-09-23 15:35:27 推薦
永久VIP:1824年-法國作家小仲馬誕辰🥦來自玉樹
158****5775:1981年-中國體操名將李小鵬出生🥧來自茫崖
158****4703 回復(fù) 666🥨:1976年-《白毛女》作者之一馬可逝世🥩來自拉薩
20日喀則zd
1994年-普利策獎(jiǎng)得主攝影家凱文·卡特自殺身亡🥪🥫
2024-09-23 03:52:35 不推薦
昌都jn:1970年-葡萄牙總理安東尼奧·德奧利維拉·薩拉查病故🦀
186****3046 回復(fù) 159****6594:1921年-胰島素分離成功🦁