不少專家表示,盡快建立健全相關(guān)治理規(guī)范至關(guān)重要?!斑@一領(lǐng)域的治理不能完全寄希望于企業(yè)自治,更需要法律硬性監(jiān)管。”對外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任張欣表示,“通過立法為AI開發(fā)劃定基本底線,明確合規(guī)義務(wù),可以從源頭防范風(fēng)險,避免‘先污染后治理’的被動局面?!?/p>
宝石娱乐官网下载AI“換臉”實(shí)施詐騙、AI偽造圖片傳播謠言、AI“復(fù)活”逝者引發(fā)爭議……隨著人工智能技術(shù)的不斷發(fā)展,AI深度偽造的例子屢見不鮮。不少網(wǎng)民驚呼,以前總說“有圖有真相”,如今我們連圖片和視頻也不敢輕易相信了。
“深度偽造技術(shù)利用AI深度學(xué)習(xí)功能,實(shí)現(xiàn)圖像、聲音、視頻的篡改、偽造和自動生成,產(chǎn)生以假亂真的效果?!鄙虾H斯ぶ悄苎芯吭涸洪L宋海濤給公眾應(yīng)對深度偽造支了三招:一是掌握甄別AI“換臉”的簡單技巧,比如要求對方在視頻對話時在臉前揮揮手,看是否出現(xiàn)圖像擾動等;二是學(xué)會使用檢測深度偽造的工具和軟件;三是保持合理懷疑。“保持謹(jǐn)慎和警惕,是公眾應(yīng)對AI造假的第一道防線?!彼魏f。
瑞萊智慧是清華大學(xué)人工智能研究院孵化的企業(yè),專攻人工智能安全領(lǐng)域。瑞萊智慧總裁田天介紹,其公司研發(fā)的生成式人工智能內(nèi)容檢測平臺,支持多種合成類型的圖片、視頻、音頻、文本的真?zhèn)螜z測,應(yīng)用場景包括打擊網(wǎng)絡(luò)詐騙和聲譽(yù)侵害行為、檢測網(wǎng)絡(luò)內(nèi)容合規(guī)性、檢測音視頻物證真實(shí)性等。
去年國家網(wǎng)信辦等部門發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》標(biāo)志著生成式AI有了專門性行政法規(guī)。2023年1月施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確提出,“任何組織和個人不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律、行政法規(guī)禁止的信息”“可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識”,等等。
在法律層面,中國已經(jīng)出臺了《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護(hù)法》等法律,但針對AI領(lǐng)域的司法治理仍有進(jìn)一步細(xì)化的空間?!艾F(xiàn)有法律法規(guī)對數(shù)據(jù)權(quán)屬、保護(hù)范圍等問題暫無具體規(guī)定。在人工智能生成結(jié)果的保護(hù)方面,《民法典》的原則性條款在具體適用方面還有一定難度?!北本┗ヂ?lián)網(wǎng)法院綜合審判三庭負(fù)責(zé)人顏君建議,要進(jìn)一步加快人工智能方面的法律供給,推動國家層面生成式人工智能規(guī)范的確立。對已有案例出現(xiàn)的疑難法律問題,要通過學(xué)術(shù)討論和司法實(shí)踐,逐步形成共識,總結(jié)確立法律適用規(guī)則,推動《人工智能法草案》的立法進(jìn)程。
國際測試委員會創(chuàng)始人、中國科學(xué)院計算所研究員詹劍鋒建議,應(yīng)將AI深度偽造納入監(jiān)測機(jī)制,遇到負(fù)面影響較大的造假行為,第一時間快速反應(yīng)。通過建立針對深度偽造有害內(nèi)容的群眾舉報機(jī)制,提高公眾的判斷力、鑒別力。
如何把生成式AI的強(qiáng)大能力用于建立信息安全規(guī)范,將制約行業(yè)發(fā)展的“絆腳石”變?yōu)椤皦号撌??業(yè)界一直在探索“用技術(shù)治理技術(shù)”的方案。
今年1月,美國一位流行歌手被人用AI惡意生成虛假照片,在社交媒體迅速傳播,給歌手本人造成困擾。2月,香港一家公司遭遇“AI變臉”詐騙,損失高達(dá)2億元港幣。據(jù)悉,這家公司一名員工在視頻會議中被首席財務(wù)官要求轉(zhuǎn)賬。然而,會議中的這位“領(lǐng)導(dǎo)”和其他員工,實(shí)際都是深度偽造的AI影像。詐騙者通過公開渠道獲取的資料,合成了首席財務(wù)官的形象和聲音,并制作出多人參與視頻會議的虛假場景。
此外,業(yè)界也在推動落實(shí)AI生成內(nèi)容標(biāo)識制度。中國政法大學(xué)數(shù)據(jù)法治研究院教授張凌寒表示,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會在《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——生成式人工智能服務(wù)內(nèi)容標(biāo)識方法》中給出了內(nèi)容標(biāo)識方法:通過在交互界面中添加半透明文字的方式顯示水印標(biāo)識,或通過人類無法直接感知但可通過技術(shù)手段從內(nèi)容中提取的隱式水印標(biāo)識,提示內(nèi)容由人工智能生成?!皹?biāo)識制度可以提升AI信息內(nèi)容治理能力,減少虛假信息生成,防止虛假信息污染下一代訓(xùn)練數(shù)據(jù),營造良好的網(wǎng)絡(luò)信息生態(tài)環(huán)境。”張凌寒說。
“利用AI技術(shù)治理AI犯罪,本身也是一個不斷博弈的過程。”田天介紹,“紅隊測試”是目前生成式AI治理的重要手段,旨在通過模擬攻擊者行為,對目標(biāo)系統(tǒng)進(jìn)行全面網(wǎng)絡(luò)攻擊,針對性地發(fā)現(xiàn)、修補(bǔ)潛在系統(tǒng)漏洞,使模型在面向公眾開放前,充分接受安全技術(shù)檢驗(yàn)。視頻合成AI平臺Sora,在上市前就曾邀請數(shù)名從事信息安全漏洞研究的專家充當(dāng)紅隊進(jìn)行對抗測試,找出相當(dāng)數(shù)量的安全漏洞。
在倫理層面,AI“復(fù)活”等行為引起部分用戶的反感和恐懼。對此,科技部等10部門印發(fā)《科技倫理審查辦法(試行)》,列出了需要開展倫理審查復(fù)核的科技活動清單,其中就包括具有社會動員能力和社會意識引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)研發(fā)等。
基于深度合成技術(shù)引發(fā)的侵權(quán)案例,常見的手法是冒充熟人實(shí)施電信詐騙。不久前,江蘇句容的楊女士,在收到自己“女兒”多條要求繳納報名費(fèi)的語音后,向騙子賬戶轉(zhuǎn)賬3.5萬元。相關(guān)辦案民警反復(fù)提醒:“遇到轉(zhuǎn)賬一定要慎之又慎,眼見不一定為實(shí)。”
網(wǎng)友評論更多
11白銀f
開幕式主會場屏幕被大雨澆熄🛏🛐
2024-09-23 15:29:58 推薦
187****1469 回復(fù) 184****5561:東方甄選完成去“董宇輝化”🛑來自天水
187****4176 回復(fù) 184****4994:網(wǎng)友:極狐摳車標(biāo)可能摳掉自己前程🛒來自酒泉
157****4634:按最下面的歷史版本🛠🛡來自張掖
99武威512
奧林匹克會旗掛反了🛢🛣
2024-09-23 17:38:28 推薦
永久VIP:廣東梅州洪水內(nèi)澇3人落水遇難🛤來自慶陽
158****5854:警方通報“市民反映民警態(tài)度生硬”🛥來自平?jīng)?/span>
158****6133 回復(fù) 666🛩:林丹、谷愛凌亮相巴黎奧運(yùn)開幕式🛫來自定西
61隴南kx
網(wǎng)傳廣東潮州市中心醫(yī)院因暴雨被淹🛬🛰
2024-09-24 01:46:18 不推薦
玉門zt:男孩商場被要微信亮出了電話手表🛳
186****5344 回復(fù) 159****4139:湯加旗手開幕式穿衣服了🛴