<center id="uiawy"><wbr id="uiawy"></wbr></center>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>
<center id="uiawy"></center>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>

中央政法委機關報法治日報社主辦

您所在的位置:首頁  > 熱點財經

如何守住生成式人工智能的安全底線

2023-04-20 09:29:25 來源:法治日報·法治周末

聚焦生成式人工智能

■前沿話題

開欄語

運用法治觀念、法治思維和法治手段,為互聯網健康有序發展提供保障,已經成為共識?;ヂ摼W新技術新應用新業態新模式帶來的風險挑戰不容忽視,需要網絡立法、網絡執法、網絡司法、網絡普法、網絡法治教育進行前瞻性、全方位應對,《法治周末》特推出“前沿話題”欄目,記錄這些網絡法治實踐。


為促進生成式人工智能技術健康發展和規范應用,4月11日,國家互聯網信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱征求意見稿)公開征求意見。

作為國內首個專門針對AIGC的監管辦法,征求意見稿對生成式人工智能提供者的責任邊界提出要求,重點強調了生成式人工智能產品訓練數據及生成內容的真實性。

結合征求意見稿,針對AIGC服務與內容相關法律問題,《法治周末》記者與業界專家展開對話。

■對話人:

王瑩 中國人民大學未來法治研究院副院長

許可 對外經濟貿易大學數字經濟與法律創新研究中心主任

張延來 浙江墾丁律師事務所主任律師

■主持人:

仇飛 《法治周末》記者

責任分配問題值得探討

主持人:按照征求意見稿,提供AIGC產品或服務應當符合多項要求,提供者還需承擔該產品生成內容生產者的責任,涉及個人信息的,承擔個人信息處理者的法定責任,對此怎么看?

王瑩:從文本表述來看,這種責任定位包含了產品生產者和內容提供者責任,似乎有過于嚴苛之嫌。從AIGC技術特征上來看,作為一種生成合成類算法應用,AIGC是利用大語言模型和公共、開放數據根據用戶輸入搜索、生成合成信息,并非傳統網絡法中的信息內容提供者,其根據用戶的指令生成的信息向用戶展示,也不能理解為傳統的信息發布、傳播。而將其理解為產品簡單套用傳統產品責任中的嚴格責任原則,值得進一步商榷。

目前,生成式人工智能僅生成文本、圖像、聲音等信息內容,并不會像傳統的產品瑕疵那樣直接導致生命健康安全問題,其作為一個人工智能產品最多涉及到人格權侵權、著作權侵權。生成式人工智能引發侵權問題,可能來自于人工智能本身的漏洞或技術現有水平,人工智能的學習訓練到生成的過程并不是完全可解釋和可控的。2022年9月通過的歐盟《人工智能民事責任指令》規定只有高風險的AI應用才承擔AI嚴格責任。最新的歐盟《人工智能法案》的立法討論也未將Chat-GPT簡單界定為高風險AI應用,該技術是否屬于高風險AI應用,或者將其作為通用人工智能跨越高風險、低風險的分類視為一種新的類別加以監管,仍然是一個開放性的問題。

許可:已經實施的《互聯網信息服務深度合成管理規定》對深度合成服務已有規定,其對深度合成服務提供者的要求,同樣適用于AIGC產品提供者。ChatGPT替代了人類在收集信息中評價、思考、推理、取舍的整個思維過程,所以法律上會認為避風港原則不太適用于ChatGPT這種人工智能生成的場景,因此需要有一個特別的規定,就是生成式人工智能產品要對自己生成的內容負責。但這里面的問題其實也有很多,比如說很多內容的產生并不是由ChatGPT一方完成的,而是在與使用者的交互過程中完成的,也就是說內容是由使用者和ChatGPT共同生產的,這個時候就不能完全要求由AIGC產品提供者來承擔責任,相關的責任劃分需要進一步明確。

張延來:征求意見稿對于生成式AI技術服務提供者的責任要求過高,畢竟這是一項技術,應當符合技術中立原則。在技術應用過程中,無論是內容方面的問題還是個人信息等問題,都不完全取決于AI技術提供者本身,而是跟具體使用技術的用戶有密切關系,所以將技術提供者定義成內容生產者和信息處理者似乎在法律身份的定位上有些錯位,而且也會導致內容權利歸屬和個人信息權益歸屬等衍生問題出現。

個人信息保護與數據的法律基線

主持人:有觀點認為,在AIGC產品中,用戶對話的過程就是被收集信息的過程,可能存在個人信息泄露、提供虛假信息等隱患。征求意見稿也提到了個人信息保護,有哪些值得關注的?

許可:按照征求意見稿第九條,提供生成式人工智能服務應當按照網絡安全法規定,要求用戶提供真實身份信息。我們知道網絡安全法中的實名制是指發布信息階段的實名認證,也就是說如果只是單純的瀏覽模式,原則上是不需要用戶實名的。用戶開始使用AIGC時是否需要實名認證,這是一個需要討論的問題,如果用戶沒有實名制的話,AIGC并不會直接或間接的識別這個特定的人,很可能不存在個人信息保護的問題;但如果有實名認證,用戶提供的信息就可能構成個人信息,AIGC產品提供者應按照個人信息保護法遵守個人信息保護義務。

主持人:征求意見稿對訓練數據提出真實性等要求,此外還要求“不得根據用戶輸入信息和使用情況進行畫像”,這對AIGC發展會產生哪些影響?

許可:作為生成式人工智能產品的基礎,數據的重要性不言而喻。但如何合理設定數據的法律基線,仍有待進一步研究。

首先,要研究數據質量和數據合法性的矛盾。為了盡可能提升生成式人工智能產品的能力,勝任各種自然語言處理任務,其必須“識遍天下字,讀盡人間書”,如果將合法性作為數據的前提,提供者在海量的數據面前,為了避免承擔法律責任,必然采取“寧可錯殺,不可放過”的原則,不但導致大幅限制輸入的數據源,還損害了數據的客觀性、多樣性。

其次,要研究數據訓練和信息生成的矛盾。從風險預防和監管目標看,生成式人工智能產品的風險集中在信息生成階段,在底層算法的作用下,開始訓練的數據和最后信息的生成內容并不是一一映射的關系,其中間經過了預測、分類、聚類、關聯等復雜的變換,因此,訓練數據的合法性并非信息生成合法性的必要條件。

最后,要研究責任承擔者涉及的矛盾。按照征求意見稿,AIGC服務提供者須對預訓練數據承擔合法性義務,但實踐中,大量提供服務的主體并非生成式人工智能技術的開發者,其事實上并不參與數據的預訓練和優化。從自己責任的原理出發,這里的責任主體應限定在生成式人工智能技術的開發者為宜。

張延來:AIGC技術層面就是要用用戶的輸入內容作為訓練語料對算法進行優化的,因此很難避免使用A用戶的輸入信息來回答B用戶的問題。而用戶畫像的情況,如果是用戶同意應該也允許畫像,一方面畫像是很多AI提供個性化服務的前提,另一方面畫像也是后續在AI中進行廣告、推薦等商業盈利的必要措施。

平衡安全與發展

主持人:您認為征求意見稿還需要完善哪些內容?

許可:征求意見稿對當前的ChatGPT等新型的人工智能產品和服務,提出了針對性的方案,從數據處理預訓練、信息內容生成等各個環節,形成了一個邏輯上非常清晰、全鏈路的一種規范。同時在內容設計上,融合了算法治理、個人信息保護、數據安全和信息安全,使用了既有的很多制度安排去對待這種新興技術,這也體現了多層次、多方面的立法思路。

但征求意見稿實施的這種保護能不能實現,或者說能否推動這個領域在安全基礎上的發展,是我非常關注的。在這一次的征求意見稿中,我們看到大量的內容仍然是安全的規則。守住安全底線在行業發展過程中非常重要,但目前我國的AIGC是否以及能否發展,還在探索中,我認為,立法和監管最終還是要再去平衡發展和安全的關系。

張延來:征求意見稿要求提供者應當對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性負責。生成式人工智能的訓練需要極為龐大的數據量,對于數據來源的前置審查義務不宜要求過高,否則可能會導致國內AI的訓練落后于國外的進度,建議要求提供者事前形式審查即可,事后如果發現侵權或者違法,則依照有關法律規定事后個案處理更為妥當。

此外,征求意見稿要求提供者發現用戶利用生成式人工智能產品過程中違反法律法規,違背商業道德、社會公德行為時,應當暫?;蛘呓K止服務。我認為,不應“一刀切”地規定“暫?;蚪K止服務”,實踐中,對于用戶的違規行為,應當允許平臺根據行為的具體程度和危害給予相應力度的處罰和限制,一概要求“暫?;蚪K止服務”是不合理的,而且可能引發用戶對平臺的訴訟。

責編:肖莎

聯系我們 | 誠聘英才 | 廣告征訂 | 本站公告 | 法律聲明 | 報紙訂閱

版權所有 Copyrights ? 2014-2023 www.olnzth.cn ALL RIGHTS Reserved 《法治周末》

京ICP備10019071號-1 京報出證字第0143號

京公網安備 11010502038778號

最近2018年中文字幕手机视频,亚洲芒果卡一卡二卡三乱码,樱花草在线社区www日本影院,美女无遮挡免费视频网站
<center id="uiawy"><wbr id="uiawy"></wbr></center>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>
<center id="uiawy"></center>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>