法學學者共話AIGC合規發展路徑
2023-04-20 09:23:38 來源:法治日報·法治周末
《法治周末》記者 仇飛
4月11日,國家互聯網信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱征求意見稿)公開征求意見。作為首個針對生成式人工智能產業發布的規范性政策,征求意見稿在法學界引發熱議,法學學者們紛紛為搭建AIGC的法治架構建言獻策。
廣東財經大學法學院教授姚志偉:
內容責任是否應全由平臺方承擔,有待研究
征求意見稿第五條對“提供者”施加了“內容生產者”的責任。提供服務的平臺是重要的責任主體,監管機構對平臺進行監管,是必要的。不過在我看來,人工智能內容責任是否應該全部加到平臺方,有待研究。
首先,“使用者”也可能要承擔人工智能內容責任。例如,使用者故意突破“提供者”為生成式人工智能設置的安全防線,致使人工智能生成違法的內容,這個責任通常不應由“提供者”來承擔。其次,違法的生成內容僅會傳遞給“使用者”,而對這些違法內容進行復制、發布、傳播往往是由人來完成的,這些行為的責任不應由“提供者”來承擔。最后,“內容生產者的責任”其實是一個比較模糊的概念,從字面上看,是創建內容的一方承擔的責任,不僅包括內容安全責任,還可能包括知識產權侵權、民事責任等應該在民事法律體系框架內解決的責任,不宜由部門規章進行規制。
很多問題是在發展中解決的,我國人工智能產業發展尚處于初期階段,與國外差距比較明顯,如同萬里長征第一步,還需要引導企業積極創新,迎頭趕上。正如征求意見稿第三條指出,國家支持人工智能技術創新,從促進人工智能產業的發展和國際競爭的角度出發,如果企業責任過重,可能會抑制企業的創新熱情和技術進步。
就此,可以考慮采取二元化的策略,對于危害到國家安全和重要公共安全的問題,列出清晰的規則,明確法律責任和后果,劃定底線進行監管;而對于個人信息保護、知識產權侵權、人格權侵權問題,則可以先觀察和等待。待產業實踐更成熟、可供參考的海外經驗更多的情況下,再進一步進行這部分的立法監管也更可期。
鄭州大學法學院常務副院長、教授沈開舉:
對于虛假信息的監管可重點從復制、傳播環節入手
征求意見稿第四條對人工智能生成內容,要求“真實準確”“防止生成虛假信息”。該條規定可能不太能符合人工智能技術實際情況,對人工智能技術的落地可能造成影響。人工智能并非一個全知全能不會出錯的“百科全書”,不同行業、不同領域對于真實性和準確性的要求不盡相同,不少用戶也需要人工智能生成虛構內容幫助創意。
從目前對生成式人工智能技術的了解來看,即使是美國OpenAI公司的最先進的GPT4模型,該公司的負責人也坦言,其仍然會產生幻覺、生成錯誤答案,并會出現推理錯誤。從技術角度講,當前還不能完全避免生成不正確的信息,這是擺在眼前的客觀現實。
我國發展人工智能大模型,也不能逃脫這一客觀規律。如果要求內容全部真實準確,結果可能是沒有一款大模型能合規上市,這顯然不是監管部門希望規制的目的。
那么對于虛假信息,到底應該如何管?個人來看,立法和監管可重點從復制、傳播環節入手。網絡安全法第十二條規定,任何個人和組織使用網絡,不得編造、傳播虛假信息擾亂經濟秩序和社會秩序。征求意見稿第四條的本意,應該是防止上述行為,例如,違反新聞信息的管理要求,捏造傳播虛假新聞。對于正常的生成式人工智能技術輔助進行虛構文學藝術創作等,并不屬于監管規制的本意范圍之列。
此前網信辦發布的《互聯網信息服務深度合成管理規定》第六條,就較好體現了上述監管思路:“深度合成服務提供者和使用者不得利用深度合成服務制作、復制、發布、傳播虛假新聞信息。轉載基于深度合成服務制作發布的新聞信息的,應當依法轉載互聯網新聞信息稿源單位發布的新聞信息?!?/p>
因此,重點對發布、傳播虛假新聞信息的環節進行監管,既符合技術發展的客觀規律,不至于把所有產品一棍子打死,也能取得更好的監管效果。
中國政法大學傳播法研究中心副主任朱?。?/strong>
對AI生成的內容加上標識會影響文化作品的感官體驗
整體上看,征求意見稿為我國生成式AI發展提供了新的遵循和指導,與此同時,從生成式AI產品的屬性、產業實際等情況出發,期盼對征求意見稿部分細節作出進一步完善。
比如征求意見稿第五條提出,“利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(即“提供者”),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任”。
其實這一責任分配問題很值得探討。鑒于生成式AI相關技術發展更新速度較快,但相關業務模式和落地應用場景仍在構建過程中,且“內容生產者”的定性恐涉及知識產權歸屬分配等問題,在產業發展的初級階段,建議不將相關產品服務提供者直接定性為“生成式人工智能產品生成內容的生產者”,而是考慮通過定義為內容管理者,同樣可以要求其承擔與其權利匹配的管理責任。
再如征求意見稿第十六條提出,“提供者應當按照《互聯網信息服務深度合成管理規定》對生成的圖片、視頻等內容進行標識”。生成式AI其中的一個應用場景即文化作品創作,可以設想,要求對AI生成的圖片與視頻加上標識,這必然會影響文化作品的感官體驗。加強公眾法治教育,對不當使用工具的人進行懲戒,或許是更優的舉措。
結合生成式AI產業界的呼聲來看,目前人工智能科技存在不可避免的薄弱環節,而對技術提供方更包容的監管條例,能夠更好引導并激勵科技進步與產業發展。
縱觀中國網絡技術進步和網絡產業勃興的三十年,也正是網絡法治建設始終堅持創新引領的三十年。中國網絡法治的創新驅動基因,在規范新技術新產業有序發展,有效維護網民合法權益的同時,也不斷促進了中國網絡技術和網絡經濟的全面發展,為中國從網絡大國邁向網絡強國提供了有力保障。
當前,生成式AI技術已關乎國際間科技實力的較量。中國企業需要更多政策支持,期待征求意見稿能更廣泛聽取社會聲音,進化成為更具前瞻性、支持性和實操性的規則體系,助力中國生成式AI高質量發展。
北京外國語大學法學院副教授陳明濤:
對于生成式人工智能服務提供者可考慮采用避風港機制
在規范的同時,也要為新興產業經濟活動留出充足空間,比如征求意見稿第七條規定,生成式人工智能服務提供者用于生成式人工智能產品的預訓練、優化訓練數據,不得含有侵犯知識產權的內容。但對知識產權的侵權性判斷必須考慮到訓練數量問題。面對海量的訓練數據,生成式人工智能服務提供者是很難作出有效判斷的。
其實,面對海量信息的審核難題,現有立法對網絡服務提供者會建立一種避風港機制,即要求權利人發通知主張權利,從而降低審核難度。對于生成式人工智能服務提供者,也可以考慮采用類似制度。
北京大學法學院助理教授、牛津大學法學博士彭錞:
對用戶個人信息保護的規定細節還可進一步優化
征求意見稿釋放了一個特別明顯的訊號,就是關注生成式人工智能的產品或服務對用戶個人信息的保護,明確了服務提供者對用戶的輸入信息和使用記錄承擔保護義務,通過“三個不得”的規定,為用戶輸入信息的使用劃定了紅線,積極回應了用戶在使用新興互聯網服務過程中對隱私安全和個人信息保護的關切。
當然,在規定細節上還可以進一步優化,比如,“不得向他人提供用戶輸入信息”可能會抑制以可編程接口等方式接入第三方服務等現實業務需求,這種規定的目的是為了提供更好的用戶體驗,但也涉及第三方提供用戶輸入信息,故有必要設置相應的例外情況。
北京航空航天大學計算機學院工業和信息化法治研究員周瑞玨:
并無強制規定實名制使用生成式人工智能服務的必要
征求意見稿第九條規定,提供生成式人工智能服務應當按照《中華人民共和國網絡安全法》規定,要求用戶提供真實身份信息。
根據網絡安全法的規定,為用戶提供信息發布、即時通訊等服務,應當要求用戶提供真實身份信息。而生成式人工智能服務,是用戶與機器之間,以輸入和輸出的方式實現的交互,不是人與人之間的即時通訊,也不涉及面向公眾的信息發布和傳播,因此不屬于“信息發布”或“即時通訊”服務。依照網絡安全法,實際是不需要提供真實身份信息的。
從立法目的來說,要求用戶提供真實身份信息,看似是一種安全保障,但實際上,用戶面對機器所作的“輸入”類似于檢索,即使一些用戶“輸入”的問題不安全,也不能僅因為“輸入”而要求其承擔責任。所以并無強制規定實名制使用生成式人工智能服務的必要,可以考慮改為鼓勵,以激勵更多用戶使用新的產品及服務,不斷提升技術發展水平。