<center id="uiawy"><wbr id="uiawy"></wbr></center>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>
<center id="uiawy"></center>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>

中央政法委機關報法治日報社主辦

您所在的位置:首頁  > 名家說法

生成式AI監管新規的哪些細節值得關注

2023-04-17 17:31:39 來源:法治日報·法治周末

《法治周末》記者 仇飛

隨著人工智能技術的不斷發展,AIGC已經成為了一種新型的內容創作方式。為了確保AIGC服務的質量和可信度,網信辦發布了《生成式人工智能服務管理辦法(征求意見稿)》,對AIGC服務進行了規范。

從百度的文心一言到阿里的通義千問,國內各大廠相繼發布生成式人工智能產品。生成式人工智能技術是一項正在快速發展的技術,它可以通過算法、模型、規則等方式生成各種類型的文本、圖片、聲音、視頻、代碼等內容。這種技術的應用前景非常廣泛,包括自動化生成內容、智能化問答、自動化翻譯等領域。然而,生成式人工智能技術也面臨著一些挑戰,其中包括知識產權、安全、倫理和數據等問題。針對這些挑戰,最重要的立法措施《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《意見稿》)出臺。這份意見稿對人工智能生成內容、主體責任、訓練數據和數據處理等方面都做出了規定,旨在保障生成式人工智能技術的合規性和安全性。

然而,也有學者提出,當然人工智能產業剛剛起步,業界還不清楚究竟會出現哪些問題,又需要設置哪些規則。在這種情況下,過于超前的立法反而可能會阻礙技術的發展和創新。例如,《意見稿》提到:“提供生成式人工智能服務應當按照《中華人民共和國網絡安全法》規定,要求用戶提供真實身份信息?!睂Υ?,北京大學法學院薛軍教授指出:“生成式人工智能服務,在特定情況下更類似于搜索服務,本質是一種智能檢索,應當允許用戶以游客的身份使用。比如,必應搜索引擎遷入了ChatGPT問答模型,普通游客都可以瀏覽使用。這樣,也可以更好保護用戶的隱私,方便網民使用?!?/p>

在生成內容方面,《意見稿》提到:“利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息”,確立了內容真實性的要求。這一規定目前受到頗多爭議。從實踐的角度來看,生成內容的真實準確性與生成式人工智能的技術原理是互相沖突的,人工智能生成內容并不是從知識庫中搜索并拼湊出結果,生成結果是通過計算機算法得來的。所以對于生成信息的真實準確性,會存在一些不可避免的技術限制。以ChatGPT為例,當問到AI不知道的問題時,AI會“一本正經的胡說八道”。真正的人工智能一定會犯錯,因為它學習了很多知識,機器在推理過程中會產生突變。立法需要給予一定的包容空間,像看待人類學習進化一樣去看待生成式人工智能的發展。

中國社會科學院大學法學院副教授、互聯網法治研究中心執行主任劉曉春表示:“大模型服務提供者有責任積極采取與技術發展水平相適應的風險預防措施,及時響應監管要求,對權利主體提出的合理訴求給出及時的回應。如果按照規定執行,可以明確大模型服務提供者的具體治理義務,在其盡到與技術發展水平相應的義務的情況下,給予一定的免責規則?!?/p>

在訓練數據方面,《意見稿》對預訓練數據提出了更多的要求,要求保證訓練數據的“真實性、準確性、客觀性、多樣性”。

清華大學中國發展規劃研究院執行副院長董煜指出,大模型離不開數據的訓練,如果對于訓練數據作出過于嚴苛的規定,將阻礙大模型的發展速度。數據訓練的規模會決定人工智能生成內容的質量,數據的數量和質量比算法和模型更重要,美國可以做出ChatGPT,很大程度上在于美國對于全世界數據的收集和掌握。從歐盟、美國、韓國、日本等國家針對預訓練數據合法性的要求來看,為了支持大模型的發展,他們允許使用各種出版物對生成式人工智能訓練數據進行分析。因此,如果由于真實性、版權等問題無法使用相關訓練數據,將對人工智能技術發展帶來很大的負面影響。

有學者提出,要求提供者保證訓練數據的“真實性、準確性、客觀性、多樣性”,并不具有可操作性。訓練數據來源非常復雜,且在大規模訓練中才可能發揮作用,如果在使用訓練數據前,先要審核一遍合法性,確實非常難以執行。對于訓練數據中是否包含侵犯知識產權的內容的情況界定,存在很多模糊地帶,往往需要法院經過專業判斷才能識別出來。同樣,“征得個人信息主體的同意”,也不具有可操作性。因為個人信息的范圍極其大,僅就排除“姓名”這一項個人信息而言就無法實施。姓名在模型訓練中很難篩選出來,操作的難度很大。

此外,《意見稿》第十五條規定“對于運行中發現、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成”。在當前的社會和科技環境下,大型語言模型的參數規模在到達一個臨界值后,涌現能力變得越來越強。即使是OpenAI這樣的團隊,也很難解釋這樣的涌現現象。在這種情況下,人工智能基座大模型生成的內容往往是難以精確預測和控制的,這是生成式人工智能方法的固有缺陷之一。

因此,清華大學人工智能研究院視覺智能研究中心主任鄧志東教授提出,“通過模型優化訓練的方式防止再次生成侵權內容,在技術上非常難以實現,而利用價值對齊的算法采取內容過濾等措施或可實現。如果要求生成式人工智能產品服務提供方在收到侵權問題反饋時,第一時間過濾侵權內容,并通過模型優化訓練,實際上是非常困難的,人工智能立法應當在智能涌現能力和安全性中找到平衡”。

責編:王碩

聯系我們 | 誠聘英才 | 廣告征訂 | 本站公告 | 法律聲明 | 報紙訂閱

版權所有 Copyrights ? 2014-2023 www.olnzth.cn ALL RIGHTS Reserved 《法治周末》

京ICP備10019071號-1 京報出證字第0143號

京公網安備 11010502038778號

最近2018年中文字幕手机视频,亚洲芒果卡一卡二卡三乱码,樱花草在线社区www日本影院,美女无遮挡免费视频网站
<center id="uiawy"><wbr id="uiawy"></wbr></center>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>
<center id="uiawy"></center>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>
<optgroup id="uiawy"><div id="uiawy"></div></optgroup>