找準規制生成式人工智能的關鍵“抓手”
2023-04-20 08:53:08 來源:法治日報·法治周末
■聚焦生成式人工智能
智道
欄目主持人:於興中
□ 王延川 徐燕
生成式人工智能的突然爆發就像打開了“潘多拉魔盒”,隨著生成式人工智能的不斷發展,相應的技術濫用問題可能會“愈演愈烈”。如何平衡好人工智能發展和監管的關系,引導生成式人工智能健康發展,成為世界各國面臨的棘手問題。
生成式人工智能:禁止抑或規制
2022年年底,ChatGPT“出道”,推動生成式人工智能(AIGC)浪潮“滾滾向前”。生成式人工智能是基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術,應用場景非常廣闊,前景“無可限量”。目前,國外眾多科技巨頭紛紛布局生成式人工智能賽道,我國也是“緊追不舍”。近期,百度推出生成式AI產品“文心一言”,阿里發布“通義千問”,騰訊研發“混元助手”。4月,科技企業和資本密集進入生成式人工智能賽道,所以被稱為近10年來中國科技圈“最卷”的一個月。
有人稱ChatGPT為“天使”,更有人稱它“魔鬼”。無論定位如何,世界各國尋找應對ChatGPT的治理策略是不爭的事實。前有馬斯克等1000多名科技名人簽署公開信,要求OpenAI暫停研發GPT-5,后有意大利個人數據保護局(DPA)以涉嫌違反數據收集規則為由,宣布禁用ChatGPT并展開對其開發公司OpenAI的調查。
意大利開了一個頭。加拿大成為全球第二個對ChatGPT開展調查的國家。此后,德國、愛爾蘭、法國等國的監管部門均表示正在關注ChatGPT可能帶來的負面影響,準備加強對其的監管。4月14日,歐洲數據保護委員會(EDPB)宣布,它已經成立了一個ChatGPT特別工作組,幫助各國應對ChatGPT帶來的問題。
我國一直致力于推動新一代人工智能的健康發展?!吨袊鳤I數字商業產業展望2021-2025》報告指出:以生成式AI和組合式AI為代表的人工智能新興技術將成為中國數字商業產業鏈的關鍵應用技術棧。
為促進生成式人工智能技術健康發展和規范應用,今年4月11日,國家網信辦發布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱征求意見稿)。該文件的出臺,標志著生成式人工智能進入規范發展階段。當然,征求意見稿并非“橫空出世”,它建立在我國數字技術規范的“三駕馬車”——網絡安全法、數據安全法、個人信息保護法和《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》的基礎之上。征求意見稿延續了我國在人工智能研發和使用方面的一貫的包容審慎態度,即針對生成式人工智能的研發和使用,不回避出現的問題,也不刻意粗暴壓制,而是在降低人工智能技術安全風險的前提下鼓勵技術發展。
征求意見稿應該是全球第一部針對生成式人工智能規范應用而頒布的法規草案,它為生成式人工智能的規制起到了引領作用。
征求意見稿多條內容都與生成式人工智能提供者有關
征求意見稿是一部“小切口”立法,以生成式人工智能的使用作為主要規制對象。全文雖然只有二十一條,卻對生成式人工智能使用中涉及的法律問題給出了詳盡的規定,其中包括定義、準入資格、責任義務和處罰措施等,提出了生成式人工智能產品服務所需滿足的五點要求,即保證意識形態安全、社會公序良俗、正當競爭、信息管理、尊重他人合法權利。
征求意見稿延續了《互聯網信息服務深度合成管理規定》的立法精神,施行全過程、全要素的監管理念,確立了生成式人工智能的安全評估、算法備案、預訓練數據合規、人工標注、使用監管等全流程的歸責原則,同時涵蓋算法、個人信息保護、數據安全、計算資源等各種基礎要素。
征求意見稿重點明確了利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(以下稱“提供者”)的主體責任??v觀全文,征求意見稿約有十七條都與生成式人工智能提供者相關,可以說征求意見稿是以提供者作為生成式人工智能規制的關鍵“抓手”。
征求意見稿第六條規定了提供者市場準入的條件,即利用生成式人工智能產品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》向國家網信部門申報安全評估,并按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續;第七條規定了提供者須對于相關數據來源合法性負責,以保障數據合規,維護數據安全;第八條至第十二條對提供者在人工標注、實名認證、防沉迷、信息保護、消除歧視五個方面做了明確要求;第十三條要求提供者應當建立用戶投訴接收處理機制,采取相應措施停止生成,防止危害持續。第十四條、第十五條要求提供者對違規生產內容除采取內容過濾等措施外,還應在三個月內進行優化防止再次生成;第二十條對法律責任認定及處罰措施作出規定。
提供者義務體系的“集大成者”
以提供者為規制“抓手”有其承繼性。征求意見稿有關服務提供者的規定與之前的法律規定之間具有承繼關系。如網絡安全法明確了網絡服務提供者的義務,以法律形式明確“實名制”。數據安全法規定了數據處理者的數據安全保護義務。個人信息保護法明確了個人信息處理者的合規管理和保障個人信息安全等義務,規定了大型網絡平臺的特別義務等?!痘ヂ摼W信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》要求人工智能提供者履行安全評估、算法備案、內容標識等義烏。征求意見稿規定的服務提供者義務延續了上述法律規定的內容且有所發展,是提供者義務體系的“集大成者”。
以提供者為規制“抓手”具有必要性。在生成式人工智能技術全鏈條上,提供者對提升數據治理水平和促進數據合規體系建設至關重要。提供者主體責任體現了網信部門對內容安全責任分配的思路,使相關從業者可以有章可循、有的放矢,亦為搶抓戰略機遇、服務數字經濟提供制度保障。
以提供者為規制“抓手”具有可行性。提供者擁有充足的資金、技術和人力資源,通過強化提供者主體責任,有利于從數據源開始以識別和標注方式確?!吧蓛热荨钡恼鎸崪蚀_,可以對模型輸入端進行優化,促進輸出內容的純凈化,防范技術開發應用可能造成的社會風險,從源頭引導生成式人工智能正向發展。
以提供者為規制“抓手”具有促進性。從行業保護來看,征求意見稿對提供者設定的義務和責任,有利于我國科技企業在生成式人工智能領域實現彎道超車。雖然我國科技企業在生成式人工智能研發領域與OpenAI公司為代表美國科技巨頭還有差距,但從國家層面適時規范其發展方向,實現一網管理,避免行業惡性競爭,有利于行業健康發展與成長,也有利于生成式人工智能產品符合社會主義核心價值觀,從而行穩致遠。
針對征求意見稿的改善建議
征求意見稿僅就法律技術而言,筆者認為征求意見稿針對提供者的法律規定還有不足之處,有改善的必要。此處舉三例說明:
第一,不應當要求提供者擔負過高的法律責任。征求意見稿第四條(四)規定:“利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息?!边@對提供者提出了很高的要求,在操作方面可能存在問題。就目前用戶對ChatGPT使用的反饋來看,ChatGPT的一個主要特點就是“一本正經地胡說八道”,這是生成式人工智能目前無法克服的缺陷之一,對于這一點,非但提供者無法消除,估計研發公司也無能為力。
從這個角度而言,讓提供者擔負這樣的保證責任可能無法實現。但是,提供者對此又不能不聞不問,任由有些明顯虛假信息的生成,尤其當這些虛假信息會對于國家和社會造成重大損害時。對此,可以規定提供者對于生成式人工智能生成的明顯虛假內容具有審慎的審查義務,盡到該義務后即可免責。
第二,征求意見稿對于提供者違法處罰的罰款額應該提高。征求意見稿第二十條規定:“拒不改正或者情節嚴重的,責令暫?;蛘呓K止其利用生成式人工智能提供服務,并處一萬元以上十萬元以下罰款?!眹H主流趨勢是對于濫用數據等行為均設置較高的罰款,如歐盟的《通用數據保護條例》對違法企業的罰款最高可達2000萬歐元(約合1.5億元人民幣)或者其全球營業額的4%,以高者為準。美國《加州消費者隱私法案》也規定被發現違反加州消費者隱私法案的公司,每次故意違規都將被處以7500美元的罰款。非故意違規行為處罰力度較輕,但代價仍然高昂,每次違規的罰款為2500美元等。
當前,提供生成式人工智能產品或服務的大多系OpenAI、谷歌等巨頭公司。據此辦法對其處以一萬元以上十萬元以下罰款根本起不到震懾作用,應當考慮提高處罰額以增加其違法成本。
第三,應增加屬地管轄內容,防止提供者規避征求意見稿。征求意見稿第二條規定:“研發、利用生成式人工智能產品,面向中華人民共和國境內公眾提供服務的,適用本辦法?!闭髑笠庖姼暹m用范圍僅限于“面向中華人民共和國境內公眾提供服務”,管轄范圍較窄。由于征求意見稿并未規定屬地管轄,這就有可能出現某外國分支機構或中國公司故意在國內研發、利用違反社會主義核心價值觀的生成式人工智能產品,卻將生產的產品或服務向國外公眾提供,故意規避征求意見稿的規定。
對此,可以借鑒歐盟《通用數據保護條例》的規定?!锻ㄓ脭祿Wo條例》對屬地管轄和保護管轄均進行了規定,一方面,如果一家公司在歐盟內部設有營業機構,即使它只處理中國公民的數據,也在其管轄范圍之內,另一方面,即使數據控制者或處理者不在歐盟設立,如果其為歐盟內的數據主體提供商品或服務(包括免費服務),或者對發生在歐盟范圍內的數據主體的活動進行監控,也在管轄范圍內。
征求意見稿的出臺,奠定了生成式人工智能規范發展的總基調,意味著國家對其監管治理已提上日程,助力生成式人工智能產業健康有序發展??萍际侵行缘?,只有劃定了“底線”,才能防范不確定風險,促使科技向善,讓生成式人工智能的發展具有責任和善意。
(作者分別為西北工業大學馬克思主義學院教授、陜西省西安市長安區人民法院法官助理)