九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項超值服

開通VIP
張凌寒,于琳丨從傳統(tǒng)治理到敏捷治理:生成式人工智能的治理范式革新

轉(zhuǎn)載請注明“刊載于《電子政務(wù)》2023年第9期”。

引用參考文獻(xiàn)格式:

張凌寒,于琳. 從傳統(tǒng)治理到敏捷治理:生成式人工智能的治理范式革新[J]. 電子政務(wù),2023(09): 2-13.

摘 要:ChatGPT類生成式人工智能改變了人工智能治理的底層邏輯,人工智能技術(shù)應(yīng)用由個性化向普適化方向發(fā)展,風(fēng)險的不確定性從外部延伸至內(nèi)部,未來人工智能技術(shù)的迭代周期將越來越短,這使得傳統(tǒng)治理范式適用于生成式人工智能治理時存在諸多局限?;趯ο髨鼍暗姆稚⒅卫黼y以統(tǒng)籌生成式人工智能治理全局,基于風(fēng)險預(yù)防的事前治理難以精準(zhǔn)預(yù)測風(fēng)險并提前預(yù)防,基于法律規(guī)范的硬性治理難以提升治理實效。作為一種快速適應(yīng)環(huán)境變化的動態(tài)治理范式,敏捷治理契合生成式人工智能治理需求,與我國一直推行的包容審慎監(jiān)管具有理念上的一致性?;诿艚葜卫淼娜嫘?、適應(yīng)性與靈活性,我國生成式人工智能治理應(yīng)秉持包容審慎的監(jiān)管理念,依據(jù)模型產(chǎn)業(yè)架構(gòu),形成“基礎(chǔ)模型-專業(yè)模型-服務(wù)應(yīng)用”的全面性治理格局;劃分已知與未知風(fēng)險,構(gòu)建事前預(yù)防與事后應(yīng)對相結(jié)合的適應(yīng)性治理機(jī)制;綜合運(yùn)用技術(shù)、法律等靈活性治理工具,實現(xiàn)生成式人工智能治理范式革新,促進(jìn)科技向上向善發(fā)展。

關(guān)鍵詞:ChatGPT;大模型;生成式人工智能;AI治理;包容審慎監(jiān)管;敏捷治理 
DOI:10.16582/j.cnki.dzzw.2023.09.001

一、問題的提出
生成式人工智能是一種根據(jù)提示生成全新內(nèi)容的人工智能技術(shù)。Gartner公司曾發(fā)布2022年十二大戰(zhàn)略性技術(shù)趨勢,其中生成式人工智能排在第一位。[1]如其所料,多款生成式人工智能模型在這一年競相發(fā)布:4月,OpenAI公司發(fā)布圖像生成模型——DALL-E2;同月,Stability AI發(fā)布Stable Diffusion圖像生成模型;11月底,OpenAI公司推出的ChatGPT更是將生成式人工智能的類人化程度升至新的高度。隨后,百度的文心一言、阿里的通義千問、谷歌的大型視覺語言模型PaLM 2以及對話式人工智能Bard等相繼推出,世界范圍內(nèi)掀起大模型研發(fā)浪潮。
生成式人工智能普及迅速,應(yīng)用范圍極為廣泛。自O(shè)penAI公司推出ChatGPT后,僅在兩個月內(nèi)就已經(jīng)達(dá)到一億用戶,成為歷史上用戶增長最快的消費(fèi)應(yīng)用程序。[2]ChatGPT類生成式人工智能在促進(jìn)社會發(fā)展、推動人工智能技術(shù)進(jìn)步的同時,也帶來了侵犯個人信息、隱私權(quán)、知識產(chǎn)權(quán)等一系列問題。意大利個人數(shù)據(jù)保護(hù)局曾對其發(fā)布禁令,西班牙、法國等歐洲國家也對其展開了調(diào)查。2023年7月13日,國家網(wǎng)信辦等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,專門針對由生成式人工智能產(chǎn)生的傳播虛假信息、侵害個人信息權(quán)益、數(shù)據(jù)安全和偏見歧視等問題作出立法回應(yīng)。[3]
當(dāng)前,如何治理生成式人工智能已經(jīng)成為世界各國高度關(guān)注的問題。ChatGPT類生成式人工智能改變了人工智能治理的底層邏輯,傳統(tǒng)治理范式難以適用于生成式人工智能治理。首先,生成式人工智能的模型通用性使其應(yīng)用范圍迅速擴(kuò)張,基于對象場景的分散治理難以統(tǒng)籌治理全局;其次,生成式人工智能的強(qiáng)人機(jī)互動性及其無法解釋的推理能力使風(fēng)險的不確定性由外部向內(nèi)部延伸,基于風(fēng)險預(yù)防的事前治理難以提前預(yù)見風(fēng)險并對其進(jìn)行有效防范;最后,隨著ChatGPT在自然語言處理領(lǐng)域取得革命性的技術(shù)突破,未來人工智能技術(shù)的迭代周期將越來越短,基于法律規(guī)范的硬性治理難以提升治理實效。由此,傳統(tǒng)人工智能治理亟需進(jìn)行范式革新以契合生成式人工智能治理需求。
為解決第四次工業(yè)革命給人類社會帶來的治理難題,即傳統(tǒng)政策制定的滯后性與技術(shù)快速迭代發(fā)展之間的矛盾,2018年世界經(jīng)濟(jì)論壇白皮書中提出了“敏捷治理”概念。[4]2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,將“敏捷治理”作為一項治理原則引入人工智能治理領(lǐng)域。敏捷治理致力于實現(xiàn)治理中的“敏捷性”,旨在形成一種快速、可持續(xù)地感知、適應(yīng)和應(yīng)對環(huán)境變化的治理能力。[5]本文嘗試將敏捷治理引入生成式人工智能治理,彌補(bǔ)傳統(tǒng)治理范式的治理局限,實現(xiàn)生成式人工智能治理路徑優(yōu)化,推動人工智能良善有序發(fā)展。
二、生成式人工智能引發(fā)的人工智能治理基礎(chǔ)變化
ChatGPT類生成式人工智能出現(xiàn)后,人工智能技術(shù)應(yīng)用由個性化向普適化方向發(fā)展,風(fēng)險不確定性開始從外部向內(nèi)部延伸,并且隨著生成式人工智能在自然語言處理領(lǐng)域取得技術(shù)突破,未來人工智能技術(shù)的迭代周期將越來越短,這些變化從根本上改變了人工智能治理的底層邏輯。
(一)應(yīng)用范圍:從個性化向普適化的場景應(yīng)用發(fā)展
以ChatGPT為代表的生成式人工智能出現(xiàn)后,人工智能由原先僅適用于某一特定場景,解決某一特定問題發(fā)展為可適用于多元化場景,解決各種復(fù)雜問題。人工智能應(yīng)用范圍的大幅擴(kuò)張與其由專用人工智能發(fā)展為通用人工智能的技術(shù)走向有關(guān)。傳統(tǒng)的人工智能基本上屬于專用人工智能,這類人工智能模型設(shè)計之初通常以解決特定問題為主要目的,模型被訓(xùn)練出來后,僅能應(yīng)用于某一特定場景或領(lǐng)域。例如,DeepMind公司開發(fā)的圍棋人工智能程序AlphaGo就是一種典型專用人工智能模型,其僅用于解決與圍棋相關(guān)的問題,無法推廣適用到其他場景或領(lǐng)域;再如,天智航研發(fā)的第三代國產(chǎn)骨科手術(shù)機(jī)器人“天璣”,專門用于開展脊柱外科手術(shù)以及創(chuàng)傷骨科手術(shù)。與傳統(tǒng)人工智能的專用性不同,ChatGPT類生成式人工智能具有模型通用性,其可基于一個模型解決多種問題或完成多項任務(wù),包括但不限于新聞撰寫、情感分析、代碼生成、智能問答、機(jī)器翻譯等。
生成式人工智能的模型通用性來自預(yù)訓(xùn)練大模型的研發(fā)模式,并推動了數(shù)據(jù)、算法與算力在研發(fā)層面功能性地融為一體。與傳統(tǒng)人工智能場景化、個性化、專業(yè)化的開發(fā)范式不同,生成式人工智能模型采取“預(yù)訓(xùn)練+精調(diào)”的開發(fā)范式。具體而言,在自監(jiān)督學(xué)習(xí)階段,通過在海量無標(biāo)注的數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練完成“通識”教育;而后根據(jù)具體應(yīng)用場景的特性,用與任務(wù)相關(guān)的少量數(shù)據(jù)進(jìn)行相應(yīng)微調(diào),完成“專業(yè)”教育。[6]
對于模型研發(fā)而言,“預(yù)訓(xùn)練+精調(diào)”可以提高模型研發(fā)效率、降低模型研發(fā)成本與訓(xùn)練數(shù)據(jù)收集難度;對于模型應(yīng)用而言,通過此種方式訓(xùn)練出的人工智能大模型具備良好的底層通用能力、泛化能力和遷移能力,能夠廣泛應(yīng)用于各個行業(yè)領(lǐng)域,解決復(fù)雜場景中的各種任務(wù)和問題。以ChatGPT為例,其先在自然語言處理領(lǐng)域取得革命性的技術(shù)突破,實現(xiàn)與用戶的多輪對話,而后通過這種多輪對話形式,完成機(jī)器翻譯、內(nèi)容創(chuàng)作、代碼撰寫等多種任務(wù)?;谶@種底層通用能力,人工智能生成內(nèi)容在醫(yī)療、教育、傳媒、影視、電商等行業(yè)和領(lǐng)域被廣泛應(yīng)用。大模型熱潮涌起后,產(chǎn)業(yè)上下游企業(yè)爭相表示接入大模型,已然形成一種“模型即服務(wù)”的新型商業(yè)模式。
雖然現(xiàn)階段的預(yù)訓(xùn)練大模型尚未達(dá)到通用人工智能的水平,但仍然比傳統(tǒng)的深度學(xué)習(xí)更具通用性。[7]未來,生成式人工智能必將向通用人工智能邁進(jìn),彼時有望成為人工智能時代推動數(shù)字經(jīng)濟(jì)發(fā)展的新型數(shù)字基礎(chǔ)設(shè)施。
(二)風(fēng)險演變:風(fēng)險不確定性由外部延伸至內(nèi)部
以ChatGPT為代表的生成式人工智能出現(xiàn)后,風(fēng)險的不確定性由外部向內(nèi)部延伸。依據(jù)風(fēng)險是否具有內(nèi)生性,人工智能風(fēng)險分為外部風(fēng)險和內(nèi)部風(fēng)險。一般而言,新興技術(shù)的潛在社會風(fēng)險也即外部風(fēng)險普遍具有高度不確定性,這種不確定性往往與技術(shù)發(fā)展規(guī)律有關(guān),技術(shù)的發(fā)展總是需要經(jīng)歷一個從產(chǎn)生到完善再到成熟的過程,外部風(fēng)險只能在這一過程中逐漸顯露。生成式人工智能的風(fēng)險不確定性不僅與新興技術(shù)發(fā)展規(guī)律有關(guān),還與自身的強(qiáng)人機(jī)互動性和無法解釋的推理能力有關(guān)。生成式人工智能的強(qiáng)人機(jī)互動性使外部風(fēng)險由于難以預(yù)知而具有高度不確定性,而其自身的推理能力更是將這種不確定性由外部延伸至內(nèi)部。
基于生成式人工智能的強(qiáng)人機(jī)交互性,生成式人工智能的外部風(fēng)險難以預(yù)知。此前,無論是在專業(yè)生產(chǎn)內(nèi)容時代還是用戶生產(chǎn)內(nèi)容時代,平臺對信息內(nèi)容的制作、發(fā)布、傳播都具有較強(qiáng)的控制力,信息內(nèi)容安全的主體責(zé)任主要由平臺承擔(dān)?!毒W(wǎng)絡(luò)安全法》第四十七條首先在法律層面明確了網(wǎng)絡(luò)運(yùn)營者對用戶信息發(fā)布的管理責(zé)任,《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《關(guān)于進(jìn)一步壓實網(wǎng)站平臺信息內(nèi)容管理主體責(zé)任的意見》又進(jìn)一步細(xì)化了平臺的信息內(nèi)容安全主體責(zé)任。
然而,在人工智能生成內(nèi)容時代,生成式人工智能服務(wù)提供者不具備控制輸入端的能力。區(qū)別于傳統(tǒng)人工智能產(chǎn)品或服務(wù)在提供方式上的單向性,生成式人工智能產(chǎn)品或服務(wù)的提供是通過與用戶交互完成的,具體表現(xiàn)為用戶輸入需求,模型根據(jù)用戶輸入的內(nèi)容生成相應(yīng)結(jié)果,生成何種內(nèi)容在很大程度取決于用戶輸入的具體需求?!坝脩糨斎?機(jī)器輸出”的內(nèi)容生成方式意味著,即便服務(wù)提供者在前端依法履行了研發(fā)合規(guī)義務(wù),用戶依然能夠在輸入端打破合規(guī)性。雖然服務(wù)提供者通常會采取事前預(yù)防措施對用戶的輸入行為作出一定限制,但實際效果不盡如人意。例如,雖然OpenAI在使用政策中明確禁止生成惡意軟件,但研究人員發(fā)現(xiàn),用戶依然可以通過輸入提示欺騙ChatGPT為惡意軟件應(yīng)用程序編寫代碼。[8]平臺難以實現(xiàn)對輸入端的控制,意味著用戶端輸入何種內(nèi)容,模型生成何種結(jié)果,生成結(jié)果又將產(chǎn)生何種影響均系未知。
基于生成式人工智能的推理能力,生成式人工智能的內(nèi)部風(fēng)險難以預(yù)知。從ChatGPT開始,GPT系列開始具備推理能力,即便是ChatGPT的研發(fā)團(tuán)隊也無法解讀這種能力出現(xiàn)的原因[9],這在一定程度上改變了算法“黑箱”問題的本質(zhì)。傳統(tǒng)意義上的算法“黑箱”本質(zhì)上為技術(shù)“黑箱”,表現(xiàn)為技術(shù)原理僅為部分人所知,而另一部分人不得而知。[10]這里的“另一部人”主要是指監(jiān)管部門和社會公眾。然而,以ChatGPT為代表的生成式人工智能在一定程度上打破了社會對算法“黑箱”的傳統(tǒng)認(rèn)知與理解。算法“黑箱”問題的本質(zhì)由“人與人之間的信息不對稱”轉(zhuǎn)變?yōu)椤叭祟愒趶?qiáng)人工智能面前的共同無知”[11]。
(三)迭代趨勢:人工智能技術(shù)迭代周期越來越短
以ChatGPT為代表的生成式人工智能出現(xiàn)后,人工智能技術(shù)迭代周期將越來越短??v觀人工智能發(fā)展歷程,人工智能算法歷經(jīng)60余年才由早期基于規(guī)則的專家系統(tǒng)、機(jī)器學(xué)習(xí)發(fā)展到如今的基于神經(jīng)網(wǎng)絡(luò)模型的深度學(xué)習(xí)。隨著人工智能完成深度學(xué)習(xí)這一技術(shù)躍遷,人工智能技術(shù)將進(jìn)入快速發(fā)展時期。
從生成式人工智能的迭代過程來看,從GPT-1到GPT-4,5年間完成了5次迭代,最新一代模型GPT-4在其前身GPT-3.5(也即ChatGPT)發(fā)布3個月后即被推出。OpenAI預(yù)計將在2023年12月發(fā)布GPT-5。生成式人工智能大模型迭代升級速度以GPT-3.5為分水嶺,基于強(qiáng)化學(xué)習(xí)的人類反饋學(xué)習(xí)技術(shù)的應(yīng)用使GPT-3.5能夠持續(xù)性地生成高質(zhì)量內(nèi)容,在自然語言處理領(lǐng)域取得革命性突破,實現(xiàn)人工智能的技術(shù)“蝶變”。[12]甚至有學(xué)者稱,“ChatGPT的出現(xiàn)標(biāo)志著強(qiáng)人工智能時代的來臨,人類或許將會迎來Ray Kurzweil所說的技術(shù)奇點(diǎn)(singularity)?!盵13]
從生成式人工智能的迭代模式來看,生成式人工智能開啟了一種“敏捷迭代”模式,這種模式具有快速小版本迭代特征。[14]具體而言,在新功能開發(fā)方面,生成式人工智能能夠及時響應(yīng)海量用戶的普遍需求。以聯(lián)網(wǎng)需求為例,此前,ChatGPT雖然能夠生成準(zhǔn)確性較高的答案,但無法實現(xiàn)實時數(shù)據(jù)更新。而該問題在其開始向用戶開放聯(lián)網(wǎng)和插件功能之后遂得以解決,并且ChatGPT也將因此具備比之前更強(qiáng)大的功能,甚至可能成為人工智能時代的超級流量入口。
在既有功能修復(fù)方面,以宕機(jī)修復(fù)為例,ChatGPT自上線以來,雖然多次因用戶量激增而發(fā)生宕機(jī)現(xiàn)象,但基本上能在較短的時間里完成修復(fù)。2023年3月21日,ChatGPT發(fā)生全球宕機(jī),5個小時恢復(fù)正常訪問[15],而后4月23日再次發(fā)生的宕機(jī)現(xiàn)象,僅用13分鐘便恢復(fù)正常[16]。此外,ChatGPT還曾因開源庫中的一個錯誤,導(dǎo)致用戶隱私泄露,部分用戶可以看到其他活躍用戶的姓名、電子郵件地址、支付地址、信用卡號的最后4位數(shù)字以及信用卡到期時間。該事件發(fā)生后,OpenAI第一時間將ChatGPT下線,并在短時間內(nèi)修復(fù)漏洞重新上線。[17]
生成式人工智能在自然語言處理技術(shù)上取得革命性突破后,其迭代升級便可以像智能手機(jī)、應(yīng)用軟件一樣規(guī)律化、常態(tài)化。如果說在GPT-3.5之前,模型迭代周期還以年為單位,那么在GPT-3.5之后將變成以月、周甚至天為單位,未來人工智能技術(shù)迭代周期只會越來越短。
三、傳統(tǒng)治理范式適用于生成式人工智能的治理局限
生成式人工智能改變了人工智能治理的底層邏輯,致使傳統(tǒng)治理范式適用于生成式人工智能治理時存在諸多局限:其一,模型通用性使得基于對象場景的分散治理難以統(tǒng)籌治理全局;其二,風(fēng)險不確定性使得基于風(fēng)險預(yù)防的事前治理難以精準(zhǔn)預(yù)見風(fēng)險;其三,快速迭代性使得基于法律規(guī)范的硬性治理難以提升治理實效。
(一)基于對象場景的分散治理:難以統(tǒng)籌治理全局
我國人工智能治理呈現(xiàn)出基于對象場景的分散治理特征,即根據(jù)不同的對象和場景,有針對性地出臺與之相對應(yīng)的法律規(guī)范。其中,規(guī)制對象主要包含數(shù)據(jù)、算法、信息內(nèi)容,規(guī)制場景主要包含人臉識別、自動化駕駛。具體而言,在規(guī)制對象方面,針對數(shù)據(jù)安全先后出臺《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護(hù)法》;針對算法治理,先后出臺《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》;針對信息內(nèi)容安全,先后出臺《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》。在規(guī)制場景方面,針對人臉識別、自動化駕駛等專用人工智能技術(shù),先后出臺了《最高人民法院關(guān)于審理使用人臉識別技術(shù)處理個人信息相關(guān)民事案件適用法律若干問題的規(guī)定》《智能網(wǎng)聯(lián)汽車道路測試與示范應(yīng)用管理規(guī)范(試行)》。
然而,基于對象場景的分散治理難以適用于生成式人工智能治理。就治理對象而言,分散治理表現(xiàn)為對數(shù)據(jù)、算法以及信息內(nèi)容三者分而治之,但生成式人工智能本質(zhì)上是一種集數(shù)據(jù)、算法、信息內(nèi)容于一身的模型。在模型訓(xùn)練階段,需要收集海量數(shù)據(jù),模型的智能化很大程度上取決于訓(xùn)練數(shù)據(jù)的數(shù)量與質(zhì)量。在模型研發(fā)與運(yùn)行階段,算法是實現(xiàn)人工智能的核心要素,而深度學(xué)習(xí)算法又是實現(xiàn)生成式人工智能的核心要素。在內(nèi)容生成階段,生成式人工智能既是信息內(nèi)容的生成工具,也是用戶輸入信息的收集工具。一方面,用戶向模型輸入指令,模型根據(jù)指令生成新的內(nèi)容;另一方面,在與用戶互動的過程中,模型會收集用戶輸入的信息用于優(yōu)化訓(xùn)練。因而,生成式人工智能的治理實質(zhì)上是一種模型治理,其以模型為治理對象,統(tǒng)籌數(shù)據(jù)、算法、信息內(nèi)容在模型訓(xùn)練、研發(fā)與運(yùn)行、內(nèi)容生成的各個階段出現(xiàn)的治理問題。
就治理場景而言,分散治理表現(xiàn)為對人臉識別、自動化駕駛等專用人工智能技術(shù)進(jìn)行專門治理。這種治理的專門化主要是由人工智能技術(shù)的專用性引起的,然而,生成式人工智能具備較強(qiáng)的底層通用能力,其可以“基于一個模型,面向不同主體,完成多種任務(wù)”。未來,生成式人工智能將真正賦能千行百業(yè),向社會治理、生產(chǎn)經(jīng)營、日常生活的各個領(lǐng)域滲透。生成式人工智能推動人工智能技術(shù)由專用性向通用性邁進(jìn),應(yīng)用場景由個性化向普適化方向發(fā)展,依據(jù)特定場景分而治之難以全面覆蓋應(yīng)用生成式人工智能的各個行業(yè)、領(lǐng)域。
綜上,生成式人工智能集數(shù)據(jù)、算法、信息內(nèi)容于一身,可以賦能千行百業(yè),基于對象場景的分散治理難以統(tǒng)籌生成式人工智能治理全局。
(二)基于風(fēng)險預(yù)防的事前治理:難以精準(zhǔn)預(yù)見風(fēng)險
我國傳統(tǒng)算法治理采取基于風(fēng)險預(yù)防的事前治理模式,即監(jiān)管部門在潛在風(fēng)險演變?yōu)楝F(xiàn)實損害之前介入進(jìn)行治理,實現(xiàn)風(fēng)險的事前預(yù)防。在我國當(dāng)前的算法監(jiān)管制度體系中,算法備案和算法評估制度即基于事前治理的典型制度設(shè)計。其中,算法備案旨在獲取平臺設(shè)計部署的具有潛在危害和風(fēng)險的算法系統(tǒng)的相關(guān)信息,以固定問責(zé)點(diǎn)為今后的行政監(jiān)管提供信息基礎(chǔ)[18];算法評估旨在通過“事前”評估的方式排除算法在模型、數(shù)據(jù)、策略、人工干預(yù)等方面的安全隱患[19]。二者均建立在互聯(lián)網(wǎng)業(yè)態(tài)既已成熟、算法安全風(fēng)險已然明晰的現(xiàn)實基礎(chǔ)之上。
2012年,字節(jié)跳動率先在新聞領(lǐng)域開始運(yùn)用內(nèi)容推薦算法,此后算法推薦技術(shù)開始向短視頻、圖書、音樂、影視、電商等多個領(lǐng)域迅速擴(kuò)張。[20]過去10年間,算法推薦技術(shù)在國內(nèi)互聯(lián)網(wǎng)市場得到充分發(fā)展,基于算法推薦技術(shù)形成的互聯(lián)網(wǎng)業(yè)態(tài)已然成熟,由此導(dǎo)致的算法歧視、大數(shù)據(jù)殺熟、信息繭房、算法操控等風(fēng)險逐漸顯露,風(fēng)險成因由于算法的透明度變強(qiáng)而愈發(fā)可被追溯,而針對不同風(fēng)險的治理方案也逐漸清晰,算法備案和算法評估制度因此能夠產(chǎn)生理想的事前風(fēng)險防范效果。
然而,生成式人工智能具有風(fēng)險不確定性,即內(nèi)外部風(fēng)險不可預(yù)知?;陲L(fēng)險預(yù)防的事前治理以風(fēng)險可預(yù)見為客觀前提,但其難以預(yù)見生成式人工智能應(yīng)用過程中所產(chǎn)生的風(fēng)險。一方面,生成式人工智能的內(nèi)部風(fēng)險不可預(yù)知導(dǎo)致算法備案適用不暢。如前所述,傳統(tǒng)意義上的算法“黑箱”意味著算法運(yùn)行機(jī)理僅為專業(yè)人員知悉,監(jiān)管者與公眾由于缺乏專業(yè)知識而無法知曉。通過算法備案制度,監(jiān)管部門可以掌握各個領(lǐng)域應(yīng)用算法的基本情況,社會公眾也可獲知算法的基本原理、目的意圖和主要運(yùn)行機(jī)制等內(nèi)容,從而有效解決對于部分人而言的算法“黑箱”問題。然而,當(dāng)被監(jiān)管者也無法解釋模型運(yùn)行原理時,算法備案制度存在客觀上的適用困難。
此外,生成式人工智能的外部風(fēng)險不可預(yù)知導(dǎo)致算法評估制度適用不暢。算法評估制度要求對算法可能造成的風(fēng)險及其對社會的影響進(jìn)行充分的評估[21]。從技術(shù)發(fā)展角度出發(fā),當(dāng)前國內(nèi)生成式人工智能大模型研發(fā)尚處于起步階段,未來的技術(shù)走向尚未可知;從產(chǎn)業(yè)發(fā)展角度出發(fā),生成式人工智能的應(yīng)用場景和領(lǐng)域還處于探索階段,尚未形成清晰的產(chǎn)業(yè)形態(tài);從消費(fèi)應(yīng)用角度出發(fā),生成式人工智能具有強(qiáng)人機(jī)交互性,輸入端不可控導(dǎo)致用戶在利用大模型的過程中產(chǎn)生何種侵害行為不得而知。生成式人工智能的技術(shù)走向、產(chǎn)業(yè)形態(tài)以及應(yīng)用后果均不可知,風(fēng)險便難以被提前預(yù)見,算法評估制度也因此難以起到有效的事前預(yù)防作用。
(三)基于法律規(guī)范的硬性治理:難以提升治理實效
當(dāng)前,我國人工智能治理屬于基于法律規(guī)范的硬性治理,即在人工智能治理過程中較為依賴立法手段,希冀通過制定出臺相關(guān)法律規(guī)范為監(jiān)管部門提供執(zhí)法依據(jù),避免由于法律制度的缺失造成監(jiān)管不力。雖然生成式人工智能的研發(fā)與利用尚處于起步階段,但我國已經(jīng)初步構(gòu)建起由《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護(hù)法》以及《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等共同組成的生成式人工智能法律規(guī)制體系。作為全球首部針對生成式人工智能的專門立法,《生成式人工智能服務(wù)管理暫行辦法》的出臺更是有意將這種硬性治理范式向生成式人工智能治理領(lǐng)域延伸。
誠然,基于法律規(guī)范的硬性治理能夠為生成式人工智能的研發(fā)與利用活動劃定清晰的底線與紅線,但在多元化的社會治理方式中,法律規(guī)制并不總能使社會治理實現(xiàn)“帕累托最優(yōu)”。生成式人工智能的法律規(guī)制面臨兩種選擇:一種是沿用現(xiàn)行法律規(guī)范,另一種是進(jìn)行生成式人工智能的專門立法。然而,二者均存在一定的適用困境。
首先,現(xiàn)行法律規(guī)范難以解決生成式人工智能引發(fā)的新問題?,F(xiàn)行法律規(guī)范出自用戶生成內(nèi)容時代,相應(yīng)的制度設(shè)計均以“人”為中心,即針對“人”的信息內(nèi)容制作、復(fù)制、發(fā)布行為,設(shè)置相關(guān)的禁止性要求,配置相應(yīng)的法律責(zé)任。ChatGPT類生成式人工智能的出現(xiàn)推動人類社會進(jìn)入人工智能生成內(nèi)容時代,信息內(nèi)容從完全由“人”生成變?yōu)椤叭藱C(jī)”共同生成,這必然導(dǎo)致圍繞人的行為進(jìn)行的制度設(shè)計在生成式人工智能治理中的適用不暢。例如,對于由人機(jī)合力生成的違法和不良信息所帶來的損害,如何進(jìn)行法律責(zé)任分配依然是一個待解決的問題。
其次,進(jìn)行生成式人工智能專門立法面臨時效性和成本效益問題。一部法律在正式出臺以前,需要經(jīng)過漫長且復(fù)雜的立法程序。按照全國人大常委會的立法程序,最快也需要3次上會審議,現(xiàn)有記錄中最快的立法周期是2年,通常都需要3-5年才能獲得通過。[22]而根據(jù)摩爾定律,科技的更新?lián)Q代速度平均為1.5年,生成式人工智能的迭代速度甚至?xí)?。立法速度無法與技術(shù)發(fā)展速度同步,待到法律出臺,又會出現(xiàn)此前沒有遇到的新問題。歐盟《人工智能法案》的出臺就面臨此種窘境,按照原定立法計劃該法案早已通過,但ChatGPT的出現(xiàn)使該法案的內(nèi)容被迫重新調(diào)整。
在法經(jīng)濟(jì)學(xué)視角下,立法不僅是一種政治行為,同時也是一種經(jīng)濟(jì)行為。[23]新法在制定過程中需要耗費(fèi)大量的人力、物力、時間等成本。新法頒布后,社會還需要經(jīng)歷很長一段的學(xué)習(xí)與適應(yīng)期,這期間需要實施一系列的法律宣傳、解釋、教育等活動。與此同時,新法推行過程中勢必會產(chǎn)生諸多現(xiàn)實問題,生成式人工智能也會在迭代發(fā)展過程中產(chǎn)生新的治理難題,這就需要不斷地修訂與完善法律。上述活動的耗費(fèi)均屬于立法成本范疇,依據(jù)成本效益原則,只有當(dāng)立法的預(yù)期效益大于立法總成本時,立法行為才具有社會價值,但這一點(diǎn)往往會因立法時機(jī)不成熟、立法質(zhì)量不高、法律自身的滯后性與機(jī)械性等因素而難以實現(xiàn)。
四、敏捷治理及其適用于生成式人工智能治理的具體路徑
敏捷治理具有區(qū)別于風(fēng)險治理的全面性、適應(yīng)性和靈活性特征,契合生成式人工智能治理需求并且與我國在新興技術(shù)領(lǐng)域推行的包容審慎監(jiān)管具有異曲同工之處。生成式人工智能治理應(yīng)當(dāng)依據(jù)模型產(chǎn)業(yè)結(jié)構(gòu),構(gòu)建“基礎(chǔ)模型-專業(yè)模型-服務(wù)應(yīng)用”分層治理體系;劃分已知和未知風(fēng)險,構(gòu)建事前預(yù)防與事后應(yīng)對相結(jié)合的適應(yīng)性治理機(jī)制;運(yùn)用靈活性治理工具,即利用技術(shù)自身解決基礎(chǔ)模型和專業(yè)模型層帶來的監(jiān)管難題,重點(diǎn)關(guān)注服務(wù)應(yīng)用層的信息內(nèi)容安全治理,采取“軟硬兼施”的法治手段,創(chuàng)新監(jiān)管制度,探索建立監(jiān)管沙盒制度、企業(yè)合規(guī)免責(zé)制度、避風(fēng)港規(guī)則,減輕企業(yè)信息內(nèi)容安全治理壓力。
(一)敏捷治理:快速適應(yīng)情景變化的動態(tài)治理范式
“敏捷治理”由軟件開發(fā)領(lǐng)域的“敏捷開發(fā)”方法演變而來,2018年世界經(jīng)濟(jì)論壇白皮書首次將其引入社會治理領(lǐng)域。既有研究嘗試將敏捷治理引入新興產(chǎn)業(yè)[24]、現(xiàn)代城市[25]、智慧社區(qū)[26]、數(shù)字政府[27]、元宇宙[28]等領(lǐng)域,上述領(lǐng)域普遍屬于新興技術(shù)或者為新興技術(shù)所滲透。自人類社會進(jìn)入工業(yè)4.0時代以來,大數(shù)據(jù)、云計算、物聯(lián)網(wǎng)、人工智能等新一代信息技術(shù)不斷涌現(xiàn),社會生產(chǎn)生活日益數(shù)字化。相較于信息化社會,數(shù)字化社會中的治理對象具有高度不確定性,傳統(tǒng)治理范式因難以有效應(yīng)對新興技術(shù)及其應(yīng)用風(fēng)險的不確定性而亟需進(jìn)行范式革新。與傳統(tǒng)治理相比,敏捷治理更加注重治理的全局性、適應(yīng)性與靈活性(參見表1)。

首先,傳統(tǒng)治理范式較為關(guān)注治理對象顯露已久的某一突出問題。例如,在算法治理領(lǐng)域,監(jiān)管部門更注重治理推薦算法;在數(shù)據(jù)治理領(lǐng)域,更傾向于數(shù)據(jù)安全、個人信息保護(hù)。而敏捷治理更關(guān)注治理對象發(fā)展的全過程,這是因為在新技術(shù)、新產(chǎn)業(yè)發(fā)展的各個階段和環(huán)節(jié)均有可能產(chǎn)生難以估量的新風(fēng)險,只有對治理對象進(jìn)行持續(xù)觀測,才能夠及時應(yīng)對風(fēng)險,掌控治理全局。其次,傳統(tǒng)治理建立在對既往治理經(jīng)驗的總結(jié)之上,對情景變化的適應(yīng)能力不強(qiáng),而敏捷治理的關(guān)鍵優(yōu)勢就是在沒有成熟經(jīng)驗可借鑒的情況下,能夠快速適應(yīng)情境變化并及時作出響應(yīng)。最后,傳統(tǒng)治理通常采取法律手段,具有一定的滯后性與機(jī)械性。敏捷治理則強(qiáng)調(diào)不斷發(fā)掘拓展新的治理工具和治理方法,以提升治理的靈活性。例如,鼓勵政府進(jìn)行決策創(chuàng)新的決策實驗室、鼓勵企業(yè)測試新產(chǎn)品的監(jiān)管沙盒、提升治理敏捷性的技術(shù)手段等。[4]
作為一種快速適應(yīng)情景變化的動態(tài)治理范式,敏捷治理能夠有效彌合數(shù)字社會快速變遷與政府監(jiān)管相對滯后之間的矛盾。[29]在這一點(diǎn)上,我國政策語境中的“包容審慎監(jiān)管”與敏捷治理“不謀而合”?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第三條也明確提出,對生成式人工智能服務(wù)實行包容審慎監(jiān)管。在適用范圍上,二者均適用于新技術(shù)、新產(chǎn)業(yè)、新業(yè)態(tài)等新興領(lǐng)域;在監(jiān)管態(tài)度上,二者均對科技創(chuàng)新持包容、鼓勵態(tài)度;在工具選擇上,二者均傾向于選擇靈活的、動態(tài)的、臨時的治理工具。
綜上,生成式人工智能治理應(yīng)秉持包容審慎監(jiān)管理念,結(jié)合敏捷治理的三個特性構(gòu)建生成式人工智能治理路徑。具體而言,基于敏捷治理的全面性,構(gòu)建“基礎(chǔ)模型-專業(yè)模型-服務(wù)應(yīng)用”的全面性治理格局;基于敏捷治理的適應(yīng)性,構(gòu)建事前預(yù)防與事后應(yīng)對相結(jié)合的適應(yīng)性治理機(jī)制;基于敏捷治理的靈活性,構(gòu)建“技術(shù)-法律”相結(jié)合的靈活性治理工具。
(二)全面性治理格局:依據(jù)模型產(chǎn)業(yè)架構(gòu),構(gòu)建分層治理體系
生成式人工智能治理應(yīng)當(dāng)與生成式人工智能的分層產(chǎn)業(yè)架構(gòu)相契合,構(gòu)建“基礎(chǔ)模型-專業(yè)模型-服務(wù)應(yīng)用”的分層治理體系,為基礎(chǔ)模型和專業(yè)模型層的研發(fā)活動營造鼓勵創(chuàng)新發(fā)展的制度環(huán)境,重點(diǎn)對服務(wù)應(yīng)用層的信息內(nèi)容安全治理進(jìn)行一系列監(jiān)管制度創(chuàng)新。
如前所述,生成式人工智能具有模型通用性,基于一個模型可以完成不同任務(wù),因而擁有來自各行各業(yè)的龐大用戶群體。與傳統(tǒng)的產(chǎn)品或服務(wù)提供對象主要為終端用戶的情形不同,基于“預(yù)訓(xùn)練+精調(diào)”的生成式人工智能大模型的用戶群體既包括海量的終端用戶,還包括各個垂直細(xì)分領(lǐng)域的下游企業(yè)。面向企業(yè)客戶,作為上游企業(yè)的生成式人工智能大模型研發(fā)者向下游企業(yè)提供預(yù)訓(xùn)練大模型也即“基礎(chǔ)模型”,下游企業(yè)在此基礎(chǔ)上進(jìn)行微調(diào),開發(fā)出適用于不同場景的專業(yè)模型。面向終端用戶,基礎(chǔ)模型與專業(yè)模型服務(wù)提供者通過與用戶互動的形式向其提供文字、圖像、音頻、視頻等內(nèi)容生成服務(wù)。由此,生成式人工智能產(chǎn)業(yè)便呈現(xiàn)出“基礎(chǔ)模型-專業(yè)模型-服務(wù)應(yīng)用”三層架構(gòu)。
對于基礎(chǔ)模型層和專業(yè)模型層的模型研發(fā)活動,生成式人工智能治理應(yīng)堅持以發(fā)展為導(dǎo)向?!渡墒焦ぶ悄芊?wù)管理暫行辦法》第二條規(guī)定,該辦法僅適用于利用生成式人工智能技術(shù)向境內(nèi)公眾提供服務(wù)的生成式人工智能服務(wù)提供者,未向境內(nèi)公眾提供服務(wù)的基礎(chǔ)模型層和專業(yè)模型層相關(guān)研發(fā)企業(yè)則不適用該辦法,該規(guī)定旨在鼓勵生成式人工智能技術(shù)的研發(fā)與應(yīng)用。未來,生成式人工智能大模型將有望成為數(shù)字經(jīng)濟(jì)時代的新型數(shù)字基礎(chǔ)設(shè)施,而當(dāng)前我國尚處于生成式人工智能技術(shù)研發(fā)初期,國內(nèi)大模型在智能化水平上還與ChatGPT存在一定差距。大模型研發(fā)是一個長期的高成本、高風(fēng)險的過程,需要從頂層制度設(shè)計上為生成式人工智能留足發(fā)展空間和時間,營造有利于大模型研發(fā)的制度環(huán)境。尤其是對訓(xùn)練數(shù)據(jù)的制度設(shè)計,生成式人工智能大模型的智能化水平很大程度上取決于訓(xùn)練數(shù)據(jù)的數(shù)量和質(zhì)量,因而設(shè)置類似于“合理訓(xùn)練”的知識產(chǎn)權(quán)制度對于訓(xùn)練優(yōu)質(zhì)的大模型而言至關(guān)重要。
對于服務(wù)應(yīng)用層的生成式人工智能治理,應(yīng)重點(diǎn)進(jìn)行監(jiān)管制度創(chuàng)新,為新興技術(shù)發(fā)展留下試錯空間。服務(wù)應(yīng)用層位于產(chǎn)業(yè)鏈終端,直接面向終端消費(fèi)者提供服務(wù)。然而,當(dāng)前生成式人工智能防范技術(shù)尚未成熟,服務(wù)應(yīng)用層面難免因此產(chǎn)生虛假信息生成、傳播等信息內(nèi)容安全問題。并且與此前完全由用戶提供內(nèi)容或者由搜索引擎提供固定答案不同,生成式人工智能以“用戶輸入+機(jī)器輸出”的形成提供服務(wù),生成內(nèi)容的性質(zhì)、價值取向很大程度上取決于用戶輸入指令。而在輸入端,輸入主體和輸入行為不可控導(dǎo)致生成式人工智能應(yīng)用風(fēng)險尤其是信息內(nèi)容安全風(fēng)險難以事前預(yù)防,更需引入靈活、彈性、適應(yīng)性的敏捷治理。
(三)適應(yīng)性治理機(jī)制:劃分已知與未知風(fēng)險,預(yù)防與應(yīng)對并重
生成式人工智能的風(fēng)險未知性并不意味著由其引發(fā)的任何風(fēng)險均不可預(yù)知,外部風(fēng)險是會在技術(shù)的普及與應(yīng)用過程中逐漸顯露,至少現(xiàn)階段人們在頻繁應(yīng)用生成式人工智能的過程中,已經(jīng)獲知了一些應(yīng)用風(fēng)險。[30]DeepMind團(tuán)隊確定了大模型現(xiàn)存的21個風(fēng)險,并將這些風(fēng)險總結(jié)為6類風(fēng)險領(lǐng)域,即歧視、仇恨言論和排斥、信息危害、錯誤信息危害、惡意使用、人機(jī)交互的危害以及環(huán)境和社會經(jīng)濟(jì)方面的危害。[31]但由于生成式人工智能無法解釋的推理能力以及不可預(yù)知的技術(shù)走向和產(chǎn)業(yè)發(fā)展趨勢,尚存在難以預(yù)測的未知風(fēng)險。生成式人工智能治理應(yīng)當(dāng)依照風(fēng)險的可知性,劃分已知風(fēng)險與未知風(fēng)險,有針對性地制定治理方案,建立風(fēng)險適應(yīng)性治理機(jī)制。
⒈已知風(fēng)險的適應(yīng)性治理
對于已經(jīng)觀察到的或者可預(yù)知的風(fēng)險,遵循原有的風(fēng)險治理路徑,圍繞模型的訓(xùn)練、研發(fā)與運(yùn)行、內(nèi)容生成的各個階段建立事前風(fēng)險防范為主,輔之以事后應(yīng)對的治理機(jī)制。
在模型訓(xùn)練階段,重點(diǎn)防范數(shù)據(jù)安全風(fēng)險。一方面,加強(qiáng)對訓(xùn)練數(shù)據(jù)來源合法性的審查。依據(jù)《生成式人工智能服務(wù)管理暫行辦法》第七條,應(yīng)重點(diǎn)審查訓(xùn)練數(shù)據(jù)的收集、加工、使用等處理活動是否符合知識產(chǎn)權(quán)、個人信息保護(hù)等相關(guān)法律要求。對于未經(jīng)同意收集用戶個人信息等違法違規(guī)的數(shù)據(jù)處理行為,依法責(zé)令限期整改,逾期未整改的,對其依法予以禁用處置。另一方面,督促生成式人工智能服務(wù)提供者履行安全保障義務(wù)?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第十三條明確要求生成式人工智能服務(wù)提供者應(yīng)當(dāng)提供安全、穩(wěn)定、持續(xù)的服務(wù),保障用戶正常使用。對于由技術(shù)自身存在安全漏洞導(dǎo)致的數(shù)據(jù)泄露事件,監(jiān)管部門應(yīng)當(dāng)及時督促服務(wù)提供者修復(fù)、完善模型產(chǎn)品。此外,監(jiān)管部門還應(yīng)當(dāng)定期主動開展模型安全漏洞排查工作,發(fā)現(xiàn)模型存在安全漏洞后及時上報并在確認(rèn)后督促相關(guān)模型開發(fā)者及時修復(fù)。
在模型研發(fā)與運(yùn)行階段,重點(diǎn)防范算法歧視、算法黑箱等算法安全風(fēng)險。《中共中央 國務(wù)院關(guān)于構(gòu)建數(shù)據(jù)基礎(chǔ)制度更好發(fā)揮數(shù)據(jù)要素作用的意見》中首次提出的算法審查制度為算法的行政監(jiān)管提供了制度支持。算法審查制度可從以下三個方面具體展開:其一,加強(qiáng)科技倫理審查機(jī)制,強(qiáng)化生成式人工智能相關(guān)企業(yè)的科技倫理審查責(zé)任;其二,健全算法備案與評估機(jī)制,細(xì)化算法備案與評估的規(guī)則、流程、內(nèi)容要求;其三,探索建立算法審計制度,要求企業(yè)定期開展自我審計,必要時引入第三方外部算法審計。
在內(nèi)容生成階段,重點(diǎn)關(guān)注虛假有害信息的生成與傳播風(fēng)險。在內(nèi)容生成環(huán)節(jié),要求技術(shù)或服務(wù)提供者履行添加可識別水印或有效警示信息的義務(wù)、配備人工智能過濾審核機(jī)制;在內(nèi)容傳播環(huán)節(jié),要求平臺建立辟謠和舉報機(jī)制,并對違法傳播虛假有害信息者采取停止傳輸?shù)认拗拼胧?。[32]
⒉未知風(fēng)險的適應(yīng)性治理
對于未知風(fēng)險,建立完備的事中事后應(yīng)對機(jī)制。
針對基礎(chǔ)模型層和專業(yè)模型層發(fā)生的風(fēng)險事件,應(yīng)當(dāng)要求技術(shù)研發(fā)者立即采取離線修復(fù)、模型停運(yùn)等應(yīng)急補(bǔ)救措施,防止損害進(jìn)一步擴(kuò)大,并及時履行對用戶(包括企業(yè)和個人)的告知義務(wù)和對監(jiān)管部門的報告義務(wù)。此外,由于基礎(chǔ)模型不僅面向終端用戶提供模型應(yīng)用服務(wù),還面向產(chǎn)業(yè)下游企業(yè)提供預(yù)訓(xùn)練大模型產(chǎn)品。當(dāng)發(fā)生重大安全事件時,還應(yīng)當(dāng)要求基礎(chǔ)模型服務(wù)提供者立即停止對下游企業(yè)的產(chǎn)品供應(yīng)。鑒于基礎(chǔ)模型的通用性與賦能性,基礎(chǔ)模型停運(yùn)帶來的影響將是“牽一發(fā)而動全身的”,因此在基礎(chǔ)模型修復(fù)后應(yīng)當(dāng)及時恢復(fù)至正常運(yùn)營狀態(tài)。
針對服務(wù)應(yīng)用層發(fā)生的風(fēng)險事件,應(yīng)當(dāng)對風(fēng)險來源作出基本判斷。當(dāng)風(fēng)險事件出自用戶端,服務(wù)提供者除了履行上述應(yīng)急補(bǔ)救義務(wù)和告知義務(wù)外,還應(yīng)當(dāng)對用戶實施相應(yīng)限制和懲罰措施。例如,因用戶向模型實施“數(shù)據(jù)投毒”行為而釀成風(fēng)險事件,應(yīng)當(dāng)事后向用戶追責(zé)。當(dāng)風(fēng)險事件并非出自用戶端,則應(yīng)當(dāng)向上層追溯,進(jìn)一步判斷風(fēng)險來自基礎(chǔ)模型層還是專業(yè)模型層,以確定事后應(yīng)對義務(wù)的履行主體和責(zé)任承擔(dān)主體。
(四)靈活性治理工具:技術(shù)解決監(jiān)管難題,法律創(chuàng)新監(jiān)管制度
生成式人工智能治理應(yīng)當(dāng)綜合運(yùn)用技術(shù)、法律手段,對于能夠在基礎(chǔ)模型和專業(yè)模型層通過技術(shù)自身發(fā)展解決的問題,法律不必過早介入。生成式人工智能的法律治理應(yīng)聚焦服務(wù)應(yīng)用層,秉承包容審慎的監(jiān)管理念,利用軟法先行治理并通過建立監(jiān)管沙盒制度、企業(yè)合規(guī)免責(zé)制度以及避風(fēng)港規(guī)則,為新興技術(shù)發(fā)展留足下試錯空間。
⒈利用技術(shù)自身發(fā)展解決部分監(jiān)管難題
2023年5月,OpenAI發(fā)表《語言模型可以解釋語言模型中的神經(jīng)元》一文,表示調(diào)用GPT-4可以對GPT-2的運(yùn)行原理作出初步的自然語言解釋[33],為算法“黑箱”治理提供了技術(shù)解決方案。再如,共享單車興起之時,車輛亂停亂放現(xiàn)象嚴(yán)重,一度造成交通秩序混亂。近年來,各地政府開始部署電子圍欄系統(tǒng),通過信息化手段,界定互聯(lián)網(wǎng)租賃自行車停放、禁停區(qū)域的虛擬圍欄,當(dāng)互聯(lián)網(wǎng)租賃自行車進(jìn)入或離開虛擬圍欄時,企業(yè)運(yùn)營平臺可自動感知。[34]電子圍欄技術(shù)的應(yīng)用能夠有效規(guī)范用戶單車停放行為,為共享單車治理提供了技術(shù)方案。
⒉運(yùn)用軟法提升生成式人工智能治理敏捷性
與硬法相比,行業(yè)自律公約、倫理規(guī)范、標(biāo)準(zhǔn)指南等軟法程序更靈活、適應(yīng)性更強(qiáng),可以服務(wù)于多種治理目標(biāo),其已成為人工智能治理的最常見形式。[35]2020年,美國發(fā)布的《人工智能應(yīng)用監(jiān)管指南》明確提出要減少阻礙人工智能發(fā)展的硬性監(jiān)管措施,并列舉了特定部門的政策指導(dǎo)或框架、試點(diǎn)項目和實驗、自愿共識標(biāo)準(zhǔn)和框架等非監(jiān)管方法。[36]此外,2023年1月,美國NIST發(fā)布《人工智能風(fēng)險管理框架(1.0)》,其專為運(yùn)營、開發(fā)或部署人工智能系統(tǒng)的組織而設(shè)計,并且是一份非強(qiáng)制性的指導(dǎo)性文件,組織可以自愿選擇適用。[37]該框架不規(guī)定配置模板且內(nèi)容高度概括,目前發(fā)布了第一版,未來將根據(jù)人工智能技術(shù)發(fā)展持續(xù)動態(tài)更新,具有極強(qiáng)的通用性、靈活性與適應(yīng)性。我國可借鑒該框架并結(jié)合我國生成式人工智能發(fā)展的實際情況,構(gòu)建人工智能風(fēng)險管理框架,積極引導(dǎo)生成式人工智能相關(guān)組織自主開展風(fēng)險管理。
⒊探索建立有利于新興技術(shù)發(fā)展的制度環(huán)境
在服務(wù)應(yīng)用層探索建立監(jiān)管沙盒制度、企業(yè)合規(guī)免責(zé)制度、避風(fēng)港規(guī)則,營造有利于新興技術(shù)發(fā)展的制度環(huán)境。
⑴構(gòu)建監(jiān)管沙盒制度
監(jiān)管沙盒是企業(yè)測試創(chuàng)新產(chǎn)品或服務(wù)的安全空間,在這個空間內(nèi)其無需擔(dān)心創(chuàng)新與監(jiān)管規(guī)則發(fā)生矛盾時可能遭遇的監(jiān)管障礙或承擔(dān)不必要的監(jiān)管負(fù)擔(dān),因而屬于一種豁免機(jī)制。[38]2020年,我國率先在金融科技創(chuàng)新領(lǐng)域進(jìn)行了監(jiān)管沙盒試點(diǎn)。2023年5月,北京市頒布的《北京市促進(jìn)通用人工智能創(chuàng)新發(fā)展的若干措施(2023—2025年)》中提出的“包容審慎監(jiān)管試點(diǎn)”即對監(jiān)管沙盒的具體制度創(chuàng)新。監(jiān)管沙盒應(yīng)重點(diǎn)從以下幾個方面進(jìn)行具體的制度框架設(shè)計:
其一,劃定適用區(qū)域。根據(jù)《中國人工智能大模型地圖研究報告》顯示,目前中國10億參數(shù)規(guī)模以上的大模型已發(fā)布79個,主要集中于北京(占比48%)和廣東(占比25%)[39],因而可在兩地先行建立試點(diǎn)或試驗區(qū)。
其二,明確準(zhǔn)入門檻。監(jiān)管沙盒制度適用應(yīng)重點(diǎn)考察兩個方面:一是模型研發(fā)活動是否具有足夠的創(chuàng)新性,在這一點(diǎn)上,“從無到有”的基礎(chǔ)模型研發(fā)相較于“從有到精”的專業(yè)模型研發(fā)更具創(chuàng)新性;二是企業(yè)是否有健全的事后應(yīng)對機(jī)制,生成式人工智能應(yīng)用風(fēng)險不可預(yù)知,健全的事后應(yīng)對機(jī)制相較于事前防范措施而言更有必要。
其三,明確豁免規(guī)則。一是嚴(yán)格劃定應(yīng)用場景范圍,生成式人工智能應(yīng)用場景極其廣泛,對于軍事、醫(yī)療、汽車駕駛、生物基因等敏感程度和專業(yè)化程度較高的領(lǐng)域需要審慎適用豁免機(jī)制;二是嚴(yán)格限定用戶類型,向未成年人用戶以及上述敏感領(lǐng)域的企業(yè)用戶提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)審慎適用豁免機(jī)制;三是堅持底線思維。并非所有與大模型相關(guān)的活動均不受監(jiān)管限制,生成式人工智能產(chǎn)品或服務(wù)仍應(yīng)以遵守既已頒布的相關(guān)法律、行政法規(guī)等為測試前提,不得損害國家利益、公共利益以及消費(fèi)者權(quán)益。
其四,限制適用時間。作為一種試驗性監(jiān)管,監(jiān)管沙盒制度的適用應(yīng)當(dāng)限定在一定時段范圍內(nèi),具體的時段范圍應(yīng)在對生成式人工智能業(yè)態(tài)的持續(xù)觀察予以確定,待豁免機(jī)制取消后,應(yīng)進(jìn)入常態(tài)化監(jiān)管狀態(tài)。
⑵細(xì)化企業(yè)合規(guī)免責(zé)制度
作為一種行政監(jiān)管激勵手段,企業(yè)合規(guī)免責(zé)制度允許企業(yè)通過建立合規(guī)機(jī)制的形式獲得行政機(jī)關(guān)減免行政責(zé)任。[40]企業(yè)合規(guī)免責(zé)制度可從事前預(yù)防、事中補(bǔ)救、事后整改三個層面具體展開。
首先,對于由企業(yè)內(nèi)部員工的違法行為引發(fā)的合規(guī)風(fēng)險事件,企業(yè)若能夠證明其事前已經(jīng)建立了健全的合規(guī)管理體系,即可減輕或免除該企業(yè)的行政責(zé)任。對于生成式人工智能企業(yè),健全的合規(guī)管理體系不僅應(yīng)包括事前的風(fēng)險防范舉措還應(yīng)當(dāng)有完善的事后應(yīng)對舉措。
其次,監(jiān)管部門在行政執(zhí)法過程中發(fā)現(xiàn)企業(yè)存在違規(guī)情形,企業(yè)可通過采取處罰涉事員工、及時修復(fù)技術(shù)漏洞等補(bǔ)救措施,積極開展合規(guī)整改,加強(qiáng)企業(yè)合規(guī)管理體系建設(shè),爭取監(jiān)管部門的從寬處理。[41]
最后,合規(guī)風(fēng)險事件發(fā)生后,可采取達(dá)成行政和解協(xié)議的方式,由企業(yè)交納和解金并承諾在一定期限內(nèi)進(jìn)行合規(guī)整改,符合監(jiān)管要求后,可減輕或者免除企業(yè)的行政責(zé)任。[42]事后的合規(guī)免責(zé)有利于督促企業(yè)構(gòu)建完善的合規(guī)管理體系,避免類似的合規(guī)風(fēng)險事件再次發(fā)生。
⑶建立避風(fēng)港規(guī)則
避風(fēng)港規(guī)則也稱“通知-刪除”規(guī)則,是指針對用戶實施的侵權(quán)行為,網(wǎng)絡(luò)服務(wù)提供者在接到權(quán)利人通知后及時采取了刪除、屏蔽、斷開鏈接等必要措施的,無需再承擔(dān)侵權(quán)責(zé)任。如前所述,生成式人工智能服務(wù)提供者難以控制用戶的輸入行為,對于人工智能生成內(nèi)容的生成與傳播,不宜對服務(wù)提供者設(shè)置過高的注意義務(wù)。避風(fēng)港規(guī)則一般適用于民事侵權(quán)責(zé)任,但早在2005年的《互聯(lián)網(wǎng)著作權(quán)行政保護(hù)辦法》中就曾規(guī)定,互聯(lián)網(wǎng)信息服務(wù)提供者在內(nèi)容提供者發(fā)出反通知后,即可恢復(fù)被移除的內(nèi)容,且對該恢復(fù)行為不承擔(dān)行政法律責(zé)任。該規(guī)定僅針對反通知后的內(nèi)容恢復(fù)行為作出了行政責(zé)任豁免規(guī)定,生成式人工智能服務(wù)提供者在信息內(nèi)容安全管理方面的行政責(zé)任豁免可在此基礎(chǔ)上進(jìn)行延伸。例如,針對用戶故意誘導(dǎo)生成的違規(guī)內(nèi)容,服務(wù)提供者若能夠證明其在模型研發(fā)與運(yùn)行階段已經(jīng)采取了輸出攔截過濾等必要措施,則不必承擔(dān)由違規(guī)內(nèi)容生成與傳播所帶來的行政責(zé)任。
五、結(jié)語
當(dāng)前,世界范圍內(nèi)掀起生成式人工智能研發(fā)與應(yīng)用熱潮,加速推動新一輪科技革命和產(chǎn)業(yè)變革,與此同時也給人類社會帶來新的治理難題。ChatGPT類生成式人工智能的出現(xiàn)極大改變了人工智能治理的底層邏輯,人工智能技術(shù)從個性化向普適化場景應(yīng)用發(fā)展、風(fēng)險的不確定性由外部向內(nèi)部延伸、人工智能技術(shù)迭代周期越來越短,傳統(tǒng)治理范式適用于生成式人工智能治理時面臨統(tǒng)籌難、風(fēng)險預(yù)見難、實效提升難等問題。作為一種快速適應(yīng)情景變化的動態(tài)治理范式,敏捷治理的全面性、適應(yīng)性、靈活性契合生成式人工智能發(fā)展需求,與我國一直以來推行的包容審慎監(jiān)管“不謀而合”。有鑒于此,生成式人工智能治理應(yīng)始終秉承包容審慎的監(jiān)管理念并結(jié)合敏捷治理的優(yōu)勢特征,形成全面性治理格局,依據(jù)模型產(chǎn)業(yè)架構(gòu),構(gòu)建分層治理體系;構(gòu)建適應(yīng)性治理機(jī)制,依據(jù)風(fēng)險的可預(yù)知性,劃分已知風(fēng)險和未知風(fēng)險,對于前者采取事前預(yù)防機(jī)制,對于后者采取事后應(yīng)對機(jī)制;運(yùn)用靈活性治理工具,在基礎(chǔ)模型和專業(yè)模型層,利用技術(shù)先行解決部分監(jiān)管難題;在服務(wù)應(yīng)用層,秉承包容審慎的監(jiān)管理念,運(yùn)用軟法提升治理敏捷性并進(jìn)行監(jiān)管制度創(chuàng)新,通過建立監(jiān)管沙盒制度、企業(yè)合規(guī)免責(zé)制度以及避風(fēng)港規(guī)則,為新興技術(shù)發(fā)展留足試錯空間。
參考文獻(xiàn):
(略)
作者簡介:
張凌寒,中國政法大學(xué)數(shù)據(jù)法治研究院教授,博士生導(dǎo)師,研究方向:民商法、網(wǎng)絡(luò)與數(shù)據(jù)法。
于琳,中國政法大學(xué)數(shù)據(jù)法治研究院博士研究生。
*基金項目:2022年國家重點(diǎn)研發(fā)計劃“社會治理與智慧社會科技支撐”重點(diǎn)專項“知識產(chǎn)權(quán)司法保護(hù)與跨部門協(xié)同服務(wù)關(guān)鍵技術(shù)研究”(項目編號:2022YFC3303000)。
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
新一代人工智能賦能國家治理:新機(jī)遇與新挑戰(zhàn)
ChatGPT技術(shù)潛在的政治安全風(fēng)險
【風(fēng)口研報】應(yīng)用為“矛”、安全為“盾”!AIGC催生網(wǎng)安新需求!受益公司曝光
云計算ETF(516510)年初至今漲近22% 人工智能ETF(159819)規(guī)模近19億
人工智能安全問題
GPT會是AI算法模型的終極答案嗎?
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服