點擊右上角微信好友
朋友圈
請使用瀏覽器分享功能進(jìn)行分享
作者:馬羽男
以ChatGPT為代表的生成式人工智能在創(chuàng)造社會福利的同時,也帶來了諸多風(fēng)險。因此,當(dāng)務(wù)之急是結(jié)合我國生成式人工智能發(fā)展?fàn)顩r,厘清其應(yīng)用價值與潛在風(fēng)險之間的關(guān)系,以便在不影響應(yīng)用發(fā)展的前提下有效化解風(fēng)險。
生成式人工智能的運(yùn)行機(jī)理主要分為三個階段,也就是機(jī)器學(xué)習(xí)和人工標(biāo)記的準(zhǔn)備階段、運(yùn)用算法對數(shù)據(jù)進(jìn)行處理以求出處理后結(jié)果的運(yùn)算階段、數(shù)據(jù)運(yùn)算產(chǎn)出成品向社會輸出并產(chǎn)生影響的生成階段。當(dāng)前,生成式人工智能最突出的風(fēng)險就是在準(zhǔn)備階段的數(shù)據(jù)合規(guī)風(fēng)險、運(yùn)算階段的算法偏見風(fēng)險以及生成階段的知識產(chǎn)權(quán)風(fēng)險。
準(zhǔn)備階段的數(shù)據(jù)合規(guī)風(fēng)險。我國當(dāng)前的數(shù)據(jù)合規(guī)體系是建立在《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護(hù)法》之上的,要求數(shù)據(jù)處理者在處理過程中采取必要措施以保障基本的數(shù)據(jù)安全、網(wǎng)絡(luò)安全和個人信息安全?;谖覈姆煽蚣?,生成式人工智能的數(shù)據(jù)合規(guī)風(fēng)險主要體現(xiàn)在三個方面:數(shù)據(jù)來源合規(guī)風(fēng)險、數(shù)據(jù)使用合規(guī)風(fēng)險、數(shù)據(jù)的準(zhǔn)確性風(fēng)險。首先是數(shù)據(jù)來源合規(guī)風(fēng)險。以 ChatGPT為代表的生成式人工智能,初始階段往往要采集大量數(shù)據(jù)以供其訓(xùn)練。基于此,可能會面臨如下問題:一是收集個人信息用戶是否同意;二是收集使用已公開的信息是否在“合理范圍”;三是收集的樣本受到版權(quán)保護(hù),進(jìn)行訓(xùn)練時可否被認(rèn)定為“合理使用”。其次是數(shù)據(jù)使用合規(guī)風(fēng)險。一方面是數(shù)據(jù)泄露風(fēng)險。用戶會將個人信息、商業(yè)信息甚至商業(yè)機(jī)密等傳輸給ChatGPT。分析ChatGPT運(yùn)行機(jī)理不難發(fā)現(xiàn),在迭代訓(xùn)練中,它也會使用用戶輸入的信息和交互信息。因此,如何保證這些數(shù)據(jù)的安全是一個很大的難題。另一方面是用戶行使個人信息刪除權(quán)比較困難。雖然 OpenAI的隱私協(xié)議中規(guī)定了用戶對其個人信息享有相關(guān)的權(quán)利,但是鑒于要求生成式人工智能系統(tǒng)刪除數(shù)據(jù)的復(fù)雜特性,開發(fā)者能否實現(xiàn)對個人信息的真實刪除,從而達(dá)到符合法規(guī)的要求還存在較大的不確定性。最后是數(shù)據(jù)的準(zhǔn)確性風(fēng)險。因為在 ChatGPT訓(xùn)練的早期,被投入到數(shù)據(jù)中的內(nèi)容是由開發(fā)人員從網(wǎng)絡(luò)中獲得和選擇的,因此就有可能出現(xiàn)因為數(shù)據(jù)的缺失或錯誤等情況而致使所生成內(nèi)容的不準(zhǔn)確。
運(yùn)行階段的算法偏見風(fēng)險。以“人工標(biāo)注”為輔助的“機(jī)器學(xué)習(xí)”,通過二者的結(jié)合,提高了生成式人工智能的智能化與精確性。但是,這也使得算法偏見的概率急劇增加。這種結(jié)合方法比傳統(tǒng)的機(jī)器學(xué)習(xí)方法更能體現(xiàn)人的主觀判斷和偏好,這是由于人們將自己的偏好信息加入到機(jī)器學(xué)習(xí)的模型中,從而增加了人們的偏見,并且這種偏見很難被追蹤和防范。在對 ChatGPT的運(yùn)作方式進(jìn)行分析后發(fā)現(xiàn),算法偏見主要表現(xiàn)為兩方面:其一,由于接收到的數(shù)據(jù)需要人工標(biāo)注,因此在理解過程中存在著一定的誤差。其二,對數(shù)據(jù)進(jìn)行加工,當(dāng) ChatGPT對數(shù)據(jù)進(jìn)行加工得出結(jié)論后,由于原始結(jié)果與大眾期望不一致,需要對之進(jìn)行修正,但這一過程同樣會產(chǎn)生一定程度的算法偏見。
生成階段的知識產(chǎn)權(quán)風(fēng)險。生成式人工智能的興起,對眾多產(chǎn)業(yè)提出了新的挑戰(zhàn),而最具沖擊之處,在于在生成階段對知識產(chǎn)權(quán)領(lǐng)域所構(gòu)成的挑戰(zhàn)。因為生成式人工智能具有高度的智能化,所以在運(yùn)算過程中,與之前的人工智能系統(tǒng)相比,其知識產(chǎn)權(quán)的歸屬發(fā)生了顛覆性的變化。ChatGPT是一種生成式人工智能,它在處理和分析數(shù)據(jù)方面遠(yuǎn)遠(yuǎn)強(qiáng)于分析式人工智能,其內(nèi)容生成過程主要包括內(nèi)容自動化編纂、智能化修整加工、多模態(tài)轉(zhuǎn)換、創(chuàng)意生成等,直接影響著出版的內(nèi)容生產(chǎn)模式和內(nèi)容供應(yīng)模式。盡管ChatGPT的創(chuàng)造者中包含一些自然人的創(chuàng)作因素,從某種意義上來說,更符合作品的構(gòu)成要件,但這種由生成式人工智能所創(chuàng)造的作品能否被賦權(quán),仍然存在爭論,并且具體的賦權(quán)認(rèn)定標(biāo)準(zhǔn)研究還處于空白狀態(tài)。因此,知識產(chǎn)權(quán)風(fēng)險成為生成式人工智能無法規(guī)避的第三大風(fēng)險。
針對上述生成式人工智能三個方面的風(fēng)險,建議采取以下三種應(yīng)對策略來化解風(fēng)險。
強(qiáng)化生成式人工智能企業(yè)的數(shù)據(jù)合規(guī)建設(shè)。生成式人工智能的發(fā)展不能只重能力和效率而忽視安全,相關(guān)企業(yè)應(yīng)當(dāng)利用良好的數(shù)據(jù)合規(guī)體系來保障數(shù)據(jù)安全。企業(yè)數(shù)據(jù)合規(guī)建設(shè)可以通過三個措施強(qiáng)化。其一,確立數(shù)據(jù)合規(guī)原則。其原則主要有四點,分別是合法合規(guī)原則、告知同意原則、正當(dāng)目的原則、最小必要原則。其二,建立數(shù)據(jù)合規(guī)的多元技術(shù)機(jī)制。首先是宏觀層面的行業(yè)標(biāo)準(zhǔn)要統(tǒng)一。各行業(yè)的主管部門,應(yīng)該帶頭建立一個數(shù)據(jù)版本的“新華辭典”,讓數(shù)據(jù)編碼、制式等保持一致,確保數(shù)據(jù)的來源、內(nèi)容和處理邏輯能夠被“反事實驗證”。其次是中觀層面的內(nèi)外審查體系。在內(nèi)部設(shè)立數(shù)據(jù)合規(guī)專門機(jī)構(gòu),負(fù)責(zé)企業(yè)日常的數(shù)據(jù)合規(guī)處理,在外部引入第三方審查機(jī)制,對企業(yè)數(shù)據(jù)合規(guī)進(jìn)行審計和倫理審查。最后是微觀層面的倫理規(guī)范。將倫理規(guī)范與原則以法律形式嵌入到技術(shù)應(yīng)用的行為邏輯中去,使之能夠因勢而為。其三,完善數(shù)據(jù)合規(guī)相關(guān)法律。首先是完善立法,在立法層面加快出臺數(shù)據(jù)、人工智能方面的基本法,以作為企業(yè)數(shù)據(jù)合規(guī)法律方面的頂層指導(dǎo)。其次是執(zhí)法完善,盡快明確各部門的執(zhí)法權(quán)限,避免“多頭治理”產(chǎn)生“九龍治水”的局面。最后是完善司法,完善電子證據(jù)制度,保障權(quán)利人的相關(guān)訴權(quán)。
技管結(jié)合矯正生成式人工智能的算法偏見。這主要包含兩個措施。其一,針對生成式人工智能機(jī)器學(xué)習(xí)過程中所出現(xiàn)的先天性算法偏見,應(yīng)當(dāng)調(diào)整相關(guān)算法模型的學(xué)習(xí)路徑,遵守相關(guān)規(guī)范和技術(shù)標(biāo)準(zhǔn),在生成式人工智能投入市場前應(yīng)當(dāng)進(jìn)行實質(zhì)審查。鑒于生成式人工智能的特征,可將其糾偏工作分為兩個方面:一方面,采用算法程序編譯預(yù)防機(jī)器學(xué)習(xí)中可能存在的先天偏見;另一方面,設(shè)置人工標(biāo)注的標(biāo)準(zhǔn),提高從業(yè)人員的執(zhí)業(yè)水平以應(yīng)對人工標(biāo)注的算法偏見。其二,針對生成式人工智能的自我學(xué)習(xí)而得出的后天性算法偏見,應(yīng)當(dāng)通過建立敏捷化、自動化、全流程的監(jiān)管體系來消除偏見。首先,實現(xiàn)對算法技術(shù)的自動化監(jiān)管。針對機(jī)器學(xué)習(xí)和人工標(biāo)注實現(xiàn)自動化監(jiān)管,每當(dāng)出現(xiàn)算法偏見時暫停輸出結(jié)果,返回查找問題根源。其次,建立多元主體監(jiān)管模式。行政主體、平臺、行業(yè)協(xié)會、企業(yè)自身多方主體參與監(jiān)管。最后,落實全流程敏捷的監(jiān)管機(jī)制。對生成式人工智能產(chǎn)出結(jié)論的全過程進(jìn)行監(jiān)管,切實降低由于算法偏見導(dǎo)致錯誤結(jié)論的概率,有效推進(jìn)可信算法體系的構(gòu)建。
采用有限保護(hù)模式,以防范生成式人工智能作品在知識產(chǎn)權(quán)方面的風(fēng)險。相較于傳統(tǒng)的人工智能技術(shù),生成式人工智能的創(chuàng)新之處在于其擁有一定程度的自我認(rèn)知,并且參與了輸出結(jié)果的加工和創(chuàng)造。如果基于其自我認(rèn)知,而將其所有成果都進(jìn)行保護(hù),那么未來可能會出現(xiàn)生成式人工智能公司手握“創(chuàng)作霸權(quán)”的局面。但從商業(yè)角度而言,生成式人工智能公司耗費(fèi)大量金錢和技術(shù)資本打造高度智能的人工智能程序,如果對該程序衍生的“作品”完全不予保護(hù),也有違公平。因此,對于ChatGPT生成物的知識產(chǎn)權(quán)屬性,現(xiàn)階段應(yīng)該根據(jù)其技術(shù)運(yùn)行模式、參與程度、創(chuàng)新程度等進(jìn)行綜合評判,對其產(chǎn)品的知識產(chǎn)權(quán)采用有所區(qū)分的有限保護(hù)模式。等到未來生成式人工智能發(fā)展到一定階段,深入了解其運(yùn)行機(jī)制時,再確定具體的知識產(chǎn)權(quán)保護(hù)模式。
以ChatGPT為代表的生成式人工智能方興未艾,它所帶來的法律風(fēng)險,很多都應(yīng)在既有法律框架內(nèi)妥善應(yīng)對。面對風(fēng)險和問題,不能因為產(chǎn)業(yè)有風(fēng)險和理論有爭議,就限制生成式人工智能發(fā)展。這需要采取“法律+技術(shù)”的融合治理來營造一個好的市場環(huán)境,保障生成式人工智能市場茁壯成長。
(本文系國家社科基金一般項目“個人信息的競爭法保護(hù)疑難問題研究”(23BFX186)階段性成果)
(作者單位:西南政法大學(xué)經(jīng)濟(jì)法學(xué)院)