ChatGPT與產(chǎn)業(yè)融合應(yīng)用的合規(guī)與監(jiān)管
當前,以ChatGPT為代表的生成式人工智能已具備學(xué)習(xí)和內(nèi)容輸出能力,這使得人工智能在眾多產(chǎn)業(yè)領(lǐng)域開始發(fā)揮重要賦能作用。在今年1月9日至12日舉辦的國際消費電子展上,大眾汽車宣布將在旗下的ID系列車型上搭載自然語言處理模型ChatGPT。大眾汽車表示,搭載ChatGPT的語音助手IDA(一款專業(yè)的靜態(tài)反編譯軟件)的人工智能App,不僅可以處理車輛的特定信息以滿足用戶更具體的要求,如控制車內(nèi)娛樂、導(dǎo)航和空調(diào)系統(tǒng),還可以幫助用戶隨時上線使用ChatGPT的人工智能數(shù)據(jù)庫,調(diào)取有用信息。
生成式人工智能在實體產(chǎn)業(yè)領(lǐng)域的融合應(yīng)用是一把“雙刃劍”。一方面,推動智能技術(shù)縱深發(fā)展,同時也給法律和監(jiān)管帶來挑戰(zhàn);另一方面,將促進涉生成式人工智能法律不斷進步和完善,保證技術(shù)向善發(fā)展。目前,生成式人工智能的監(jiān)管具有一定難度:其一,生成式人工智能技術(shù)快速迭代,需要及時應(yīng)對風(fēng)險。其二,生成式人工智能通過海量數(shù)據(jù)投喂,其參數(shù)具有千億級別規(guī)模,這決定了其底層構(gòu)架的復(fù)雜性和難解釋性,需要監(jiān)管機構(gòu)引入技術(shù)監(jiān)管模式,精準甄別風(fēng)險。其三,生成式人工智能的應(yīng)用具有跨學(xué)科、跨行業(yè)、跨領(lǐng)域的特點,這增加了監(jiān)管的難度,需要培訓(xùn)或者引入多學(xué)科專業(yè)人才,全面判斷風(fēng)險。
大眾汽車對ChatGPT的應(yīng)用,給數(shù)字技術(shù)領(lǐng)域監(jiān)管提出了更具體的法律問題。
此次搭載人工智能App的第一個風(fēng)險是數(shù)據(jù)風(fēng)險。用戶在注冊App時通常被要求填寫眾多個人信息,其車輛數(shù)據(jù)如行車軌跡、車輛性能等信息也將被收集,這些獲取信息和數(shù)據(jù)的行為如果未經(jīng)授權(quán)可能侵害用戶隱私。當然,搭載ChatGPT前,大眾汽車也注意到了可能出現(xiàn)的數(shù)據(jù)風(fēng)險,并擬借助技術(shù)提供方賽輪思公司的幫助推行技術(shù)合規(guī),以保護用戶的隱私及其他信息。首先,用戶在使用ChatGPT時不需要注冊賬戶或安裝新的應(yīng)用程序,僅通過與汽車搭載的語音助手對話即可使用,這可以降低操作難度、節(jié)省時間,且無需用戶提供個人信息。其次,賽輪思公司在設(shè)計和開發(fā)語音助手時,采取數(shù)據(jù)隔離措施,確保ChatGPT無法訪問或存儲任何與車輛相關(guān)的數(shù)據(jù)。最后,按照大眾汽車的說法,用戶與語音助手的對話會“立即刪除,以確保最高級別的數(shù)據(jù)保護”,可以保證用戶信息不被存儲或者遭到非法利用,這有利于保護用戶隱私。
搭載人工智能App的第二個風(fēng)險是決策風(fēng)險。自然語言模型本質(zhì)上是對訓(xùn)練數(shù)據(jù)的再現(xiàn)和重組,如果用戶的提問超出其訓(xùn)練數(shù)據(jù)的內(nèi)容范圍,ChatGPT不知道如何回答時,就會生成虛假信息,誤導(dǎo)用戶決策。隨著ChatGPT自主學(xué)習(xí)能力的不斷增強,其可能生成超出設(shè)計者預(yù)期的內(nèi)容,并引導(dǎo)用戶作出有風(fēng)險的決策。同時,由于訓(xùn)練數(shù)據(jù)自身的偏向性可能產(chǎn)生歧視性內(nèi)容。生成式人工智能還可能會遭受黑客攻擊,導(dǎo)致語音助手失靈或者輸出有風(fēng)險的內(nèi)容,給用戶帶來損害。要降低基于ChatGPT自身技術(shù)帶來的上述風(fēng)險需要各方主體共同努力,形成多元協(xié)同合規(guī)和監(jiān)管體系。其一,開發(fā)公司在訓(xùn)練生成式人工智能時,應(yīng)進行培訓(xùn)數(shù)據(jù)評估、算法模型評估和生成式內(nèi)容評估,并向主管部門提交安全評估報告。一是,識別數(shù)據(jù)的類型、規(guī)模和分布等基本信息,要重點關(guān)注可能影響國家安全、公共利益或個人和組織合法權(quán)益的數(shù)據(jù)安全問題和風(fēng)險。二是,識別算法歧視、算法缺陷(安全漏洞)和算法攻擊(后門攻擊/數(shù)據(jù)中毒)等問題。三是,從意識形態(tài)安全、虛假信息管理、個人權(quán)利保護、市場公平競爭和知識產(chǎn)權(quán)保護等方面對生成內(nèi)容進行評估。四是,在保護其核心技術(shù)的前提下公開技術(shù)的底層邏輯和算法程序,用以對外提示風(fēng)險,并作為其未來進行責(zé)任承擔的依據(jù)。其二,像這樣的技術(shù)應(yīng)用公司應(yīng)進行充分的實驗以發(fā)掘可能出現(xiàn)的所有風(fēng)險,評估生成式人工智能在提供服務(wù)時可能對用戶、社會及應(yīng)用者造成的安全風(fēng)險,并將這些風(fēng)險明確列舉,以通俗易懂的書面方式向用戶告知,并向用戶解釋生成式人工智能的基本原理、目的意圖和主要運行機制,形成記錄文檔,并及時更新。設(shè)計針對生成式人工智能提供服務(wù)的安全應(yīng)急處置機制,使人工智能出現(xiàn)安全意外時服務(wù)可被人工中斷。應(yīng)在服務(wù)中采取措施保護模型參數(shù)等數(shù)據(jù),防止黑客攻擊。設(shè)置便捷有效的用戶申訴和公共投訴、舉報入口,并及時響應(yīng)、及時處理、及時反饋關(guān)于生成式人工智能公平性、決策透明性等方面的問題,并如實記錄。其三,建立由人工智能主管部門、產(chǎn)業(yè)協(xié)會、民間團體、學(xué)術(shù)研究機構(gòu)和公民代表組成人工智能應(yīng)用監(jiān)管委員會,各利益相關(guān)者與技術(shù)開發(fā)公司和使用公司共同制定符合技術(shù)現(xiàn)實又具有前瞻性及關(guān)照各方利益的監(jiān)管標準和政策,確保監(jiān)管的及時性、全面性和公正性。
搭載人工智能App的第三個風(fēng)險是法律責(zé)任分配風(fēng)險。當人工智能導(dǎo)致數(shù)據(jù)泄露、人員傷亡、財產(chǎn)損失等事件時,其致人損害的責(zé)任承擔突破了傳統(tǒng)的“行為—責(zé)任”邏輯,對既有侵權(quán)制度提出挑戰(zhàn),其原因在于,一方面,人工智能缺乏法律主體地位,難以將其“行為”引發(fā)的損害后果歸于它;另一方面,人工智能決策可能會超出技術(shù)開發(fā)公司和使用公司當初的預(yù)期,難以將其“行為”引發(fā)的損害后果歸于技術(shù)開發(fā)公司和使用公司。因此,應(yīng)在傳統(tǒng)侵權(quán)責(zé)任之外確立新的損害結(jié)果責(zé)任分配規(guī)則,且通過建立人工智能責(zé)任保險制度等,以救濟受害者。
(來源:民主與法制時報)