ChatGPT 等生成式人工智能的信息安全風(fēng)險(xiǎn)
2022 年 11 月末,由美國(guó) OpenAI 公司開發(fā)的聊天機(jī)器人 ChatGPT 橫空出世。這款生成式人工智能程序展現(xiàn)出接近于人類的表達(dá)與推理能力,一時(shí)間震驚全球。其活躍用戶數(shù)在短短兩個(gè)月內(nèi)就突破一億,成為了有史以來(lái)用戶增長(zhǎng)最快的應(yīng)用程序。不過在各方不吝溢美之辭的同時(shí),ChatGPT及同類產(chǎn)品也接連暴露出安全問題,引起了各國(guó)政府和企業(yè)的高度警覺,意大利政府甚至一度禁用 ChatGPT。從 ChatGPT 的驚艷表現(xiàn)來(lái)看,生成式人工智能很可能在不遠(yuǎn)的將來(lái)滲透到各行各業(yè),然而若不能有效管控其安全風(fēng)險(xiǎn),則可能反而給人類社會(huì)帶來(lái)巨大災(zāi)難。有鑒于此,本文將從信息安全的角度探討生成式人工智能的多種風(fēng)險(xiǎn),以為其探索出一條更加安全的發(fā)展之路。
一、新興安全風(fēng)險(xiǎn)此起彼伏
1.1 數(shù)據(jù)外流隱患日益凸顯
自 3 月 31 日起,意大利數(shù)據(jù)保護(hù)局以侵犯數(shù)據(jù)隱私為由,將 ChatGPT禁用了一個(gè)月之久。在意大利帶動(dòng)下,美國(guó)、法國(guó)、德國(guó)、西班牙和歐盟等國(guó)家和組織也紛紛開始調(diào)查 ChatGPT 的數(shù)據(jù)外流問題。無(wú)獨(dú)有偶,為防止敏感數(shù)據(jù)外流,微軟、摩根大通、威瑞森、亞馬遜、沃爾瑪和三星等行業(yè)巨頭也相繼限制或禁止員工使用ChatGPT。根據(jù)網(wǎng)絡(luò)安全公司Cyberhaven的調(diào)查,至少有 4%的員工將企業(yè)敏感數(shù)據(jù)輸入 ChatGPT,且敏感數(shù)據(jù)占輸入內(nèi)容的 11%??此票壤桓?,但 Cyberhaven 的統(tǒng)計(jì)表明 0.9%的員工造成了 80%的數(shù)據(jù)外流事件,同時(shí)上億的用戶基數(shù)意味著 11%的輸入內(nèi)容也仍然是個(gè)天文數(shù)字,可見 ChatGPT 引發(fā)的數(shù)據(jù)外流問題已不容小視。
海量的數(shù)據(jù)造就了 ChatGPT 等生成式人工智能,而為確保其回答符合人類預(yù)期,來(lái)自人類的反饋更是其中的重中之重。事實(shí)上,在意大利施加壓力前,OpenAI 公司一直默認(rèn)將用戶輸入的內(nèi)容用作訓(xùn)練數(shù)據(jù),導(dǎo)致大量敏感數(shù)據(jù)落入OpenAI公司之手。以亞馬遜公司為例,其之所以禁用ChatGPT,就是因?yàn)榘l(fā)現(xiàn) ChatGPT 生成的內(nèi)容與其保密數(shù)據(jù)高度相似,這顯然是有員工將保密數(shù)據(jù)輸入 ChatGPT 所致。即使 OpenAI 公司不會(huì)濫用用戶數(shù)據(jù),第三方也完全可能以巧妙的提問方式繞開 ChatGPT 的過濾機(jī)制,進(jìn)而獲取這些敏感數(shù)據(jù)。在多方壓力下,OpenAI 公司被迫于 4 月 25 日為 ChatGPT添加了“禁止用用戶數(shù)據(jù)訓(xùn)練人工智能”的選項(xiàng),不過將信息安全寄托于OpenAI 公司的“自律”并非明智之舉。何況從“棱鏡門”等事件來(lái)看,美國(guó)政府很可能會(huì)強(qiáng)迫 OpenAI 公司提供用戶數(shù)據(jù)。所以在各國(guó)出臺(tái)嚴(yán)格的數(shù)據(jù)使用法規(guī)和數(shù)據(jù)本地化要求之前,生成式人工智能始終都存在嚴(yán)重的數(shù)據(jù)外流風(fēng)險(xiǎn)。
1.2 虛假信息推高決策風(fēng)險(xiǎn)
ChatGPT 面世不久后,許多用戶就發(fā)現(xiàn)其有時(shí)會(huì)言之鑿鑿地提供虛假信息,這使人們對(duì)其可靠性產(chǎn)生了懷疑。舉例來(lái)說,英國(guó)《衛(wèi)報(bào)》稱有多個(gè)團(tuán)隊(duì)向其求證某些文章,結(jié)果發(fā)現(xiàn)這些“《衛(wèi)報(bào)》記者署名發(fā)表”的文章其實(shí)是由 ChatGPT 虛構(gòu)的;一名澳大利亞市長(zhǎng)發(fā)現(xiàn) ChatGPT 生成了關(guān)于他的虛假犯罪指控,于是憤而向 OpenAI 公司提起誹謗訴訟;谷歌公司同樣深受其害,其人工智能聊天程序 Bard 在發(fā)布會(huì)上答錯(cuò)一道簡(jiǎn)單問題,導(dǎo)致公司股價(jià)大跌,市值瞬間蒸發(fā)近 1700 億美元。開發(fā)方對(duì)生成式人工智能的這一缺陷也心知肚明,OpenAI 的官方網(wǎng)站就明確承認(rèn) ChatGPT 有時(shí)會(huì)給出看似可信的錯(cuò)誤回答??紤]到因信息不實(shí)而作出錯(cuò)誤決策的風(fēng)險(xiǎn),虛假信息或許是阻礙生成式人工智能大范圍商用的最大技術(shù)難題。
生成式人工智能之所以會(huì)提供虛假信息,除訓(xùn)練數(shù)據(jù)本身有誤或已經(jīng)過時(shí)外,更重要的原因是它們并非真能理解人類語(yǔ)言,也并不具備人類的推理能力。其對(duì)答如流的背后,實(shí)質(zhì)上是通過海量訓(xùn)練建立了字詞句之間的關(guān)聯(lián)概率模型,從而能根據(jù)用戶提問逐字計(jì)算出概率最高的表述方式。這一原理決定了生成式人工智能無(wú)法判斷信息對(duì)錯(cuò),自然也就難免提供虛假信息。為減少虛假信息,OpenAI 等開發(fā)方一直在通過“基于人類反饋的強(qiáng)化學(xué)習(xí)”(RLHF)等人工手段來(lái)完善過濾機(jī)制,其 GPT-4 的真實(shí)性評(píng)分據(jù)稱就比 GPT-3.5 高出 40%。然而用戶可能提出的問題無(wú)窮無(wú)盡,訓(xùn)練數(shù)據(jù)也會(huì)隨時(shí)間推移而過時(shí),因此現(xiàn)有的任何方法都無(wú)法徹底解決虛假信息問題。可想而知,若沒有人類把關(guān),生成式人工智能將很難用于醫(yī)學(xué)和投資等眾多需要準(zhǔn)確信息的領(lǐng)域。
1.3 內(nèi)容偏倚沖擊意識(shí)形態(tài)
如果說虛假信息還只是讓少數(shù)用戶失望,那么 ChatGPT 在生成內(nèi)容上的傾向性或者說偏倚則已然激怒了不少用戶。早在 2 月間,就有用戶發(fā)現(xiàn)ChatGPT 可以贊美拜登,但不能贊美特朗普;而在美國(guó)炒作所謂“中國(guó)氣球”事件期間,中國(guó)用戶也發(fā)現(xiàn) ChatGPT 支持美國(guó)擊落中方氣球,卻不支持中國(guó)擊落美方氣球。另有研究表明,ChatGPT 在政治、種族、性別和宗教等話題上普遍存在偏倚,而 15 項(xiàng)政治傾向測(cè)試的結(jié)果表明,ChatGPT 總體上傾向于所謂的“左翼自由派”觀點(diǎn)。這種內(nèi)容上的偏倚自然激起了對(duì)立群體的憤怒,美國(guó)公司 TUSK 就因此推出了“右翼人工智能”GIPPR,以便向用戶宣傳保守派觀點(diǎn)。由此看來(lái),未來(lái)很可能會(huì)出現(xiàn)立場(chǎng)各異的多種人工智能,從而加劇整個(gè)社會(huì)的對(duì)立情緒和政治極化。
生成式人工智能的內(nèi)容偏倚來(lái)自于多方面的影響,包括訓(xùn)練數(shù)據(jù)本身就存在某種傾向,使用的算法更側(cè)重于某些特征值,以及人類數(shù)據(jù)標(biāo)注員的主觀判斷等等。雖然 ChatGPT 等人工智能都標(biāo)榜中立,但既然人類社會(huì)本身都對(duì)很多問題存在分歧,立足于人類知識(shí)的人工智能也就必定存在傾向性,而這種傾向性則會(huì)對(duì)用戶的意識(shí)形態(tài)產(chǎn)生潛移默化的影響。OpenAI等公司并未對(duì)內(nèi)容偏倚問題坐視不理,通過不斷修正過濾機(jī)制,目前ChatGPT 在大多數(shù)時(shí)候都拒絕回答敏感話題,至少是拒絕批評(píng)特定對(duì)象。然而需要注意的是,這些修正措施主要針對(duì)在歐美引發(fā)爭(zhēng)議的話題,其它許多意識(shí)形態(tài)則不在“保護(hù)”之列。從這個(gè)角度看,ChatGPT、Bard 和 BingChat 等生成式人工智能客觀上已成為了美國(guó)的認(rèn)知戰(zhàn)工具。
二、傳統(tǒng)安全風(fēng)險(xiǎn)依舊嚴(yán)峻
2.1 系統(tǒng)安全漏洞不容忽視
3 月 20 日,一些 ChatGPT Plus 用戶驚訝地發(fā)現(xiàn)其用戶界面上出現(xiàn)了其他用戶的敏感信息,其中包括聊天記錄、姓名、電子郵箱和支付地址等。此次事件導(dǎo)致 OpenAI 公司一度緊急關(guān)閉 ChatGPT,經(jīng)過調(diào)查,OpenAI 發(fā)現(xiàn)是其客戶端開源庫(kù) redis-py 出現(xiàn)問題,以致部分用戶的請(qǐng)求被錯(cuò)誤地返回給其他用戶。盡管 OpenAI 聲稱此次事件僅涉及1.2%的 ChatGPT Plus 用戶,但考慮到 ChatGPT 的龐大用戶群,涉事用戶恐怕不在少數(shù)。此外也有研究人員發(fā)現(xiàn) ChatGPT 存在嚴(yán)重的 Web 緩存欺騙漏洞,黑客可利用該漏洞竊取其他用戶的 ChatGPT 帳戶。網(wǎng)絡(luò)安全公司 Check Point Research 還發(fā)現(xiàn)了更加危險(xiǎn)的情形:有黑客修改了 Web 測(cè)試套件 SilverBullet 的配置,使其能對(duì)ChatGPT 帳戶進(jìn)行撞庫(kù)攻擊或暴力破解,從而大規(guī)模竊取 ChatGPT 帳戶。
雖然生成式人工智能對(duì)大多數(shù)人來(lái)說屬于新鮮事物,但其采用的仍是傳統(tǒng)的安全架構(gòu)和防御措施,所以和其它任何 IT 系統(tǒng)一樣,人工智能也難免存在安全漏洞。從這層意義上講,不論 OpenAI 等開發(fā)方如何減輕虛假信息等人工智能特有的安全風(fēng)險(xiǎn),一旦黑客利用某些軟硬件漏洞入侵系統(tǒng),人工智能的安全就無(wú)從談起。值得警惕的是,不同于公開的社交平臺(tái),生成式人工智能很可能會(huì)收集到大量高度敏感的隱私信息乃至保密信息,因此其被入侵的后果恐怕不亞于關(guān)鍵基礎(chǔ)設(shè)施遭到入侵。OpenAI 公司已注意到此類問題,并為此制定了最高獎(jiǎng)勵(lì) 2 萬(wàn)美元的“漏洞懸賞計(jì)劃”,希望借助第三方的力量消除安全漏洞。但與此同時(shí),媒體也在暗網(wǎng)上發(fā)現(xiàn)大批俄羅斯黑客開始討論如何入侵 ChatGPT??梢娮鳛榻陙?lái)最熱門的網(wǎng)絡(luò)服務(wù),生成式人工智能恐將長(zhǎng)期面臨嚴(yán)峻的網(wǎng)絡(luò)攻擊風(fēng)險(xiǎn)。
2.2 助推社會(huì)工程學(xué)攻擊浪潮
3 月 27 日,歐洲刑警組織發(fā)布《大型語(yǔ)言模型對(duì)執(zhí)法的影響》報(bào)告,其中強(qiáng)調(diào)了犯罪分子利用生成式人工智能發(fā)動(dòng)社會(huì)工程學(xué)攻擊的風(fēng)險(xiǎn)。歐洲刑警組織的這一論斷并非虛言,早在今年 2 月,印度警方就發(fā)現(xiàn)有犯罪團(tuán)伙使用 ChatGPT 來(lái)撰寫用于詐騙的電子郵件和短信;4 月,中國(guó)警方發(fā)現(xiàn)詐騙分子利用人工智能實(shí)時(shí)替換視頻聊天中的容貌和聲音,導(dǎo)致受害者被騙取 430 萬(wàn)元。當(dāng)前人工智能生成的內(nèi)容與人工內(nèi)容時(shí)常難以區(qū)分,因此很難統(tǒng)計(jì)究竟有多少社會(huì)工程學(xué)攻擊使用了人工智能。但根據(jù)網(wǎng)絡(luò)安全公司 Darktrace 的調(diào)查,在 ChatGPT 熱度持續(xù)攀升的 2023 年 1 月至 2 月間,欺騙方式遠(yuǎn)比過去復(fù)雜的“新型社會(huì)工程學(xué)攻擊”數(shù)量猛增 135%,從側(cè)面反映出 ChatGPT 很可能已被廣泛用于社會(huì)工程學(xué)攻擊。
生成式人工智能的最大特點(diǎn)就是其生成內(nèi)容高度接近于人類,加之遠(yuǎn)超人類的生成效率,被犯罪分子用來(lái)發(fā)動(dòng)社會(huì)工程學(xué)攻擊完全是意料之中,甚至不如說是一種必然趨勢(shì)。以往用戶還能根據(jù)語(yǔ)法和常識(shí)錯(cuò)誤來(lái)辨別釣魚郵件,如今生成式人工智能不但能生成真假難辨的欺騙性文本,甚至還能根據(jù)用戶的詢問和身份作出針對(duì)性回復(fù),從而大大提升犯罪“效率”。更令人擔(dān)憂的是,人工智能的生成內(nèi)容已不局限于文本,5 月間就有人生成了能翻唱歌曲的孫燕姿虛擬形象,其真實(shí)程度令孫燕姿本人都深感震驚。正如前述案件所揭示的那樣,一旦犯罪分子拿到了目標(biāo)人員的大量音視頻資料,就能訓(xùn)練出足以以假亂真的虛擬形象,然后用于詐騙或傳播惡意信息。不幸的是,目前沒有特別有效的方法來(lái)應(yīng)對(duì)基于人工智能的社會(huì)工程學(xué)攻擊,所以不難想象,在生成式人工智能的助推下,全球很可能會(huì)掀起新一波社會(huì)工程學(xué)攻擊浪潮。
2.3 淪為惡意軟件開發(fā)工具
除提供信息外,生成式人工智能還具備一定的編程能力,因此《大型語(yǔ)言模型對(duì)執(zhí)法的影響》也提到了用人工智能開發(fā)惡意軟件的風(fēng)險(xiǎn)。目前尚無(wú)跡象表明有任何知名惡意軟件出自人工智能之手,但不少研究都證實(shí)ChatGPT 確實(shí)能夠編寫惡意軟件。以 Check Point Research 公司于 2022 年12 月開展的研究為例,研究人員僅憑 ChatGPT 和 OpenAI 公司的另一款人工智能編程工具 Codex,就成功生成了一封可植入反向 shell 型惡意軟件的網(wǎng)絡(luò)釣魚郵件。該研究的最大意義,就在于研究人員從頭到尾都沒有編寫任何代碼,只是單純用自然語(yǔ)言向人工智能提出編程和修改需求,便完成了整個(gè)工作。許多類似的研究也表明,人工智能雖難以編寫出隱蔽、對(duì)抗和反調(diào)試等高級(jí)功能,但其生成的惡意軟件的確可以運(yùn)行。
OpenAI 等開發(fā)方當(dāng)然考慮到了生成式人工智能被用來(lái)開發(fā)惡意軟件的可能性,所以在目前的過濾機(jī)制下,ChatGPT 會(huì)直接拒絕“編寫某某惡意軟件”一類的要求。問題是程序本身并無(wú)好壞之分,比如加密程序雖被用于勒索軟件,但也可用于合法保護(hù)數(shù)據(jù),所以 ChatGPT 不會(huì)拒絕編寫此類程序。這樣一來(lái),黑客便可將惡意軟件的編程過程分解為若干步,然后逐步要求 ChatGPT 編寫相應(yīng)功能。用人工智能開發(fā)惡意軟件的研究基本都采取了這種變通方式,只是有時(shí)仍需以巧妙的措辭來(lái)“說服”人工智能某些程序是安全的。不過從這些研究來(lái)看,用戶自身仍必須懂得編寫惡意軟件,否則根本無(wú)法有效引導(dǎo)人工智能,這意味著缺乏相關(guān)知識(shí)的用戶仍難以開發(fā)惡意軟件。此外與人工智能生成的簡(jiǎn)陋程序相比,暗網(wǎng)上出售的惡意軟件要復(fù)雜和成熟得多,所以專業(yè)黑客也不會(huì)費(fèi)神繞開過濾機(jī)制去開發(fā)這些“破爛”??偠灾?,生成式人工智能雖確能編寫惡意軟件,但尚不足以大幅強(qiáng)化惡意軟件的開發(fā)能力。
三、啟示與建議
3.1 建立張弛有度的監(jiān)管機(jī)制
隨著生成式人工智能的負(fù)面影響逐漸浮出水面,各國(guó)均意識(shí)到制訂相應(yīng)的監(jiān)管法規(guī)已刻不容緩,為此紛紛啟動(dòng)了立法進(jìn)程。與其它國(guó)家相比,中國(guó)的步伐明顯更快,尤其是國(guó)家互聯(lián)網(wǎng)信息辦公室于 4 月 11 日發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡(jiǎn)稱“《辦法》”),使中國(guó)成為第一個(gè)針對(duì)生成式人工智能立法的國(guó)家。《辦法》涉及到資格準(zhǔn)入、算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)、內(nèi)容導(dǎo)向、用戶隱私和知識(shí)產(chǎn)權(quán)等諸多方面,其既開宗明義地支持生成式人工智能的健康發(fā)展,也高度重視相關(guān)風(fēng)險(xiǎn),反映了中國(guó)政府對(duì)生成式人工智能的深刻洞見。除中國(guó)外,歐盟的內(nèi)部市場(chǎng)與公民自由委員會(huì)也于 5 月 11 日推出《人工智能法案》草案,而美國(guó)參議院據(jù)稱同樣在制訂相關(guān)監(jiān)管法規(guī)。
上述監(jiān)管法規(guī)是規(guī)范還是扼殺生成式人工智能的發(fā)展,關(guān)鍵將取決于監(jiān)管機(jī)制是否張弛有度。舉例來(lái)說,雖然各國(guó)皆規(guī)定不得生成虛假信息,但從生成式人工智能的原理來(lái)看,徹底杜絕虛假信息并不現(xiàn)實(shí)。因此相關(guān)法規(guī)雖應(yīng)要求開發(fā)方盡量避免生成虛假信息,但也不宜做出過于嚴(yán)苛的規(guī)定,而是應(yīng)把重點(diǎn)放在及時(shí)處理所發(fā)現(xiàn)的問題上(比如更正或刪除虛假信息,甚至重新訓(xùn)練人工智能模型等),并對(duì)故意傳播虛假信息的人員進(jìn)行追責(zé)。相反,由于數(shù)據(jù)安全是國(guó)家安全的重要一環(huán),而為了方便工作,難免有用戶將敏感數(shù)據(jù)上傳至人工智能,因此監(jiān)管法規(guī)應(yīng)在數(shù)據(jù)本地化方面作出嚴(yán)格規(guī)定,以免因數(shù)據(jù)外流而危及國(guó)家安全。至于用戶隱私和數(shù)據(jù)標(biāo)注等其它方面,也不宜一刀切,而是應(yīng)根據(jù)人工智能的特點(diǎn)作出適當(dāng)安排。此外作為一種新生事物,生成式人工智能的監(jiān)管過程中很可能會(huì)出現(xiàn)意料之外的問題,所以其監(jiān)管機(jī)制也應(yīng)為及時(shí)調(diào)整監(jiān)管措施留出余地。
3.2 以技術(shù)手段鞏固信息安全
雖然監(jiān)管機(jī)制不可或缺,但從生成式人工智能模型及其用戶群的龐大體量來(lái)看,人工手段更適合事后解決特定問題,技術(shù)手段才是從整體上確保信息安全的關(guān)鍵所在。具體而言,為保障系統(tǒng)安全,應(yīng)像關(guān)鍵信息基礎(chǔ)設(shè)施那樣,為生成式人工智能系統(tǒng)建立由防火墻、入侵檢測(cè)與防范系統(tǒng)、加密信道以及端點(diǎn)檢測(cè)與響應(yīng)工具等組件構(gòu)成的網(wǎng)絡(luò)防御體系,并及時(shí)為各類子系統(tǒng)更新安全補(bǔ)?。粸楸Wo(hù)個(gè)人隱私,開發(fā)方應(yīng)盡可能采用可自動(dòng)標(biāo)注的合成數(shù)據(jù)來(lái)訓(xùn)練人工智能模型,以減少因抓取網(wǎng)絡(luò)數(shù)據(jù)而泄露他人隱私的可能性;為阻止數(shù)據(jù)外流,生成式人工智能應(yīng)為用戶提供不吸收用戶數(shù)據(jù)的隱私模式,并按照數(shù)據(jù)本地化要求,將用戶信息留存于所在國(guó)境內(nèi);為提升響應(yīng)效率,開發(fā)方乃至政府有關(guān)部門應(yīng)在互聯(lián)網(wǎng)上建立公共上報(bào)系統(tǒng),以供用戶和開發(fā)方及時(shí)上報(bào)各類問題。
除上述風(fēng)險(xiǎn)外,生成式人工智能的最大信息安全風(fēng)險(xiǎn),恐怕還是用戶惡意使用其生成的內(nèi)容。舉例來(lái)說,用戶可將生成內(nèi)容用于網(wǎng)絡(luò)釣魚和電信詐騙,利用刻意引導(dǎo)的生成內(nèi)容傳播不良思想,甚至直接用人工智能控制大量網(wǎng)絡(luò)帳戶來(lái)發(fā)動(dòng)認(rèn)知戰(zhàn)。好在除加強(qiáng)監(jiān)管外,數(shù)字水印和內(nèi)容檢測(cè)器這兩項(xiàng)技術(shù)也能在一定程度上減輕這些風(fēng)險(xiǎn)。目前基于生成式人工智能的圖像生成器 Stable Diffusion 已能利用圖像分解算法添加隱形水印,從而檢測(cè)出由其生成的圖像。然而由于文本中的信息遠(yuǎn)比圖像單純,用戶很容易察覺插入文本的水印并將之刪除,所以尚無(wú)適用于 ChatGPT 的數(shù)字水印。內(nèi)容檢測(cè)器則更加成熟,目前市面上至少有十余款產(chǎn)品,其中的佼佼者Turnitin 更是號(hào)稱準(zhǔn)確率達(dá)到 98%。這些檢測(cè)器普遍采用了語(yǔ)言統(tǒng)計(jì)學(xué)方法來(lái)分析文本,因此文本越長(zhǎng),檢測(cè)效果越好。不過也有許多用戶發(fā)現(xiàn)包括Turnitin 在內(nèi)的檢測(cè)器時(shí)不時(shí)會(huì)發(fā)生誤判,所以用戶需謹(jǐn)慎對(duì)待檢測(cè)結(jié)果,尤其不宜將其作為考試等重要事項(xiàng)的唯一評(píng)判依據(jù)。
3.3 警惕中長(zhǎng)期地緣政治威脅
就信息安全而言,除數(shù)據(jù)外流等直接風(fēng)險(xiǎn)外,美國(guó)的生成式人工智能還將在中長(zhǎng)期內(nèi)對(duì)各國(guó)構(gòu)成地緣政治威脅。首當(dāng)其中的一點(diǎn)就是美國(guó)基本支配著生成式人工智能的整個(gè)產(chǎn)業(yè)鏈,其不僅利用先發(fā)優(yōu)勢(shì)暫時(shí)壟斷了這一龐大市場(chǎng),還直接或間接掌控著英偉達(dá)和聯(lián)發(fā)科等關(guān)鍵芯片生產(chǎn)商。以目前最適用于生成式人工智能的 A100 芯片為例,僅微軟和谷歌公司就分別擁有數(shù)萬(wàn)枚該型芯片,而中國(guó)最多只有一家機(jī)構(gòu)擁有 1 萬(wàn)枚以上的 A100 芯片。所以盡管中國(guó)的生成式人工智能發(fā)展迅猛,但受制于美方制裁,今后仍可能出現(xiàn)會(huì)后勁不足的局面,其它國(guó)家的人工智能發(fā)展之路則更加艱險(xiǎn)。對(duì)于這一問題,除了設(shè)法開辟間接采購(gòu)渠道以規(guī)避制裁外,還可通過政策鼓勵(lì)國(guó)內(nèi)廠商用性能較弱、但尚可購(gòu)買或制造的其它芯片來(lái)發(fā)展生成式人工智能,以犧牲一定性能為代價(jià),優(yōu)先確保國(guó)內(nèi)的人工智能生態(tài)體系不會(huì)受制于美國(guó)。
此外作為認(rèn)知戰(zhàn)的個(gè)中高手,從長(zhǎng)期來(lái)看,美國(guó)必然將生成式人工智能這一“利器”投入認(rèn)知戰(zhàn)。由于 ChatGPT 等產(chǎn)品存在嚴(yán)格的過濾機(jī)制,美國(guó)不會(huì)直接使用這些產(chǎn)品,而是多半會(huì)利用 OpenAI 等公司的技術(shù)來(lái)訓(xùn)練專用的人工智能,然后用這些不受限制的認(rèn)知戰(zhàn)人工智能來(lái)操縱輿論。認(rèn)知戰(zhàn)的主戰(zhàn)場(chǎng)通常是主流社交平臺(tái),全球首富馬斯克就曾懷疑“推特”的數(shù)億用戶中有 20%都是機(jī)器人。如此巨量的賬號(hào)一旦被生成式人工智能掌管,就能在極短時(shí)間內(nèi)發(fā)布大量煽動(dòng)性內(nèi)容,從而顯著影響輿論風(fēng)向。為防范這一風(fēng)險(xiǎn),各國(guó)不但應(yīng)要求各社交平臺(tái)實(shí)現(xiàn)數(shù)據(jù)本地化和實(shí)名制注冊(cè),還應(yīng)對(duì)其進(jìn)行大數(shù)據(jù)分析,從中篩選出認(rèn)知戰(zhàn)特征明顯的用戶群,比如注冊(cè)時(shí)間高度接近,IP 屬地頻頻變動(dòng),月均活躍程度明顯超出正常水平,經(jīng)常在很短時(shí)間內(nèi)群起對(duì)特定政治或社會(huì)問題(尤其是長(zhǎng)期乏人問津的陳舊問題)發(fā)表背離主流輿論的意見,表達(dá)內(nèi)容高度一致,頻密地相互點(diǎn)贊,幾乎不與人爭(zhēng)辯,以及在不同話題下展現(xiàn)出相互矛盾的身份信息等。只要能及時(shí)清除這些特征高度集中的認(rèn)知戰(zhàn)帳戶,并禁止相關(guān)手機(jī)號(hào)頻繁重新注冊(cè),再?gòu)?qiáng)大的人工智能也將失去用武之地。
原文來(lái)源:信息安全與通信保密雜志社