【2025年3月份意識形態學習資料】生成式人工智能大模型存在的意識形態風險及對策建議
自ChatGPT發布以來,大模型技術驅動生成式人工智能突飛猛進,形成應用層生態“百花齊放”的局面,為人類生活和工作帶來重大變革的同時,其基于大數據訓練實現的自動化內容生成也引發了新的風險挑戰,生成有害內容、數據泄露等問題日益突出,嚴重威脅我國意識形態安全。
一是智能算法推薦加劇隱性價值觀輸出。生成式人工智能大模型是基于海量數據和文本基礎進行訓練而來,其數據來源本身存在的偏見與不公,直接影響到使用者對客觀現實的認知。譬如,訓練ChatGPT收集的數據其中大部分為英文材料,而英文世界是歐美主流國家的價值導向,產生的是契合資本主義意識形態的內容。同時,數據訓練規則和訓練內容、形式都是由算法開發者或數據寫入者制定,攜帶其原有的價值觀念。智能算法推薦在對信息資源進行個性化適配的同時就是在行使社會權力,“算法的社會本質就是一種權力”,這種權力更多地是隱性表達。作為意識形態的媒介渠道,一旦錯誤的政治觀念、價值偏好等有害導向被嵌入其中,就可被作為政治宣傳和輿論操縱的工具,加劇我意識形態被操縱利用的風險。
二是技術更新運用導致輿論矛盾沖突。生成式人工智能大模型利用技術優勢對信息進行抓取和綜合,按照技術化標準批量生產新聞報道,大幅提高新聞報道的生產效率。而信息傳播環節,生成式人工智能極大縮短信息傳播的層級,傳播網絡將從層層擴散的“洋蔥式”結構轉變為絕大多數節點直接與樞紐相連的“海星式”結構,大幅縮短輿情發酵鏈條的時間長度。生成式人工智能大模型加深用戶對于輿情事件的參與程度,使其能夠隨時參與到對網絡事件的意見建構之中,這些意見被大模型學習后形成新的“輿情事實”,導致客觀性的事實被夾雜、糅合在主觀性的網絡表達中,而某些帶有鮮明觀點和極端偏好的信息,更容易被大模型抓取識別和傳播,加大意見混同增加輿論極性“偏差”,公眾在人工智能塑造的“信息繭房”影響下,特定價值觀容易引發“群體極化”現象,導致輿論場意見偏差增大。
三是信息真偽難辨誘發意識形態撕裂風險。生成式人工智能大模型的內容生成,已經涵蓋圖像、聲音、視頻等各種元素,網絡虛假信息生成路徑更加真假難辨。一旦大面積推廣,其高度自主化特性使得制造虛假新聞、網絡謠言等惡意信息的門檻變得更低,普通人只需要使用簡單的文字描述就可以生產一段逼真短視頻,有可能令網上假消息錯資訊泛濫更為嚴重,進而產生虛假“泡沫”輿情事件,成為滋生詐騙等違法犯罪行為的“溫床”,甚至成為顏色革命的工具。尤其是對敏感事件進行虛假解讀,煽動網民非理性情緒,擾亂輿論生態,分化公眾價值,達到維護特定政治和經濟利益的目的,加劇意識形態領域的撕裂風險。未來具備高度自動化和仿生形態的機器人水軍,可以更加高效低成本地生產大量逼真視頻內容,誘發輿論風險。
四是大模型“工具化”解構主流意識形態。人工智能的“工具化”作用凸顯,因技術依賴而導致思維固化和行為異化,削弱了自主創造性,人們逐漸成為“數據囚徒”,意識形態面臨解構風險。一方面,在資本和權力的裹挾下,生成式人工智能大模型呈現“去規則性”的趨勢,用戶可以通過惡意編寫代碼、創建勒索軟件和釣魚郵件破除技術壁壘等,致使計算機系統受損、數據泄露和網絡癱瘓。再加上網絡空間的開放性、自由性,其所帶來的系列負面言論、非理性聲音都會影響主流意識形態的控制力量,威脅網絡意識形態安全。另一方面,在利益驅使下,用戶通過避開敏感詞匯的方式向大模型輸入各種指令,使其按照他的思路生成方案,從而誘發各種違法犯罪問題滋生。在這種生態環境下,境內外敵對勢力極有可能借機利用互聯網上一些敏感輿情事件,攻擊抹黑我政治體制,消解我主流意識形態,威脅國家總體安全。
面對生成式人工智能大模型給人類社會帶來的巨大挑戰,我們須重點關注境外新興技術在國內落地的安全隱患,防范有害信息在境內傳播引發意識形態安全問題,對相關行業產業依法加強管理,完善防范措施,有效化解風險隱患。
一是堅持馬克思主義在意識形態領域指導地位。堅持以主流價值導向來駕馭智能應用的發展,強化社會主義核心價值觀在智能技術發展和市場傳導中的導向作用,加大對生成式人工智能大模型的自主研發和創新,構筑社會主義意識形態傳播的新場域,嚴防生成式人工智能在話語構建和話語傳播過程中制造意識形態風險。堅持用社會主義意識形態的科技倫理規制算法推薦,在程序研發、設計、運行中嵌入社會主義意識形態大數據,構建符合社會主義主流意識形態價值觀的算法推薦,通過引導正向信息傳播和對話反饋,有效消解算法中的意識形態偏見,謹防利益競逐的“資本至上”邏輯對主流意識形態的蠶食,促進主流意識形態在人機交互中的主導地位。
二是堅持講好中國故事提升中國話語權。內置于ChatGPT的西方話語權邏輯在國際意識形態交鋒日趨顯現,并逐漸擠壓著中國的話語空間。若失去生成式人工智能賽道的話語權,我國就會被削弱意識形態話語影響力。因此,要進一步講好中國故事,破解當前生成式人工智能領域的西方霸權。探尋能被國際社會普遍理解的世界性中國話語,是掌握意識形態話語主動的關鍵所在。一方面要深入認識并結合生成式AI背景下話語受眾的心理特征,將中國故事以兼具中華特色又接軌國際的方式予以呈現推動中國故事在國際話語交鋒中掌握主動權。另一方面,要立足技術思維,掌握生成式人工智能信息傳播規律,打通智能信息處理的技術關隘,推動生成式AI結合5G、區塊鏈等新興技術,探索中國話語在智能傳播時代的多元平臺,傳播好中國故事。
三是強化生成式人工智能大模型應用監管。加強對提供人工智能技術的企業、傳播平臺等監管,形成嚴格的行業管理制度。強化技術平臺主體責任,在杜絕虛假信息的產出、流傳與擴散方面賦予其更明確、比重更大的義務。推動平臺建立、完善和迭代人工智能生成內容鑒別處置機制,不斷提升人工智能技術參與內容安全監測的能力和效果。嚴格把控模型意識形態表達的限度,運用智能算法技術規制虛假內容的生產與傳播并處置有害信息。整合國家、社會、個人層面的力量,共同應對意識形態安全問題。建立多元協同的責任矩陣應對生成式人工智能大模型的滲透和沖擊,依托外部監督與內部規約的雙向邏輯,推動行業自律。研發應對意識形態風險的人工智能防控技術,有效應對意識形態領域的沖突。同時,還需加強對全社會的人工智能素養教育,提升用戶的信息素養和技術認知,增強對虛假信息的風險識別與抵制能力。
四是建立健全人工智能領域法律制度。加快推進人工智能法的制定和出臺,以人工智能法及配套的監管工具為核心,形成完整的人工智能技術法律體系,在兼顧科技發展和規范使用界限的同時,為生成式人工智能的意識形態風險規制提供法律支撐。及時出臺行業性規范,明晰諸如隱私權保護、電信詐騙等違法行為的責任界定等,制定保障通用大模型安全的標準體系及其風險等級測試評估體系,推動通用大模型開展安全評測、接入安全服務,降低通用大模型安全風險。積極探索“監管沙盒”等創新治理手段,建構“事前—事中—事后”的自治體系,提供全程監管,確保技術運行在法治軌道上。
五是加強國際合作,倡導全球治理。無論是ChatGPT等生成式人工智能抑或其他人工智能技術,都是世界性的、時代性的,因而無論是科技互惠共享還是風險治理,必須具有全球視野。通過對話與合作凝聚共識,積極彌合智能鴻溝,實現公平普惠;加強共享共建,推動務實合作;尋求價值對齊,改進全球治理。堅持以人為本,推動智能向善,致力于構建基于共同價值的人工智能倫理準則,使人工智能朝著有利于構建人類命運共同體的方向發展。借助“文化+科技”的雙向賦能,提高不同文明在國際傳播中的話語權和影響力,打造國際社會的“網絡大外交”平臺,深化文明交流互鑒,消除隔閡誤解,促進民心相知相通,推動構建人工智能時代的人類命運共同體。
(作者系四川省委網信辦網絡新聞信息傳播處副處長)
內容來源:學習強國