訂閱
糾錯
加入自媒體

大模型的陰面:無法忽視的安全隱憂

2023-09-22 14:50
科技云報道
關注

在AI大模型的身上,竟也出現(xiàn)了“to be or not to be”問題。

爭議是伴隨著大模型的能力驚艷四座而來的,爭議的核心問題在于安全。安全有兩個方面,一個是大模型帶來的對人類倫理的思考,一個是大模型本身帶來的隱私泄漏、數(shù)據(jù)安全等問題。

埃隆·馬斯克應該可以說是對大模型發(fā)起質(zhì)疑的企業(yè)家之一。早在ChatGPT誕生之初,馬斯克等一千多名業(yè)界、學界人士聯(lián)署發(fā)表公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng),暫停至少6個月。

時至今日,馬斯克依舊對外表達的態(tài)度是,人工智能是一把雙刃劍,對人工智能方面的監(jiān)管是強烈共識,可能會出現(xiàn)某種形式的監(jiān)管機構。

圍繞著AI大模型的安全,不少國內(nèi)專家學者以及企業(yè)家們也有了更多的思考和發(fā)聲。9月初,中國科學院院士何積豐曾發(fā)言談到,目前大模型面臨的安全問題涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

另一方面,隨著AI大模型在行業(yè)中的廣泛應用,對合規(guī)和數(shù)據(jù)保護的需求急劇上升。在“云、大、物、移”四大網(wǎng)絡安全場景之后,大模型正逐漸成為新的市場增長點。

不少企業(yè)開始圍繞大模型安全視角推出產(chǎn)品,掀起了一陣AI安全、數(shù)據(jù)安全等新興安全領域的火熱之風。

 大模型的“陰面” 安全問題不容忽視

發(fā)展至今,大模型陰陽兩面,涇渭分明。不少人早已經(jīng)感受到了大模型的“陽面”,應該不少人早已經(jīng)開始嘗試,將其作為提升工作效率的工具。

但大模型的“陰面”,關于安全的討論不絕于耳。最典型的安全案例,三星機密數(shù)據(jù)外泄事件仍然記憶猶新。

上文中也曾提到,中國科學院院士何積豐發(fā)言指出,大模型當前面臨的安全問題主要涵蓋兩方面,分別是隱私保護和價值觀對齊兩大難題。

隱私保護問題的是,在未經(jīng)允許的情況下,大模型是否會收集、使用和泄露個人信息。

價值觀對齊問題的是,使得大模型的價值觀與人類的價值觀相對齊。使得大模型按照設計者的意愿行事,而不作出超出意圖之外的舉動。

在價值觀對齊方面,由于人類社會的價值觀是多元化的,且有用的人工智能與無害的人工智能往往存在沖突,這導致了大模型價值觀對齊存在很大的難度。

具體來看,大模型的包含多個關鍵要素,數(shù)據(jù)、算法模型以及應用層等,每一個要素中,都有不少安全問題需要面對。

在數(shù)據(jù)層,安全問題主要集中在數(shù)據(jù)泄露、數(shù)據(jù)污染等。三星的案例,其實就在于數(shù)據(jù)層面存在一定的泄漏風險。

數(shù)據(jù)可以說是構成大模型的骨骼,為其提供了基礎支撐。

在機器學習和深度學習的領域中,數(shù)據(jù)的獲取、加工及利用的方式?jīng)Q定了模型的性能和準確性。但是,數(shù)據(jù)層面的安全隱患卻是不可避免的。

其中最常見的問題包括數(shù)據(jù)的非法泄漏,這可能導致敏感信息暴露;數(shù)據(jù)被惡意篡改,這可能導致訓練出的模型有誤導性;還有非法獲取或使用未經(jīng)授權的數(shù)據(jù),這不僅違法,還可能使得模型偏離了其原本的目的。

這些隱患都可能對模型的訓練和應用帶來不良影響,使其失去原有的效果甚至產(chǎn)生誤導。

與數(shù)據(jù)安全同等重要的,是算法模型的安全。

在現(xiàn)代社會,大模型的訓練往往需要消耗巨大的計算力,因此很多資源都集中在特定的數(shù)據(jù)中心。

這就為潛在的攻擊者提供了機會,他們可能會針對這些數(shù)據(jù)中心進行攻擊,試圖更改模型的參數(shù)或者整體結構。一旦成功,模型的輸出可能會完全不可控,產(chǎn)生不可預知的結果。

另外,還有一種更加隱蔽的攻擊方式——對抗性攻擊。這種攻擊的目的是使模型在某些特定的輸入下產(chǎn)生錯誤的輸出,這在一些關鍵領域如醫(yī)療診斷、金融決策等方面,可能會帶來嚴重后果。

到應用層,安全隱患也十分嚴重。比如說生成內(nèi)容的有害性和準確性、濫用模型生成虛假信息等。

如何防止已部署的模型被惡意篡改?如何確保在模型進行數(shù)據(jù)推斷的過程中,用戶的私人數(shù)據(jù)不會被非法獲取或泄露?這些都是在模型部署時必須要考慮的問題。

此前,就有人嘗試向大模型發(fā)問,“野生娃娃魚的做法”,大模型給出的回答是“紅燒”,并且寫出了具體的步驟。這就很容易“誤導”提問者。實際上,野生娃娃魚屬于國家二級保護動物,不能捕捉、捕殺甚至食用。

為了應對這些隱患,可能需要一系列的安全措施,包括但不限于數(shù)據(jù)加密、模型的版本控制和運行環(huán)境的隔離等。

 AI大模型安全問題 的解決之道

大模型問題出現(xiàn)后,外界對于監(jiān)管的呼聲是最為熱烈的。

在新技術飛速發(fā)展的當下,政府與各類監(jiān)管機構成為確保AI大模型安全運行的重要力量。他們可以通過制定和實施嚴格的數(shù)據(jù)隱私法規(guī),為大模型的安全使用提供法律保障。

今年4月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了關于《生成式人工智能服務管理辦法(征求意見稿)》,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用。其中的第七條涉及到生成式人工智能服務提供者數(shù)據(jù)來源的合法性問題。

這也意味著國家已經(jīng)開始出手應對大模型火熱帶來的一些列的安全問題。

7月,網(wǎng)信中國官微消息稱,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、廣電總局公布了《生成式人工智能服務管理暫行辦法》。

這其中就明確生成式人工智能服務提供者應當依法開展預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動,使用具有合法來源的數(shù)據(jù)和基礎模型;涉及知識產(chǎn)權的,不得侵害他人依法享有的知識產(chǎn)權;涉及個人信息的,應當取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;采取有效措施提高訓練數(shù)據(jù)質(zhì)量,增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性。

此外,明確了數(shù)據(jù)標注的相關要求。

監(jiān)管之下,國內(nèi)的大模型也迎來了合理合法合規(guī)的發(fā)展期。最新的消息是,目前國內(nèi)已經(jīng)有11家大模型陸續(xù)通過《生成式人工智能服務管理暫行辦法》備案,并逐步面向大眾開放。

監(jiān)管之下,技術本身也可以在大模型安全上有所行動。AI守護AI,技術反哺技術。

“利器攻利器”。AI技術本身不僅是可能的威脅,更是解決問題的關鍵。

對抗性訓練就是其中的佳例,它可以讓模型在面對惡意輸入時仍然保持其穩(wěn)定性,從而增強模型對各類對抗攻擊的防御力。除此之外,我們還可以考慮利用AI技術對模型的輸出進行實時監(jiān)控,及時發(fā)現(xiàn)并糾正模型的異常行為。

另外,目前也有不少安全企業(yè)提出通過可信計算、差分隱私、聯(lián)邦學習等技術手段確保數(shù)據(jù)隱私安全。

此前,清華大學人工智能研究院副院長,北京智源人工智能研究院和瑞萊智慧首席科學家朱軍在接受騰訊科技采訪時就曾提到過,為了解決大模型的安全問題,從技術方向來看,我們可以以“AI識別AI”的形式來應對。

朱軍表示,與進攻相比,防守其實更為困難,F(xiàn)在,我們正積極尋求多種手段以增強模型的抵御能力,并在模型的應用和布署階段實施多重保護策略。

比如在人臉鑒定系統(tǒng)中,我們設置人臉識別安全屏障,能在樣本進入決策階段前篩選并剔除攜帶潛在威脅或經(jīng)過對抗性修改的樣本,確保系統(tǒng)安全穩(wěn)定。這一技術手段已經(jīng)在銀行等行業(yè)中落地使用。

為了防范未然,開發(fā)者和企業(yè)在產(chǎn)品層面也必須下足功夫。嚴格的安全標準不僅僅是一紙文件,更應該深入到每一個開發(fā)與部署的細節(jié)中。

對于開發(fā)者和企業(yè)而言,對數(shù)據(jù)的處理要嚴格遵循隱私保護原則,確保每一位用戶的私人信息都得到妥善保管。另外,模型的開發(fā)與部署過程也需要經(jīng)過嚴格的審查,確保其不會對用戶和社會造成傷害。

大模型安全問題掀起行業(yè)新風向

目前,不少企業(yè)也關注到了大模型安全的問題,甚至推出了不少相關的產(chǎn)品和解決方案。這也掀起了一陣“安全潮”,風口也逐漸吹向了數(shù)據(jù)要素、網(wǎng)絡安全和隱私計算等相關產(chǎn)業(yè)上。

最近一段時間,可以明顯地看到網(wǎng)絡安全行業(yè)正在迎頭趕上這一挑戰(zhàn),大模型和數(shù)據(jù)安全新品不斷亮相,旨在滿足市場對于新興技術的安全需求。

今年的網(wǎng)絡安全博覽會成為了各大廠商展示大模型安全解決方案的初舞臺。比如,奇安信推出了名為Q-GPT的安全機器人,還發(fā)布了針對大模型數(shù)據(jù)泄露隱患的“大模型衛(wèi)士”; 綠盟科技在發(fā)布其安全大模型的同時,也推出了基于隱私計算的“數(shù)據(jù)保險箱”。

除此之外,安恒信息、深信服、三六零集團、螞蟻等公司也紛紛推出各自的大模型產(chǎn)品,為企業(yè)提供了多樣的選擇。這些新品的出現(xiàn)無疑證明了行業(yè)對于大模型安全的重視。

據(jù)中國網(wǎng)絡安全產(chǎn)業(yè)聯(lián)盟的數(shù)據(jù),2022年我國網(wǎng)絡安全產(chǎn)業(yè)規(guī)模達到了近633億元,預計在未來三年內(nèi),增速將保持在10%以上。隨著數(shù)據(jù)要素市場的逐步建立,大模型等前沿技術發(fā)揮出的應用價值越來越大,新的安全需求也隨之涌現(xiàn)。

隱私計算賽道同樣如此。

在2023年世界人工智能大會上,就有不少專家學者提到大模型時代隱私計算迎來全新機遇,F(xiàn)階段,隱私計算中包括可信執(zhí)行環(huán)境TEE、多方安全計算MPC等都有與大模型結合的探索,比如在云端部署TEE,用戶在推理時將輸入數(shù)據(jù)加密傳輸至云端,在其內(nèi)部解密然后進行推理。

復旦大學教授、上海市數(shù)據(jù)科學重點實驗室主任肖仰華表示,傳統(tǒng)的隱私計算如差分隱私、聯(lián)邦學習多是算法層開展工作。

不過算法工作前提是保護對象是明確的,協(xié)作機制清晰。大模型時代是海量參數(shù)化的模型,不透明、無邊界、不可解釋,對于以前的基于可解釋、清晰、可控的技術路線的隱私計算方法提供了全新挑戰(zhàn)。

華經(jīng)產(chǎn)業(yè)研究院的報告顯示,隨著中國互聯(lián)網(wǎng)技術的發(fā)展,中國隱私計算市場規(guī)模逐年增長,預計2025年中國隱私計算市場規(guī)模達192.2億元。

大模型已經(jīng)成為繼“云、大、物、移”之后的新戰(zhàn)場,被視為新的市場增量。

無論是為自己的客戶提供基于大模型的服務,提高交付效率和競爭力,還是通過大模型應用提高企業(yè)自身生產(chǎn)效率,大模型正迅速進入企業(yè)IT中,與此對應的大模型安全也成為攻防焦點。

隨著各大公司在大模型安全方面的持續(xù)投入和創(chuàng)新,預期這一市場將帶動整個網(wǎng)絡安全行業(yè)邁向新的高度。

結語

AI大模型的發(fā)展不僅帶來了巨大的潛力,也伴隨著重大的安全挑戰(zhàn)。為了充分發(fā)揮AI的潛力并確保安全,政府、企業(yè)和網(wǎng)絡安全公司需要共同努力,采取綜合性的措施來解決這些問題。只有這樣,我們才能在AI時代中邁出堅實的步伐。

 相關閱讀

別怪ChatGPT,AI黑客攻擊早已開始

生成式AI大模型,或?qū)⒑硠釉品⻊帐袌龈窬?/p>

AI攻擊AI,升級的網(wǎng)絡安全戰(zhàn)

一波未平一波又起?AI大模型再出邪惡攻擊工具

【科技云報道原創(chuàng)】

轉載請注明“科技云報道”并附本文鏈接

       原文標題 : 大模型的陰面:無法忽視的安全隱憂

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號