大模型引領技術浪潮,AI安全治理面臨“大考”
從文生文到文生圖,再到文生視頻,近年來,以ChatGPT、Sora等為代表的大模型引領了全球人工智能技術與產業(yè)的新一輪浪潮。2024年更是被業(yè)內稱為大模型應用爆發(fā)元年。
年初,Sora橫空出世驗證了Scalling Law在視頻生成方面的有效性。但Sora始終止步于公開的60秒Demo,產品落地計劃遲遲未公開。
隨后的半年時間,不少玩家繼續(xù)在AI視頻生成賽道展開角逐。今年6月,快手發(fā)布視頻生成大模型“可靈”。緊隨其后,國外知名3D建模平臺Luma AI也高調入局,并宣布對所有用戶免費開放其文生視頻模型,再掀波瀾。近日,智譜AI也正式上線了AI視頻生成功能清影(Ying),全面入局文生視頻及圖生視頻賽道,生成6秒視頻僅需30秒的時間。
人工智能技術的普及應用一方面為社會發(fā)展帶來了巨大的技術紅利,另一方面也帶來了風險挑戰(zhàn)。
哲學家海德格爾曾反思過現代技術的危險性,其認為現代技術強調效率,在這種效率觀念的促逼下,人類反而被技術所控制和占有,成為了技術的奴隸,受到技術發(fā)展的支配。雖然當下加速了發(fā)展進程,但是盲目的發(fā)展最終會導致一系列的社會危機,這是人類不可忽視的問題。
AI繁榮表象下的安全隱憂
近年來,一些不法分子利用人工智能深度偽造新工具實施電信詐騙、散布虛假視頻、激化社會矛盾,給安全領域帶來了諸多風險。人工智能深度偽造是一種利用人工智能技術合成、修改或替換圖像、視頻和音頻內容的技術,可以將一個人的面部表情、言辭和動作應用到其他人的圖像或視頻上,使生成的內容看似原始內容。這項技術讓假新聞和虛假信息更具迷惑性,嚴重威脅公眾的信任和社會穩(wěn)定。
此類安全產生的主要原因在于,技術發(fā)展速度過快而法律法規(guī)和倫理規(guī)范未能及時跟進。現有的法律框架往往難以適應人工智能的快速發(fā)展,導致監(jiān)管滯后。
例如,AI自動駕駛汽車的責任認定問題,目前尚無明確的法律規(guī)定。當人工智能系統(tǒng)出現故障導致事故時,如何界定制造商、開發(fā)者和用戶的責任,成為法律界亟待解決的難題。
同時,人工智能的決策機制和數據處理方式存在不透明性,可能導致偏見和歧視的擴散。例如,面部識別技術在執(zhí)法中的應用可能帶來隱私侵害和種族偏見的問題。經濟基礎決定上層建筑,上層建筑反作用于經濟基礎,當上層建筑為適合生產力發(fā)展的經濟基礎服務時,它就成為推動社會發(fā)展的進步力量;反之則成為阻礙社會發(fā)展的力量。當前的法律法規(guī)和倫理規(guī)范已經落后于人工智能技術發(fā)展水平,亟需改良進步。
受到發(fā)展水平、價值觀念、文化差異和國家利益等多個因素的影響,各國推動的治理框架和解決方案通常在防范風險、公平公正、隱私保護和國家安全等方面有不同關切,而人工智能的發(fā)展趨勢和特征卻要求在全球治理方面構建更加包容的框架。
因此,在當前形勢下,在推動全球人工智能治理框架、標準和規(guī)范形成廣泛共識方面,仍存在諸多挑戰(zhàn)與難題。
首先,人工智能技術本身的復雜性和快速發(fā)展使得全球治理更加困難。人工智能技術涉及深度學習、自然語言處理、計算機視覺等多個領域,每個領域都有其獨特的技術挑戰(zhàn)和應用場景,治理的復雜性大大增加,并且人工智能技術更新速度快,傳統(tǒng)的立法和監(jiān)管手段難以跟上技術進步的步伐。即使制定了相關政策和法規(guī),也可能很快變得過時,需要不斷更新和調整。隨著人工智能應用的廣泛普及,數據隱私、不公平與歧視性,以及國家安全等風險日益彰顯。人工智能技術及其引發(fā)的全局性、系統(tǒng)性和國際性風險將成為全球治理合作面臨的挑戰(zhàn)之一。
其次,人工智能技術的發(fā)展涉及巨大的經濟利益,各國之間在技術研發(fā)、市場份額和產業(yè)布局方面存在激烈競爭。一些國家和科技公司在人工智能領域占據領先地位,不愿意在國際治理框架中受到限制,擔心影響自身的競爭優(yōu)勢;人工智能技術的應用涉及廣泛的商業(yè)利益,各國可能會為了保護本國企業(yè)的市場份額而抵制統(tǒng)一的國際規(guī)范;不同國家在產業(yè)政策上也會有不同的側重點,一些國家可能會更傾向于保護本國的人工智能產業(yè),制定有利于自身發(fā)展的政策,而不是參與全球性的治理框架。
第三,主體多元將成為制約全球人工智能治理的因素。當前人工智能治理仍以政府為主導,主要表現為中國、歐盟、美國等制定和發(fā)布了一系列人工智能治理倡議、規(guī)劃和立法。然而,私營部門在人工智能技術發(fā)展中也發(fā)揮著不可忽視的作用,謀求人工智能規(guī)則的話語權可以增強其影響力。多利益攸關方以自身利益為中心,可能導致人工智能治理主導權和規(guī)則制定權的多方博弈甚至惡性競爭。倘若如此,將嚴重損害各方在人工智能全球治理上的合作動能。
第四,人工智能技術的發(fā)展依賴于大量數據的收集和共享,但數據隱私和安全問題卻成為全球治理的重要難題。許多國家對本國數據的控制權有很強的保護意識,不愿意輕易共享數據。而且各國對數據隱私保護的標準和要求不同,一些國家可能對數據的跨境流動設置嚴格的限制。
第五,少數科技巨頭公司在人工智能技術和市場上占據主導地位,導致全球治理面臨技術壟斷和不平等問題。大型科技公司在人工智能技術研發(fā)和應用方面占據主導地位,擁有巨大的經濟和政治影響力,可能會影響政策的制定和執(zhí)行。
人工智能技術的發(fā)展還可能加劇全球范圍內的經濟不平等,發(fā)展中國家在技術和資源方面處于劣勢,難以在全球治理中發(fā)揮有效作用。
面對人工智能全球治理的多重挑戰(zhàn)和現實困境,中國提出推動構建人類命運共同體為愿景的解決方案。在7月舉行的2024世界人工智能大會暨人工智能全球治理高級別會議上,清華大學蘇世民書院院長、清華大學人工智能國際治理研究院院長薛瀾曾表示,從全球角度來講,人工智能發(fā)展面臨著很多挑戰(zhàn)。
要把AI發(fā)展和安全作為“一體兩翼”,通過多途徑建立國際交流及防控體系,加強政府間的多邊對話機制,同時通過科學共同體力量助力國際機制全面完善。
同時發(fā)揮聯合國等國際組織的綜合全面協調作用,打破各種壁壘,加強國際合作協議,同時在產業(yè)、科學界共同努力下推動人工智能合理、健康發(fā)展,為人類和平與發(fā)展作出更大的貢獻。
圖靈獎得主、中國科學院院士、清華大學交叉信息研究院院長姚期智表示,人工智能最有深度、最有意思的風險來自AI生存或者存在的風險。要控制好AI,但又不能破壞它,“正如圖靈所說,這是無法預測的,預測不了機器有了足夠算力之后會做什么。”
因此,AI風險需要專家來解決,不僅是科學家,還可能需要政府、律師、經濟學家來參與,幾乎涉及到每一個行業(yè)。
上海人工智能實驗室主任、銜遠科技創(chuàng)始人周伯文認為,目前,世界上只有1%的資源投入在對齊或者安全考量上,對AI安全的投入遠落后于AI性能的投入。人類將遵循“AI-45°平衡律”,沿著可信AGI的“因果之梯”拾級而上,探索人工智能系統(tǒng)安全和能力的系統(tǒng)性平衡之路。
道阻且長,行則將至
全球人工智能治理倡導“以人為本、智能向善、造福人類”的原則,這既代表了人工智能發(fā)展的主線,也代表了治理的宗旨。
7月24日,中國人工智能產業(yè)發(fā)展聯盟(簡稱“AIIA”)安全治理委員會成果發(fā)布會舉行。會上,AIIA秘書長、中國信息通信研究院院長余曉暉表示,開展人工智能安全治理工作不僅是我國推動人工智能發(fā)展和安全的重要工作,也是全人類共同需要對待的重大問題。如何釋放出人工智能最大向善的能力,造福于人類,促進經濟社會發(fā)展,需要世界各國共同推動。
AIIA秘書長、中國信息通信研究院院長余曉暉
AIIA安全治理委員會主任委員、公安部信息安全等級保護評估中心原副主任、研究員畢馬寧表示,過去一年,大模型發(fā)展速度之快,賦能范圍之廣,讓業(yè)界看到了通用人工智能的實現路徑與曙光,但人工智能安全問題的嚴重性與緊迫性不容忽視。在從不同層面審視人工智能安全問題時,可以發(fā)現人工智能所帶來的安全挑戰(zhàn)已經從技術本身所帶來的數據、算力、系統(tǒng)等傳統(tǒng)安全問題,逐漸向對個人、組織、國家社會、人類生態(tài)的衍生安全問題蔓延。
AIIA安全治理委員會主任委員、公安部信息安全等級保護評估中心原副主任、研究員畢馬寧
AIIA總體組組長、中國信通院人工智能研究所所長魏凱表示,世界各國都對人工智能的發(fā)展表示出非常大的期待,不論是發(fā)達國家或者發(fā)展中國家,普遍認為人工智能是一個巨大的機遇,同時也對人工智能的確定性安全和風險挑戰(zhàn)表示擔憂。
多年來,中國信通院作為國家智庫產業(yè)平臺,不僅聯合各方在中國人工智能產業(yè)發(fā)展聯盟下成立了安全委員會,搭建人工智能安全方面交流合作平臺,同時聯合產業(yè)界發(fā)布了《人工智能治理框架》,提出以風險為導向的人工智能研判理論體系,并發(fā)布一系列人工智能安全合規(guī)方面的標準規(guī)范,協助企業(yè)提升安全能力。
圍繞大模型安全,中國信通院還啟動大模型安全基準測試,為國內企業(yè)開展大模型安全防范工作提供參考。此外,與國際組織各國就人工智能的安全治理工作開展雙邊、多邊的討論交流,共同推動人工智能在全球的發(fā)展和安全的治理工作。
目前,全球針對人工智能安全已有很多聲明和請愿,但更重要的是要明確目標、投入資源、采取行動,攜手結伴共同應對風險。各國和地區(qū)針對人工智能治理正從原則治理走向安全實踐的新階段。
治理框架方面,各國和地區(qū)基本形成本土治理方案。比如美國推出《人工智能風險管理框架》推動基于風險的治理實踐。歐盟《人工智能法》構建了風險分級的治理方案,并即將正式生效。
新加坡在原先治理框架基礎上推出了《生成式人工智能治理模型框架》,提出人工智能評估需考慮的九個維度。日本發(fā)布《人工智能運營商指南》,為開發(fā)者、提供者、使用者制定行為準則。我國從《互聯網信息服務算法推薦管理規(guī)定》到《生成式人工智能服務管理暫行辦法》精準化治理前沿技術。
治理工具方面,全球積極推出安全測試評估平臺。美國成立人工智能安全研究所和安全聯盟以推動制定人工智能安全標準和開展安全評測,并于近期啟動“評估人工智能的風險和影響”計劃。英國人工智能安全研究所推出“Inspect”人工智能模型安全評估平臺。新加坡依托“AI Verify”發(fā)布軟件工具包,推動新技術的沙箱測試。我國已有近140個大模型通過安全評估與備案,形成良好示范效應。
可以看出,安全已成為各國人工智能治理的核心關切,保障安全是人工智能技術創(chuàng)新發(fā)展的基石,也是推動人工智能產業(yè)可持續(xù)發(fā)展的重要前提。
道遠路長,行則將至。人工智能治理是一個不容忽視又實時更新的問題,未來也許將有超出現有認知的挑戰(zhàn),這就需要國際社會攜手共同努力,為人工智能的發(fā)展把好方向盤,顯然是未來與技術狂奔向前相伴的另一個主旋律。讓每一個人成為人工智能的使用者、受益者,也讓每一個人成為人工智能的設計者、治理者。
相關閱讀
人工智能“頂流”齊聚WAIC 2024,他們都做了什么?
算網筑基AI注智,中國聯通如何講出AI時代的“新故事”?
“元年”之后,生成式AI將走向何方?
何許人也?敢把大模型價格“打骨折”?
造完“大模型”,“具身智能”將引領AI下一個浪潮?
從“奇點”到“大爆炸”,生成式AI開啟“十年周期”
【科技云報道原創(chuàng)】
轉載請注明“科技云報道”并附本文鏈接
原文標題 : 大模型引領技術浪潮,AI安全治理面臨“大考”
請輸入評論內容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市