🌕 Gate 廣場 · 中秋創作激勵 Day 8 賞金話題公布- #XRP ETF上线# !
創作點亮中秋,帶熱門話題發帖,瓜分 $5,000 中秋好禮!🎁
立即報名查看詳情 👉 https://www.gate.com/campaigns/1953
💝 新用戶首次發帖並完成互動任務,即可瓜分 $600 新人獎池!
🔥 Day 8 熱門話題:XRP ETF上線
REX-Osprey XRP ETF(XRPR)本週確認上線!XRPR 將成爲首檔追蹤第三大加密貨幣 XRP 表現的現貨 ETF,由 REX-Osprey 推出(同時也是 SSK 背後團隊)。據彭博高級 ETF 分析師消息,XRPR 將與狗狗幣 ETF(DOJE)一同於本週四登場,這檔 ETF 對 XRP 意味着什麼?是推動機構資金進場的轉折點,還是僅僅帶來短期炒作?
發帖建議:
1️⃣ 分享你對 #XRP# ETF 上線的第一反應與看法。
2️⃣ 分析 XRP #ETF# 對 XRP 價格及流動性的短期影響。
3️⃣ 結合比特幣、以太坊 ETF 過往案例,談談 XRP ETF 是否可能成爲資金流入新焦點。
快帶上 #XRP ETF上线# 和 #Gate广场创作点亮中秋# 發帖,內容越多越優質,越有機會贏取 $5,000 中秋好禮!
以AI對抗AI,大模型安全的“進化論”
文丨劉雨琦
編|王一粟
來源丨光錐智能
“互聯網時代,我們是更危險,還是更安全?”
2016年,互聯網正值高速發展之際,電梯廣告經常出現這幾個大字,兩行標語,從病毒木馬到網絡詐騙,對於安全的思考、安全防範技術的建立一直在與科技發展賽跑。同樣,大模型時代發展的早期,也引發了許多安全考量。
英特網被發明的十年後,互聯網防護技術和產業鏈才開始補齊,而參考了過去幾十年的經驗,在大模型誕生後不到半年的時間裡,圍繞著模型安全、數據安全、內容安全的討論,就已經不絕於耳。
最近一周,在上海外灘大會、浦江創新論壇、國家網安周等場合,產學研界針對於大模型應用落地所帶來的數據安全問題(包括數據投毒、信息洩露、版權風險等)、模型安全問題(模型本身的安全漏洞、惡意利用等)、內容安全問題(生成內容包含違規、違法、色情等敏感信息等)、AI 倫理問題等進行了一系列的討論。
如何為大模型保駕護航?
國內一些安全廠商,如360、螞蟻、深信服、奇安信、山石科技等都在積極研發大模型安全技術。
大模型需要“醫生”和“保鏢”
大模型作為新物種的誕生,在訓練過程中要有安全監控,在大模型最後推向市場的時候,也需要一次“質檢”,質檢後流入市場,需要可控的使用方式,這都是解決安全問題的宏觀思路。
無論是通用大模型還是面向垂直領域的行業大模型,目前來看,模型安全的保護主要分為三個部分:
二是模型本身的可控問題:模型的可靠性、穩定性、魯棒性等都需要進行檢驗,例如此前有用戶構造針對性語句對模型進行誘導,大模型可能生產帶有欺詐、歧視、政治傾向等風險內容;
三是大模型在實際場景中應用的安全問題:在實際的使用過程中,不同用戶群體的交互和應用都需要謹慎評估,尤其是金融、醫療等領域對模型輸出的正確性要求極高,如果應用不當,一石就容易激起千層浪。
多位業內人士向光錐智能表示:“模型安全需要一體化的技術防護體系,單獨某一環節的把控解決不了根本問題。”
參考互聯網安全的發展路徑,誕生了諸多“病毒查殺”軟件公司,一般檢測、定位問題往往是第一步。
光錐智能了解到,螞蟻的“蟻天鑑”,包含了大模型安全檢測平台“蟻鑑2.0”、大模型風險防禦平台“天鑑”,覆蓋了從檢測到治理到防禦的全鏈條。蟻鑑2.0可對大模型進行多維度的安全掃描,檢查存在的數據安全隱患、內容風險點等問題。相當於站在“黑產”角度,通過智能攻擊對抗技術,自動生成數百萬的誘導性問題,對生成式大模型進行誘導式問答,找出大模型的弱點和漏洞。
從技術的角度來看,蟻鑑採用了最新的“對抗智能”技術路線,使用智能對抗技術不斷向大模型“投射問題”,觀察模型生成的回答,判斷是否存在風險。通過持續“拷問”,就像醫生多次詢問病人症狀,平台可以盤查解析大模型的健康狀況。
通過生成對抗樣本,開發檢測對抗樣本的算法系統,來提升大模型安全性,已經成為一種主流技術趨勢。在行業中,已有OpenAI、谷歌、微軟、英偉達等一眾巨頭公司將對抗智能技術運用到其產品和服務中。
比如,在這種技術思路下,多倫多大學研發的CleverHans 系統,就像一個專門設計來考驗防盜系統的“小偷”,它會故意添加一些小干擾,來試圖欺騙AI 安防系統。在正常情況下,AI 系統可以準確識別“小貓”的圖片,但CleverHan 系統偏要在“小貓”圖片上輕微修改幾個像素點,給AI 營造一種這是一張小狗圖片的假象。假如,AI 系統被愚弄過去,那就代表其存在安全漏洞。
更重要的是,數據問題是模型安全的源頭,中國信通院雲計算與大數據研究所主任石霖曾在一場學術交流會上分享道:“現在有非常多安全廠商採取了安全舉措,包括對訓練數據做一些清洗,對輸入輸出內容做過濾,另外還有監測和鑑別等安全防控措施。”
這需要防禦平台作用在數據源頭,針對數據源頭有毒、模型深度黑盒不可控等問題。螞蟻集團大安全機器智能部內容算法總監祝慧佳介紹,目前,天鑑正在嘗試通過數據去毒、對齊訓練、可解釋性研究等手段保障模型安全。
用魔法打敗魔法,以AI對抗AI
數字世界里和人眼世界裡的內容特徵是不一樣的。
隨著大模型時代的到來,其強大能力也為安全防護技術的變革提供了新的思路。 “用AI 的力量來對抗AI ”已經成為一個熱點方向。
事實上,對抗攻防思路並不是模型安全的專屬。早在上個十年,面對種種安全威脅,人工智能領域就逐步形成了“以攻測防——以攻促防——攻防一體化”的安全理念,通過模擬各類攻擊場景,不斷探索模型和系統的弱點,以此推動算法和工程端的防禦能力加強。
只不過,以往安全防護主要依賴機器學習算法模型,這需要大量專業數據知識積累,且面臨知識盲區和小樣本冷啟動不及時的問題。利用大模型技術,可以實現更智能化的安全防控。
這體現在幾個方面。一是大模型能夠提供智能安全“參謀”。基於海量文本進行預訓練的大模型,可以成為優秀的“參謀”,對症提出適當的分析和防禦策略。比如,通過簡單的自然語言描述,可以快速分析安全局勢,提出應對措施建議,輔助安全團隊規劃解決方案。這類似於一個智能安全“小助手”。
從產業界的現狀來看,AI 安全與否如何評測,目前尚缺乏一套易用和標準化的評測工具和規則。
這也是大模型防禦中能夠補充的另一方面,通過大模型技術學習風險知識和標準規則來提升AI 對於風險的認知理解能力,以實現用大模型對抗大模型來進行極速防禦和快速冷啟動的目的。
以文本安全為例,大模型可以基於安全標準規則、風險領域知識和歷史風險樣本,進行訓練,提升模型對於風險標準和內容的理解力,從而實現對風險檢測能力的提升。也採用大模型生成能力結合安全知識圖譜,來構造攻擊樣本持續迭代優化檢測模型。
一位安全專家表示:“相比人工收集的有限樣本,大模型生成的海量多樣化樣本,將使安全檢測模型'見多識廣',更快適應新的威脅方式。”
這項技術,也被螞蟻應用在了AIGC內容檢測中。祝慧佳提及道:“AIGC深度偽造檢測,也是採用以攻測防,以攻促防的思路,通過不同方式、不同風格、不同生成模型來進行生成,建立近千萬的深度偽造數據,訓練模型快速分辨內容是機器生成還是人工生成,從而實現泛化性和魯棒性更好的檢測模型。”
針對AIGC在運用過程中引發的問題,國際上也已經有頭部公司開始著手佈局。
OpenAI此前表示,考慮在ChatGPT中添加數字水印技術,以降低模型被濫用帶來的負面影響;谷歌在今年的開發者大會中表示,將確保公司的每一張AI 生成圖片都內嵌水印;今年1月初,英偉達也發布了一款名為FakeCatcher的軟件,以查出視頻中的人臉是否為深度偽造。
回顧互聯網發展史,混亂和高速發展往往是一對“孿生兄弟”,而正是在網絡安全產業化趨於成熟後,互聯網才真正迎來了百花齊放的應用落地。
同樣,模型安全並不只是某一家安全廠商的任務,而是當安全科技形成了可信圍欄後,大模型技術才真的能“飛入尋常百姓家”。
“大模型是非常複雜的問題,倫理、數據、訓練等領域的複雜度都是前所未有的,是一個新領域,也是擺在所有人面前的一個命題。螞蟻'蟻天鑑'在大模型安全視角上做了一些探索,但目前還有很多問題待研究解決,比如回答的內容真實性和準確性等難題,它還需要不斷迭代,不斷完善,需要全社會共同協作努力。”祝慧佳最後說道。