Gate 廣場「創作者認證激勵計劃」開啓:入駐廣場,瓜分每月 $10,000 創作獎勵!
無論你是廣場內容達人,還是來自其他平台的優質創作者,只要積極創作,就有機會贏取豪華代幣獎池、Gate 精美週邊、流量曝光等超 $10,000+ 豐厚獎勵!
參與資格:
滿足以下任一條件即可報名👇
1️⃣ 其他平台已認證創作者
2️⃣ 單一平台粉絲 ≥ 1000(不可多平台疊加)
3️⃣ Gate 廣場內符合粉絲與互動條件的認證創作者
立即填寫表單報名 👉 https://www.gate.com/questionnaire/7159
✍️ 豐厚創作獎勵等你拿:
🎁 獎勵一:新入駐創作者專屬 $5,000 獎池
成功入駐即可獲認證徽章。
首月發首帖(≥ 50 字或圖文帖)即可得 $50 倉位體驗券(限前100名)。
🎁 獎勵二:專屬創作者月度獎池 $1,500 USDT
每月發 ≥ 30 篇原創優質內容,根據發帖量、活躍天數、互動量、內容質量綜合評分瓜分獎勵。
🎁 獎勵三:連續活躍創作福利
連續 3 個月活躍(每月 ≥ 30 篇內容)可獲 Gate 精美週邊禮包!
🎁 獎勵四:專屬推廣名額
認證創作者每月可優先獲得 1 次官方項目合作推廣機會。
🎁 獎勵五:Gate 廣場四千萬級流量曝光
【推薦關注】資源位、“優質認證創作者榜”展示、每週精選內容推薦及額外精選帖激勵,多重曝光助你輕
新研究指出:AI能力可能因測試存在缺陷而被高估
金十數據11月6日訊,一項新研究指出,評估人工智慧系統能力的方法往往誇大了人工智慧的性能,且缺乏科學嚴謹性。這項由牛津互聯網學院牽頭、聯合其他機構三十餘名研究人員開展的研究,考察了445項領先的人工智慧測試(稱為基準測試),這些測試常用於衡量人工智慧模型在不同主題領域的表現。研究指出,這些基礎測試可能缺乏可靠性,並質疑了眾多基準測試結果的有效性。研究稱,大量頂級基準測試未能明確其測試目標,令人擔憂地重複使用既有基準的數據和測試方法,且極少採用可靠的統計方法比較不同模型結果。牛津互聯網學院高級研究員、該研究的主要作者Adam Mahdi認為,這些基準測試可能會產生令人擔憂的誤導,他表示:「當我們要求人工智慧模型執行特定任務時,我們實際測量的往往是與目標完全不同的概念或構造。」另一位主要作者亦認為,即便是公信力強的基準測試,也常常被盲目信任,值得更深入的審查。