Gate 广场「创作者认证激励计划」开启:入驻广场,瓜分每月 $10,000 创作奖励!
无论你是广场内容达人,还是来自其他平台的优质创作者,只要积极创作,就有机会赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
参与资格:
满足以下任一条件即可报名👇
1️⃣ 其他平台已认证创作者
2️⃣ 单一平台粉丝 ≥ 1000(不可多平台叠加)
3️⃣ Gate 广场内符合粉丝与互动条件的认证创作者
立即填写表单报名 👉 https://www.gate.com/questionnaire/7159
✍️ 丰厚创作奖励等你拿:
🎁 奖励一:新入驻创作者专属 $5,000 奖池
成功入驻即可获认证徽章。
首月发首帖(≥ 50 字或图文帖)即可得 $50 仓位体验券(限前100名)。
🎁 奖励二:专属创作者月度奖池 $1,500 USDT
每月发 ≥ 30 篇原创优质内容,根据发帖量、活跃天数、互动量、内容质量综合评分瓜分奖励。
🎁 奖励三:连续活跃创作福利
连续 3 个月活跃(每月 ≥ 30 篇内容)可获 Gate 精美周边礼包!
🎁 奖励四:专属推广名额
认证创作者每月可优先获得 1 次官方项目合作推广机会。
🎁 奖励五:Gate 广场四千万级流量曝光
【推荐关注】资源位、“优质认证创作者榜”展示、每周精选内容推荐及额外精选帖激励,多重曝光助你轻
新研究指出:AI能力或因有缺陷的测试而被夸大
金十数据11月6日讯,一项新研究指出,评估人工智能系统能力的方法往往夸大了人工智能的性能,且缺乏科学严谨性。这项由牛津互联网学院牵头、联合其他机构三十余名研究人员开展的研究,考察了445项领先的人工智能测试(称为基准测试),这些测试常用于衡量人工智能模型在不同主题领域的表现。研究指出,这些基础测试可能缺乏可靠性,并质疑了众多基准测试结果的有效性。研究称,大量顶级基准测试未能明确其测试目标,令人担忧地重复使用既有基准的数据和测试方法,且极少采用可靠的统计方法比较不同模型结果。牛津互联网学院高级研究员、该研究的主要作者Adam Mahdi认为,这些基准测试可能会产生令人担忧的误导,他表示:“当我们要求人工智能模型执行特定任务时,我们实际测量的往往是与目标完全不同的概念或构造。”另一位主要作者亦认为,即便是公信力强的基准测试,也常常被盲目信任,值得更深入的审查。