💥 Gate广场活动: #PTB创作大赛# 💥
在 Gate广场发布与 PTB、CandyDrop 第77期或 Launchpool 活动 相关的原创内容,即有机会瓜分 5,000 PTB 奖励!
CandyDrop 第77期:CandyDrop x PTB 👉 https://www.gate.com/zh/announcements/article/46922
PTB Launchpool 火热进行中: 👉https://www.gate.com/zh/announcements/article/46934
📅 活动时间:2025年9月10日 12:00 – 9月14日24:00 UTC +8
📌 参与方式:
发布原创内容,主题需与 PTB、CandyDrop 或 Launchpool 相关
内容不少于 80 字
帖子添加话题: #PTB创作大赛#
附上 CandyDrop 或 Launchpool 参与截图
🏆 奖励设置:
🥇 一等奖(1名):2,000 PTB
🥈 二等奖(3名):800 PTB/人
🥉 三等奖(2名):300 PTB/人
📄 注意事项:
内容必须原创,禁止抄袭或刷量
获奖者需完成 Gate 广场身份认证
活动最终解释权归 Gate 所有
A16z宣布开源 AI 资助计划,首批支持8个开源人工智能社区
来源:阿法兔研究笔记
原标题:《A16Z 刚刚官宣支持8个开源人工智能社区》
A16Z相信,人工智能具有拯救世界的力量,而繁荣的开源生态系统,对于构建建设并实现这个未来,至关重要。
值得庆幸的是,开源生态系统正在逐步开始发展,大家现在看到的开源项目和模型,可以与闭源方案相媲美。数以百计的小型团队和个人,正在不断给这些开源模型做出贡献,从使这些模型更加有用、易用和高性能。
正是这些项目和付出,共同推动了开源AI技术的发展,并帮助更多人对新技术有了更深入、更全面的了解。
这些开源项目包括:
对基础 LLM 进行指令调整:instruction-tuning base LLMs
取消对 LLM 输出的审查:removing censorship from LLM outputs
为低功率机器优化模型:optimizing models for low-powered machines
为模型推理构建新颖的工具:building novel tooling for model inference
研究 LLM 的安全问题:researching LLM security issues;
等等,然而,这些项目背后的人员往往没有足够的资源来完成或长期保持他们的工作。这种情况,在AI领域比传统计算机基础设施领域更为严重,因为即使是对模型进行基本的 fine-tuning,也需要大量的 GPU 计算资源,尤其是当开源模型变得越来越大时。
**
**为了弥补这一资源缺口,A16Z今天宣布了 a16z 开源 AI 资助计划,A16Z将通过资助(而非投资或 SAFE 票据)的方式,为一小部分开源开发者提供支持,让他们有机会在没有经济回报压力的情况下继续工作。
这里公布了首批资助对象和资助项目:
Jon Durbin(Airoboros):instruction-tuning LLMs on synthetic data
**
**Eric Hartford:fine-tuning uncensored LLMs
**
**Jeremy Howard(fast.ai):fine-tuning foundation models for vertical applications
**
**Tom Jobbins(TheBloke):quantizing LLMs to run locally
**
**Woosuk Kwon和Zhuohan Li(vLLM):library for high-throughput LLM inference
**
**Nous Research:new fine-tuned language models akin to the Nous Hermes and Puffin series
obabooga:web UI and platform for local LLMs
**
**Teknium:synthetic data pipelines for LLM training
参考资料: