🌕 Gate 广场 · 中秋创作激励 Day 8 赏金话题公布- #XRP ETF上线# !
创作点亮中秋,带热门话题发帖,瓜分 $5,000 中秋好礼!🎁
立即报名查看详情 👉 https://www.gate.com/campaigns/1953
💝 新用户首次发帖并完成互动任务,即可瓜分 $600 新人奖池!
🔥 Day 8 热门话题:XRP ETF上线
REX-Osprey XRP ETF(XRPR)本周确认上线!XRPR 将成为首档追踪第三大加密货币 XRP 表现的现货 ETF,由 REX-Osprey 推出(同时也是 SSK 背后团队)。据彭博高级 ETF 分析师消息,XRPR 将与狗狗币 ETF(DOJE)一同于本周四登场,这档 ETF 对 XRP 意味着什么?是推动机构资金进场的转折点,还是仅仅带来短期炒作?
发帖建议:
1️⃣ 分享你对 #XRP# ETF 上线的第一反应与看法。
2️⃣ 分析 XRP #ETF# 对 XRP 价格及流动性的短期影响。
3️⃣ 结合比特币、以太坊 ETF 过往案例,谈谈 XRP ETF 是否可能成为资金流入新焦点。
快带上 #XRP ETF上线# 和 #Gate广场创作点亮中秋# 发帖,内容越多越优质,越有机会赢取 $5,000 中秋好礼!
揭秘iPhone里的Transformer:基于GPT-2架构,分词器含emoji,MIT校友出品
原文来源:量子位
苹果Transformer的“秘密”,让发烧友给扒出来了。
大模型浪潮下,即使保守如苹果,也每逢发布会必提“Transformer”。
比如,在今年的WWDC上,苹果就已宣布,船新版本的iOS和macOS将内置Transformer语言模型,以提供带文本预测功能的输入法。
一位名叫Jack Cook的小哥,就把macOS Sonoma beta翻了个底朝天,结果,还真挖出不少新鲜信息:
更多细节,一起来看。
基于GPT-2架构
先来回顾一下苹果基于Transformer的语言模型能在iPhone、MacBook等设备上实现怎样的功能。
主要体现在输入法方面。语言模型加持下的苹果自带输入法,可以实现单词预测和纠错的功能。
模型有时也会预测即将出现的多个单词,但这仅限于句子语义十分明显的情况,比较类似于Gmail里的自动完成功能。
那么这个模型具体被装在了哪里?一通深入挖掘之后,Cook小哥确定:
原因是:
进而,小哥根据unilm_joint_cpu中描述的网络结构,推测苹果模型是基于GPT-2架构打造的:
主要包含token embeddings、位置编码、解码器块和输出层,每个解码器块中都有类似gpt2_transformer_layer_3d这样的字眼。
根据每层大小,小哥还推测,苹果模型约有3400万参数,隐藏层大小是512。也就是说,它比GPT-2最小的版本还要小。
小哥认为,这主要是因为苹果想要一种不太耗电,但同时能够快速、频繁运行的模型。
而苹果官方在WWDC上的说法是,“每点击一个键,iPhone就会运行模型一次”。
不过,这也就意味着,这个文本预测模型并不能很好地完整续写句子或段落。
模型架构之外,Cook小哥还挖出了分词器(tokenizer)的相关信息。
他在unilm.bundle/sp.dat里发现了一组数量为15000的token,值得关注的是,其中包含100个emoji。
Cook揭秘库克
尽管此Cook非彼库克,小哥的博客文章一发出,还是吸引了不少关注。
此前,他曾在英伟达实习,专注于BERT等语言模型的研究。他还是《纽约时报》的自然语言处理高级研发工程师。
那么,他的这一番揭秘是否也引发了你的一些思考?欢迎在评论区分享观点~
原文链接: