智东西 3月 27 日報道、本日、中関村フォーラムで、智谱 CEO ジャン・ペン、月之暗面 CEO ヤン・ジーリン(司会担当)、小米 MiMo 大規模モデル責任者ロー・フーリ、无问芯穹 CEO シア・リシュエと香港大学助理教授ファン・チャオが稀に一堂に会し、オープンソース大規模モデルとインテリジェント・エージェントの将来の方向性を中心とした深い対話を行った。
より長期的に見て、本当のAGI時代が到来した時、私たちの基礎インフラ本身がインテリジェント・エージェントであるべきだと認識しています。私たちが構築したこのセット工場も、自分をアップグレード、自分を反復できるべき、一個の自律的な組織を形成できるべきです。それはCEOがいるようなもの、このCEOそのものは一個のエージェント、多分OpenClawで、全体の基礎インフラを管理し、次にAI顧客の要求に応じて自分で要求を提示し、基礎インフラを反復します。これはAI間がいっそう良く耦合できるのです。私たちもしています一些探索、例えば、エージェント間のぐっと良いコミュニケーション、Cache to Cacheのような能力をしています。
智谱、月の暗面、小米と共に円卓会議:大規模モデルが本格的に「稼働」開始、依然として計算能力が最大のボトルネック
ヤン・ジーリン主持、ロー・フーリ、ジャン・ペン干货를 抛出し、この「ロブスター局」がAIの未来を徹底的に議論した。
著者:チェン・ジュンダ
智东西 3月 27 日報道、本日、中関村フォーラムで、智谱 CEO ジャン・ペン、月之暗面 CEO ヤン・ジーリン(司会担当)、小米 MiMo 大規模モデル責任者ロー・フーリ、无问芯穹 CEO シア・リシュエと香港大学助理教授ファン・チャオが稀に一堂に会し、オープンソース大規模モデルとインテリジェント・エージェントの将来の方向性を中心とした深い対話を行った。
この対話は現在最もホットなOpenClawで切り込み、複数のゲストが一致して、インテリジェント・エージェントは大規模モデルを真に「仕事をする」ようにした。OpenClawは大規模モデルの能力の境界を拡張できるが、モデルに対してもより高い要件を提示し、智谱は長期計画、自己デバッグなどの能力を研究している一方で、ロー・フーリのチームはアーキテクチャの革新を通じてコストを削減し、速度を向上させ、さらにはモデル自己進化を実現することに重点を置いている。
**基礎インフラはまたインテリジェント・エージェントのペースについていく必要がある。**シア・リシュエは、現在の計算力システムとソフトウェアアーキテクチャはまだ人間用であり、インテリジェント・エージェント用ではないと考えており、実質的には人間の操作能力がエージェントの発揮空間を制限していると述べた。したがって、我々はAgentic Infraを構築する必要がある。
複数のゲストの眼中では、オープンソースは大規模モデルとインテリジェント・エージェントの発展を推進する主要な動力の一つである。香港大学助理教授ファン・チャオはオープンソース生態系の繁栄がインテリジェント・エージェントが「遊び半分」から真の「労働者」へと進化するための鍵であると考えており、社区共同建設を通じてのみ、ソフトウェア、データ、技術全体をインテリジェント・エージェント ネイティブ形態に転向させ、最終的に持続可能なグローバルAI生態系を形成できると述べた。
また、複数のゲストは大規模モデルの値上げ、token使用量の爆発、AI未来12ヶ月のキーワードなどのトピックについて議論を展開した。以下はこのラウンドテーブルフォーラムの核心観点である:
1、**ジャン・ペン:**モデルが大きくなればなるほど推論コストも相応に上昇し、最近の智谱の値上げ戦略は実は正常な商業価値への回帰であり、長期の低価競争は業界発展に不利である。
2、**ジャン・ペン:**インテリジェント・エージェントなどの新技術の爆発によってtoken使用量が10倍増加したが、実際の需要は100倍増加している可能性があり、依然として大量のニーズが満たされていない。したがって、計算力は今後12ヶ月内の主要問題である。
3、**ロー・フーリ:**基盤大規模モデルメーカーの視点から見ると、OpenClawは基礎大規模モデルの下限を保証し、上限を引き上げた。国産オープンソースモデル+OpenClawのタスク完了度はすでにClaudeに非常に接近している。
4、**ロー・フーリ:**DeepSeekは国内の大規模モデルメーカーに勇気と信心をもたらした。一見「効率のための妥協」に見えるモデル構造革新は真の変革を引き起こし、計算力が一定である場合に業界が最高のインテリジェンスレベルを発揮できるようにした。
5、**ロー・フーリ:**今後1年のAGI過程で最も重要なことは「自己進化」である。自己進化により、大規模モデルは最高の科学者のように探索し、「新しいものを創造する」唯一の場所である。小米はすでにClaude Codeと最高のモデルを活用して、研究効率を10倍向上させた。
6、**シア・リシュエ:**AGI時代が来た時、基礎インフラ自体がインテリジェント・エージェントであるべき、基礎インフラ全体を自律的に管理し、AI顧客の要求に応じて基礎インフラを反復し、自己進化、自己反復を実現する。
7、**シア・リシュエ:**OpenClawはtoken使用量を爆発させた。今日のtoken消費速度は、当時の3G時代の携帯電話通信量がやったばかりの時期、毎月わずか100Mの枠のような感じである。
8、**ファン・チャオ:**将来、多くのソフトウェアは人類に向けられものではなく、ソフトウェア、データ、技術すべてがエージェント-ネイティブな形態にプログラムされ、人類は将来「自分を幸せにするGUI」を使用するだけで済むかもしれない。
以下はこのラウンドテーブルフォーラムの完全な実録である:
01.OpenClawは「スキャフォールディング」、大規模モデルtoken消費は依然として3G時代
ヤン・ジーリン:今日、各位の重要なゲストをお招きできて非常に光栄です。複数のゲストはモデル層、計算力層からエージェント層にかけてです。本日の主要なキーワードはオープンソース、そしてエージェントです。
最初の質問は現在最も流行しているOpenClawについて議論する。皆さんは日常的にOpenClawまたは同様の製品を使用していて、最も想像力がある、または印象的な点は何か?技術的アングルから見ると、今日のOpenClawと関連するエージェント進化をどう見ているのか。
**ジャン・ペン:**私は非常に早い段階からOpenClawを自分でいじり始めました。当時はまだClawbotと呼ばれていました。私自身が手を動かしてやってみました。結局のところ、プログラマーの出身なので、こうしたものをやるのはそれなりの体験があります。
OpenClawが皆さんにもたらした最大の突破点、または斬新さは**、それはもはやプログラマーまたはギークの専売特許ではない**ということです。普通の人でも、トップの最先端モデルの能力を比較的便利に使用できます。特にプログラミングとインテリジェント・エージェント方面の能力です。
したがって、今まで、皆さんとのコミュニケーションプロセスにおいて、私はOpenClawを「スキャフォールディング」と呼ぶことをより好みます。それが提供するのは一種の可能性で、モデルの基礎の上に構築された、非常に頑丈で、非常に便利で、しかし非常に柔軟なスキャフォールディングです。皆さんは自分の意思に従って、多くのベースレイヤーモデルが提供する新奇な機能を使用できます。
元々の自分の考え方は、コードの書き方を知らないか、または他の関連スキルを習得していないによって制限されるかもしれません。今日はOpenClawがあるので、ようやく非常にシンプルなコミュニケーションを通じてそれを実現できるようになりました。
OpenClawは私に非常に大きな衝撃をもたらし、または私にこの件に対する認識を新たにしさせました。
**シア・リシュエ:**実は、OpenClawを最初に使った時は適応しにくかったです。私は大規模モデルとのチャットコミュニケーション方式に慣れていたので、使用後、OpenClawの反応は結構遅いと感じました。
しかし、後になって私は一つの問題に気付きました。それはそれ以前のチャットボットとは非常に大きく異なっています。**本質は私の大型タスク完了を支援する「人」です。**私はそれにより複雑なタスクを提出し始めたとき、実は素晴らしく良くできることが分かりました。
この件は私に非常に大きな感触をもたらしました。モデルは最初tokenに従ってチャットしていた状態から、今インテリジェント・エージェント(エージェント)になり、ロブスターになり、あなたのタスク完成を支援できる状態に変化しました。この件はAIの全体的な想像力空間に非常に大きなアップリフトをもたらしました。
同時に、それはシステム全体の能力に対する要件も非常に高くなりました。これがなぜ私は最初OpenClawを使用して、それをやや遅いと感じるか理由です。基礎インフラ層のメーカーとして、OpenClawがAI背後の大型システムと生態系全体にもたらしたより多くの機会と課題を見ています。
私たちが現在使用できるすべてのリソースが、このような急速な成長時代をサポートするのに十分ではありません。例えば、私たちの会社で言えば、1月末から始まり、基本的に2週間ごとにtoken使用量が倍になり、現在基本的に10倍増加しています。
今回このスピードを見たのは、当時3G携帯ネットワークで通信量を消費した時代です。私には、現在のtoken使用量は、当時毎月わずか100Mの携帯ネットワーク通信量の時代のような感じがします。
この状態では、私たちのすべてのリソースがより良い最適化、より良い統合を行う必要があります。各個人が、AIフィールドだけでなく、社会全体での各個人がOpenClawのAI能力を使用できるようにします。
基礎インフラのプレイヤーとして、私はこの時代に非常に興奮し、深く感じています。また、ここに私たちが依然として探索し、試みるべき多くの最適化の余地があると認識しています。
02.OpenClawは国産モデルの上限を引き上げ、相互作用モード突破は重要
**ロー・フーリ:**私は自分自身がOpenClawをエージェント・フレームワーク進化プロセスの中で、極めて革命的で変動的なイベントとして見ています。
実は、私の周りの非常に深度のあるコーディングをしている人の第一選択はまだClaude Codeです。しかし、私はOpenClawを使う人も感じることができると信じています。それがエージェント・フレームワークの多くの設計はClaude Codeより先進的です。最近Claude Codeの多くのアップデートは実際にOpenClawに向かっています。
私がOpenClawを使用した時の感受は、このフレームワークが私自身にもたらすより多くは、随時随地に想像力を拡張するということです。Claude Codeは最初、私のデスクトップ上でのみ私の創造性を拡張できましたが、OpenClawは随時随地に私の創造性を拡張できます。
OpenClawがもたらした核心的な価値は主に二点です。第一点はそれがオープンソースであることです。オープンソースこの件は、非常に社区全体が深く参加するのに有利であり、このフレームワークの進化を重視し、推進することが、非常に重要な前置条件です。
OpenClawのようなAIフレームワークのような場合、私は非常に大きな価値が**、それが国内のレベルが閉鎖ソースモデルに近いが、完全には追いつていないモデルの上限を非常に高くまで引き上げた**ということだと思います。
大多数のシナリオでは、あなたはそれ(国産オープンソースモデル+OpenClaw)のタスク完了度がClaudeの最新モデルに非常に接近していることに気付きます。同時に、それはまた下限を良く保証していました——Harnessシステムのセットを通じて、または複数の側面での設計に助けられて、Skillsシステムなどを通じて、タスクの完全性と正確性を保証しました。
要約すると、基礎大規模モデルメーカーの開発者アングルから見ると、OpenClawは基礎大規模モデルの下限を保証し、上限を引き上げた。
また、それが社区全体にもたらした別の価値は**、それが皆さんの認知を点火させ、大規模モデルの外側で、エージェント層が実は非常に大きな想像力空間を隠しているのです**ことの発見です。
最近私も観察してきました。社区の中で、研究員以外に、ますます多くの人々がAGI変革に参加し始めているのです。更多人が開始接触Harness、Scaffoldのようなもっと強力なエージェント・フレームワークを始めています。これらの人たちは、ある意味で、これらのツールを使用して自分の仕事の一部を代替し、同時に自分の時間を解放し、より想像力のある事柄に投入しています。
**ファン・チャオ:**まず相互作用モードの観点から、OpenClawがこの時期なぜ火がつくかの最初の理由は、それがより「人間らしい」経験をもたらしたかもしれません。実は、私たちはエージェントをしてきました1、2年前、しかし以前のCursor、Claude Codeのようなエージェントは、人々にもたらす感じはより多くは「ツールの感覚」です。OpenClawは初めて「インスタント・メッセージング・ソフトウェア埋め込み」というやり方で、人々にあなたの心目中の「個人的なジャーヴィスに近づく」ようなより多くの感じをもたらしました。私は、このことは相互作用パターンの突破かもしれません。
別のポイントは、それが社区全体にもたらしたインスピレーションで、エージェント・ループのような簡潔で高効の枠組みは、再度実行可能であることが証明されました。同時に、私たちもまた、一つ問題を再考する必要があります:私たちは究竟、すべてのことをすることができるオールラウンドな超インテリジェント・エージェント、それとも、より「小管家」のような、軽量のオペレーティングシステムまたはスキャフォールディングが必要ですか?
OpenClawがもたらすアイデアは、このような「小システム」またはいわば「ロブスター・オペレーティングシステム」とその生態系を通じて、皆さんは真に「やってみる」メンタリティを持つようにし、次にシステムのすべてのツール全体を活用できるようにします。
Skills、Harnessのような能力の出現とともに、ますます多くの人が、OpenClawのようなシステムに向かったアプリケーションを設計し、各業界に力を与えることができます。私の見方では、この点は自然に全体的なオープンソース生態系と組み合わせられます。私の見方では、これら2点は私たちが得た最大の啓発です。
03.GLM新モデルは「仕事」に特化、値上げは正常な商業価値への回帰
ヤン・ジーリン:ジャン・ペンに質問したいと思います。最近智谱がGLM-5 Turboという新しいモデルをリリースしたのを見ました。エージェント能力で大きな強化をしたと理解しています。このニューモデルと他のモデルの違いを皆さんに紹介していただけますか?また、値上げ戦略も観察しました。これは市場にどのような信号を反映していますか?
**ジャン・ペン:**これは非常に良い質問です。前日私たちは確かに一波緊急アップデートを行いました。これは実は私たち全体的な発展ロードマップの一つのステージ、ただそれを前倒しで出しただけです。
最大の目的は、元々の「シンプルな対話」から「真の仕事」へと転換する――これはまた皆さんが最近普遍的に感じるもの:大規模モデルはもはや単なるチャットだけでなく、本当に人々の仕事を支援できるようになりました。
しかし「仕事」の背後に隠れている能力要件は非常に高いです。モデルは自分で長期のタスク計画を実施し、継続的に試行錯誤し、コンテキストを圧縮し、デバッグし、また多モーダリティ情報を処理する必要があるかもしれません。それで、それはモデル能力への要件が、従来の対話面向の汎用モデルと実は非常に異なります。GLM-5 Turboはこれらの側面で専門的に強化しました。特にあなたが言及した――それを動作させ、72時間走らせ、どのように止めずにループし続けられるか、ここに私たちは多くの仕事をしました。
また皆さんもtoken消費の問題に非常に関心があります。インテリジェント・エージェントに聡い模型にして複雑なタスクを実行させても、tokenの消費量は巨大です。通常の人は深い認知がないかもしれませんが、アカウントを見た時に、お金が特に速く落ちることを発見します。だから我々もこの側面で最適化しました。複雑なタスクに直面した時、モデルはより効率的なtokenの効率でそれを完成させられます。全体的には、モデルのアーキテクチャはまだマルチタスク協働の汎用アーキテクチャですが、能力上の偏差の強化をしました。
値上げの件は実は非常に良く説明できます。前述の通り、今はもはやシンプルに一つの質問を問い、一つの回答を得ることではなく、背後の推論チェーンは非常に長いです。多くのタスクはコードを書き、底層の基礎インフラと交流し、またcontinue debugと間違い修正を経る必要があり、消費量は巨大です。複雑なタスク一つ完成するのに必要なtoken量は、昔シンプルな質問に答えるのの10倍、または百倍かもしれません。
価格の上に一定の上昇が必要で、モデルもより大きくなり、推論コストは相応に上がりました。私たちはそれを正常な商業価値に回帰させ、長期は低価競争は業界全体の発展に利益がないからです。これはまた私たちが商業化を形成させ、良性ループを形成させ、モデル能力を継続的に最適化させ、皆さんにより良いサービスを提供するための良い説明です。
04.より効率的tokenファクトリーを打造し、基礎インフラ自体もエージェントであるべき
ヤン・ジーリン:今、国産オープンソースモデルますます多くなり、また生態系の形成を始めていて、各種モデルは異なる計算力プラットフォーム上でユーザーにより多くの価値を提供できます。token使用量の爆発とともに、大規模モデルは訓練時代から推論時代へと正に移行しています。立雪さんに、基礎インフラレベルから見て、推論時代は无问にとって何を意味しますか?
**シア・リシュエ:**私たちはAI時代に誕生した基礎インフラ企業で、現在も智谱、Kimi、Mimoなどにサポートを提供し、皆さんがtoken工場をより効率的に使用できるようにしています。同時に私たちも多くの大学や科学院と協効しています。
したがって、私たちは常に一件事を考えています:AGI時代はどのような基礎インフラが必要ですか?そしてどのように段階的にそれを実現と演出に進めていくのですか。短期、中期、長期の異なるステージで解决する必要がある問題について、私たちはすでに十分な準備ができています。
現在直面している最直接的な問題は、皆さんが先ほど話したもの――全体のOpenが引き起こしたtoken量急増が、システム効率に対してより高いヨーザーの最適化要件を提示しています。価格調整を含めて、実際には、これらのニーズの下での一種の対応方式です。
私たちはずっとハード・ソフトウェア貫通方方法で配置と解決しています。例えば、私たちはほぼすべての種類の計算チップを接続し、国内の十数種類の異なるチップと数十の異なる計算力クラスタを統一接続させました。これはAIシステムの計算力リソース不足の問題を解决し、リソースが不足している時に、最良な方法は先にすべての使用できるリソースを使用し、その後すべて計算力が刃先に使われ、最大な転換効率を発揮することです。
だから、このステージで、私たちが解决する必要があるのは、どのようにより効率的なtoken工場を構築するのかです。ここに、私たちは多くの最適化をしました。モデルがハードウェア上の表示メモリなどのすべてのリソースの最良適応をさせることを含めて、また、今新しいモデル構造とハードウェア構造の間にいっそうの化学反応を産み出せるかを見ています。ただし、今の効率問題を解决するのは、実は一つの標準化されたtoken工場を構築しただけです。
エージェント時代に向けて、私たちはこれはまだ不足だと認識しています。なぜなら、エージェントはもっと一人のような、一つのタスクをそれに与えることができます。私は強固に認識しています。多くのクラウド計算時代の基礎インフラは、一個のプログラム、人類のエンジニアにサービスするために設計されたのであり、AIのために設計されたのではありません。これは、私たちが一つの基礎インフラを構築し、上は人間が使うインターフェース、その上に一つのレイヤーを包装して、エージェント接入するというようで、この方法は実際には人間の操作能力でエージェントの発揮空間を制限したのです。
一つの例を挙げますと、エージェントはミリ秒級で思考とタスク発起ができますが、K8s(kubernetes)のようなベースレイアまでの能力は、実際には、このために準備をしていません。なぜなら人類がタスクを発起するのは粗大の分単位だからです。だから、私たちはさらに一歩大きな能力が必要です。私たちはそれを「Agentic Infra」と呼ぶ、つまり「スマートtoken工場」です。これが无问芯穹がしていることです。
より長期的に見て、本当のAGI時代が到来した時、私たちの基礎インフラ本身がインテリジェント・エージェントであるべきだと認識しています。私たちが構築したこのセット工場も、自分をアップグレード、自分を反復できるべき、一個の自律的な組織を形成できるべきです。それはCEOがいるようなもの、このCEOそのものは一個のエージェント、多分OpenClawで、全体の基礎インフラを管理し、次にAI顧客の要求に応じて自分で要求を提示し、基礎インフラを反復します。これはAI間がいっそう良く耦合できるのです。私たちもしています一些探索、例えば、エージェント間のぐっと良いコミュニケーション、Cache to Cacheのような能力をしています。
それで、私たちが常に考えているのは、基礎インフラとAIの発展は一個隔離された状態であってはいけません――私は要求をもらったら、実現するように、分でしょう。それは非常に多くの豊かな化学反応を起こすべきです。これが本当の意味でのハード・ソフト協働、アルゴリズムと基礎インフラの協働で、无问芯穹がずっと完成したいミッションです。ありがとう。
05."効率の妥協"の革新にも意味がある。DeepSeekは国内チームに勇気と信心をもたらした
ヤン・ジーリン:では次、福莉さんに聞きたいです。小米は最近新モデルをリリースし、背後の技術をオープンソースにし、社区に大きな貢献をしました。小米が大規模モデルをしている中で、あなたは独有の優位があると思いますか?
**ロー・フーリ:**まず、小米がどんな独有の優位があるか、この話題を脇に置いておきたいと思います。私はむしろ、中国が大規模モデルをしている全体のチームの一個の優位についてしゃべりたいです。この話題はより広く価値があります。
ほぼ2年前、中国のベース・モデル・チームはすでに非常に良い突破を開始していました――私たちが制限されている計算力、特に、何つかのNVLink相互接続バンド幅が制限された計算力条件で、どのようにこれらの低階層計算力の制限を突破し、いくつかの見た目上"効率の妥協"のモデル構造革新、例えばDeepSeek V2、V3シリーズ、そしてMoE、MLAなどをします。
しかし、大之后に