著者:陳駿達
智東西は3月27日に報道した。本日、中关村フォーラムで、智譜のCEOである張鵬、月の暗面のCEOである楊植麟(司会を担当)、小米MiMo大モデル責任者の羅福莉、無問芯穹のCEOである夏立雪、香港大学助教授の黄超が稀に見る形で一同に介し、オープンソース大モデルとエージェントの将来についての深層対話を行った。
この対話は、現在最も話題のOpenClawから始まり、複数のゲストは、エージェントによって大規模モデルが真正に「作業」を開始したと一致して評価しました。OpenClawは大規模モデルの能力の境界を拡張しますが、同時にモデルに更高的な要求を課します。智譜は長距離計画や自己デバッグなどの能力を研究中であり、ロ・フーリのチームは、アーキテクチャの革新を通じてコストを削減し、速度を向上させ、さらにはモデルの自己進化を実現することに注力しています。
インフラもエージェントのペースに追いつく必要がある。夏立雪は、現在の計算能力システムとソフトウェアアーキテクチャは人間用に設計されており、エージェント用ではないと指摘し、実際には人間の操作能力がエージェントの可能性を制限していると述べている。したがって、Agentic Infraを構築する必要がある。
複数のゲストの視点によると、オープンソースは大規模モデルとエージェントの発展を推進する中心的な原動力の一つである。香港大学助教授の黄超は、オープンソースエコシステムの繁栄が、エージェントを「お遊び」から本物の「労働者」へと移行させる鍵であると考えており、コミュニティによる共同構築を通じて、ソフトウェア、データ、技術がすべてエージェントネイティブな形態に転換され、持続可能なグローバルAIエコシステムが実現すると述べている。
また、複数のゲストは、大規模モデルの価格引き上げ、トークン使用量の爆発的増加、AIの今後12か月のキーワードなどのトピックについて議論しました。以下がこのパネルディスカッションの核心的な見解です:
1、張鵬:モデルが大きくなると推論コストも相应的に上昇します。最近の智譜の価格引き上げ戦略は、本来の商業的価値へ戻るものです。長期的な低価格競争は業界の発展に不利です。
2、張鵬:エージェントなどの新技術の爆発的成長により、トークンの使用量は10倍に増加したが、実際の需要は100倍増加している可能性があり、まだ多くの需要が満たされていない。したがって、計算能力は今後12ヶ月間の鍵となる課題である。
3、羅福莉:基盤大モデルベンダーの視点から見ると、OpenClawは基盤大モデルの下限を保証し、上限を引き上げます。中国製オープンソースモデル+OpenClawのタスク完了度は、すでにClaudeに非常に近づいています。
4、羅福莉:DeepSeekは国内の大規模モデル企業に勇気と自信をもたらしました。効率を犠牲にしたと見られがちなモデル構造の革新が、真の変革をもたらし、計算リソースが一定の状況下で最高レベルの知能を引き出すことを可能にしました。
5、ロ・フリ:今後1年間のAGIの旅において最も重要なことは「自己進化」である。自己進化により、大規模モデルはトップレベルの科学者のように探求できるようになり、唯一「新しいものを生み出す」ことができる場所となる。小米はClaude Code+トップモデルを活用し、研究効率を10倍向上させた。
6、夏立雪:AGI時代が到来したとき、インフラ自体がエージェントとなり、AIクライアントの要望に応じてインフラを自律的に管理し、自己進化・自己迭代を実現すべきである。
7、夏立雪:OpenClawがトークン使用量を爆発的に増加させました。現在のトークン消費速度は、かつて3G時代にスマホのデータ通信量が最初に導入された頃、毎月100MBしか使えないような感覚です。
8、黄超:今後、多くのソフトウェアは人間を対象としなくなる。ソフトウェア、データ、技術はすべてエージェントネイティブな形態に進化し、人間は将来、「自分を幸せにするGUI」だけを使用するようになるだろう。
以下はこのパネルディスカッションの完全な記録です:
01. OpenClawは「足場」であり、大規模モデルのトークン消費はまだ3G時代である
楊植麟:本日、さまざまな分野の重鎮なゲストをお招きできることを光栄に思います。ゲストの皆さんは、モデル層、計算能力層、そしてエージェント層からご参加くださいました。本日の最も重要なキーワードはオープンソースとエージェントです。
最初の質問として、現在最も人気のあるOpenClawについて話しましょう。皆さんが日常的にOpenClawや類似の製品を使用している際、最も想像力に富んでおり、印象に残った点はどのようなものですか?技術的な観点から、今日のOpenClawおよび関連エージェントの進化をどのように評価しますか?

張鵬:私はとても昔からOpenClawを自分で遊んでいました。当時はClawbotと呼ばれていました。自分自身で手を動かして試行錯誤しました。プログラマー出身なので、こういったものには自分なりの体験があります。
OpenClawがユーザーにもたらす最大の革新点、あるいは新鮮さは、それがプログラマーやコアなテクノロジー愛好者の特権ではなくなったことです。一般の人々も、特にプログラミングやエージェントの分野で、最先端のモデルの機能を比較的簡単に利用できるようになりました。
これまでの皆様とのやり取りの中で、私はOpenClawを「足場」と呼ぶことを好んでいます。これは、モデルの基盤の上に、堅牢で使いやすく、かつ柔軟な足場を構築するものです。皆さんは、さまざまな基盤モデルが提供する新規機能を、ご自身の意図に従って活用できます。
以前总觉得自己的想法会因为不会编程或缺乏其他相关技能而受限,但今天有了OpenClaw,终于可以通过简单的交流轻松实现它。
OpenClawは私に大きな衝撃を与え、あるいはこの出来事を再認識させました。

夏立雪:実は最初にOpenClawを使ったときは、大規模モデルとの会話に慣れていたため、少し馴染めませんでした。使ったところ、OpenClawの反応がとても遅いと感じました。
しかし、その後、これが以前のチャットボットと大きく異なる点に気づいた。それは、大きなタスクを私に代わって遂行してくれる「人」のような存在だった。より複雑なタスクを依頼してみたところ、実際によく対応できることに気づいた。
この出来事は私に大きな感銘を与えました。モデルは当初、トークンを用いて会話するだけでしたが、今やエージェントとなり、カニになり、タスクを代行できるまでになりました。これはAIの全体的な想像の幅を大きく拡大しました。
同時に、それはシステム全体の能力に対する要求も高くなります。これが、私が最初にOpenClawを使ったときに、少しカクつくと感じた理由です。インフラストラクチャ層のベンダーとして、私はOpenClawがAIの背後にある大規模なシステムやエコシステムに、より多くの機会と課題をもたらしているのを見ています。
現在私たちが利用できるすべてのリソースでは、このような急速な成長時代を支えるには不十分です。例えば、私たちの会社の場合、1月末からほぼ2週間ごとにトークンの使用量が2倍になり、現在では約10倍に増加しています。
この速度に最後に出会ったのは、3G携帯電話でデータ通信量を使い切っていた頃だった。今のトークン使用量は、かつて毎月100MBの携帯データ通信量しかなかった時代のようだという感覚がある。
このような状況下では、私たちのすべてのリソースをより良く最適化し、統合する必要があります。AI分野にとどまらず、社会のすべての人々がOpenClawのAI機能を活用できるようにしましょう。
インフラのプレイヤーとして、私はこの時代に非常に興奮し、深く感銘を受けています。また、まだ探求し、試すべき最適化の余地がたくさんあると感じています。
02.OpenClaw、国内モデルの上限を引き上げ、インタラクティブモードの突破は重要な意義を持つ
ロ・フーリ:私はOpenClawを、エージェントフレームワークの進化過程における非常に革新的で破壊的な出来事と見なしています。
実際に、私の周りで非常に深度なコーディングを行っている人々の第一の選択肢は依然としてClaude Codeです。しかし、OpenClawを使用している人々は、そのAgentフレームワークにおける多くの設計がClaude Codeを先取りしていることに気づくでしょう。最近のClaude Codeの多くの更新は、実際にはOpenClawに近づこうとしているものです。
OpenClawを自分自身で使用した感想は、このフレームワークが私の創造力をあらゆる場所で自由に拡張してくれることです。Claude Codeは当初、デスクトップでのみ私のアイデアを拡張できましたが、OpenClawはどこにいても私の創造力を拡張できます。
OpenClawがもたらす核心的な価値は主に二つあります。第一に、それはオープンソースであることです。オープンソースであることは、コミュニティ全体が深く関与し、このフレームワークの進化を重視し推進する上で非常に重要であり、重要な前提条件です。
OpenClawのようなAIフレームワークの大きな価値の一つは、国内の閉源モデルに近いがまだ完全に追いついていないモデルの上限を非常に高く引き上げることにある。
ほとんどのシナリオで、このモデル(国内開発のオープンソースモデル+OpenClaw)のタスク完了度は、Claudeの最新モデルに非常に近いことがわかります。また、HarnessシステムやSkills体系などの多面的な設計により、タスクの完全性と精度が確実に保たれています。
基盤大モデルベンダーの開発者視点から見ると、OpenClawは基礎大モデルの下限を保証し、上限を引き上げます。

また、私が思うに、それがコミュニティ全体にもたらしたもう一つの価値は、大規模モデルの外側にあるエージェント層に、非常に広い可能性が隠されていることを人々に気づかせたことです。
最近、研究者以外にも、コミュニティ内でますます多くの人々がAGIの変革に参加し、HarnessやScaffoldのようなより強力なエージェントフレームワークに触れるようになっています。これらのツールを活用することで、彼らは自分の仕事の一部を置き換え、より創造的なことに時間を割くことができるようになっています。
黄超:まずインタラクションの観点から見ると、OpenClawが今回注目された理由の一つは、より「生きた人間」のような体験を提供したことです。我々はエージェントの開発をすでに1〜2年続けてきましたが、以前のCursorやClaude Codeなどのエージェントは、あくまで「ツール」としての印象が強かったです。一方、OpenClawは初めて「チャットアプリに組み込まれる」という形で、人々の理想とする「個人用ジャービス」に近い感覚を提供しました。これはインタラクションモデルにおける一つのブレイクスルーだと考えます。
また、これはコミュニティ全体に以下の示唆を与えています:Agent Loopのようなシンプルで効率的なフレームワークが、再び実現可能であることが証明されました。同時に、我々は改めて考え直す必要があります:すべてのことをこなせる万能なスーパーエージェントが必要なのか、それとも、軽量なオペレーティングシステムや足場のような、より優れた「小さな管家」が必要なのか?
OpenClawが提示するアイデアは、このような「小さなシステム」、あるいは「エビオペレーティングシステム」とそのエコシステムを通じて、ユーザーが本格的に「楽しむ」姿勢を身につけ、エコシステム内のすべてのツールを活性化させることです。
SkillsやHarnessのような機能が登場したことにより、ますます多くの人がOpenClawのようなシステム向けのアプリケーションを設計し、さまざまな業界を強化できるようになっています。私はこの点がオープンソースエコシステムと非常に密接に結びついていると感じています。私にとって、この二点が得られた最大の示唆です。
03.GLMの新モデルは「作業」に特化して設計され、価格上昇は通常の商業価値への回帰です
楊植麟:張鵬さんに質問したいのですが、最近智譜が新しいGLM-5 Turboモデルを発表したのを見ましたが、Agentの能力が大幅に強化されたと理解しています。この新しいモデルが他のモデルとどのように異なるのか、ぜひご説明いただけますか?また、価格引き上げの戦略が見られますが、これはどのような市場シグナルを示しているのでしょうか?
張鵬:これは良い質問です。前日、私たちは確かに緊急アップデートを実施しましたが、これは私たちの全体的な開発ロードマップの一部であり、ただそれを前に出しただけです。
最も重要な目的は、従来の「簡単な会話」から「実際に仕事をする」ことに移行することです。これは最近、皆が普遍的に感じていることです:大規模モデルは単に会話できるだけでなく、実際に人を助けて仕事をすることができるようになったのです。
しかし、「作業を実行する」には非常に高い能力が求められます。モデルは自ら長期的なタスク計画を立て、継続的に試行錯誤を繰り返し、コンテキストを圧縮し、デバッグを行い、マルチモーダル情報に対処する必要もあります。そのため、そのモデルに求められる能力は、従来の対話型汎用モデルとは異なります。GLM-5 Turbo はこれらの点に特化して強化されており、特にあなたが言及したように、72時間連続でループし続けられるようにするため、多くの取り組みを行いました。
また、ユーザーはトークン消費の問題にも注目しています。複雑なタスクを実行するには、賢いモデルのトークン消費量が非常に大きくなります。一般のユーザーはその影響を実感しにくいかもしれませんが、請求書を確認すると、お金が急激に減っていることに気づきます。そのため、我々もこの点で最適化を実施し、複雑なタスクに直面した際に、モデルはより効率的なトークン使用でタスクを完了できるようにしました。全体的には、モデルのアーキテクチャは依然としてマルチタスク協調型の汎用アーキテクチャですが、能力面で特定の方向性に強化を加えています。
価格引き上げについては、実はとても説明しやすいです。先ほど述べたように、今や単純な質問に対して即座に答えが得られる時代ではなく、その背後には非常に長い推論プロセスが存在します。多くのタスクではコードを書いたり、基盤インフラとやり取りしたり、継続的なデバッグやエラー修正が必要であり、その消費量は非常に大きくなります。複雑なタスクを完了するのに必要なトークン量は、かつて単純な質問に答える際の10倍、あるいは100倍にもなる可能性があります。
したがって、価格には一定程度の引き上げが必要であり、モデルも大型化したため、推論コストも相应して上昇しました。長期的に低価格競争に頼ることは業界全体の発展に不利益であるため、本来の商業的価値に戻すことが重要です。これにより、商業化が健全なフィードバックループを形成し、モデルの能力を継続的に最適化し、皆様により良いサービスを提供できるようになります。
04. より効率的なトークンファクトリーを構築するには、インフラ自体もエージェントであるべきです
楊植麟:現在オープンソースモデルがますます増えており、エコシステムも形成され始めています。さまざまなモデルが異なる計算プラットフォームでユーザーにさらに多くの価値を提供しています。トークン使用量の爆発的増加に伴い、大規模モデルはトレーニング時代から推論時代へと移行しています。立雪さんに伺いますが、インフラ面から見ると、推論時代は無問にとってどのような意味を持ちますか?
夏立雪:私たちはAI時代に生まれたインフラ企業であり、現在、智譜、Kimi、Mimoなどにもサポートを提供し、トークンファクトリーをより効率的に活用できるようにしています。また、多くの大学や研究機関とも協力しています。
そのため、私たちは常に一つのことを考え続けています:AGI時代にはどのようなインフラが必要なのか、そしてそれをどのように段階的に実現し、推演していくのか。現在、短期・中期・長期の各段階で解決すべき課題について、十分な準備を整えています。
現在最も直接的な課題は、先ほど皆さんが議論した通り、Openによって引き起こされたトークン量の急増が、システムの効率性に更高的な最適化要件を課していることです。価格の調整も、この要請に対する一つの対応策です。
私たちはこれまで、ソフトウェアとハードウェアを連携させる方式で布局し、問題を解決してきました。たとえば、ほぼすべての種類の計算チップを導入し、国内の十数種類の異なるチップと数十の異なる計算クラスタを統一的に接続しました。これにより、AIシステムにおける計算リソースの不足という課題を解決できます。リソースが不足している際、最も効果的な方法は、利用可能なすべてのリソースを活用し、それぞれの計算能力を最大限に効率的に活かすことなのです。
したがって、この段階で解決すべき課題は、より効率的なトークンファクトリーを構築することです。ここでは、モデルとハードウェアのVRAMを含むさまざまなリソースの最適な適合を図るなど、多くの最適化を実施しており、最新のモデル構造とハードウェア構造の間にさらに深い相乗効果が生じるかどうかを検討しています。しかし、現在の効率性の問題を解決することは、あくまで標準化されたトークンファクトリーを構築したにすぎません。

エージェント時代に向け、私たちはこれでは不十分だと考えています。エージェントは人間に似ており、タスクを委ねることができるからです。私は明確に信じています。現在のクラウドコンピューティング時代のインフラストラクチャは、プログラムや人間のエンジニアを対象に設計されており、AIを対象にしていないということです。これは、人間用のインターフェースを持つインフラストラクチャの上に、エージェントを接続するための層を追加するようなものであり、人間の操作能力がエージェントの可能性を制限しているにすぎません。
例えば、エージェントはミリ秒単位で思考しタスクを開始できますが、K8s(Kubernetes)のような基盤機能は、人間がタスクを開始するのが分単位であるため、これに対応する準備ができていません。そのため、より進化した能力が必要であり、これを「Agentic Infra」、すなわち「知的トークン工場」と呼びます。これは無問芯穹が取り組んでいる分野です。
より長期的に見ると、真のAGI時代が到来したとき、インフラ自体もエージェントであるべきだと考えています。私たちが構築したこの工場も、自ら進化し、自ら反復更新でき、自律的な組織を形成できるものでなければなりません。これはまるでCEOが存在するかのように、そのCEO自体がエージェントであり、OpenClawのような存在がインフラ全体を管理し、AIクライアントの要望に応じて自ら要望を出し、インフラを反復更新します。これにより、AI同士がより良く連携できるようになります。私たちはまた、エージェント間の通信をより良くする、Cache to Cacheのような機能の実現など、さまざまな探求を進めています。
そのため、我々はインフラとAIの発展が孤立した状態で進むべきではない、つまり要件が来たらただ実装するだけではなく、非常に豊かな化学反応を生み出すべきだと考えています。これが真の意味でのソフトウェアとハードウェアの協調、アルゴリズムとインフラの協調であり、無問芯穹が常に実現しようとしているミッションです。ありがとうございました。
05.「効率のために妥協する」イノベーションにも意味があり、DeepSeekは国内チームに勇気と自信をもたらした
楊植麟:次に、フォーリさんに質問したいと思います。小米は最近、新モデルのリリースと関連技術のオープンソース化を通じてコミュニティに大きな貢献をしました。小米が大規模モデルにおいてどのような独自の強みを持っているとお考えですか?
羅福莉:私は、小米がどのような独自の利点を持っているかという話は一旦置いておいて、中国の大規模モデルを開発するチーム全体の強みについて話したいと思います。この話題にはより広範な価値があると考えています。
約2年前、中国のベースモデルチームはすでに大きなブレークスルーを達成しました——限られた計算リソース、特にNVLink接続帯域幅が制限される環境下で、これらの低性能計算リソースの制約を克服し、「効率のための妥協」と見えるようなモデル構造の革新を実現しました。例えばDeepSeek V2、V3シリーズやMoE、MLAなどです。
しかし、その後、私たちはこれらの革新がもたらした変革に気づきました。計算リソースが一定である中で、いかに最高レベルの知能を発揮するかという課題です。これはDeepSeekが国内のすべてのベースモデルチームに与えた勇気と自信です。今日、私たちの国産チップ、特に推論チップやトレーニングチップはもはやこのような制約を受けませんが、正是この制約の下で、より高いトレーニング効率とより低い推論コストを実現するための新しいモデル構造の探求が促されました。
最近登場したHybrid SparseやLinear Attentionのような構造、たとえばDeepSeekのNSAやKimiのKSA、そして小米の次世代構造向けHySparseなどは、MoEというこの世代の構造とは異なり、Agent時代に向けたモデル構造の革新です。
なぜ私は構造的イノベーションが如此に重要だと感じるのでしょうか?実際にOpenClawを使用してみれば、使い続けるほど使いやすくなり、より賢くなることがわかるでしょう。その前提の一つが推論のコンテキスト長です。長コンテキストは、これまで長く議論されてきたテーマですが、現在、長コンテキストで優れたパフォーマンスを発揮し、推論コストが低いモデルは本当に存在するのでしょうか?
実際、多くのモデルは1Mや10Mのコンテキストを処理できないわけではなく、1Mや10Mの推論コストが高すぎ、速度が遅すぎるためです。コストを下げ、速度を向上させることで、真に生産性の高いタスクをモデルに任せ、このような長コンテキストでより複雑なタスクを実行し、さらにはモデルの自己反復を実現できるようになります。
モデルの自己反復とは、複雑な環境において超長のコンテキストを活用して自己を進化させることを意味する。この進化はエージェントフレームワークそのものに対するものであり、あるいはモデルパラメータそのものに対するものである可能性がある——なぜなら、私はコンテキストそのものがパラメータの一種の進化であると考えているからだ。したがって、長コンテキストアーキテクチャをどのように実現し、推論側で長コンテキストの効率的な推論をどのように実現するかは、包括的な競争である。
私が先ほど言及したように、長コンテキスト効率的なアーキテクチャを事前学習段階で整えること——これは約1年前から私たちが探求し始めた課題です。現在、長距離タスクにおける安定性と高い上限性能を実現するためには、後学習段階で継続的に進化させているイノベーティブなパラダイムが不可欠です。
私たちは、より効率的な学習アルゴリズムをどのように構築するか、1M、10M、100Mのコンテキストにおいて実環境で真正な長期依存関係を持つテキストをどのように収集するか、そして複雑な環境から生成されるトラジェクトリーデータと組み合わせるかについて、現在後学習で取り組んでいます。
しかし、より長期的に見ると、大規模モデル自体の急速な進歩に加えて、Agentフレームワークの支援により、立雪が述べたように、過去一段时间の推論需要は約10倍に増加しました。では、今年のトークン使用量全体の増加は100倍になるでしょうか?
ここでは、さらに別の次元の競争、つまり計算能力、あるいは推論チップ、さらにはエネルギーにまで及んでいます。そのため、もし皆さんがこの問題について一緒に考えてくれるなら、私は皆さんからもっと学べると思います。ありがとうございます。
06.Agentは三大主要モジュールを備えており、マルチAgentの爆発的拡大は衝撃をもたらすだろう
楊植麟:非常に洞察に富んだシェアリングありがとうございます。次に、黄超さんに質問したいのですが、あなたはNanobotのような影響力のあるAgentプロジェクトを開発され、多くのコミュニティのファンを持っています。Agentのハーネスやアプリケーションの観点から、今後どのような技術的方向性が重要で、皆さんが注目すべきだとお考えですか?
黄超:私は、エージェントの技術を抽象化すると、Planninɡ、Memory、Tool Use の数つのモジュールが鍵であると思います。

まずPlanningについて述べる。現在の問題は、長距離タスクや非常に複雑なコンテキスト、たとえば500ステップ以上のような場合に、多くのモデルが十分な計画を立てられないことである。本質的には、モデルがこうした暗黙の知識を備えていない可能性があり、特に複雑な垂直分野においてそうだ。したがって、今後はこうした複雑なタスクの知識をモデルに固定化することが一つの方向性となるかもしれない。
もちろん、SkillとHarnessは、高品質なSkillを提供することで、Planningがもたらす誤りを一定程度緩和しており、本質的にはモデルが比較的難しいタスクを完了するように導いています。
もう一度Memoryについて話す。Memoryは、情報の圧縮が不正確で、検索も不正確であるという印象がある。特に長距離タスクや複雑なシナリオでは、Memoryへの負荷が急増する。現在、OpenClawのようなプロジェクトでは、皆が最も単純なファイルシステム形式のMarkdown形式のMemoryを使用し、ファイルを共有して実現している。今後、Memoryは階層設計へと進化し、より汎用的になる必要がある。
正直に言えば、現在のMemoryメカニズムを汎用的に実現するのは難しいです。なぜなら、コーディングのシナリオ、ディープリサーチのシナリオ、マルチモーダルのシナリオでは、データモダリティが大きく異なり、これらのMemoryを効率的に検索・インデックス化しつつ、パフォーマンスを維持するには常にトレードオフが伴うからです。
また、OpenClawがエージェント作成のハードルを大幅に下げたことで、今後は「エビ」が複数存在する可能性があります。KimiにもAgent Swarmのような仕組みが登場しており、今後は誰もが「一団のエビ」を持つようになるかもしれません。
単一のエビと比べ、一群のエビがもたらすコンテキストの増加は想像できるが、これはメモリに大きな負担をかける。現在、このような「一群のエビ」によるコンテキストを管理する優れたメカニズムはまだ存在せず、特に複雑なコーディングや科学的発見などのシナリオでは、モデル全体およびエージェントアーキテクチャに大きな負荷がかかっている。
Tool Use、つまりSkillの部分について再び話します。現在のSkillが抱える問題は、当初のMCPと似ています——MCPは当時、品質の保証やセキュリティリスクなどの問題を抱えていました。現在のSkillも同様で、多くのSkillが存在するように見えますが、高品質なものは少なく、低品質なSkillはAgentがタスクを完了する際の正確性に悪影響を及ぼします。さらに悪意のあるインジェクションの問題もあります。したがって、Tool Useの観点から見ると、コミュニティが全体のSkillエコシステムをより良くする必要があり、甚至Skillが実行中に自ら新しいSkillを進化させられるようにすることが求められます。
全体として、Planning、Memory、Tool Use は、現在のエージェントが抱える課題であり、将来の可能性でもあります。
07. 未来12ヶ月のキーワード:エコシステム、持続可能なトークン、自己進化と計算力
楊植麟:两位のゲストが、タスクの複雑さが増すにつれてコンテキストが急増するという共通の課題を異なる視点から議論していることがわかります。モデル層面では、ネイティブなコンテキスト長を拡張することが可能であり、Agent Harness層面では、Planning、Memory、Multi-Agentといったメカニズムも、特定のモデル能力のもとでより複雑なタスクをサポートできます。私は、今後この二つの方向性がさらに化学反応を起こし、タスク実行能力をさらに向上させると考えています。
最後に、オープンな展望をお話ししましょう。皆さんは、今後12か月における大規模モデルの発展トレンドとあなたの期待を、一つの言葉で表すと何になりますか?まずは黄超からお願いします。
黄超:AIという分野で12か月はとても遠く、12か月後にはどのような発展をしているのか分からない。
楊植麟:ここには本来「五年」と書かれていましたが、私は変更しました。
黄超:はい、哈哈。私が思いついた言葉は「エコシステム」です。現在、OpenClawは多くの人々を活発にしていますが、将来的にはAgentが単に楽しんだり新鮮さを求める存在ではなく、本当の「労働者」となるべきです。将来的には、それが本当に定着し、搬砖のツールとなり、真の共同作業者となるべきです。
これはエコシステム全体の努力が必要であり、特にオープンソース化が重要です。技術の探求とモデル技術をオープンソースにした後、モデルのイテレーション、Skillプラットフォームのイテレーション、そしてさまざまなツールについて、コミュニティ全体で共同で構築する必要があります。
明らかに見られるトレンドとして、将来のソフトウェアは依然として人間用に設計されるだろうか?私は、将来の多くのソフトウェアが必ずしも人間を対象としない可能性が高いと考えている。なぜなら、人間にはGUIが必要だが、将来はエージェントネイティブな使用が主流になるからだ。興味深いことに、人間は自分自身を幸せにするGUIだけを使うようになるだろう。現在、エコシステム全体はGUIやMCPからCLIのモードへと移行している。そのため、エコシステムはソフトウェアシステム、データ、さまざまな技術をすべてエージェントネイティブな形態に変える必要があり、そのようにすることで、全体の発展がより豊かになるだろう。
ロ・フーリ:問題を1年間に限定するのは非常に意味があります。5年というスパンで見れば、私の考えるAGIの定義に基づけば、すでに実現されていると考えます。したがって、今後1年間のAGIの進化において最も重要な出来事を一言で表すなら、「自己進化」です。
この言葉は少し神秘的に聞こえ、過去一年で何度も取り上げられてきました。しかし、最近私はこれについてより深く実感するようになり、「自己進化」をどのように実現するかについて、より現実的で実行可能な方法を模索できるようになりました。その理由は、強力なモデルが登場したことで、Chatパラダイムでは事前学習モデルの上限を十分に発揮できていなかった一方で、Agentフレームワークがその上限を活性化したからです。モデルにより長時間のタスクを実行させたところ、自ら学習し進化できることが明らかになりました。
簡単な試みとして、既存のエージェントフレームワークに検証可能な条件制約を追加し、ループを設定してモデルが目標を繰り返し最適化させると、より優れたソリューションを継続的に導き出せることがわかります。この自己進化は、現在すでに1〜2日間実行可能ですが、タスクの難易度によって異なります。
例えば、より良いモデル構造の探索といった科学的研究では、モデル構造にはPPLの低さなどの評価基準があります。このような決定的なタスクにおいて、我々はすでに2〜3日間自立して最適化および実行できていることを発見しました。
したがって、私の見解では、自己進化は「新しいものを生み出す」唯一の場所です。それは既存の人間の生産性を置き換えるのではなく、トップレベルの科学者のように、世界にまだ存在しないものを探求します。一年前なら、このタイムラインは3〜5年かかると考えていましたが、最近では1〜2年以内に実現する可能性が高いと感じています。おそらくまもなく、大規模モデルに強力な自己進化エージェントフレームワークを組み合わせることで、科学研究を少なくとも指数的に加速できるようになるでしょう。
最近、私たちのグループで大規模モデルの研究をしている同僚たちのワークフローが非常に不確実で創造的であることに気づきましたが、Claude Codeとトップレベルのモデルを活用することで、私たちの研究効率は約10倍向上しました。このパラダイムがより広範な学問分野や領域に広がることを強く期待しており、そのため「自己進化」が非常に重要だと考えています。
夏立雪:私のキーワードは「サステナブルなトークン」です。AIの発展全体が長期的に継続するプロセスであると感じており、私たちもその長寿命を望んでいます。インフラの観点から見ると、大きな課題はリソースが最終的に限られていることです。
当時の持続可能性の話と同じように、私たちがトークンファクトリーとして、トップレベルのモデルがより多くの下流サービスに真正に貢献できるよう、持続的で安定した大規模なトークン供給が可能かどうかは、私たちが重要な課題と見なしていることです。
エネルギーから計算能力、トークン、最終的にアプリケーションまで、エコシステム全体の視野を広げ、持続可能な経済的反復を実現する必要があります。国内のさまざまな計算能力を活用するだけでなく、それらの能力を海外にも提供し、グローバルなリソースをつなぎ合わせ、統合します。
私も「持続可能性」は、中国独自のトークン経済を築くことだと感じています。過去、私たちは「Made in China」として、中国の低価格な製造能力を活かし、優れた商品を世界中に輸出しました。
今私たちが行うべきは「AI Made in China」です。中国がエネルギーなどの分野で有する優位性を、トークンファクトリーを通じて持続的に優れたトークンに変換し、世界へと供給し、世界のトークンファクトリーとなることです。これが今年私が中国が世界の人工知能にもたらす価値として見たいものです。
張鵬:簡単に言います。皆さんは空を見上げていますが、私は現実に立ち返ります。私のキーワードは「ハッシュレート」です。
先ほども述べましたが、すべての技術やエージェントフレームワークは、皆さんの創造性と効率を10倍に向上させますが、前提是実際に使えることです。問題を投げかけても、長時間考えたまま答えを出さないでは、もちろんダメです。そのため、多くの研究の進展ややりたいことが阻害されています。
2年前、私は中关村フォーラムである院士が「カードがなければ感情がない、カードを語れば感情を傷つける」と言ったのを覚えている。今日はまたその状況に達したように感じるが、状況は異なる。今、私たちは推論段階に入り、需要が本当に爆発している——10倍、100倍と増加している。先ほど、使用量が10倍になったと言っていたが、実際の需要は100倍かもしれない。まだ満たされていない大量の需要がある。どうすればいいのか?私たち全員で考えましょう。
