
中国のオープンソースAIスタートアップKimiが、最新モデルK2 Thinkingの実績と次世代モデルK3に関する詳細をRedditのAMAで明らかにした。創業者の楊植麟氏らが登壇し、訓練コストや技術戦略、OpenAIとの違いについて率直に語った。
K2 Thinkingの実績と市場の反応
先週公開されたKimi K2 Thinkingは、ベンチマークテストでOpenAIやAnthropicのモデルを上回るスコアを記録し、国内外のSNSで大きな話題となった。実際に筆者らが行った評価でも、長文生成、コード補完、エージェント的推論において顕著な性能向上が確認された。
Reddit AMAで明かされたK3計画とコスト構造
同社はReddit上で情報量の多いAMA(Ask Me Anything)を開催し、楊植麟氏、周昕宇氏、呉育昕氏の3名が質問に全て回答した。質問の中で最も注目を集めたのは、次世代モデルK3のリリース時期と訓練コストだった。
「K3は『ウルトラマンの万億ドル規模データセンターが完成するまでに』リリースする予定です」と答えた楊氏は、実際には具体的な時期は未定であることをユーモア交じりに示した。コストに関しては「460万ドルという数字は公式ではなく、正確な金額は測りにくいが、研究開発費の大部分が費やされている」と説明した。
OpenAIとの差別化戦略
KimiはOpenAIの大規模投資路線に対し、「我々は独自のペースと哲学で開発を進めている」と強調した。特に、AIブラウザ(Chromiumラッパー)の開発は行わず、モデル自体の性能向上に注力すると述べた。
ハードウェア面では、NVIDIA H800 GPUとInfiniBandを使用しているが、米国の最上位GPUほど性能は高くなく、カード枚数でも劣ると認めつつ、限られたリソースを最大限に活用していると語った。
モデルの個性とユーザー評価
K2 Thinkingは「謙虚さが少なく、散文的で洞察に富む」点が評価される一方で、過度にポジティブでAIらしさが残るという批判もあった。Kimiはこの特徴を「事前学習+後学習(ファインチューニング)で意図的に付与したスタイル」と説明し、報酬モデルの設計が出力のトーンに直結していることを認めた。
また、ベンチマークスコアが高いことに対し「HLEなど特定の指標に最適化したわけではなく、長系列推論の微小な改善がスコア向上に寄与した」と回答し、実務での汎用性向上を今後の課題とした。
核心技術:KDA注意機構と長系列推論
10月末に公開された論文『Kimi Linear: An Expressive, Efficient Attention Architecture』で紹介されたKDA(Kimi Delta Attention)は、従来の全注意機構と線形注意機構のハイブリッドとして設計された。長系列の強化学習タスクで計算コストを削減しつつ、性能を維持できる点が評価された。
しかし、Kimiは「ハイブリッド注意はコスト削減が主目的であり、長入力タスクでは依然として全注意が優れる」ことを認め、K3でもKDAをベースにした最適化を続ける方針を示した。
K2 Thinkingは最大300個のツール呼び出しを伴う長い推論チェーンをサポートし、INT4量子化訓練(INT4 QAT)を訓練段階から組み込むことで、推論速度と長系列安定性を同時に実現した。
マルチモーダルへの展望
現在はテキストモデルに注力しているが、視覚言語モデルの開発も進行中であるとチームは述べた。データ収集と訓練に膨大なリソースが必要なため、まずはテキスト領域での実績を固めた上で、将来的にマルチモーダル対応を目指すというロードマップだ。
エコシステムと料金体系の課題
開発者向けAPIは「呼び出し回数」ベースで課金されており、トークン単位の従量課金に比べて透明性が低いと指摘された。Kimiは「コスト構造を明確に示すために回数課金を採用したが、より良い計算方法も検討中」と回答した。
また、1Mトークン対応モデルがコスト面で廃止された理由は「運用コストが高すぎた」ためであり、256Kトークンのコンテキスト長は今後拡張予定だと述べた。
オープンソースへのコミットメントとAGI観
Kimiは「オープンソースはAIの普遍的な発展を促す」とし、企業や組織が独自のAIアシスタントを構築できる環境整備を重視している。AGI(汎用人工知能)については「定義は曖昧だが、AGIに近い雰囲気はすでに感じられる」と楽観的に語り、次世代モデルでさらなるブレークスルーを目指す意向を示した。
今回のAMAは、Kimiが中国国内のAIエコシステムにおいてオープンソースの旗手として位置付けられることを改めて示した。今後のK3リリースとマルチモーダル化が、国内外のAI競争にどのような影響を与えるか注目が集まる。