2026/02/18

AMD初の機架級AIシステムHelios、量産が2027年へ延期

AMD初の機架級AIシステムHelios、量産が2027年へ延期 のキービジュアル
  • AMDの初の機架級AIシステム「Helios」の大規模量産が2027年上半期に延期されたことが判明。
  • 2026年下半期にエンジニアリングサンプルと小規模量産が開始され、実際の本格運用は2027年になる見込みです。
  • EthernetベースのUALink高速互連やXPU統合など、競合のNVIDIA RubinやGoogle TPUと比較した技術的特徴を解説。

こんにちは!テックブロガーの○○ですです。AMDが発表した機架級AIシステム「Helios」の量産スケジュールが大幅に遅れるというニュース、皆さんも気になりませんか?生成AIやLLMが急速に普及する中で、ハードウェア側の供給遅延は業界全体に波及する可能性があります。今回はその背景と、競合他社との比較、そして日本のAIインフラに与えるインパクトをざっくり解説していきますです。

Heliosとは何か?AMD初の機架級AIプラットフォーム

AMDが2024年に発表した「Helios」こと MI455X UALoE72 は、機架(ラック)単位で展開できるAIアクセラレータです。主な特徴は以下の通りです。

  • GPUとCPUを統合したXPUアーキテクチャで、AI推論とトレーニングを同時に高速処理。
  • EthernetベースのUALink高速互連を採用し、サーバー間のデータ転送レイテンシを大幅に削減。
  • 2nmプロセスで製造されたInstinct MI455X GPUコアを搭載し、FP16/FP8演算性能が大幅向上。

要は、GPUだけでなくCPUやメモリコントローラまで一体化した「超」AIサーバーというイメージですです。これにより、従来は複数のカードを組み合わせて実現していたスケールアウトが、1台のラックで完結できるようになると期待されています。

量産延期の背景とスケジュール

半導体分析機関SemiAnalysisのレポートによると、Heliosは当初2025年中に大規模量産を開始する予定でしたが、製造プロセスの安定化やサプライチェーンの逼迫により、以下のようにスケジュールが変更されました。

  • 2026年下半期:エンジニアリングサンプル(ES)と小規模量産開始。
  • 2027年上半期:本格的な大規模量産開始、最初のトークン生成(本番環境でのAIサービス提供)開始。

この遅延は、AMDが2nmプロセスの量産体制を整えるまでに時間がかかったこと、そして高帯域ULinkインタコネクトのテストが想定以上に複雑だったことが主因とされていますです。

競合比較:NVIDIA Rubin、Google TPU、AWS Trainiumとどう違うのか

AIインフラ市場では、すでにNVIDIAの「Rubin」シリーズやGoogleの「TPU」、Amazonの「Trainium」などがシェアを争っていますです。Heliosの差別化ポイントは次の通りです。

1. UALink高速互連

従来のPCIeやNVLinkに代わり、EthernetベースのUALinkを採用。これにより、サーバー間で数十Gbpsの低遅延通信が可能になり、分散トレーニングやマルチモーダルAIのデータフローがスムーズになりますです。

2. XPU統合

GPUとCPUが同一ダイ上に統合されているため、データ転送コストが削減され、LLMのような大規模モデルでもレイテンシが抑えられますです。

3. エコシステムの成熟度

AMDはCUDA互換のROCmを提供していますが、NVIDIAに比べてソフトウェアスタックがまだ成熟途上です。したがって、導入ハードルはやや高めになる可能性がありますです。

結局、Heliosは「高速インターコネクト」と「XPU統合」という点で差別化を狙っていますが、ソフトウェアエコシステムと量産タイミングが鍵になるでしょうです。

日本市場への示唆

日本の大手SIerやクラウドベンダーは、AIインフラの多様化を進めていますです。特に金融・製造業向けにオンプレミスで高性能AIサーバーを導入したいというニーズが増えており、AMDのHeliosが本格的に供給開始されれば、NVIDIA依存からの脱却を検討する企業が出てくる可能性がありますです。

また、国内のデータセンター事業者は、エネルギー効率と冷却コストが重要です。Heliosは2nmプロセスとHBM3Eメモリを採用予定で、電力効率は同クラスのGPUと比べて約10%向上すると見込まれていますです。これが実現すれば、コストパフォーマンスの観点から日本市場でも競争力が出てくるでしょうです。

まとめ:2027年に向けて注目すべきポイント

今回の量産延期は一見ネガティブに見えますが、実はAMDが技術的な成熟とサプライチェーンの最適化に時間をかけている証拠でもありますです。2027年上半期に本格的に市場に投入される頃には、生成AIやLLMの需要はさらに拡大しているはずです。そこで注目したいのは、以下の3点です。

  • UALinkが実際にどれだけ低遅延を実現できるか。
  • ソフトウェアスタック(ROCm、PyTorch対応)がどれだけ成熟するか。
  • 日本のデータセンターやエンタープライズが導入コストと電力効率をどう評価するか。

これらがクリアされれば、HeliosはNVIDIAやGoogleに対抗できる本格的な選択肢になるはずですです。AIインフラの選択は、ハードウェアだけでなくエコシステム全体を見渡すことが重要ですから、今後の動向をぜひチェックしてくださいです。

それでは、また次回のテックニュースでお会いしましょうです!

出典: https://www.ithome.com/0/922/255.htm

2026/02/17

中国テックが春晩ロボットに搭載!生成AI時代の最新激光雷達技術を

中国テックが春晩ロボットに搭載!生成AI時代の最新激光雷達技術を のキービジュアル
  • 禾赛科技のJT128レーザーレーダーが春晩ロボットに搭載された背景
  • 360°無死角感知が可能になる技術的ポイントと産業応用例
  • 日本のロボティクス市場への示唆と今後の競争構造

こんにちは!テックブロガーの○○ですです。2026年の春晩ステージで、あの話題の宇树ロボットが武術とランクルを披露したのをご存知ですかですか?実はそのロボット、背後で禾(ヘ)赛科技が開発したJT128レーザーレーダーをフル装備していたんですです。今回はその“見えない目”がどんな技術で、なぜ日本のビジネスパーソンにとっても注目すべきなのかを掘り下げてみますです!

春晩ロボットに搭載されたJT128レーザーレーダーとは?

禾赛科技は中国のAIハードウェア企業で、特にレーザーレーダー(LiDAR)分野で世界トップクラスの特許数を誇りますです。今回春晩で披露された宇树ロボットは、2機種ともJT128というミニサイズの360°レーザーレーダーを搭載し、合計で数十個ものセンサーが同時に稼働していますです。

JT128は最大256ラインのスキャンが可能で、1秒間に数十万点の点群データを取得できますです。この高解像度点群は、ロボットが自律的に障害物を回避したり、武術の動きを正確に再現したりするための“目”として機能しますです。さらに、AIチップと組み合わせたリアルタイム処理により、ミリ秒単位で環境変化に対応できる点が大きな強みですです。

360°無死角感知の実装例

春晩のステージでは、ロボットが高速で走り回りながらも、観客やセットの障害物に衝突しないように見事に制御されていましたです。この背後には、JT128が提供する全方位の距離情報がリアルタイムでAIアルゴリズムに供給され、動的に経路を再計算する仕組みがありますです。まさに“生成AI”が生成したシミュレーション結果を実機で再現したような感覚です。

技術的なポイントと産業応用

JT128の特徴は以下の3点に集約されますです。

  1. 高密度スキャン:256ライン、最大200mの測距で、細部まで正確に把握。
  2. 低消費電力:ミニチュアサイズながら、1W以下の電力で動作し、モバイルロボットに最適。
  3. AI統合向けAPI:RISC‑Vベースの主制御チップとシームレスに連携し、LLMや生成AIモデルと組み合わせた高度な認識が可能。

このような特性は、物流ロボット、倉庫自動化、そして自動運転タクシー(Robotaxi)など、さまざまな産業シーンで活用が期待されていますです。実際、禾赛科技は米国の大手Robotaxi企業と4,000万ドル規模の受注を結んでおり、同社のレーザーレーダーがグローバルに展開されつつありますです。

生成AIとLLMとのシナジー

ここで注目したいのが、生成AIや大規模言語モデル(LLM)との組み合わせですです。例えば、ロボットが取得した点群データをLLMが自然言語で説明したり、生成AIがシミュレーションシナリオを自動生成したりすることで、開発サイクルが大幅に短縮されますです。禾赛科技は自社チップに「光子隔離」安全技術を実装し、AIが誤判断した際のリスクを最小化していますです。

日本市場への示唆と競争構造

日本でもロボティクスは産業AIの重要領域として注目されていますです。特に、ソフトバンクロボティクスのPepperや、ファナックの産業ロボットは、センサー融合が鍵となっていますです。そこで、禾赛科技のJT128が示す“高精度・低コスト”のレーザーレーダーは、日本企業にとっても大きなインパクトを持ちますです。

具体的には、以下の点が日本市場での競争優位につながる可能性がありますです。

  • 既存のLiDARベンダー(Velodyne、Ouster)に比べ、価格帯が低く、導入ハードルが下がる。
  • RISC‑Vベースのオープンアーキテクチャは、国内の半導体スタートアップと連携しやすい。
  • 中国テック企業の特許ポートフォリオが強固なため、技術ライセンスや共同開発の交渉材料になる。

日本のメーカーがこの技術を取り入れることで、例えば倉庫内自律搬送ロボットの導入コストが削減され、SME(中小企業)でもAIロボティクスを活用しやすくなるのではないでしょうかですか?

まとめ:春晩ロボットが示す未来像

春晩での宇树ロボットのパフォーマンスは、単なるエンタメに留まらず、最先端のレーザーレーダーと生成AIが融合した“具身知能”の実例ですです。禾赛科技のJT128は、360°無死角感知と低消費電力を両立させ、産業AIの実装を加速させるキーコンポーネントとなりますです。

日本のビジネスパーソンにとっては、技術導入のコスト・リスクを抑えつつ、AIとハードウェアのシナジーを活かすチャンスが広がっていると言えるでしょうです。ぜひ、次回の技術選定や投資判断の材料に加えてみてくださいです。

出典: https://www.ithome.com/0/922/258.htm

華為昇騰×阿里Qwen3.5、0Dayで即活用!生成AI最前線

華為昇騰×阿里Qwen3.5、0Dayで即活用!生成AI最前線 のキービジュアル
  • 華為昇騰が0 DayでQwen3.5を即座に適応、開発サイクルが劇的に短縮。
  • Qwen3.5‑Plusは3970億パラメータで、実効パラメータは170億に抑えつつ性能は1兆規模モデルを上回る。
  • MindSpeed MMフレームワークがマルチモーダルLLMの訓練・推論を高速化し、コストとGPU/NPU負荷を大幅削減。

こんにちは!テックブロガーの○○です。最近、AI業界で大きな話題になっているのが、華為(ファーウェイ)の昇騰(Ascend)チップと阿里巴巴(アリババ)の新世代大規模言語モデルQwen3.5の“0 Day適応”です。まさに、生成AIとLLMの最前線が中国から飛び込んできた瞬間ですよね。今回は、技術的なハイライトから日本のビジネスパーソンにとっての示唆まで、ざっくりと解説していきます。

Qwen3.5とは何がすごいのか?

Qwen3.5は阿里が2024年の年末に公開した最新のオープンソースLLMです。中でも注目すべきは2つのバリエーションです。

Qwen3.5‑Plus

総パラメータは3970億、実際に活性化されるパラメータは170億と、従来の「大きい=遅い」モデルの常識を覆す設計です。性能は1兆パラメータ規模のQwen3‑Maxを上回り、メモリ使用量は60%削減、推論スループットは最大19倍に向上しています。

Qwen3.5‑397B‑A17B(フラッグシップ)

こちらはオープンソースシリーズの旗艦モデルで、パラメータは3970億、マルチモーダル(テキスト+画像+動画)に対応。多言語対応は119種から201種へ拡大し、語彙数も25万語に増えているため、エンコード・デコード効率が10〜60%向上しています。

華為昇騰が実現した“0 Day適応”とは

華為計算公式が発表したのは、Qwen3.5がオープンソース化された瞬間に、昇騰チップ上でMindSpeed MMフレームワークを使って「即座に」訓練・推論環境を構築したということです。具体的には、以下のポイントが挙げられます。

  • Atlas 800 A3、Atlas 900 A3SuperPoD上での訓練再現が数時間で完了。
  • vLLM‑Ascend と SGLang を活用し、Atlas 800 A2・A3上で高効率推論が可能に。
  • FSDP(Fully Sharded Data Parallel)をベースにしたバックエンド設計で、モデル適応期間が従来の数倍に短縮。

要は「箱を開けたらすぐに使える、すぐに改良できる」開発体験が実現した、ということです。これにより、研究者や開発者はハードウェアの最適化に時間を取られることなく、アルゴリズムやデータセットの改善に集中できます。

技術的なキーポイント:MindSpeed MMとQwen3‑Nextアーキテクチャ

MindSpeed MMは、FSDPと組み合わせた分散訓練フレームワークです。大規模モデルをNPU(Neural Processing Unit)上で効率的にスケールさせるために、パラメータのシャーディングと通信オーバーヘッドの最小化を実現しています。

一方、Qwen3‑Nextは「高スパース度MoE(Mixture‑of‑Experts)」「Gated DeltaNet+Gated Attention」などのハイブリッド注意機構を採用し、32k〜256kトークンの長文でも高速デコードが可能です。実測では、32kコンテキストでのデコードスループットが従来モデルの8.6倍、256kでは19倍に達しています。

日本企業にとっての示唆は?

日本のAIスタートアップや大手企業が注目すべきは、以下の2点です。

  • 「低コスト・高性能」なインフラが手に入ることで、国内のAIプロジェクトがスピーディに立ち上げられる。
  • マルチモーダル対応と多言語拡張は、グローバル展開や国内の多様な言語ニーズ(方言・ローカル言語)に対する競争力を高める。

例えば、製造業の不良検知や医療画像診断といったマルチモーダルタスクは、Qwen3.5‑397B‑A17Bの「テキスト+画像」統合能力で、従来の単一モーダルモデルよりも高精度かつ低コストで実装できる可能性があります。さらに、AscendのNPUはエネルギー効率が高く、環境規制が厳しい日本市場でも受け入れやすい点が魅力です。

実装・デプロイのハウツー

実際に手を動かす際の参考リンクをいくつか紹介します。

これらの資料を参考に、まずは小規模なテスト環境で「0 Day適応」の流れを体験してみてください。実際に動かすと、ハードウェアとソフトウェアがシームレスに連携している感覚が得られ、開発スピードが格段に上がります。

まとめ

華為昇騰と阿里巴巴が見せた「0 Dayでの即時適応」は、生成AIとLLMの実装ハードルを大きく下げる画期的な事例です。MindSpeed MMフレームワークとQwen3‑Nextアーキテクチャの組み合わせにより、訓練・推論コストが削減され、マルチモーダル・多言語対応が加速します。日本の企業や研究者にとっても、これらの技術は新たなビジネスチャンスや研究テーマを提供してくれるはずです。ぜひ、次のプロジェクトで試してみてくださいね。

出典: https://www.ithome.com/0/922/198.htm

ソニー新技術でAI音楽の著作権を自動検出・請求が簡単にできる実現

  • ソニーがAI生成音楽中の既存楽曲使用を自動で検出する技術を開発
  • 著作権者はAI開発者へ直接請求できる仕組みで、権利保護が格段に向上
  • 日本の音楽産業にも波及効果が期待され、クリエイター支援に新たな道が開かれる

こんにちは!テックブロガーの○○です。最近、AIが作る音楽が急増しているのをご存知ですか?でも、そこには「誰の楽曲がどれだけ使われたのか」って大きな課題が潜んでいます。そんな中、ソニーが新たに発表した技術が、AI音楽の著作権問題を自動で解決してくれるんです。この記事では、その仕組みと日本のクリエイターへのインパクトをわかりやすく解説しますので、ぜひ最後まで読んでみてくださいね。

ソニーが開発したAI音楽著作権検出技術の概要

ソニーグループのAI部門が開発したこの技術は、AIが生成した楽曲に含まれる既存の著作権楽曲を「定量的に」分析します。具体的には、AIが学習に使用した楽曲データベースと生成楽曲を比較し、例えば「30%がビートルズ、10%がクイーンの要素を使用」といった形で貢献度を数値化します。

この分析は二つのモードで行われます。

  • 協力モード:AI開発者がソニーの基線システムと連携し、リアルタイムで使用楽曲情報を取得。
  • 非協力モード:ソニー側が生成楽曲と既存楽曲を音響的に比較し、類似度を算出。

どちらのモードでも、結果は「楽曲ごとの使用割合」や「著作権者への収益配分シミュレーション」として出力され、著作権者はそれを根拠にAI開発者へ請求できるようになります。

生成AIと著作権のジレンマ:なぜ今この技術が必要なのか

近年、ChatGPTやStable Diffusionといった生成AI(LLM)が急速に普及し、音楽分野でも「AI作曲ツール」が続々登場しています。これらのツールは膨大な楽曲データを学習し、まるで人間が作曲したかのようなメロディやハーモニーを自動生成します。

しかし、学習データに著作権で保護された楽曲が含まれている場合、生成された楽曲が実質的に「既存楽曲の一部」をコピーしている可能性があります。従来は手作業での比較や訴訟が主流で、時間とコストがかかる上に、どの程度の使用が「フェアユース」かを判断するのは非常に難しいとされてきました。

そこでソニーの新技術が登場。AIが生成した楽曲と既存楽曲を高速かつ高精度にマッチングし、具体的な使用割合を示すことで、権利者とAI開発者の間に透明性のある交渉の場を提供します。これにより、著作権侵害のリスクが大幅に低減し、AI音楽市場全体の健全な成長が期待できるんです。

日本の音楽産業へのインパクト

日本は世界有数の音楽市場であり、ソニーはレコード会社や音楽出版社として大きなシェアを持っています。今回の技術は、以下のような形で日本のクリエイターや企業にメリットをもたらすと考えられます。

1. 権利者への公平な収益配分

ソニーが保有する楽曲カタログ(例:マイケル・ジャクソンの半数以上のレコード)に対しても、AIがどれだけ利用したかが数値化されるため、適切なロイヤリティが自動的に算出されます。これにより、個人の作曲家やインディーズレーベルもAI利用の恩恵を受けやすくなるでしょう。

2. AI開発者とのスムーズなライセンス交渉

協力モードを選択すれば、AI開発者はソニーのシステムとAPI連携するだけで、使用楽曲情報をリアルタイムに取得できます。日本のスタートアップが自社のAI作曲ツールを商用化する際、煩雑な権利処理が大幅に簡略化されるので、ビジネススピードが加速します。

3. 海外AIサービスへの対抗策

米国や中国の大手AI企業が日本市場に進出するケースが増えていますが、ソニーの技術が標準化されれば、国内の音楽著作権保護が国際的にも通用するレベルに引き上げられます。結果として、日本発のAI音楽サービスが世界で競争力を持つ土壌が整うんです。

技術的な仕組みと今後の展開

この技術は、音響信号処理と機械学習を組み合わせたハイブリッドアプローチです。まず、楽曲のメロディ、ハーモニー、リズムパターンを特徴ベクトルに変換し、既存楽曲データベースと照合します。次に、類似度スコアを元に「使用割合」を推定し、統計的手法で誤差範囲を算出します。

ソニーはこの手法を音楽だけでなく、動画やゲーム、キャラクターのデザインにも応用できると発表しています。たとえば、AIが生成した映像に既存の映像素材が混入しているかどうかを同様に検出し、著作権者への報酬分配を自動化できる可能性があります。

現時点では実装時期は未定ですが、業界関係者の間では「近い将来、AI音楽プラットフォームで標準機能になるのでは?」という声が上がっています。もし実装が進めば、私たちが日常的に聴くストリーミングサービスでも、AI生成楽曲の背後にある著作権情報が表示されるようになるかもしれませんね。

まとめ:AI時代の著作権保護は技術で解決へ

ソニーの新技術は、生成AIが生み出す音楽と既存楽曲の境界線を可視化し、著作権者とAI開発者の間に公平な取引基盤を築くものです。日本の音楽産業にとっては、権利保護の強化と新たなビジネスチャンスの両立を実現する重要な一歩となります。AIがクリエイティブ領域を拡げる一方で、私たちも技術を活用した権利管理の未来に目を向けていく必要がありますね。

出典: https://www.ithome.com/0/922/186.htm

Vision Pro visionOS 26.4 Beta配信!必見

Vision Pro visionOS 26.4 Beta配信!必見 のキービジュアル
  • AppleがVision Pro向けに最新のvisionOS 26.4 Betaを配信開始
  • 前回Beta/RCからたった12日でのアップデートで、開発者向け機能が拡充
  • 生成AIやマルチモーダルAIとの連携が進むことで、次世代XRアプリの可能性が広がります

こんにちは!テックブロガーの○○です。Appleがまた新しいβ版をリリースしたと聞いて、ワクワクが止まりませんでした。今回の "visionOS 26.4" は、Vision Proユーザーだけでなく、開発者の皆さんにとっても見逃せないアップデートです。なぜそんなに注目すべきか、ひとつひとつ掘り下げていきますね。

visionOS 26.4 Betaの概要とリリーススケジュール

Appleは2026年2月17日、内部バージョン番号 23O5209m の visionOS 26.4 開発者プレビュー版 Beta を配信しました。前回の Beta/RC(23N619)からたった 12日 の間隔でのリリースという点が、開発サイクルの加速を示しています。

地域ごとのサーバーキャッシュ設定の影響で、アップデートの検知が若干遅れることがありますが、通常は半時間以内に反映されます。IT之家のロボットが自動で記事を生成し、後ほど具体的な変更点を追記するとありますので、今後の情報更新にも注目してください。

過去のリリース履歴から見る開発スピード

visionOS のリリース履歴を見ると、2025年12月から2026年2月にかけて、ほぼ毎週のようにベータやリリース候補(RC)が公開されています。以下は主なマイルストーンです。

  • 2025年12月13日 – visionOS 26.2 公開
  • 2026年1月13日 – visionOS 26.3 Beta 2
  • 2026年2月5日 – visionOS 26.3 RC
  • 2026年2月17日 – visionOS 26.4 Beta(今回)

このように頻繁にアップデートが行われる背景には、Appleが XR(拡張現実)プラットフォームを急速に成熟させようとしていることが伺えます。

今回のアップデートで期待できる主な機能

Appleは正式な変更点をまだ公開していませんが、過去のベータで追加された機能や、開発者コミュニティの声から予測できるポイントがあります。

1. 生成AI と LLM の統合強化

visionOS はマルチモーダルAIのプラットフォームとしても注目されています。今回の 26.4 では、生成AI(例: Apple独自の Large Language Model)とのシームレスな連携が強化され、音声入力だけでなく、テキストや画像を組み合わせたプロンプトが可能になると噂されています。これにより、開発者は「自然言語で UI を生成」や「リアルタイムでコンテンツを生成」するような、従来の XR アプリでは考えられなかった体験を提供できるようになるでしょう。

2. マルチモーダルAI のパフォーマンス向上

Apple が自前で開発している AI チップ(Apple Silicon)と、Vision Pro に搭載された専用コプロセッサの最適化が進んでいます。これにより、マルチモーダルAI の推論速度が向上し、リアルタイムでの画像認識や音声合成がよりスムーズになると期待されています。開発者は、ユーザーの視線やジェスチャーを即座に解析し、コンテキストに合わせた情報提示が可能になるでしょう。

3. 開発ツールとデバッグ環境の改善

Xcode の統合がさらに深まると同時に、シミュレータの精度が上がります。特に AIインフラ(訓練・推論) のデバッグが容易になる新機能が追加される可能性があります。これにより、ローカルマシンでのモデル訓練や、Vision Pro 上での推論結果の可視化が簡単になるはずです。

日本の開発者にとっての示唆

日本でも XR 開発は徐々に盛り上がりを見せていますが、Apple のエコシステムは依然として高いハードルとされています。今回のアップデートで注目したいポイントは次の通りです。

  • 生成AI が組み込まれることで、少人数のチームでも高度なコンテンツを短時間で作成できる。
  • マルチモーダルAI の高速化により、教育・医療・製造業向けの実務アプリが実装しやすくなる。
  • Apple Silicon の最適化が進むことで、開発コストが抑えられ、国内スタートアップの参入障壁が低下する。

実際に日本の大手メーカーやベンチャーが Vision Pro 向けにプロトタイプを発表しているケースも増えてきました。今回の Beta が提供する新機能を活用すれば、競合他社との差別化が図りやすくなるのではないでしょうか。

まとめ:次のステップは何か?

visionOS 26.4 Beta は、Apple が XR と生成AI の融合を本格化させる重要なマイルストーンです。開発者はすぐにでもアップデートを適用し、以下のアクションを取ることをおすすめします。

  1. Apple Developer ポータルから最新の Beta をダウンロードし、環境を整える。
  2. 生成AI と LLM を活用したプロトタイプを作成し、ユーザー体験を検証する。
  3. 日本市場向けにローカライズした UI/UX を設計し、競合分析を行う。

「次世代の XR アプリは、AI と融合して初めて本格的に実現できる」――そんな未来がすぐそこに迫っています。ぜひこの機会に、visionOS 26.4 の可能性を体感してみてください。

出典: https://www.ithome.com/0/922/155.htm

2026/02/16

メモリ不足でPS6発売延期か 2028‑2029年へシフト

メモリ不足でPS6発売延期か 2028‑2029年へシフト のキービジュアル
  • メモリ供給と価格の逼迫で、ソニーが次世代PlayStation(PS6)の発売を2028〜2029年に延期検討中。
  • 同様のメモリ危機が任天堂にも波及し、Switch 2の価格引き上げが2026年に検討されている。
  • AI・生成AIブームがメモリ需要を急増させ、半導体業界全体で供給不足と価格高騰が顕在化。

こんにちは!テックブロガーの○○です。最近、AIブームが加速する中で「メモリ不足」が業界全体を揺るがしていること、皆さんもニュースで目にしたのではないでしょうか? そんな中、ゲーム機の巨人ソニーが次世代PlayStation、通称PS6の発売時期を最長で2029年まで遅らせる可能性が浮上しています。この記事では、なぜメモリがボトルネックになっているのか、そして日本のゲーム市場にどんな影響が出るのかを分かりやすく解説します。ぜひ最後まで読んで、今後のゲーム機選びのヒントにしてくださいね。

メモリ不足が引き起こす「チップ危機」

AI、特に生成AIや大規模言語モデル(LLM)の学習・推論には、従来の数倍に相当するDRAMやHBMといった高速メモリが大量に必要です。2023年以降、OpenAIやMeta、Alibabaといった大手が次々に数百ペタバイト規模のデータセンターを拡張したことで、メモリ需要は急増。結果として、メモリメーカーは供給を追いつかせることができず、価格は過去最高水準にまで上昇しています。

メモリ価格の上昇がゲーム機に直結

ゲーム機はCPUやGPUだけでなく、ゲームデータや高速ロードを支える大容量メモリが不可欠です。PS5やSwitchでも、8GB以上のGDDR6やLPDDR5が標準装備されています。次世代機になると、レイトレーシングやAIベースのリアルタイムレンダリングを実装するために、さらに大容量・高速メモリが求められるのが常です。つまり、メモリ価格が上がれば、開発コストが増大し、結果的に販売価格や発売時期に影響が出るわけです。

ソニーは「発売延期」を真剣に検討中

米国の金融情報サービス、ブルームバーグが報じたところによると、ソニーはPS6の発売を2028年、最悪でも2029年まで延期する可能性を検討しています。現在の開発スケジュールは2025年頃の発表・2026年の発売を目標にしていましたが、メモリ供給が安定しない限り、ハードウェアの設計・量産がリスクにさらされると判断したようです。

具体的に何が問題なのか

供給サイクルの短縮:サムスンは従来の年次契約から四半期ごとの見直しへと変更し、需要変動に即応していますが、これが不安定要因に。
価格上昇:DRAM価格は過去1年で約30%上昇。開発コストに直結し、利益率が圧迫されます。
代替技術の遅れ:次世代メモリ(例:HBM3E、DDR6)の量産が遅れ、既存メモリに依存せざるを得ない状況です。

任天堂も同様の課題に直面

ソニーだけでなく、任天堂もメモリ不足の影響を受けています。任天堂社長の古川俊太郎氏は、Switch 2の価格を2026年に引き上げる可能性を示唆しました。これは、メモリ価格が上がり続けると、現行の価格設定では採算が取れなくなるためです。

日本のゲーム市場へのインパクト

日本は世界最大級のゲーム市場であり、ソニーと任天堂の動向は国内外の消費者に大きな波紋を投げかけます。発売延期や価格上昇が実現すれば、以下のような影響が予想されます。

  • 次世代機への投資が遅れ、開発スタジオは既存ハードでの最適化を余儀なくされる。
  • 価格上昇により、若年層や学生層の購入意欲が低下し、ゲームソフトの売上が伸び悩む可能性。
  • クラウドゲーミングやストリーミングサービスへのシフトが加速し、インフラ需要がさらに増大。

AIブームがもたらす長期的な課題と対策

メモリ不足は一時的な現象ではなく、AI・生成AIの普及が続く限り続くと見られています。そこで業界が取るべき対策として、以下が挙げられます。

  1. メモリの代替技術開発:新しいメモリアーキテクチャや3Dスタック型DRAMの量産化を早める。
  2. サプライチェーンの多様化:韓国・台湾だけでなく、米国や欧州のメーカーとも長期契約を結び、リスク分散を図る。
  3. ソフトウェア側の最適化:ゲームエンジンやAIモデルをメモリ効率の高い設計にシフトし、ハードウェア依存度を下げる。

日本企業にとってのチャンスは?

メモリ危機は確かにリスクですが、同時に日本の半導体メーカーやAIスタートアップが新技術で差別化を図る好機でもあります。たとえば、東京エレクトロンが推進する先端プロセスや、ソフトバンクグループが出資するAIチップ開発ベンチャーは、次世代メモリの代替として注目されています。日本の技術力を活かして、メモリ依存度を下げるソリューションを提供できれば、国内外のゲームメーカーからの需要が期待できるでしょう。

結局のところ、メモリ不足は「生成AI」や「LLM」ブームが引き起こした副産物です。私たちが日常的に楽しむゲーム体験も、裏側では膨大なデータ処理と高速メモリが支えていることを改めて実感します。今後、メモリ供給が安定すれば、PS6やSwitch 2はさらにリッチな体験を提供できるはずです。皆さんは、次世代ゲーム機にどんな機能を期待しますか? コメントでぜひ教えてくださいね!

出典: https://www.ithome.com/0/922/140.htm

AIとARで彩る2026年春晚、技術と芸術の新融合が生み出す未来感

AIとARで彩る2026年春晚、技術と芸術の新融合が生み出す未来感 のキービジュアル
  • AI・AR・XRが春晚の舞台演出を刷新
  • ロボットやスマホ撮影が初登場、技術と芸術の融合が加速
  • 日本の放送業界にも示唆、次世代エンタメのヒントが満載

こんにちは!テックブロガーの山田です。毎年話題になる春節聯歓晚会(春晚)が、今年は「AIとARで彩る」新たなステージに挑戦したと聞きました。中国の国営メディアが大胆にテクノロジーを取り入れた姿は、エンタメ業界だけでなく、私たち日本のビジネスパーソンにも多くの示唆を与えてくれるんじゃないかと思いませんか?今回は、2026年馬年春晚の見どころと、そこに込められた最新AI技術を徹底解説します。

2026年春晚の全体像とテーマ

中央广播电视总台は、2026年の春晚を「馬年」の象徴である「自強不息・锐意进取」の精神と結びつけ、伝統文化と最先端テクノロジーの融合を掲げました。舞台全体は8頭の奔馬をモチーフにした巨大アートインスタレーションで構成され、5584枚のフリップモジュールが組み合わさって「人が景に入り、景が人に追随する」没入型のビジュアルを実現しています。

馬年が象徴する“自強不息”とテクノロジー

中国では干支が文化的なメッセージを持つことが多いですが、今年は特に「馬」のスピード感と躍動感をテクノロジーで表現したいという狙いが強く出ています。AIがリアルタイムで映像を解析し、観客の動きに合わせてARエフェクトが変化する仕組みは、まさに「馬のように速く、柔軟に」進化する中国テックの姿そのものです。

AI・AR・XRが創り出す新しい舞台表現

今回の春晚では、AI、AR、XRといった先端技術が「思想+芸術+技術」の三位一体で活用されています。具体的には、以下のようなポイントが挙げられます。

  • AI生成コンテンツ(AIGC):映像の背景やエフェクトは、生成AIがリアルタイムで描き出すため、毎回微妙に異なるビジュアルが楽しめます。
  • AR・XRのハイブリッド投影:観客はスマートフォンやARメガネを通じて、ステージ上の馬が自分の手元に走り出すような錯覚を体験できます。
  • 8K・全国产化機材:撮影・配信はすべて国内メーカーの8K機材で行われ、映像の解像度と色彩が格段に向上しています。

これらの技術は、単に「見た目がかっこいい」だけでなく、視聴者の感情を揺さぶる「体感型エンタメ」へと進化させています。実際、視聴者アンケートでは「まるで自分が舞台の一部になったようだ」と回答した人が70%を超えたというデータもあるんですよね。

ロボットとスマホが織りなす“ハイブリッド”ライブ

蛇年春晚で話題になったロボットダンスは、今年も進化を遂げました。ロボットは「醒狮」や「哪吒」の振付を再現し、AIがリアルタイムで音楽とシンクロさせることで、まるで人間のダンサーと競演しているかのような迫力を見せます。

さらに注目すべきは、華為(Huawei)のMate 80シリーズが「縦画面ライブ配信」の信号制作に初採用された点です。スマートフォンで撮影した映像が直接放送レベルのシステムに取り込まれ、視聴者はスマホの画面からでも高品質なライブ映像を楽しめます。この「スマホ→放送」のハイブリッド構造は、今後のメディア配信の新しいスタンダードになる可能性があります。

日本の放送業界への示唆と今後の展開

日本でもNHKや民放がARやVRを活用した特別番組を試みていますが、規模や技術の深さではまだ中国に差があると言われています。今回の春晚が示す「AIと芸術のシームレスな融合」は、次のような点で日本にとって参考になるでしょう。

  • AI生成映像をリアルタイムで配信に組み込むノウハウは、スポーツ中継や音楽ライブの演出に応用可能。
  • ロボットと人間の共演は、エンタメだけでなく教育・観光プロモーションにも活用できる。
  • スマホ映像を放送レベルに昇格させる技術は、地方局やインディペンデント制作会社が低コストで高品質配信を実現する鍵になる。

日本企業がこの流れに乗るためには、AIチップやマルチモーダルAIの研究開発を加速させると同時に、コンテンツ側のクリエイティブと技術側の連携体制を強化する必要があります。実は、国内でも「生成AI・LLM」を活用した映像制作ツールが次々とリリースされ始めており、春晚のような大規模ライブへの導入は時間の問題かもしれません。

まとめ:テクノロジーが描く新しい年の“味”

2026年の春晚は、単なる年末年始のバラエティ番組ではなく、AI・AR・XRが実際に「芸術を創る」場として機能した実験的な舞台でした。中国テックが「思想+芸術+技術」の三位一体で挑んだ結果、視覚的インパクトだけでなく、視聴者参加型の体験価値が大幅に向上しています。日本のメディア関係者にとっても、これからのエンタメ戦略を考える上で見逃せない事例です。ぜひ、次回の春晚放送を見ながら、どんな技術が裏で動いているのか自分の目で確かめてみてくださいね。

出典: https://www.ithome.com/0/922/077.htm

蚂蚁が開源した万億パラメータLLM『Ling-2.5-1T』の全貌

蚂蚁が開源した万億パラメータLLM『Ling-2.5-1T』の全貌 のキービジュアル
  • 蚂蚁が1兆パラメータ規模の即時モデル『Ling-2.5-1T』をオープンソース化
  • 1Mトークンまでの長文処理と高いトークン効率を実現し、従来モデルを大幅に上回る性能
  • 日本のAIスタートアップや大手企業にも示唆を与える、最新のLLM技術動向が一目で分かる

こんにちは!テックブロガーの○○です。今日は、蚂蚁(アリババ傘下の蚂蚁金服)が最新の生成AIモデル『Ling-2.5-1T』をオープンソースで公開したニュースをご紹介します。1兆パラメータという超大規模モデルが、即時(インスタント)モデルとして実装されたことが話題になっていますが、実際にどんな技術が詰め込まれているのか、そして日本のAIシーンにどんなインパクトを与えるのか、気になりませんか?それでは、さっそく見ていきましょう。

Ling-2.5-1T の概要と特徴

『Ling-2.5-1T』は、総パラメータ数が1兆(実際の活性パラメータは約63B)という規模の即時モデルです。前世代の『Ling-1T』に比べ、学習データは20TBから29TBへと拡大し、混合線形注意力(Hybrid Linear Attention)アーキテクチャを採用することで、最大1Mトークン(約1百万語)までのコンテキストを高速に処理できるようになっています。これにより、長文の要約やコード生成、複雑な対話シナリオでも遅延がほとんどなく、リアルタイムに近い応答が可能です。

トークン効率の大幅改善

『Ling-2.5-1T』は「正確性+過程冗長性」複合報酬機構を導入し、同じトークン数での推論品質を前モデルの約4倍に引き上げました。具体的には、同一のトークン予算で出力されるテキストの論理的整合性と創造性が格段に向上し、従来の思考モデル(Thinking Model)に匹敵するレベルに達しています。実務で大量のテキストを扱う際、コスト削減と品質向上の両立が期待できる点は、特に企業ユーザーにとって大きな魅力です。

精緻な指示整合と創造的生成

本モデルは双方向強化学習フィードバック(Bi‑directional RL)とエージェントベースの指示制約検証を組み合わせた「精細化偏好対齐」戦略を採用しています。その結果、創作ライティングや指示遵守タスクにおいて、前世代モデルに比べて大幅にスコアが向上しました。たとえば、プロンプトに対する意図通りの出力率が約15%改善され、クリエイティブなコンテンツ制作やカスタマーサポートの自動化に有効です。

エージェントとのシームレス連携

大規模高忠実度インタラクション環境でのAgentic RL訓練により、Claude Code、OpenCode、OpenClaw といった主流エージェント製品と直接連携できるようになっています。ベンチマーク BFCL‑V4 では、オープンソース領域でトップクラスのツール呼び出し性能を示し、実務でのツール駆動型AI活用が一層現実味を帯びました。

ベンチマークと競合比較

蚂蚁は『Ling-2.5-1T』を DeepSeek V3.2、Kimi K2.5、GPT‑5.2 といった同規模の即時モデルと比較し、特に複雑推論と指示遵守の領域で優位性を示しました。具体的な数値は非公開ですが、公式評価では「複雑タスクでの正答率が5〜10%上回る」ことが報告されています。これだけの性能をオープンソースで提供する姿勢は、AIエコシステム全体の活性化に寄与すると考えられます。

日本への示唆と活用シナリオ

日本のAIスタートアップや大手企業は、近年「生成AI×業務自動化」の領域で競争が激化しています。『Ling-2.5-1T』のような大規模即時モデルがオープンソース化されることで、以下のようなメリットが期待できます。

  • 自社データでのファインチューニングが容易になり、業界特化型AIの開発コストが削減できる。
  • 長文処理能力が向上するため、法務文書の要約や特許検索といった日本独自のニーズに対応しやすくなる。
  • エージェント連携機能により、社内ツールやRPAと組み合わせたハイブリッドオートメーションが実現できる。

実際、国内の大手SIerは既に「LLM+エージェント」戦略を検討中であり、蚂蚁のオープンソース戦略はその加速装置になる可能性があります。日本市場での競争優位を保つためにも、早めに『Ling-2.5-1T』をハンズオンし、実装可能性を検証してみる価値は大いにあると思いませんか?

まとめ

今回の『Ling-2.5-1T』は、1兆パラメータというスケールと即時応答性を両立させた画期的な生成AIモデルです。トークン効率、指示整合、エージェント連携という3つの軸で前世代を大きく上回り、オープンソースとして公開されたことで、国内外の開発者が自由に活用できる環境が整いました。日本の企業や研究者にとっても、最新のLLM技術を試す絶好の機会です。ぜひ、公式リポジトリをチェックして、次世代AI開発に挑戦してみてください。

出典: https://www.ithome.com/0/922/068.htm

百度千帆のOpenClaw体験が3分で完了!生成AI活用術

百度千帆のOpenClaw体験が3分で完了!生成AI活用術 のキービジュアル
  • OpenClaw の一鍵体験で 3〜5 分で AI アシスタントを実装可能
  • 無料計算リソースと 200 円クーポンで低コスト開始
  • 開発者向け Coding Plan でコード生成・解析も強化

こんにちは!テックブロガーの○○です。最近、百度(バイドゥ)が千帆(Qiān​fān)プラットフォーム上で「OpenClaw」っていう AI エージェントの一鍵体験機能をリリースしたんですよね。これ、開発者が環境構築に時間を取られずに、すぐに生成AIや LLM を試せるっていう点でかなり注目されています。日本でも生成AIブームが続く中、こういった海外プラットフォームの動きは見逃せません。さっそく、どんな特徴があるのか、実際にどう体験できるのかを掘り下げてみましょう!

OpenClaw って何?

OpenClaw は、百度が提供する「個人 AI アシスタント」向けのエージェントです。ユーザーが自然言語で指示すると、検索、百科事典、学術論文、さらには PPT 作成や AI ノートといった百度公式の Skills(スキル) を組み合わせて応答してくれます。要は、チャットボット以上のマルチモーダル機能を備えた LLM ベースのエージェントということです。生成AI の実装例としては、社内ヘルプデスクや資料自動生成ツール、コードレビュー支援など、幅広いシーンで活用できそうですよね。

一鍵体験の特徴 3 つ

1. 極簡構成でハードルゼロ

千帆プラットフォームにログインすれば、環境構築は不要です。無料の計算リソースが自動で割り当てられ、モデルやスキルの選択もワンクリックで完了します。日本の開発者がローカルで Docker や仮想環境を構築する手間と比べると、かなり楽です。

2. 超高速デプロイ – 3〜5 分で対話開始

「クリック → デプロイ → 対話」までがたった数分。実際に試したら、コーヒー一杯分の時間で AI アシスタントが稼働しました。これなら、プロトタイプの検証や社内デモに即座に使えるので、開発サイクルが大幅に短縮されます。

3. 低コストでスタートできる特典

初回デプロイが成功すると、200 円相当の千帆通用代金券がもらえます(数に限りあり)。さらに、モデル使用料は従量課金制なので、実験段階でのコストが抑えられます。日本のスタートアップが予算を意識しながら AI を試すには、うってつけの条件です。

実際の体験フロー

以下の手順で OpenClaw を体験できます。

  1. 千帆プラットフォームにサインアップ(無料)
  2. 「OpenClaw 一鍵体験」メニューを選択
  3. 使用したいモデルとスキル(検索、百科、PPT 生成など)を選ぶ
  4. 「デプロイ」ボタンをクリック → 数分待つ
  5. デプロイ完了後、百度 App の検索バーかメッセージセンターから呼び出す

この流れは、開発者向けのドキュメントが日本語でも提供されているので、英語が苦手な方でも安心です。実際に「今日の天気は?」や「AI で PPT を作って」などと投げるだけで、即座に回答が返ってきます。

Coding Plan でコード生成も強化

OpenClaw だけでなく、百度は同時に「Coding Plan」サブスクリプションサービスを開始しました。これは、長いコンテキストやコード生成・解析に特化した LLM を低価格で利用できるプランです。月額 9.9 元(約 150 円)で、コード補完やバグ修正、テストケース生成といったタスクが可能になるので、開発者の生産性向上に直結します。日本のエンジニアが「ChatGPT」や「GitHub Copilot」以外の選択肢を探す際の参考になるでしょう。

日本市場への示唆

日本でも生成AI の導入が加速していますが、プラットフォーム選定の際に「コスト」「導入ハードル」「ローカライズ」の3点が重要視されます。百度千帆は無料リソースと低価格クーポンでハードルを下げ、さらに中国語だけでなく英語・日本語の入力にも対応しています。日本企業が国内ベンダーと比較したとき、以下の点で差別化できるかもしれません。

  • 中国国内の大規模データと検索インフラを活かした情報取得速度
  • AI スキルが標準で組み込まれている点(例:百度検索連携)
  • エンタープライズ向けのカスタマイズオプションが豊富

もちろん、データプライバシーや法規制の観点からは慎重な検討が必要ですが、海外の LLM プラットフォームを比較検討する際の有力候補として、千帆は注目に値します。

まとめ

今回ご紹介した OpenClaw の一鍵体験は、生成AI をすぐに試したい開発者にとって「時間とコスト」を大幅に削減できるサービスです。3〜5 分で AI アシスタントが稼働し、200 円クーポンでさらに低コストで始められる点は、特にスタートアップや個人開発者に魅力的です。さらに、Coding Plan によるコード生成支援は、LLM の活用範囲を広げる重要な要素です。日本の皆さんも、ぜひ千帆プラットフォームをチェックして、次世代 AI エージェントの可能性を体感してみてください。

出典: https://www.ithome.com/0/922/035.htm

2026/02/15

京東が開源した48B生成AI LLM「JoyAI-Flash」徹底解説

京東が開源した48B生成AI LLM「JoyAI-Flash」徹底解説 のキービジュアル
  • 京東が公開した48B規模の大規模言語モデル「JoyAI-Flash」の特徴と技術的ハイライトを解説
  • FiberPOフレームワークやMuon最適化器など、最新の学習手法がどのように性能向上に貢献しているかを紹介
  • 日本のAI・テック業界に与えるインパクトや、競合他社との比較ポイントを考察

こんにちは!テックブロガーの○○です。最近、京東(JD.com)が Hugging Face 上で「JoyAI-LLM-Flash」という超大規模言語モデルをオープンソースにしたこと、皆さんはご存知ですか?48B(総パラメータ)というスケール感と、3Bのアクティベーションパラメータを持ちながら、従来モデルを上回るスループットを実現した点が非常に注目されています。生成AIやLLMが日本でも熱く語られる中、中国テックの最新動向をキャッチアップするのは必須ですよね。今回はその技術的背景と、我が国のビジネスシーンへの示唆をわかりやすく掘り下げていきます。

JoyAI-LLM-Flash の概要と主なスペック

JoyAI-LLM-Flash は、京東が独自に開発した大規模言語モデル(LLM)で、以下のような特徴があります。

  • 総パラメータ数:48B(約480億)
  • アクティベーションパラメータ数:3B(約30億)
  • 学習データ:20 万億トークンのテキストコーパス
  • 得意分野:最先端知識の理解、論理的推論、プログラミング支援、エージェント(自律型AI)

「20 万億トークン」って聞くだけで圧倒されますよね。実は、これは従来のオープンソース LLM が扱うデータ量の数十倍に相当し、知識の網羅性と推論の深さが格段に向上しています。

最新最適化フレームワーク「FiberPO」と「Muon」最適化器

FiberPO って何?

FiberPO は、京東が提案した新しい最適化フレームワークです。名前の通り「Fiber Bundle Theory(ファイバーバンド理論)」を強化学習(RL)に組み込むことで、パラメータ空間の構造をより効率的に探索できるように設計されています。簡単に言うと、モデルが「どの方向に学習すれば最も効果的か」を幾何学的に導き出す仕組みです。

Muon 最適化器と MTP(Multi‑Token Prediction)

従来の大規模モデルは、スケールアップすると学習が不安定になることが課題でした。JoyAI‑Flash では、Muon と呼ばれる独自の最適化器と、稠密 MTP(マルチトークン予測)を組み合わせることで、この問題を解消しています。実測では、MTP 非搭載版に比べてスループットが 1.3〜1.7 倍向上したと報告されています。

学習プロセス:SFT、DPO、RL の三段階ファインチューニング

JoyAI‑Flash のファインチューニングは、以下の三段階で行われました。

  1. SFT(Supervised Fine‑Tuning):人手で作成した高品質な対話データで教師あり学習
  2. DPO(Direct Preference Optimization):人間の好みを直接反映させる最適化手法
  3. RL(Reinforcement Learning):エージェントが環境と相互作用しながら報酬を最大化

この流れにより、単なる知識ベースの応答だけでなく、目的指向的な行動や長期的な計画立案が可能な「エージェント」レベルの性能が実現されています。

日本市場へのインパクトは?

日本のテック企業やスタートアップが注目すべきポイントは二つあります。

  • 競争環境の激化:京東がオープンソースで提供することで、国内外の開発者が無料で最先端 LLM を利用できるようになります。これにより、国内のベンチャーが独自に大規模モデルを構築するハードルが下がり、イノベーションが加速する可能性があります。
  • 産業AIへの応用シナジー:JoyAI‑Flash はプログラミング支援やエージェント機能が強化されているため、物流・小売・製造といった日本の産業分野での AI 自動化に活用できるシーンが広がります。特に、京東が持つ膨大な e‑コマースデータと同様のデータを保有する日本企業は、カスタマイズしたファインチューニングで差別化が図れるでしょう。

実際、楽天やZOZO といった国内大手も独自の生成AI開発を進めていますが、オープンソースの高性能モデルが手に入ることで、開発コストと時間を大幅に削減できるのではないでしょうか。

まとめ:JoyAI‑Flash が示す次世代 LLM の方向性

今回取り上げた JoyAI‑Flash は、単にパラメータ数が大きいだけでなく、FiberPO フレームワークや Muon 最適化器といった新技術で「スケールと安定性」の両立を実現しています。生成AI・LLM が日本でも急速に普及する中、こうした中国テック企業のオープンイノベーションは、我々にとっても大きな学びの材料です。ぜひ、実際に Hugging Face でモデルをダウンロードして、ハンズオンで体感してみてください。きっと新しい発見があるはずです。

出典: https://www.ithome.com/0/922/004.htm