Inquiry Cartお問合せカート
お問い合わせ カートお問合せカート
ホーム - アプリケーション

AIネットワーキング

2025年には、人工知能(AI)の急速な発展がデータセンターのアーキテクチャを変革します。マルチモーダルな大規模言語モデルからオープンで効率的なフレームワークまで、AIはイノベーションの中核的な原動力となっています。AIモデルの規模は数億パラメータから兆レベルへと拡大し、数千、あるいは数万のGPUを並列に使用したトレーニングが行われます。例えば、OpenAIは'GPT-4oや類似のモデルでは、効率的な推論と学習を実現するために、リアルタイムのデータ同期が不可欠です。これには、テラバイト/秒レベルのデータスループットだけでなく、ボトルネックを排除するためのマイクロ秒レベルのレイテンシと高い信頼性も求められます。

 

このような背景から、従来の100G/200Gネットワ​​ーク相互接続ではもはや要件を満たすことができません。400G/800G OSFP光モジュールは、よりコンパクトで効率的な相互接続ソリューションを提供します。一方、DAC(ダイレクトアタッチケーブル)とAOC(アクティブ光ケーブル)は、短距離接続に適した選択肢であり、コストと消費電力を効果的に最適化します。AIはもはや単なるアルゴリズムの革新ではなく、物理インフラと深く統合されたシステムレベルのエンジニアリングの取り組みです。

AIネットワーキング

 

最新のAIモデルとそのコンピューティング需要の概要

2025年のAI環境は、汎用性とオープンソースのイノベーションによって特徴づけられるでしょう。いくつかの主要モデルは、これらの進歩が相互接続の需要をどのように変革しているかを示しています。

GPT-4o (OpenAI)

テキスト、画像、音声にわたる強力なマルチモーダル処理能力で知られるGPT-4oは、数千台のGPU間で同期した学習に依存しています。各GPUは数百GB/秒のデータ交換を必要とし、相互接続のボトルネックが発生すると学習時間が大幅に長くなる可能性があります。

クロード 3.7 ソネット(人間中心主義)

コーディングと複雑な推論タスクに特化したClaude 3.7 Sonnetは、効率的な推論を維持するためにリアルタイムのデータストリームを必要とします。超低レイテンシのインターコネクトが不可欠であり、800G光モジュールにより約5 pJ/bitのエネルギー効率を実現します。

ジェミニ 2.5 (Google)

マルチモーダル推論および科学研究アプリケーションに優れた性能を発揮するGemini 2.5は、高帯域幅と大規模分散通信に重点を置いています。そのパフォーマンスは、DWDMシステムと高速イーサネット相互接続に大きく依存しています。

グロク 3/4 (xAI)

Grok 3/4は、音声モードと効率的な推論機能を内蔵しており、通常200GBのクラスターに導入されます。800倍のパフォーマンスを実現するには、各GPUにXNUMXGbEインターフェースが必要です。

ラマ 3 / ディープシーク V3 (メタ / ディープシーク)

オープンソースモデルの代表的な製品であるLlama 3とDeepSeek V3は、高いパフォーマンスとカスタマイズ性を重視しています。これらの分散学習は400G/800Gインターコネクトを採用しており、全体的な効率を20~25%向上させます。

 

AIモデル

Developer

他社とのちがい

コンピューティングと相互接続の要件

GPT-4oOpenAIマルチモーダル(テキスト、画像、音声)、高度な推論、o1/o3 バリアントをサポート

大規模な GPU クラスターの同期が必要であり、トレーニング中に GPU ごとのデータ交換は数百 GB/秒に達します。相互接続のボトルネックにより、トレーニング時間が 2~3 倍長くなる可能性があります。

クロード 3.7 ソネット人間原理コーディングと複雑なタスクに強く、コスト効率に優れています

推論はリアルタイムのデータストリーミングに依存しており、同時クエリをサポートするには超低レイテンシの相互接続が必要です。800G オプティクスはエネルギーコストを約 5 pJ/ビットまで削減できます。

ジェミニ2.5グーグル効率的なマルチモーダル処理。開発者と研究者向けに最適化されています。

トレーニングでは並列コンピューティングに重点が置かれ、相互接続要件は DWDM (高密度波長分割多重) マルチ波長伝送を処理するための高帯域幅に重点が置かれます。

グロク 3/4xAI効率的な推論、音声モードのサポート、オープンソースフレンドリー

通常、大規模なクラスター (GB200 など) に導入され、各 GPU で 800 倍のパフォーマンス スケーリングを実現するために 2GbE 接続が必要になります。

ラマ 3 / ディープシーク V3メタ / ディープシークオープンソース、高性能、カスタマイズ可能なトレーニング

分散トレーニングはノード間の通信に依存しており、400G/800G の相互接続により全体的な効率が約 25% 向上します。

 

これらのモデルには共通の特徴があります。それは、Mixture of Experts(MoE)や類似のアーキテクチャに依存しており、頻繁なAll-to-All通信を必要とすることです。GPT-4oのような超大規模モデルの学習にはペタバイトレベルのデータ交換が必要になる場合があり、相互接続が不十分だとネットワークコストが70%以上も上昇する可能性があります。

 

AIネットワーキング

 

AIコンピューティングにおける相互接続の課題

AIの学習と推論の中核を成すのは、大規模なGPUクラスターの同期です。例えば、NVIDIA GB200クラスターでは、CPUボトルネックを回避するために、各GPUにPCIe Gen800直接通信をサポートするために2GbE(400×6GbE)の接続が必要です。主な課題は以下のとおりです。

  • 高帯域幅の需要AI ワークロードでは、モデル パラメータの同期に 1 秒あたりテラバイトのデータ転送が必要です。
  • 超低レイテンシClaudeのようなモデルを用いたコード生成などの推論タスクでは、マイクロ秒レベルの応答が求められます。わずかな遅延でも、学習時間が2倍になる可能性があります。
  • スケーラビリティ: 数百から数万の GPU では、必要なノード間でのみ接続が確立される Rail-Only ネットワークのサポートが必要です。
  • エネルギー効率とコスト: AI データ センターは膨大な量の電力を消費しますが、相互接続効率を向上させることで最大 50% のエネルギーを節約できます。

 

AI向け主要相互接続ソリューション:OSFP、DAC、AOC

1. OSFP光モジュール

OSFP(Optical Small Form-factor Pluggable)は400G/800Gの速度をサポートし、シリコンフォトニクス(SiPh)またはEML変調器を活用します。AI導入においては、OSFPモジュールは長距離伝送(100m超)に使用され、最大4Tbpsの双方向接続を可能にします。例えば、IntelのOCIチップセットはDWDMを利用して低消費電力(約5pJ/ビット)を実現しています。

2. DAC(ダイレクトアタッチケーブル)

DACは、短距離(7m未満)のラック内接続向けに設計された銅線ベースのソリューションであり、光電変換を必要とせず、費用対効果の高いオプションを提供します。AIクラスターでは、AMD Pensando Pollara 400 NICなどのソリューションがDACを採用し、400Gbpsの帯域幅を提供するとともに、RDMA(リモート・ダイレクト・メモリ・アクセス)をサポートしてデータ転送を高速化します。

3. AOC(アクティブ光ケーブル)

統合型光トランシーバーを搭載したAOCは、中距離(7~100m)の接続に適しています。高い信頼性を提供し、ポートの汚染を防ぎます。AI環境では、AOCは並列配線に広く使用され、800Gデータセンターの導入をサポートしています。

AIネットワーキング

 

実際のアプリケーションでは、これらのテクノロジにより AI のパフォーマンスが直接的に向上します。

トレーニング段階: たとえば、Llama 3 の分散トレーニングでは、400G SR4 モジュールを使用して GPU 間の低遅延通信を確保し、使用率を向上させています。

推論フェーズ: Gemini 2.5 のリアルタイム処理は、800G AOC を利用して 3200 Gbps のデータ転送を実現します。

ケーススタディ: OpenAIのStargateクラスタは、カスタム800GbE NICを使用し、各GPUに8個のOSFPポートを搭載することで、ネットワークパフォーマンスを2倍に向上させます。AMDのVulcano NICは800Gbpsのスループットを提供し、UC 1.0規格をサポートしています。

オープンソースとスケーラビリティ: たとえば、DeepSeek V3 は RDMA を活用して相互接続を最適化し、ブリッジ コストを削減します。

実際の導入では、これらの相互接続技術は組み合わせて使用​​されることがよくあります。DACとAOCは、隣接するラック内またはラック間の短距離接続に最適で、低コスト、低レイテンシ、そして大規模なケーブル配線の簡素化を実現します。一方、OSFP光モジュールは、主にラック間、さらにはデータセンター間の接続に導入され、長距離においても高帯域幅、安定性、そして拡張性を提供します。この階層化アプローチにより、データセンターはコスト、消費電力、そしてパフォーマンスのバランスをとることができ、大規模AIクラスターのトレーニングと推論の需要に対応できます。

 

まとめると、高速インターコネクト技術と高度なAIモデルの統合は、データセンターイノベーションの次世代を形作っています。最新のAIモデルと400G/800Gインターコネクトを組み合わせることで、技術的な相乗効果を発揮するだけでなく、AIエコシステムにおけるインフラストラクチャの重要性を浮き彫りにしています。インターコネクト技術は、単に人工知能を実現する手段にとどまらず、将来の発展の礎となるものです。

マッチング製品