Inquiry Cart바구니
문의 카트바구니
- 어플리케이션

AI 네트워킹

2025년, 인공지능(AI)의 급속한 발전은 데이터 센터 아키텍처를 재편하고 있습니다. 멀티모달 대규모 언어 모델부터 개방적이고 효율적인 프레임워크에 이르기까지 AI는 혁신의 핵심 동력이 되었습니다. AI 모델의 규모는 수억 개에서 조 개 수준으로 확장되고 있으며, 수천 또는 수만 개의 GPU를 병렬로 학습시키는 것이 필수적입니다. 예를 들어, OpenAI는'GPT-4o 및 유사 모델은 효율적인 추론 및 학습을 위해 실시간 데이터 동기화를 필요로 합니다. 이는 TB/s 수준의 데이터 처리량뿐만 아니라, 병목 현상을 제거하기 위해 마이크로초 수준의 지연 시간과 높은 안정성을 요구합니다.

 

이러한 상황에서 기존의 100G/200G 네트워크 상호 연결은 더 이상 이러한 요구 사항을 충족할 수 없습니다. 400G/800G OSFP 광 모듈은 더욱 컴팩트하고 효율적인 상호 연결 솔루션을 제공하는 반면, DAC(Direct Attach Cable)와 AOC(Active Optical Cable)는 단거리 연결에 선호되는 옵션으로, 비용과 전력 소비를 효과적으로 최적화합니다. AI는 더 이상 단순한 알고리즘 혁신이 아니라, 물리적 인프라와 긴밀하게 통합된 시스템 수준의 엔지니어링 노력입니다.

AI 네트워킹

 

최신 AI 모델 및 컴퓨팅 요구 사항 개요

2025년 AI 환경은 다재다능함과 오픈소스 혁신으로 정의됩니다. 여러 주요 모델은 이러한 발전이 상호 연결 수요를 어떻게 변화시키고 있는지를 보여줍니다.

GPT-4o(오픈AI)

텍스트, 이미지, 음성 전반에 걸친 강력한 멀티모달 처리 능력으로 유명한 GPT-4o는 수천 개의 GPU를 활용한 동기화된 학습을 기반으로 합니다. 각 GPU는 초당 수백 GB의 데이터 교환을 필요로 하며, 상호 연결 병목 현상은 학습 시간을 상당히 지연시킬 수 있습니다.

클로드 3.7 소네트(인간 중심)

코딩 및 복잡한 추론 작업에 특화된 Claude 3.7 Sonnet은 효율적인 추론을 유지하기 위해 실시간 데이터 스트림을 필요로 합니다. 800G 광 모듈을 통해 약 5pJ/bit의 에너지 효율을 제공하는 초저지연 상호 연결은 필수적입니다.

제미니 2.5(구글)

다중 모드 추론 및 과학 연구 분야에서 탁월한 성능을 보이는 Gemini 2.5는 고대역폭 및 대규모 분산 통신에 중점을 둡니다. Gemini XNUMX의 성능은 DWDM 시스템과 고속 이더넷 상호 연결에 크게 의존합니다.

그록 3/4(xAI)

내장된 음성 모드와 효율적인 추론 기능을 갖춘 Grok 3/4는 일반적으로 GB200 클러스터에 구축됩니다. 각 GPU는 두 배의 성능을 달성하기 위해 800GbE 인터페이스가 필요합니다.

라마 3 / DeepSeek V3 (Meta / DeepSeek)

오픈소스 모델을 선도하는 Llama 3와 DeepSeek V3는 고성능과 맞춤형 기능을 강조합니다. 분산 학습은 400G/800G 상호 연결에 기반하여 전체 효율성을 20~25% 향상시킵니다.

 

AI 모델

개발자

주요 특징

컴퓨팅 및 상호 연결 요구 사항

GPT-4oOpenAI다중 모드(텍스트, 이미지, 음성); 고급 추론; o1/o3 변형 지원

학습 중 GPU당 데이터 교환이 수백 GB/s에 달하는 대규모 GPU 클러스터 동기화가 필요합니다. 상호 연결 병목 현상으로 인해 학습 시간이 2~3배까지 늘어날 수 있습니다.

클로드 3.7 소네트인류코딩 및 복잡한 작업에 강함, 비용 효율성

추론은 실시간 데이터 스트리밍에 의존하며, 동시 쿼리를 지원하기 위해 초저지연 상호연결이 필요합니다. 800G 광학은 에너지 비용을 비트당 약 5pJ로 줄일 수 있습니다.

쌍둥이 자리 2.5구글효율적인 멀티모달 처리; 개발자와 연구에 최적화됨

교육은 병렬 컴퓨팅에 중점을 두고 있으며, 상호 연결 요구 사항은 DWDM(고밀도 파장 분할 다중화) 다중 파장 전송을 처리하기 위한 고대역폭에 초점을 맞춥니다.

그록 3/4xAI효율적인 추론, 음성 모드 지원, 오픈 소스 친화적

일반적으로 대규모 클러스터(예: GB200)에 배포되며, 각 GPU는 800배의 성능 확장을 달성하기 위해 2GbE 연결이 필요합니다.

라마 3 / 딥시크 V3메타/딥시크오픈소스, 고성능, 맞춤형 교육

분산형 교육은 노드 간 통신에 의존하며, 400G/800G 상호 연결을 통해 전반적인 효율성이 약 25% 향상됩니다.

 

이러한 모델은 공통적인 특징을 공유합니다. 바로 전문가 혼합(MoE) 또는 이와 유사한 아키텍처에 의존하며, 이는 빈번한 전체 간 통신을 필요로 한다는 것입니다. GPT-4o와 같은 초대형 모델을 학습하려면 페타바이트급 데이터 교환이 필요할 수 있으며, 상호 연결 부족으로 인해 네트워크 비용이 70% 이상 증가할 수 있습니다.

 

AI 네트워킹

 

AI 컴퓨팅의 상호 연결 과제

AI 학습 및 추론의 핵심은 대규모 GPU 클러스터의 동기화입니다. 예를 들어, NVIDIA GB200 클러스터에서 각 GPU는 PCIe Gen800 직접 통신을 지원하여 CPU 병목 현상을 방지하기 위해 2GbE(400×6GbE) 연결이 필요합니다. 주요 과제는 다음과 같습니다.

  • 높은 대역폭 수요: AI 워크로드에는 모델 매개변수 동기화를 위해 초당 테라바이트 규모의 데이터 전송이 필요합니다.
  • 매우 짧은 지연 시간: Claude와 같은 모델을 사용한 코드 생성과 같은 추론 작업은 마이크로초 수준의 응답을 요구합니다. 아주 작은 지연이라도 학습 시간을 두 배로 늘릴 수 있습니다.
  • 확장성: 수백 개에서 수만 개의 GPU가 필요하며, 필요한 노드 간에만 연결이 설정되는 Rail-Only 네트워크에 대한 지원이 필요합니다.
  • 에너지 효율성 및 비용: AI 데이터 센터는 엄청난 양의 전력을 소비하며, 상호 연결 효율성을 개선하면 최대 50%의 에너지 절감 효과를 얻을 수 있습니다.

 

AI를 위한 주요 상호 연결 솔루션: OSFP, DAC 및 AOC

1. OSFP 광 모듈

OSFP(Optical Small Form-factor Pluggable)는 400G/800G 속도를 지원하며 실리콘 포토닉스(SiPh) 또는 EML 변조기를 활용합니다. AI 구축 시 OSFP 모듈은 장거리 전송(100m 이상)에 사용되어 최대 4Tbps의 양방향 연결을 지원합니다. 예를 들어, 인텔의 OCI 칩셋은 DWDM(Dynamic Wavelength Division Multiplexing)을 활용하여 저전력 소비(약 5pJ/bit)를 달성합니다.

2. DAC(직접 연결 케이블)

단거리(<7m) 랙 내부 연결을 위해 설계된 구리 기반 솔루션인 DAC는 광전 변환 없이 비용 효율적인 옵션을 제공합니다. AI 클러스터에서 AMD Pensando Pollara 400 NIC와 같은 솔루션은 DAC를 사용하여 400Gbps 대역폭을 제공하는 동시에 RDMA(Remote Direct Memory Access)를 지원하여 데이터 전송 속도를 높입니다.

3. AOC(Active Optical Cable)

통합 광 트랜시버를 갖춘 AOC는 중거리(7~100m) 연결에 적합합니다. 높은 신뢰성을 제공하고 포트 오염을 방지합니다. AI 환경에서 AOC는 병렬 케이블링에 널리 사용되어 800G 데이터 센터 구축을 지원합니다.

AI 네트워킹

 

실제 응용 분야에서 이러한 기술은 AI 성능을 직접적으로 향상시킵니다.

훈련 단계: 예를 들어, Llama 3의 분산 학습에서는 400G SR4 모듈을 사용하여 GPU 간 저지연 통신을 보장하고 활용도를 향상시킵니다.

추론 단계: Gemini 2.5의 실시간 처리는 800G AOC를 사용하여 3200Gbps의 데이터 전송을 달성합니다.

사례 연구 : OpenAI의 Stargate 클러스터는 맞춤형 800GbE NIC를 사용하며, 각 GPU에는 8개의 OSFP 포트가 장착되어 네트워크 성능이 두 배 향상됩니다. AMD의 Vulcano NIC는 2Gbps 처리량을 제공하고 UC 800 표준을 지원합니다.

오픈 소스와 확장성: 예를 들어, DeepSeek V3는 RDMA를 활용하여 상호 연결을 최적화하고 브리징 비용을 줄입니다.

실제 구축에서는 이러한 상호 연결 기술이 종종 조합되어 사용됩니다. DAC와 AOC는 인접한 랙 내부 또는 랙 간의 단거리 연결에 가장 적합하며, 저비용, 저지연성, 그리고 대규모 케이블 연결을 간소화합니다. 반면 OSFP 광 모듈은 주로 랙 간 또는 데이터 홀 간 연결에 사용되며, 장거리에서 더 높은 대역폭, 안정성, 그리고 확장성을 제공합니다. 이러한 계층적 접근 방식을 통해 데이터 센터는 비용, 전력 소비, 그리고 성능의 균형을 맞춰 대규모 AI 클러스터의 학습 및 추론 요구를 충족할 수 있습니다.

 

요약하자면, 고속 상호 연결 기술과 첨단 AI 모델의 통합은 데이터 센터 혁신의 새로운 시대를 열어가고 있습니다. 최신 AI 모델과 400G/800G 상호 연결의 결합은 기술적 시너지를 보여줄 뿐만 아니라 AI 생태계에서 인프라의 중요한 역할을 강조합니다. 상호 연결 기술은 단순히 인공지능을 가능하게 하는 것이 아니라 미래 발전의 초석입니다.

일치하는 제품