W 2025 roku szybki rozwój sztucznej inteligencji (AI) zmienia architekturę centrów danych. Od multimodalnych modeli językowych po otwarte i wydajne frameworki, AI stała się główną siłą napędową innowacji. Skala modeli AI rośnie z setek milionów parametrów do poziomu bilionów, a trenowanie obejmuje tysiące, a nawet dziesiątki tysięcy procesorów graficznych równolegle. Na przykład OpenAI"Modele GPT-4o i podobne wymagają synchronizacji danych w czasie rzeczywistym, aby umożliwić efektywne wnioskowanie i trenowanie. Wymaga to nie tylko przepustowości danych na poziomie TB/s, ale także opóźnień rzędu mikrosekund i wysokiej niezawodności, aby wyeliminować wszelkie wąskie gardła.
W tym kontekście tradycyjne połączenia sieciowe 100G/200G nie są już w stanie sprostać tym wymaganiom. Moduły optyczne OSFP 400G/800G zapewniają bardziej kompaktowe i wydajne rozwiązanie połączeń, natomiast DAC (kabel z bezpośrednim podłączeniem) i AOC (aktywny kabel optyczny) są preferowanymi opcjami dla połączeń krótkiego zasięgu, skutecznie optymalizując koszty i zużycie energii. Sztuczna inteligencja nie polega już tylko na innowacjach algorytmicznych, ale na inżynierii na poziomie systemu, głęboko zintegrowanej z infrastrukturą fizyczną.

Krajobraz sztucznej inteligencji w 2025 roku jest definiowany przez wszechstronność i innowacje open source. Kilka wiodących modeli pokazuje, jak te postępy zmieniają zapotrzebowanie na łączność:
GPT-4o (OpenAI)
Znany ze swoich zaawansowanych możliwości przetwarzania multimodalnego tekstu, obrazu i mowy, GPT-4o opiera się na zsynchronizowanym szkoleniu tysięcy procesorów graficznych (GPU). Każdy GPU wymaga wymiany danych z szybkością setek GB/s, a wszelkie wąskie gardła w połączeniach międzysystemowych mogą znacznie wydłużyć czas szkolenia.
Claude 3.7 Sonet (antropiczny)
Specjalizując się w kodowaniu i złożonych zadaniach wnioskowania, Claude 3.7 Sonnet wymaga strumieni danych w czasie rzeczywistym, aby zapewnić wydajne wnioskowanie. Niezbędne są połączenia o ultraniskim opóźnieniu, a moduły optyczne 800G zapewniają energooszczędność na poziomie około 5 pJ/bit.
Gemini 2.5 (Google)
Gemini 2.5, specjalizujący się w wnioskowaniu multimodalnym i zastosowaniach badawczych, kładzie nacisk na wysoką przepustowość i rozproszoną komunikację na dużą skalę. Jego wydajność w dużym stopniu zależy od systemów DWDM i szybkich połączeń Ethernet.
Grok 3/4 (xAI)
Dzięki wbudowanemu trybowi głosowemu i wydajnym funkcjom wnioskowania, Grok 3/4 jest zazwyczaj wdrażany w klastrach GB200. Każdy procesor graficzny wymaga interfejsu 800 GbE, aby osiągnąć dwukrotnie większą wydajność.
Lama 3 / DeepSeek V3 (Meta / DeepSeek)
Jako wiodący przedstawiciele modeli open source, Llama 3 i DeepSeek V3 kładą nacisk na wysoką wydajność i możliwości personalizacji. Ich rozproszone szkolenie opiera się na połączeniach 400G/800G, co zwiększa ogólną wydajność o 20–25%.
| Model AI | Deweloper | Kluczowe funkcje | Wymagania dotyczące mocy obliczeniowej i połączeń międzysystemowych |
| GPT-4o | OpenAI | Multimodalny (tekst, obraz, mowa); zaawansowane rozumowanie; obsługuje warianty o1/o3 | Wymaga synchronizacji klastra GPU na dużą skalę, przy czym wymiana danych między procesorami GPU podczas szkolenia osiąga prędkość setek GB/s; wąskie gardła połączeń międzysystemowych mogą wydłużyć czas szkolenia o 2–3 razy. |
| Klaudiusz 3.7 Sonet | Antropiczny | Dobry w kodowaniu i złożonych zadaniach; ekonomiczny | Wnioskowanie opiera się na strumieniowym przesyłaniu danych w czasie rzeczywistym, co wymaga połączeń o wyjątkowo niskim opóźnieniu w celu obsługi jednoczesnych zapytań; optyka 800G może zmniejszyć zużycie energii do ~5 pJ/bit. |
| Gemini 2.5 | Wydajne przetwarzanie multimodalne, zoptymalizowane dla programistów i badaczy | Szkolenie kładzie nacisk na obliczenia równoległe, a wymagania dotyczące połączeń międzysystemowych koncentrują się na dużej przepustowości, aby obsługiwać transmisję wielodługościową DWDM (Dense Wavelength Division Multiplexing). | |
| Grok 3/4 | xAI | Wydajne wnioskowanie, obsługa trybu głosowego, przyjazność dla oprogramowania typu open source | Zazwyczaj wdrażane w klastrach o dużej skali (np. GB200), w których każdy procesor graficzny wymaga łączności 800GbE, aby osiągnąć dwukrotną skalę wydajności. |
| Lama 3 / DeepSeek V3 | Meta / DeepSeek | Szkolenia o otwartym kodzie źródłowym, wysokiej wydajności i możliwości dostosowywania | Rozproszone szkolenie opiera się na komunikacji między węzłami, przy czym połączenia 400G/800G zwiększają ogólną wydajność o ~25%. |
Modele te mają wspólną cechę: opierają się na architekturze Mixture of Experts (MoE) lub podobnych, które wymagają częstej komunikacji All-to-All. Trenowanie bardzo dużych modeli, takich jak GPT-4o, może wiązać się z wymianą danych na poziomie petabajtów, a niewystarczające połączenia międzysieciowe mogą zwiększyć koszty sieci o ponad 70%.

Podstawą szkolenia i wnioskowania AI jest synchronizacja ogromnych klastrów GPU. Na przykład w klastrze NVIDIA GB200 każdy GPU wymaga łączności 800 GbE (2×400 GbE), aby obsługiwać bezpośrednią komunikację PCIe Gen6, unikając wąskich gardeł procesora. Główne wyzwania obejmują:
1. Moduły optyczne OSFP
Moduł optyczny OSFP (Optical Small Form-factor Pluggable) obsługuje prędkości 400G/800G i wykorzystuje fotonikę krzemową (SiPh) lub modulatory EML. W systemach sztucznej inteligencji (AI) moduły OSFP służą do transmisji na duże odległości (>100 m), umożliwiając dwukierunkową łączność z prędkością do 4 Tb/s. Na przykład chipsety OCI firmy Intel wykorzystują technologię DWDM, aby osiągnąć niskie zużycie energii (~5 pJ/bit).
2. DAC (kabel podłączany bezpośrednio)
Rozwiązanie oparte na miedzi, przeznaczone do połączeń w szafie rack o krótkim zasięgu (<7 m), DAC oferuje ekonomiczną opcję bez konieczności konwersji optyczno-elektrycznej. W klastrach AI rozwiązania takie jak karta sieciowa AMD Pensando Pollara 400 wykorzystują DAC, aby zapewnić przepustowość 400 Gb/s, a jednocześnie obsługiwać protokół RDMA (Remote Direct Memory Access) w celu przyspieszenia transferu danych.
3. AOC (Aktywny kabel optyczny)
Wyposażone w zintegrowane transceivery optyczne, AOC nadają się do połączeń o średnim zasięgu (7–100 m). Zapewniają wyższą niezawodność i pomagają uniknąć zanieczyszczenia portów. W środowiskach AI, AOC są szeroko stosowane do okablowania równoległego, obsługując wdrożenia centrów danych 800G.

W zastosowaniach praktycznych technologie te bezpośrednio zwiększają wydajność sztucznej inteligencji:
Faza treningowa: Przykładowo w rozproszonym szkoleniu Llama 3 zastosowano moduły 400G SR4, aby zapewnić komunikację o niskim opóźnieniu między procesorami GPU, co poprawia wykorzystanie.
Faza wnioskowania: Przetwarzanie w czasie rzeczywistym w Gemini 2.5 opiera się na 800G AOC, co pozwala na osiągnięcie transferu danych na poziomie 3200 Gb/s.
Studium przypadku: Klaster Stargate firmy OpenAI wykorzystuje niestandardowe karty sieciowe 800GbE, a każdy procesor graficzny jest wyposażony w 8 portów OSFP, co zapewnia dwukrotnie większą wydajność sieci. Karta sieciowa AMD Vulcano zapewnia przepustowość 2 Gb/s i obsługuje standard UC 800.
Otwarte oprogramowanie i skalowalność: Na przykład DeepSeek V3 wykorzystuje RDMA do optymalizacji połączeń międzysieciowych, co pozwala na redukcję kosztów połączeń mostowych.
W praktycznych zastosowaniach te technologie połączeń są często stosowane łącznie: DAC i AOC najlepiej sprawdzają się w przypadku połączeń krótkiego zasięgu w obrębie lub między sąsiednimi szafami, zapewniając niskie koszty, niskie opóźnienia i uproszczone okablowanie w dużej skali. Z kolei moduły optyczne OSFP są wdrażane głównie do połączeń między szafami, a nawet między halami danych, oferując większą przepustowość, stabilność i skalowalność na dłuższych dystansach. To warstwowe podejście pozwala centrom danych zrównoważyć koszty, zużycie energii i wydajność, wspierając tym samym potrzeby uczenia i wnioskowania w klastrach AI na dużą skalę.
Podsumowując, integracja technologii szybkich połączeń z zaawansowanymi modelami sztucznej inteligencji (AI) kształtuje nową erę innowacji w centrach danych. Połączenie najnowszych modeli AI z połączeniami 400G/800G nie tylko demonstruje synergię technologiczną, ale także podkreśla kluczową rolę infrastruktury w ekosystemie AI. Technologia połączeń nie jest jedynie czynnikiem umożliwiającym rozwój sztucznej inteligencji – stanowi fundament jej przyszłego rozwoju.