ในปี พ.ศ. 2025 การพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) กำลังปรับเปลี่ยนสถาปัตยกรรมศูนย์ข้อมูล ตั้งแต่แบบจำลองภาษาขนาดใหญ่แบบมัลติโมดัล ไปจนถึงเฟรมเวิร์กแบบเปิดที่มีประสิทธิภาพ AI ได้กลายเป็นแรงขับเคลื่อนหลักของนวัตกรรม ขนาดของแบบจำลอง AI กำลังขยายจากหลายร้อยล้านพารามิเตอร์ไปสู่ระดับล้านล้าน โดยมีการฝึกอบรมที่เกี่ยวข้องกับ GPU หลายพันหรือหลายหมื่นตัวควบคู่กันไป ยกตัวอย่างเช่น OpenAI's GPT-4o และแบบจำลองที่คล้ายคลึงกันต้องการการซิงโครไนซ์ข้อมูลแบบเรียลไทม์เพื่อให้สามารถอนุมานและฝึกอบรมได้อย่างมีประสิทธิภาพ ซึ่งไม่เพียงแต่ต้องการปริมาณข้อมูลที่ระดับ TB/s เท่านั้น แต่ยังต้องการความหน่วงระดับไมโครวินาทีและความน่าเชื่อถือสูงเพื่อขจัดปัญหาคอขวดต่างๆ
ด้วยเหตุนี้ การเชื่อมต่อเครือข่ายแบบเดิม 100G/200G จึงไม่สามารถตอบสนองความต้องการได้อีกต่อไป โมดูลออปติคัล OSFP 400G/800G มอบโซลูชันการเชื่อมต่อที่กะทัดรัดและมีประสิทธิภาพมากขึ้น ขณะที่ DAC (Direct Attach Cable) และ AOC (Active Optical Cable) เป็นตัวเลือกที่นิยมใช้สำหรับการเชื่อมต่อระยะสั้น ซึ่งช่วยเพิ่มประสิทธิภาพด้านต้นทุนและการใช้พลังงานได้อย่างมีประสิทธิภาพ AI ไม่ได้เป็นเพียงนวัตกรรมอัลกอริทึมอีกต่อไป แต่เป็นความพยายามทางวิศวกรรมระดับระบบที่ผสานรวมเข้ากับโครงสร้างพื้นฐานทางกายภาพอย่างลึกซึ้ง

ภูมิทัศน์ของ AI ในปี 2025 ถูกกำหนดโดยความคล่องตัวและนวัตกรรมโอเพนซอร์ส โมเดลชั้นนำหลายแบบเน้นย้ำว่าความก้าวหน้าเหล่านี้กำลังปรับเปลี่ยนความต้องการการเชื่อมต่ออย่างไร:
GPT-4o (โอเพ่นเอไอ)
GPT-4o โดดเด่นด้วยความสามารถในการประมวลผลแบบมัลติโมดัลอันทรงพลัง ทั้งข้อความ รูปภาพ และเสียง โดยอาศัยการเทรนแบบซิงโครไนซ์ผ่าน GPU หลายพันตัว GPU แต่ละตัวต้องการการแลกเปลี่ยนข้อมูลที่ความเร็วหลายร้อย GB/วินาที และปัญหาคอขวดระหว่างการเชื่อมต่อใดๆ อาจทำให้ระยะเวลาเทรนยาวนานขึ้นอย่างมาก
คล็อด 3.7 โซเน็ต (แอนโทรปิก)
Claude 3.7 Sonnet มีความเชี่ยวชาญด้านการเขียนโค้ดและการใช้เหตุผลเชิงซ้อน จึงต้องการสตรีมข้อมูลแบบเรียลไทม์เพื่อรักษาประสิทธิภาพการอนุมาน การเชื่อมต่อแบบหน่วงเวลาต่ำพิเศษจึงเป็นสิ่งจำเป็น โดยโมดูลออปติคัล 800G ช่วยให้ประหยัดพลังงานได้ประมาณ 5 pJ/bit
ราศีเมถุน 2.5 (Google)
Gemini 2.5 โดดเด่นด้านการอนุมานแบบหลายโหมดและการประยุกต์ใช้งานวิจัยทางวิทยาศาสตร์ โดยเน้นแบนด์วิดท์สูงและการสื่อสารแบบกระจายขนาดใหญ่ ประสิทธิภาพของระบบนี้ขึ้นอยู่กับระบบ DWDM และการเชื่อมต่ออีเทอร์เน็ตความเร็วสูงเป็นหลัก
โกรก 3/4 (xAI)
ด้วยโหมดเสียงในตัวและความสามารถในการอนุมานที่มีประสิทธิภาพ Grok 3/4 จึงมักถูกนำไปใช้งานในคลัสเตอร์ GB200 GPU แต่ละตัวต้องการอินเทอร์เฟซ 800GbE เพื่อให้ได้ประสิทธิภาพที่เพิ่มขึ้นเป็นสองเท่า
ลามะ 3 / DeepSeek V3 (Meta / DeepSeek)
ในฐานะตัวแทนชั้นนำของโมเดลโอเพนซอร์ส Llama 3 และ DeepSeek V3 ให้ความสำคัญกับประสิทธิภาพสูงและความสามารถในการปรับแต่งได้ การฝึกอบรมแบบกระจายของทั้งสองระบบนี้ขึ้นอยู่กับการเชื่อมต่อระหว่างเครือข่าย 400G/800G ซึ่งช่วยเพิ่มประสิทธิภาพโดยรวมได้ 20–25%
| โมเดล AI | ผู้พัฒนา | Key Features | ข้อกำหนดด้านการคำนวณและการเชื่อมต่อ |
| GPT-4o | OpenAI | มัลติโมดัล (ข้อความ รูปภาพ คำพูด); การใช้เหตุผลขั้นสูง; รองรับตัวแปร o1/o3 | ต้องใช้การซิงโครไนซ์คลัสเตอร์ GPU ขนาดใหญ่ โดยการแลกเปลี่ยนข้อมูลแต่ละ GPU จะเข้าถึงหลายร้อย GB/วินาทีในระหว่างการฝึก โดยปัญหาคอขวดระหว่างการเชื่อมต่ออาจทำให้ระยะเวลาการฝึกนานขึ้น 2–3 เท่า |
| โคลด 3.7 โคลง | มานุษยวิทยา | แข็งแกร่งในการเขียนโค้ดและงานที่ซับซ้อน คุ้มต้นทุน | การอนุมานต้องอาศัยการสตรีมข้อมูลแบบเรียลไทม์ ซึ่งต้องใช้การเชื่อมต่อแบบหน่วงเวลาต่ำเป็นพิเศษเพื่อรองรับการค้นหาพร้อมกัน ออปติก 800G สามารถลดต้นทุนพลังงานได้เหลือประมาณ 5 pJ/บิต |
| ราศีเมถุน 2.5 | การประมวลผลแบบหลายโหมดที่มีประสิทธิภาพ ปรับให้เหมาะสมสำหรับนักพัฒนาและการวิจัย | การฝึกอบรมเน้นการประมวลผลแบบขนาน โดยมีข้อกำหนดการเชื่อมต่อที่เน้นแบนด์วิดท์สูงเพื่อรองรับการส่งข้อมูลหลายความยาวคลื่น DWDM (Dense Wavelength Division Multiplexing) | |
| โกรก 3/4 | xAI | การอนุมานที่มีประสิทธิภาพ รองรับโหมดเสียง เป็นมิตรกับโอเพนซอร์ส | โดยทั่วไปจะใช้งานในคลัสเตอร์ขนาดใหญ่ (เช่น GB200) โดยที่ GPU แต่ละตัวต้องใช้การเชื่อมต่อ 800GbE เพื่อให้ได้ประสิทธิภาพการปรับขนาดเพิ่มขึ้น 2 เท่า |
| ลามะ 3 / ดีพซีค V3 | เมตา / ดีพซีค | การฝึกอบรมแบบโอเพ่นซอร์ส ประสิทธิภาพสูง และปรับแต่งได้ | การฝึกอบรมแบบกระจายนั้นขึ้นอยู่กับการสื่อสารแบบข้ามโหนด โดยการเชื่อมต่อแบบ 400G/800G จะช่วยเพิ่มประสิทธิภาพโดยรวมได้ประมาณ 25% |
โมเดลเหล่านี้มีลักษณะร่วมกัน คือ อาศัยการผสมผสานระหว่างผู้เชี่ยวชาญ (MoE) หรือสถาปัตยกรรมที่คล้ายคลึงกัน ซึ่งจำเป็นต้องมีการสื่อสารแบบ All-to-All บ่อยครั้ง การฝึกโมเดลขนาดใหญ่พิเศษอย่าง GPT-4o อาจเกี่ยวข้องกับการแลกเปลี่ยนข้อมูลระดับเพตาไบต์ และการเชื่อมต่อที่ไม่เพียงพออาจทำให้ต้นทุนเครือข่ายเพิ่มขึ้นมากกว่า 70%

หัวใจสำคัญของการฝึกและอนุมาน AI คือการซิงโครไนซ์คลัสเตอร์ GPU ขนาดใหญ่ ยกตัวอย่างเช่น ในคลัสเตอร์ NVIDIA GB200 GPU แต่ละตัวต้องการการเชื่อมต่อ 800GbE (2x400GbE) เพื่อรองรับการสื่อสารโดยตรง PCIe Gen6 เพื่อหลีกเลี่ยงปัญหาคอขวดของ CPU ความท้าทายหลักๆ ประกอบด้วย:
1. โมดูลออปติคัล OSFP
Optical Small Form-factor Pluggable (OSFP) รองรับความเร็ว 400G/800G และใช้ประโยชน์จากโมดูเลเตอร์ซิลิคอนโฟโตนิกส์ (SiPh) หรือ EML ในการใช้งาน AI โมดูล OSFP จะถูกใช้สำหรับการส่งข้อมูลระยะไกล (>100 เมตร) ซึ่งทำให้สามารถเชื่อมต่อแบบสองทิศทางได้สูงสุด 4 Tbps ยกตัวอย่างเช่น ชิปเซ็ต OCI ของ Intel ใช้ DWDM เพื่อให้ได้การใช้พลังงานต่ำ (~5 pJ/bit)
2. DAC (สายเชื่อมต่อโดยตรง)
โซลูชันที่ใช้ทองแดงออกแบบมาสำหรับการเชื่อมต่อภายในแร็คที่มีระยะการเข้าถึงสั้น (<7 เมตร) DAC นำเสนอตัวเลือกที่คุ้มค่าโดยไม่ต้องแปลงสัญญาณแสงเป็นไฟฟ้า ในคลัสเตอร์ AI โซลูชันต่างๆ เช่น AMD Pensando Pollara 400 NIC ใช้ DAC เพื่อส่งมอบแบนด์วิดท์ 400 Gbps พร้อมรองรับ RDMA (Remote Direct Memory Access) เพื่อเร่งการถ่ายโอนข้อมูล
3. AOC (สายออปติคอลแอคทีฟ)
ด้วยตัวรับส่งสัญญาณออปติคัลในตัว AOC จึงเหมาะสำหรับการเชื่อมต่อระยะกลาง (7–100 เมตร) ให้ความน่าเชื่อถือที่สูงขึ้นและช่วยหลีกเลี่ยงการปนเปื้อนของพอร์ต ในสภาพแวดล้อม AI AOC ถูกใช้อย่างแพร่หลายสำหรับการเดินสายแบบขนาน รองรับการใช้งานศูนย์ข้อมูล 800G

ในการใช้งานจริง เทคโนโลยีเหล่านี้จะช่วยเพิ่มประสิทธิภาพ AI โดยตรง:
ขั้นตอนการฝึกอบรม: ตัวอย่างเช่น ในการฝึกอบรมแบบกระจายของ Llama 3 จะใช้โมดูล SR400 4G เพื่อให้แน่ใจว่าการสื่อสารระหว่าง GPU มีความหน่วงต่ำ จึงปรับปรุงการใช้งานให้ดีขึ้น
ขั้นตอนการอนุมาน: การประมวลผลแบบเรียลไทม์ของ Gemini 2.5 อาศัย 800G AOC เพื่อให้สามารถถ่ายโอนข้อมูลได้ 3200 Gbps
กรณีศึกษา: คลัสเตอร์ Stargate ของ OpenAI ใช้ NIC 800GbE แบบกำหนดเอง โดย GPU แต่ละตัวมีพอร์ต OSFP จำนวน 8 พอร์ต มอบประสิทธิภาพเครือข่ายที่ดีขึ้น 2 เท่า Vulcano NIC ของ AMD ให้ทรูพุต 800 Gbps และรองรับมาตรฐาน UC 1.0
โอเพ่นซอร์สและความสามารถในการปรับขนาด: ตัวอย่างเช่น DeepSeek V3 ใช้ประโยชน์จาก RDMA เพื่อเพิ่มประสิทธิภาพการเชื่อมต่อ ทำให้ลดต้นทุนการเชื่อมโยง
ในการใช้งานจริง เทคโนโลยีการเชื่อมต่อเหล่านี้มักถูกนำมาใช้ร่วมกัน: DAC และ AOC เหมาะที่สุดสำหรับการเชื่อมต่อระยะสั้นภายในหรือระหว่างแร็คที่อยู่ติดกัน มอบต้นทุนต่ำ ความหน่วงต่ำ และการเดินสายที่ง่ายขึ้นในระดับขนาดใหญ่ ในทางกลับกัน โมดูลออปติคัล OSFP ส่วนใหญ่ถูกนำไปใช้งานสำหรับการเชื่อมต่อระหว่างแร็คหรือแม้แต่ระหว่างฮอลล์ข้อมูล มอบแบนด์วิดท์ที่สูงขึ้น ความเสถียร และความสามารถในการปรับขนาดในระยะทางที่ไกลขึ้น วิธีการแบบเลเยอร์นี้ช่วยให้ศูนย์ข้อมูลสามารถสร้างสมดุลระหว่างต้นทุน การใช้พลังงาน และประสิทธิภาพการทำงาน จึงรองรับความต้องการด้านการฝึกอบรมและการอนุมานของคลัสเตอร์ AI ขนาดใหญ่
โดยสรุป การผสานรวมเทคโนโลยีการเชื่อมต่อความเร็วสูงเข้ากับโมเดล AI ขั้นสูงกำลังกำหนดทิศทางของนวัตกรรมศูนย์ข้อมูลยุคใหม่ การผสมผสานโมเดล AI ล่าสุดเข้ากับการเชื่อมต่อ 400G/800G ไม่เพียงแต่แสดงให้เห็นถึงการทำงานร่วมกันของเทคโนโลยีเท่านั้น แต่ยังเน้นย้ำถึงบทบาทสำคัญของโครงสร้างพื้นฐานในระบบนิเวศ AI อีกด้วย เทคโนโลยีการเชื่อมต่อไม่เพียงแต่เป็นตัวช่วยในการพัฒนาปัญญาประดิษฐ์เท่านั้น แต่ยังเป็นรากฐานสำคัญของการพัฒนาในอนาคตอีกด้วย