في عام ٢٠٢٥، سيُعيد التطور السريع للذكاء الاصطناعي تشكيل بنى مراكز البيانات. من نماذج اللغات الكبيرة متعددة الوسائط إلى الأطر المفتوحة والفعّالة، أصبح الذكاء الاصطناعي القوة الدافعة الأساسية للابتكار. يتوسع نطاق نماذج الذكاء الاصطناعي من مئات الملايين من المعلمات إلى تريليونات، مع تدريب يشمل آلافًا، بل عشرات الآلاف، من وحدات معالجة الرسومات بالتوازي. على سبيل المثال، OpenAI'تتطلب نماذج GPT-4o وما شابهها مزامنة بيانات آنية لتمكين الاستدلال والتدريب بكفاءة. وهذا لا يتطلب فقط معدل نقل بيانات يصل إلى تيرابايت/ثانية، بل يتطلب أيضًا زمن وصول يبلغ ميكروثانية وموثوقية عالية لتجنب أي اختناقات.
في ظل هذه الظروف، لم تعد شبكات الربط التقليدية بسرعة 100 جيجابت/200 جيجابت قادرة على تلبية هذه المتطلبات. توفر وحدات OSFP الضوئية بسرعة 400 جيجابت/800 جيجابت حلاً أكثر إحكامًا وكفاءة للربط، بينما يُعدّ كابل التوصيل المباشر (DAC) وكابل البصري النشط (AOC) الخيارين المفضلين للوصلات قصيرة المدى، مما يُحسّن التكلفة واستهلاك الطاقة بشكل فعال. لم يعد الذكاء الاصطناعي يقتصر على الابتكار الخوارزمي، بل أصبح جهدًا هندسيًا على مستوى النظام متكاملًا تمامًا مع البنية التحتية المادية.

سيُحدد مشهد الذكاء الاصطناعي في عام ٢٠٢٥ التنوع والابتكار في المصادر المفتوحة. وتُبرز العديد من النماذج الرائدة كيف تُعيد هذه التطورات تشكيل متطلبات الربط البيني:
GPT-4o (OpenAI)
يشتهر GPT-4o بقدراته القوية على معالجة النصوص والصور والكلام، ويعتمد على التدريب المتزامن عبر آلاف وحدات معالجة الرسومات. تتطلب كل وحدة معالجة رسومات تبادل بيانات بسرعة مئات الجيجابايت/ثانية، ويمكن لأي اختناق في الاتصال أن يطيل مدة التدريب بشكل كبير.
سونيت كلود 3.7 (أنثروبي)
يتخصص Claude 3.7 Sonnet في مهام الترميز والاستدلال المعقدة، ويتطلب تدفقات بيانات آنية لضمان كفاءة الاستدلال. وتُعدّ الوصلات منخفضة الكمون للغاية أساسية، حيث تُمكّن وحدات بصرية بسعة 800 جيجابت من توفير الطاقة بمعدل 5 بيكوجول/بت تقريبًا.
الجوزاء 2.5 (جوجل)
يتميز نظام Gemini 2.5 بتفوقه في تطبيقات الاستدلال متعدد الوسائط والبحث العلمي، ويركز على النطاق الترددي العالي والاتصالات الموزعة واسعة النطاق. ويعتمد أداؤه بشكل كبير على أنظمة DWDM وشبكات الإيثرنت عالية السرعة.
جروك 3/4 (xAI)
بفضل وضع الصوت المدمج وقدرات الاستدلال الفعّالة، يُستخدم Grok 3/4 عادةً في مجموعات GB200. تتطلب كل وحدة معالجة رسومية واجهة 800GbE لتحقيق أداء مضاعف.
اللاما 3 / DeepSeek V3 (ميتا / DeepSeek)
باعتبارهما من أبرز نماذج المصادر المفتوحة، يُركز نظاما Llama 3 وDeepSeek V3 على الأداء العالي وإمكانية التخصيص. يعتمد تدريبهما الموزع على وصلات 400 جيجابت/800 جيجابت، مما يُعزز الكفاءة الإجمالية بنسبة 20-25%.
| نموذج الذكاء الاصطناعي | المطور | الميزات الرئيسية | متطلبات الحوسبة والترابط |
| جي بي تي-4o | OpenAI | متعدد الوسائط (نص، صورة، كلام)؛ التفكير المتقدم؛ يدعم المتغيرات o1/o3 | يتطلب مزامنة مجموعة وحدة معالجة الرسوميات على نطاق واسع، مع تبادل بيانات لكل وحدة معالجة رسوميات يصل إلى مئات جيجابايت/ثانية أثناء التدريب؛ يمكن أن تؤدي اختناقات الاتصال إلى تمديد وقت التدريب بمقدار 2-3 مرات. |
| كلود 3.7 السوناتة | أنثروبي | قوي في البرمجة والمهام المعقدة؛ فعال من حيث التكلفة | يعتمد الاستدلال على تدفق البيانات في الوقت الفعلي، مما يتطلب ربطًا منخفضًا للغاية لدعم الاستعلامات المتزامنة؛ ويمكن لبصريات 800G تقليل تكلفة الطاقة إلى حوالي 5 بيكو جول/بت. |
| الجوزاء 2.5 | جوجل | معالجة متعددة الوسائط فعالة؛ مُحسّنة للمطورين والباحثين | يركز التدريب على الحوسبة المتوازية، مع التركيز على متطلبات الربط على النطاق الترددي العالي للتعامل مع نقل DWDM (تقسيم الطول الموجي الكثيف) متعدد الأطوال الموجية. |
| جروك 3/4 | xAI | استدلال فعال، ودعم الوضع الصوتي، وصديق للمصادر المفتوحة | يتم نشرها عادة في مجموعات واسعة النطاق (على سبيل المثال، GB200)، حيث تتطلب كل وحدة معالجة رسومية اتصال 800GbE لتحقيق توسع الأداء بمقدار 2x. |
| لاما 3 / ديب سيك V3 | ميتا / ديب سيك | تدريب مفتوح المصدر وعالي الأداء وقابل للتخصيص | يعتمد التدريب الموزع على الاتصالات بين العقد، حيث تعمل الترابطات 400G/800G على تعزيز الكفاءة الإجمالية بنحو 25%. |
تشترك هذه النماذج في سمة مشتركة: فهي تعتمد على مزيج الخبراء (MoE) أو هياكل مشابهة، والتي تتطلب اتصالات متكررة بين جميع الأجهزة. قد يتطلب تدريب النماذج فائقة الحجم، مثل GPT-4o، تبادل بيانات بمستوى البيتابايت، وقد يؤدي نقص الترابطات إلى ارتفاع تكاليف الشبكة بأكثر من 70%.

يكمن جوهر تدريب الذكاء الاصطناعي واستنتاجاته في مزامنة مجموعات وحدات معالجة الرسومات الضخمة. على سبيل المثال، في مجموعة NVIDIA GB200، تتطلب كل وحدة معالجة رسومات اتصال 800GbE (2×400GbE) لدعم الاتصال المباشر ببطاقة PCIe Gen6، مما يُجنّب اختناقات وحدة المعالجة المركزية. تشمل التحديات الرئيسية ما يلي:
1. وحدات OSFP الضوئية
يدعم الموصل البصري صغير الحجم القابل للتوصيل (OSFP) سرعات 400 جيجابت/800 جيجابت، ويعتمد على فوتونيات السيليكون (SiPh) أو مُعدّلات EML. في تطبيقات الذكاء الاصطناعي، تُستخدم وحدات OSFP للنقل بعيد المدى (>100 متر)، مما يتيح اتصالاً ثنائي الاتجاه بسرعة تصل إلى 4 تيرابت في الثانية. على سبيل المثال، تستخدم شرائح OCI من Intel تقنية DWDM لتحقيق استهلاك منخفض للطاقة (حوالي 5 بيكوجول/بت).
2. DAC (كابل التوصيل المباشر)
حلٌّ نحاسيٌّ مُصمَّمٌ لاتصالاتٍ قصيرة المدى (أقل من 7 أمتار) داخل الرفوف، يُوفِّر مُحوِّلاً رقمياً تناظرياً (DAC) خياراً اقتصادياً دون الحاجة إلى تحويل ضوئي-كهربائي. في مجموعات الذكاء الاصطناعي، تستخدم حلولٌ مثل AMD Pensando Pollara 400 NIC مُحوِّلاتٍ رقمياً تناظرياً (DACs) لتوفير نطاق ترددي يبلغ 400 جيجابت في الثانية، مع دعم تقنية RDMA (الوصول المباشر عن بُعد للذاكرة) لتسريع نقل البيانات.
3. AOC (كابل بصري نشط)
تتميز أجهزة AOCs بأجهزة إرسال واستقبال بصرية مدمجة، وهي مناسبة للاتصالات متوسطة المدى (7-100 متر). فهي توفر موثوقية أعلى وتساعد على تجنب تلوث المنافذ. في بيئات الذكاء الاصطناعي، تُستخدم أجهزة AOCs على نطاق واسع في الكابلات المتوازية، مما يدعم نشر مراكز البيانات بسرعة 800 جيجابت.

في التطبيقات العملية، تعمل هذه التقنيات على تعزيز أداء الذكاء الاصطناعي بشكل مباشر:
مرحلة التدريب: على سبيل المثال، في التدريب الموزع لـ Llama 3، يتم استخدام وحدات SR400 بسعة 4 جيجابايت لضمان الاتصال منخفض الكمون بين وحدات معالجة الرسومات، مما يحسن الاستخدام.
مرحلة الاستدلال: تعتمد معالجة Gemini 2.5 في الوقت الفعلي على 800G AOC لتحقيق نقل بيانات بسرعة 3200 جيجابت في الثانية.
دراسة الحالة: تستخدم مجموعة Stargate من OpenAI بطاقات شبكة مخصصة بسرعة 800 جيجابت في الثانية، حيث تحتوي كل وحدة معالجة رسومية على 8 منافذ OSFP، مما يوفر أداءً شبكيًا مضاعفًا. توفر بطاقة Vulcano من AMD معدل نقل بيانات يبلغ 2 جيجابت في الثانية وتدعم معيار UC 800.
المصدر المفتوح وقابلية التوسع: على سبيل المثال، يستفيد DeepSeek V3 من RDMA لتحسين عمليات الربط المتبادلة، مما يقلل من تكاليف الجسر.
في التطبيقات العملية، تُستخدم تقنيات الربط هذه غالبًا معًا: يُعدّ كلٌّ من المحول الرقمي التناظري (DAC) والمحول الرقمي التناظري (AOC) الأنسب للاتصالات قصيرة المدى داخل الرفوف المتجاورة أو بينها، مما يوفر تكلفة منخفضة وزمن وصول منخفضًا وكابلات مبسطة على نطاق واسع. من ناحية أخرى، تُستخدم وحدات OSFP الضوئية بشكل أساسي للاتصالات بين الرفوف أو حتى بين قاعات البيانات، مما يوفر نطاقًا تردديًا أعلى واستقرارًا وقابلية للتوسع لمسافات أطول. يتيح هذا النهج متعدد الطبقات لمراكز البيانات تحقيق التوازن بين التكلفة واستهلاك الطاقة والأداء، مما يدعم متطلبات التدريب والاستدلال لمجموعات الذكاء الاصطناعي واسعة النطاق.
باختصار، يُشكّل دمج تقنيات الربط البيني عالية السرعة مع نماذج الذكاء الاصطناعي المتقدمة عصرًا جديدًا من ابتكارات مراكز البيانات. ولا يُظهر دمج أحدث نماذج الذكاء الاصطناعي مع شبكات الربط البيني بسرعة 400/800 جيجابت التآزر التكنولوجي فحسب، بل يُبرز أيضًا الدور المحوري للبنية التحتية في منظومة الذكاء الاصطناعي. فتقنية الربط البيني ليست مجرد مُمكّن للذكاء الاصطناعي، بل هي حجر الأساس في تطويره المستقبلي.