Thực hành Ứng dụng Chuyển mạch InfiniBand Mellanox (NVIDIA) 920-9B110-00FH-0D0

January 5, 2026

tin tức mới nhất của công ty về Thực hành Ứng dụng Chuyển mạch InfiniBand Mellanox (NVIDIA) 920-9B110-00FH-0D0


Hậu cảnh & Thách thức: Rào cản mạng trong một Trung tâm nghiên cứu AI đa phương thức

Một trung tâm nghiên cứu AI đa phương thức hàng đầu, có công việc bao gồm đào tạo mô hình ngôn ngữ lớn, mô phỏng máy tính khoa học và phát triển hệ thống tự trị, đang phải đối mặt với một bức tường khả năng mở rộng quan trọng.Cấu trúc Ethernet 100Gb / s hiện tại của họ đấu tranh dưới sựCác thách thức chính là ba lần: thời gian hoàn thành công việc không thể đoán trước do tắc nghẽn mạng,sử dụng GPU không hiệu quả thường dưới 60%, và không thể mở rộng hơn 256 nút mà không bị suy giảm hiệu suất nghiêm trọng.

Giải pháp & triển khai: Kiến trúc với 920-9B110-00FH-0D0 InfiniBand Switch OPN

Các kỹ sư của trung tâm đã thiết kế một cluster backbone mới tập trung vào ** NVIDIA Mellanox 920-9B110-00FH-0D0 **.sử dụng các công tắc như cả hai lá và các nút cột sốngCác ** 920-9B110-00FH-0D0 MQM8790-HS2F 200Gb / s HDR** lõi cung cấp cần thiết hai chiều rộng băng thông và mật độ cổng để kết nối hơn 1.000 NVIDIA A100 và H100 GPU liền mạch.

Các quyết định triển khai chính bao gồm:

  • Tổ chức Fabric:Tiêu chuẩn hóa trên **920-9B110-00FH-0D0** đảm bảo một loại vải đồng nhất, hiệu suất cao, đơn giản hóa quản lý và khắc phục sự cố.
  • Khả năng tính toán trong mạng:NVIDIA's Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) TM đã được kích hoạt trên toàn bộ mô, giải phóng các hoạt động tập thể (như All-Reduce) từ CPU sang mạng chuyển đổi.
  • RDMA từ đầu đến cuối:Hệ sinh thái **920-9B110-00FH-0D0 tương thích, bao gồm cả các bộ chuyển đổi ConnectX-7, cho phép một con đường RDMA thực sự (Remote Direct Memory Access) từ đầu đến cuối,bỏ qua hệ điều hành và CPU để di chuyển dữ liệu.
  • Quản lý thông minh:Vải được quản lý bởi NVIDIA UFM®, cung cấp thông tin chi tiết sâu về đo từ xa và AI để theo dõi sức khỏe chủ động và tối ưu hóa hiệu suất.

Kết quả & Lợi ích: Lợi ích có thể đo lường về hiệu suất và hiệu quả

Việc triển khai giải pháp OPN chuyển đổi InfiniBand ** 920-9B110-00FH-0D0 đã mang lại kết quả chuyển đổi, trực tiếp giải quyết các thách thức ban đầu.Các chỉ số hiệu suất đã được ghi lại trước và sau khi di chuyển.

Phương pháp đo Mạng lưới trước Với 920-9B110-00FH-0D0 vải Cải thiện
Mức sử dụng GPU trung bình ~58% ~92% +59%
All-Reduce Latency (4KB) 15 μs 5 μs Giảm 67%
Thời gian đào tạo mô hình lớn (giá tiêu chuẩn) Điểm cơ bản (100%) 41% so với mức ban đầu 2.4 lần nhanh hơn
Mức tối đa khả năng mở rộng cụm 256 nút 1024+ nút (được xác nhận) 4x + quy mô

Những lợi ích mở rộng vượt ra ngoài tốc độ thô. hiệu quả hoạt động được cải thiện do thời gian hoàn thành công việc dự đoán. Các nhà nghiên cứu có thể bắt đầu thử nghiệm lớn hơn, phức tạp hơn một cách tự tin.tăng tốc độ đổi mớiCác thông số kỹ thuật **920-9B110-00FH-0D0**, chi tiết trong trang dữ liệu chính thức, cung cấp sự tự tin kỹ thuật cần thiết cho việc triển khai quan trọng này.

Kết luận và triển vọng trong tương lai

Trường hợp ứng dụng này chứng minh rõ ràng rằng **Mellanox (NVIDIA) 920-9B110-00FH-0D0** là nhiều hơn chỉ là một thành phần chuyển đổi;nó là một khả năng tính toán cho cơ sở hạ tầng AI và HPC hiện đạiBằng cách cung cấp độ trễ thấp xác định, tận dụng tính toán trong mạng và cho phép RDMA liền mạch, nó biến hiệu suất cụm từ một nút thắt thành một lợi thế cạnh tranh.

Sự thành công của việc triển khai này nhấn mạnh giá trị của giải pháp OPN chuyển đổi InfiniBand tích hợp **920-9B110-00FH-0D0**.các nguyên tắc kiến trúc được kích hoạt bởi chuyển đổi này sẽ trở thành tiêu chuẩn thực tếĐối với các tổ chức đánh giá **920-9B110-00FH-0D0 để bán** và giá **920-9B110-00FH-0D0 của nó** so với tổng chi phí sở hữu,trường hợp này cung cấp một lập luận thuyết phục cho đầu tư vào một mạng lưới mà mở khóa tiềm năng đầy đủ của mỗi đô la tính toán chi tiêu.