Mellanox (NVIDIA) 920-9B110-00FH-0D0 Giải pháp kỹ thuật chuyển đổi InfiniBand để tối ưu hóa kết nối liên kết chậm
January 5, 2026
1. Bối cảnh dự án & Phân tích yêu cầu
Triển khai và mở rộng các cụm điện toán tăng tốc hiện đại cho việc huấn luyện AI và khối lượng công việc HPC đặt ra những thách thức mạng độc đáo. Mạng dựa trên TCP/IP truyền thống gây ra độ trễ đáng kể và chi phí CPU, trở thành nút thắt cổ chai chính. Các yêu cầu chính cho một giải pháp liên kết thế hệ tiếp theo bao gồm: độ trễ dưới micro giây xác định để ngăn chặn GPU bị dừng, băng thông hai chiều cao cho tất cả các mẫu giao tiếp, điện toán trong mạng có thể mở rộng để giảm tải các hoạt động tập thể và quản lý vải mạnh mẽ để đơn giản hóa hoạt động.
NVIDIA Mellanox 920-9B110-00FH-0D0 được thiết kế để đáp ứng chính xác những yêu cầu này, tạo thành nền tảng của một giải pháp OPN chuyển mạch InfiniBand 920-9B110-00FH-0D0. Tài liệu này phác thảo một bản thiết kế kỹ thuật toàn diện để triển khai nó.2. Thiết kế kiến trúc hệ thống/mạng tổng thể
Kiến trúc được đề xuất là một cấu trúc liên kết cây béo không chặn, spine-leaf, là tiêu chuẩn thực tế để xây dựng các cụm HPC và AI có băng thông cao, có thể dự đoán được. Thiết kế này đảm bảo số lượng bước nhảy và độ trễ nhất quán giữa hai nút bất kỳ, loại bỏ tình trạng đăng ký quá mức và điểm nóng. Kiến trúc được xây dựng trên một hệ sinh thái được tối ưu hóa toàn diện của NVIDIA.
Lớp tính toán:
- Hệ thống NVIDIA DGX hoặc HGX hoặc các máy chủ GPU tương đương với NIC NVIDIA ConnectX-7.Lớp liên kết:
- Một cấu trúc đồng nhất của các bộ chuyển mạch 920-9B110-00FH-0D0. Lớp quản lý & điều phối:
- NVIDIA UFM® để quản lý cấu trúc, được tích hợp với các trình lập lịch cụm như Slurm hoặc Kubernetes thông qua ngăn xếp NVIDIA Magnum IO.Kiến trúc end-to-end này đảm bảo hiệu suất tối ưu cho các giao tiếp RDMA và GPUDirect, tạo ra một "cấu trúc như một tài nguyên tính toán" thống nhất.
3. Vai trò của 920-9B110-00FH-0D0 & Các đặc điểm kỹ thuật chính
Trong kiến trúc này,
920-9B110-00FH-0D0. Các trụ cột kỹ thuật cốt lõi:
Độ trễ cực thấp & Băng thông cao:
- Được hỗ trợ bởi 920-9B110-00FH-0D0 MQM8790-HS2F 200Gb/s HDR ASIC, nó mang lại độ trễ từ cổng đến cổng hàng đầu trong ngành và băng thông 200Gb/s trên mỗi cổng tốc độ dây đầy đủ, điều này rất quan trọng đối với lưu lượng RDMA.Điện toán trong mạng (SHARP):
- Phần cứng chuyển mạch tăng tốc các hoạt động tập thể MPI và NCCL (All-Reduce, Broadcast) bằng cách thực hiện tổng hợp dữ liệu trong mạng. Điều này làm giảm đáng kể thời gian GPU nhàn rỗi và chi phí CPU.Kiểm soát tắc nghẽn nâng cao:
- Các cơ chế kiểm soát tắc nghẽn Kịp thời và Định tuyến thích ứng quản lý động các luồng lưu lượng, ngăn chặn việc rớt gói và đảm bảo phân phối băng thông công bằng trong các tình huống incast phổ biến trong quá trình huấn luyện AI.Đo từ xa & Khả năng hiển thị:
- Hỗ trợ tích hợp cho cơ sở hạ tầng đo từ xa của NVIDIA cung cấp những hiểu biết sâu sắc về các mẫu lưu lượng, mức sử dụng bộ đệm và tình trạng liên kết, những yếu tố cần thiết để điều chỉnh hiệu suất.Các kỹ sư nên tham khảo
bảng dữ liệu 920-9B110-00FH-0D0 chính thức để biết chi tiết thông số kỹ thuật 920-9B110-00FH-0D0 về cấu hình nguồn, làm mát và cổng.4. Khuyến nghị triển khai & mở rộng
Việc triển khai bắt đầu bằng việc phân tích cẩn thận
danh sách thành phần tương thích 920-9B110-00FH-0D0. Một đơn vị mở rộng điển hình là một "pod" được xây dựng với một cây béo không chặn.Ví dụ: Pod cụm 512-GPU
Tầng Leaf:
- Triển khai các bộ chuyển mạch 920-9B110-00FH-0D0. Tầng Spine:
- Một lớp thứ hai của các bộ chuyển mạch 920-9B110-00FH-0D0. Cáp:
- Sử dụng cáp QSFP56 HDR (thụ động hoặc chủ động) cho tất cả các kết nối 200Gb/s giữa bộ chuyển mạch và máy chủ.Mở rộng ngoài một Pod:
Nhiều pod có thể được kết nối với nhau bằng cách sử dụng các bộ chuyển mạch spine-of-spine chuyên dụng hoặc bằng cách mở rộng hệ thống phân cấp cây béo, tận dụng bán kính cao của 920-9B110-00FH-0D0. Bộ chuyển mạch InfiniBand 920-9B110-00FH-0D0 cung cấp một lộ trình rõ ràng để tương tác một phần trong quá trình mở rộng.5. Vận hành, Giám sát, Khắc phục sự cố & Tối ưu hóa
Quản lý chủ động là rất quan trọng để duy trì hiệu suất cấu trúc cao nhất. NVIDIA UFM® là nền tảng quản lý trung tâm được khuyến nghị.
Khu vực hoạt động
| Công cụ/Tính năng | Lợi ích | Cung cấp & Giám sát cấu trúc |
|---|---|---|
| Trình quản lý thiết bị & Đo từ xa UFM® | Cung cấp không chạm, bảng điều khiển tình trạng theo thời gian thực và thu thập số liệu hiệu suất. | Khắc phục sự cố & Phân tích nguyên nhân gốc rễ |
| Trình phân tích sự kiện & Chẩn đoán cáp UFM® | Phát hiện bất thường do AI điều khiển, nhật ký sự kiện chi tiết và kiểm tra cáp từ xa. | Tối ưu hóa hiệu suất |
| Cố vấn hiệu suất & Phân tích SHARP UFM® | Xác định các điểm tắc nghẽn, tối ưu hóa định tuyến và giám sát hiệu quả điện toán trong mạng. | Cập nhật chương trình cơ sở thường xuyên và tuân thủ các phương pháp hay nhất được nêu trong tài liệu chuyển mạch là rất cần thiết. Đối với các sự cố như hiệu suất RDMA bị suy giảm, luồng chẩn đoán nên bắt đầu bằng đo từ xa UFM®, kiểm tra tính toàn vẹn của cáp và xác minh cài đặt SHARP và kiểm soát tắc nghẽn. |
6. Kết luận & Đánh giá giá trị
Việc triển khai một liên kết cụm dựa trên
Mellanox (NVIDIA) 920-9B110-00FH-0D0 cung cấp một nền tảng hiệu suất cao, có khả năng chống chịu trong tương lai cho RDMA, HPC và khối lượng công việc AI. Đề xuất giá trị của nó có nhiều mặt: nó tối đa hóa việc sử dụng GPU và ROI bằng cách giảm thiểu chi phí giao tiếp, cho phép tăng trưởng cụm có thể mở rộng và đơn giản hóa các hoạt động thông qua quản lý và đo từ xa tích hợp.Mặc dù
giá 920-9B110-00FH-0D0 đại diện cho một khoản đầu tư cao cấp, Tổng chi phí sở hữu (TCO) là thuận lợi khi xem xét việc giảm đáng kể thời gian hoàn thành công việc, cải thiện năng suất của nhà nghiên cứu và mở rộng hiệu quả, tránh các thiết kế lại cấu trúc tốn kém. Các tổ chức đánh giá 920-9B110-00FH-0D0 để bán không nên xem nó như một chi phí mạng mà là một bộ tăng tốc tính toán chiến lược. Giải pháp kỹ thuật này cung cấp bản thiết kế để mở khóa toàn bộ tiềm năng của cơ sở hạ tầng điện toán tăng tốc.

