NVIDIA B200 là GPU trung tâm của kiến trúc Blackwell, chứa khoảng 200+ tỷ transistor, sản xuất trên tiến trình 4nm của TSMC, cho phép tích hợp mật độ tính toán và băng thông bộ nhớ rất cao, vượt xa thế hệ Hopper trước đó.
Về năng lực tính toán, B200 tập trung mạnh vào các định dạng số dành cho AI như FP4, FP8, BF16 và FP16, trong đó FP4/FP8 cho phép huấn luyện và suy luận các mô hình LLM với hiệu suất và hiệu quả năng lượng vượt trội. NVIDIA công bố B200 có thể đạt hiệu năng AI cao gấp nhiều lần H100 trong các workload huấn luyện và inference hiện đại, đặc biệt là với transformer và mô hình hàng nghìn tỷ tham số.
Về memory, B200 sử dụng HBM3e dung lượng lên tới 192 GB, với băng thông xấp xỉ 8 TB/s, giúp giảm đáng kể bottleneck khi xử lý các mô hình lớn và batch size cao. Kết hợp với NVLink thế hệ mới, các GPU B200 có thể kết nối với nhau với băng thông cực lớn, tạo thành một không gian bộ nhớ và tính toán gần như liền mạch trong các cụm máy chủ AI.
NVIDIA B200 nhắm trực tiếp tới data center AI, nơi cần huấn luyện và triển khai các mô hình nền tảng như GPT, Gemini hay các mô hình đa phương thức quy mô lớn. Nó cũng là nền tảng cho các hệ thống như GB200 Grace Blackwell Superchip, phục vụ siêu máy tính AI, trung tâm dữ liệu đám mây và các công ty phát triển AI hàng đầu. Nói ngắn gọn, B200 không phải GPU cho đồ họa hay gaming, mà là “động cơ” cốt lõi cho làn sóng AI thế hệ tiếp theo.
Và giá bán của B200 cũng không hề rẻ chút nào, dao động khoảng từ 30k – 40k USD cho một con ![]()



















