META CHI ĐẬM MUA CHIP AI CỦA AMD
Meta ký thỏa thuận mua chip AI từ AMD trị giá tới ~60 tỷ USD, triển khai hạ tầng AI quy mô 6 gigawatt compute. Đây là mức gần tương đương một nhà máy điện cỡ lớn. Hệ thống dùng GPU Instinct MI450 tối ưu inference, chạy trên kiến trúc rack-scale Helios cùng CPU EPYC thế hệ 6. Điểm đáng chú ý là Meta có quyền sở hữu tới 10% cổ phần AMD, cho thấy xu hướng mới: hyperscaler và hãng chip liên kết vốn để đảm bảo nguồn cung.
NVIDIA MUỐN XÂY DỰNG DATA CENTER NGOÀI VŨ TRỤ
Một startup được Nvidia quan tâm đang phát triển trung tâm dữ liệu đặt ngoài không gian nhằm giải quyết bài toán lớn nhất của chip AI hiện nay: tản nhiệt và điện năng. Trong môi trường chân không, hệ thống dựa vào bức xạ nhiệt thay vì đối lưu, cho phép GPU hoạt động với hiệu suất năng lượng cao hơn. Nếu thành công, datacenter quỹ đạo có thể trở thành hướng mở rộng hạ tầng AI khi giới hạn nhiệt trên Trái Đất ngày càng rõ rệt.
GCRAM: ỨNG VIÊN THAY THẾ SRAM SAU HƠN 60 NĂM
Nghiên cứu Gain-Cell RAM (GCRAM) cho thấy khả năng kết hợp mật độ cao gần DRAM với tốc độ gần SRAM. Công nghệ này cho phép thiết kế bộ nhớ dị thể cho AI accelerator, giảm diện tích và điện năng. Đây là hai yếu tố đang trở thành bottleneck lớn hơn cả compute. Các compiler GCRAM mới thậm chí cho phép tối ưu layout bộ nhớ trực tiếp theo workload AI, mở ra khả năng thay đổi cache hierarchy truyền thống.
AI ĐANG ĐẨY NGÀNH MEMORY VÀO SIÊU CHU KỲ MỚI
Nhu cầu AI khiến bộ nhớ trở thành phần tăng trưởng nhanh nhất ngành bán dẫn. Dự báo doanh thu hãng memory có thể đạt 551 tỷ USD, vượt cả foundry. Nguyên nhân chính là GPU AI thế hệ mới yêu cầu dung lượng RAM và băng thông ngày càng lớn, khiến HBM trở thành tài nguyên chiến lược thay vì linh kiện phụ trợ như trước đây.
NVIDIA BẮT ĐẦU GỬI SAMPLE GPU AI RUBIN TỚI KHÁCH HÀNG
Nvidia đã gửi các mẫu thử nghiệm (engineering samples) của nền tảng Vera Rubin tới đối tác hyperscaler, đánh dấu bước chuyển từ roadmap sang silicon thực tế. Hệ thống kết hợp CPU Vera và GPU Rubin sử dụng bộ nhớ HBM4 dung lượng tới 288GB, hướng tới workload AI quy mô cực lớn. Việc sampling sớm cho phép khách hàng tối ưu software stack và datacenter trước khi production hàng loạt dự kiến diễn ra cuối 2026, cho thấy chu kỳ phát triển AI accelerator đang ngày càng rút ngắn.




















