Nhân sự kiện FTP và NVIDA ký kết về việc thành lập nhà máy AI với hệ thống siêu máy tính sử dụng GPU H100 dành cho nghiên cứu và phát triển mới đây, chúng ta sẽ tìm hiểu một chút về GPU nhé.
GPU là gì ?
GPU (Graphic Processing Unit) là một vi mạch máy tính thực hiện các phép tính toán học nhanh chóng dùng trong image render (kết xuất đồ họa). Ban đầu, GPU được sử dụng để render hình ảnh 2D và 3D cho hoạt hình và video, nhưng hiện nay chúng có một phạm vi sử dụng rộng hơn, đặc biệt là trong trí tuệ nhân tạo (AI).
GPU chính là một thiết bị tăng tốc phần cứng (hardware accelerator). Các bạn có thể đọc bài viết về khái niệm này tại link sau
https://ictc.edu.vn/tim-hieu-ve-hardware-accelerators-nhung-nguoi-ban-dac-biet-cua-may-tinh/
Ứng dụng của GPU
Một thiết bị điện tử với GPU tích hợp hoặc gắn ngoài có thể tạo ra đồ họa 3D và nội dung video một cách mượt mà, làm cho nó phù hợp cho các ứng dụng AI về thị giác. GPU hiện đại cũng được điều chỉnh để phù hợp với một loạt các nhiệm vụ rộng lớn hơn so với ban đầu, một phần là vì chúng có khả năng lập trình cao hơn so với quá khứ. Một số ứng dụng phổ biến nhất của GPU bao gồm:
- Tăng tốc việc tạo ra đồ họa 2D và 3D thời gian thực.
- Chỉnh sửa video và tạo nội dung video.
- Đồ họa trò chơi video.
- Tăng tốc ứng dụng Machine Learning như nhận dạng hình ảnh và nhận diện khuôn mặt.
- Huấn luyện mạng nơ-ron học sâu.
GPU hoạt động thế nào ?
GPU hoạt động bằng cách sử dụng các bộ xử lý song song để thực hiện các phép tính cùng một lúc trên nhiều dữ liệu. Quá trình này gọi là xử lý song song (parallel processing), cho phép GPU xử lý một lượng lớn các phép tính đồng thời. Điều này đặc biệt hữu ích cho các ứng dụng đòi hỏi tính toán cao như đồ họa máy tính, trí tuệ nhân tạo và tính toán khoa học.
GPU thường có nhiều lõi xử lý (cores) hơn so với CPU, và mỗi lõi có thể thực hiện một phần nhỏ của nhiệm vụ toàn bộ. Thay vì xử lý các tác vụ tuần tự một cách tuần tự như CPU, GPU có thể xử lý nhiều tác vụ cùng một lúc, tăng tốc đáng kể quá trình tính toán.
Ngoài ra, GPU thường được trang bị với bộ nhớ (RAM) riêng để lưu trữ dữ liệu mà chúng đang xử lý, giúp tăng hiệu suất bằng cách giảm thời gian truy cập dữ liệu từ bộ nhớ chính của hệ thống. Điều này rất quan trọng đối với các ứng dụng đòi hỏi xử lý nhanh chóng của dữ liệu lớn như đồ họa và trí tuệ nhân tạo
Tại sao GPU lại phù hợp với AI ?
GPUs được gọi là “kim loại hiếm” – thậm chí là vàng – của trí tuệ nhân tạo, bởi vì chúng là nền tảng cho thời đại trí tuệ nhân tạo ngày nay.
Với đặc tính thiết kế của nó, GPU thực hiện các phép tính kỹ thuật nhanh hơn và hiệu quả năng lượng hơn so với CPU. Điều đó có nghĩa là chúng cung cấp hiệu suất hàng đầu cho việc huấn luyện AI cũng như những lợi ích trên một loạt các ứng dụng sử dụng tính toán tăng tốc (accelerated computing).
NVIDIA và GPU
NVDIA đã nổi tiếng với GPU từ rất lâu rồi, nhưng trước đây GPU của họ chủ yếu dùng trong đồ họa, xử lý hình ảnh.
Qua thời gian, các kỹ sư tại NVIDIA đã liên tục điều chỉnh các nhân GPU để đáp ứng nhu cầu thay đổi của các mô hình trí tuệ nhân tạo. Các GPU mới nhất có các lõi Tensor Core mạnh mẽ hơn 60 lần so với các thiết kế đầu tiên, được tinh chỉnh đặc biệt để xử lý các phép tính ma trận trong mạng nơ-ron..
Trong suốt quá trình phát triển, mỗi thế hệ GPU đã tăng dung lượng bộ nhớ và triển khai các chiến lược tối ưu hóa để chứa toàn bộ mô hình trí tuệ nhân tạo trong một GPU hoặc một cụm GPU.
NVIDA sở hữu những con chip GPU mạnh mẽ nhất trên thị trường với giá cực kì đắt đỏ.
Tiêu biểu như dòng chip Tensor core H100 mà FPT dự định dùng cho nhà máy AI của mình có giá lên đến 40.000 USD.
Vào năm 2023, Nvidia H100 là chip đồ họa GPU mãnh mẽ nhất trên thì trường, đồng thời cũng có mức giá đắt đỏ nhất. Thông số kỹ thuật cho thấy nó mạnh gấp ba lần bản tiền nhiệm A100, nhưng chi phí vận hành chỉ bằng 1,5-2 lần. Thế nhưng, nó cũng đã nhanh chóng bị vượt qua bởi Blackwell B200 của chính hãng này, con chip mạnh nhất thế giới mới được ra mắt vào tháng trước.
Nhiều quốc gia và các ông lớn trong ngành công nghệ đều muốn thu thập những con chip GPU, như H100 nhiều nhất có thể. Với sự nở rộ của AI, GPU hiệu năng cao như H100 hay Blackwell B200 trở thành công cụ để xây dựng mô hình LLM – cốt lõi của ứng dụng chatbot AI. Hiện chỉ có NVIDIA đủ khả năng sản xuất GPU mạnh như H100, do đó họ toàn quyền quyết định sản lượng trên thị trường.
Elon Musk nói việc tìm mua GPU thậm chí “khó hơn so với chất gây nghiện”. Một số khách hàng phải đợi sáu tháng để nhận H100. Ian Buck, người đứng đầu bộ phận kinh doanh của Nvidia, cho biết nhiệm vụ khó khăn nhất của công ty là tăng nguồn cung H100 nhằm đáp ứng khách hàng. “Nhu cầu thị trường rất lớn. Nhiều đơn vị đang đặt mua hàng chục nghìn GPU”, ông nói.
Với nhu cầu khổng lồ về chip AI, NVIDIA nghiễm nhiên trở thành công ty được săn đón bật nhất thế giới.
Cụ thể, nhà sản xuất chip bán dẫn lớn nhất thế giới ghi nhận 22,1 tỷ USD doanh thu trong quý IV/2023, vượt trội so với dự báo 20,4 tỷ USD của phố Wall. So với cùng kỳ năm ngoái, doanh thu của Nvidia cao tới hơn 265%. Trong khi đó, lợi nhuận của họ trong cùng giai đoạn đạt 12,29 tỷ USD, cao gấp gần 8 lần so với quý IV/2022. “Công nghệ AI đã bước vào một kỷ nguyên mới”, nhà sáng lập Nvidia Jensen Huang, chia sẻ. “Nhu cầu chip AI đang không ngừng gia tăng trên quy mô toàn cầu”.
Chính “cơn sốt” này đã giúp tăng vốn hóa của công ty lên ngưỡng 1.700 tỷ USD, vượt quá ông lớn công nghệ sừng sỏ khác là Alphabet (công ty mẹ của Google) để trở thành doanh nghiệp có vốn hóa thị trường lớn thứ ba tại Mỹ. Nvidia chính là viên ngọc sáng trên thị trường chứng khoán, giúp chỉ số S&P 500 liên tục thiết lập các đỉnh cao mới kể từ khi bước sang năm mới 2024.