Ngày 13/6, công ty AMD cho biết, chip GPU tiên tiến nhất dành cho Trí tuệ Nhân tạo, được gọi là MI300X sẽ bắt đầu được giao cho một số khách hàng đã có đơn đặt hàng vào cuối năm 2023.
Trang CNBC, dẫn bình luận của các nhà phân tích cho biết, thông
báo của AMD thể hiện sự thách thức mạnh mẽ nhất đối với công ty Nvidia, hiện
đang thống trị thị trường chip AI với hơn 80% thị phần.
Bộ xử lý đồ họa GPU là những con chip quan trọng, được các
công ty Trí tuệ Nhân tạo như OpenAI sử dụng để phát triển các mô hình AI ngôn
ngữ lớn như ChatGPT.
Nếu chip AI của AMD mà công ty gọi là “máy gia tốc” được các
nhà phát triển và các doanh nghiệp sản xuất máy chủ chấp nhận, có thể thay thế những
sản phẩm của Nvidia, thì đây sẽ là một bước đột phá của AMD vào một thị trường
lớn chưa được khai thác cho nhà sản xuất chip, nổi tiếng với bộ xử lý máy tính
truyền thống CPU.
Giám đốc điều hành AMD Lisa Su, trong cuộc thảo luận với các
nhà đầu tư và nhà phân tích ở San Francisco ngày 13/6 nhấn mạnh, AI là “cơ hội
tăng trưởng dài hạn lớn nhất và chiến lược nhất” của doanh nghiệp. Bà Su nói: “Chúng tôi dự đoán thị trường “máy gia tốc” AI của trung tâm
dữ liệu sẽ tăng từ khoảng 30 tỷ USD trong năm 2023 với tốc độ tăng trưởng gộp
hàng năm trên 50%, lên hơn 150 tỷ USD năm 2027.”
CEO Lisa Su giới thiệu chip ADM Instinct M1300 khi có bài phát biểu tại CES 2023 ở The Venetian Las Vegas ngày 04/1/2023 ở Las Vegas, Nevada. Ảnh David Becker /Getty Images
Mặc dù AMD không không công bố giá bán của chip, nhưng động
thái này sẽ gây áp lực đối với GPU của Nvidia. Ví dụ, chip H100 hiện có giá từ
30.000 USD trở lên. Giá GPU thấp hơn sẽ giảm chi phí cao trong quá trình chạy
các ứng dụng AI sáng tạo như ChatGPT.
Chip AI hiện đang là một điểm sáng trong ngành công nghiệp
bán dẫn, giúp Nvidia bước vào câu lạc bộ các công ty nghìn tỷ USD, trong khi
doanh số PC, yếu tố then chốt thúc đẩy doanh số bộ xử lý bán dẫn truyền thống
CPU đang sụt giảm.
Tháng 5, Giám đốc điều hành AMD Lisa Su trong một hội nghị
báo cáo thu nhập cho biết, mặc dù MI300X
sẽ có mẫu vào mùa thu năm nay, nhưng sản phẩm sẽ bắt đầu được cung cấp với số
lượng lớn vào năm 2024. Bà Su cũng cung cấp thêm chi tiết về chip mới trong bài
thuyết trình của mình ngày 13/6.
“Tôi thích con chip này,” bà Su nói.
Chip GPU MI300X Infinity
AMD cho biết chip MI300X mới và Kiến trúc mạng dữ liệu hội tụ
(CDNA) của công ty được thiết kế cho những mô hình ngôn ngữ lớn (LLM) và các mô
hình AI sáng tạo khác. Bà Su cho biết: “Trung tâm của thiết kế này là GPU. Bộ xử
lý đồ họa GPU cho phép AI sáng tạo.”
Cùng với APU MI300 128GB đã được công bố trước đây, hiện được
gọi là MI300A, AMD đã chế tạo GPU thuần túy sử dụng cùng một thiết kế. Con chip
MI300X, chỉ sử dụng các ô GPU CDNA 3 thay vì kết hợp các ô CPU và GPU, trở
thành một GPU hiệu suất cao được kết hợp với bộ nhớ HBM3 192GB.
Những thông số cơ bản của chip MI300X
Hướng đến thị trường mô hình ngôn ngữ lớn, MI300X được thiết
kế cho những khách hàng cần tất cả dung lượng bộ nhớ có thể có để chạy các mô
hình GPT lớn nhất. Để so sánh, chip đối thủ H100 của Nvidia chỉ hỗ trợ bộ nhớ
120GB.
Những mô hình ngôn ngữ lớn (LLM) cho các ứng dụng AI sáng tạo
sử dụng nhiều dung lượng bộ nhớ vì mô hình chạy số lượng phép tính ngày càng
tăng. AMD đã trình diễn MI300x chạy mô hình, được gọi là Falcon có 40 tỷ tham số.
Mô hình GPT-3 của OpenAI có 175 tỷ tham số.
“Kích thước mô hình
ngày càng lớn hơn rất nhanh và người dùng thực sự cần nhiều GPU để chạy các mô
hình ngôn ngữ lớn mới nhất,” bà Su nói, đồng thời nhấn mạnh rằng, với bộ nhớ bổ
sung trên chip AMD, các nhà phát triển mô hình AI sẽ không cần nhiều GPU như OpenAI
đã làm với chip Nvidia.
AMD cũng cho biết sẽ cung cấp Kiến trúc Vô cực (Infinity Architecture)
kết hợp 8 bộ gia tốc M1300X AMD trong một hệ thống. Nvidia và Google cũng phát
triển những hệ thống tương tự, kết hợp 8 GPU trở lên trong một hệ thống đóng
gói duy nhất cho những ứng dụng AI.
Một lý do khiến các nhà phát triển mô hình AI ưa thích chip
Nvidia vì doanh nghiệp này có gói phần mềm do công ty phát triển có tên gọi là
CUDA, cho phép người dùng truy cập những tính năng phần cứng cốt lõi của chip.
Cùng ngày 13/6, AMD cho biết, công ty có phần mềm riêng cho
chip AI, được gọi là ROCm.
Chủ tịch AMD Victor Peng cho biết: “Trong hành trình phát
triển, chúng tôi đã đạt được tiến bộ thực sự lớn trong kiến trúc chip, xây dựng
một ngăn xếp phần mềm mạnh mẽ, hoạt động với hệ sinh thái mở bao gồm các mô
hình, thư viện, khung làm việc và bộ công cụ.”