Ngày 5/4. Google đã công bố thông tin chi tiết về một siêu máy tính Trí tuệ Nhân tạo, cho biết thiết bị nhanh và hiệu quả hơn so với các hệ thống Nvidia, sử dụng chip AI có tên là Bộ xử lý Tensor, hay TPU.
Trong khi công ty Nvidia đang thống trị thị trường đào tạo
và triển khai mô hình AI với hơn 90% thị phần. Google tập trung theo hướng thiết
kế và triển khai các chip AI, có tên là Bộ xử lý Tensor, hay TPU từ năm 2016.
Google là doanh nghiệp tiên phong lớn về AI và lực lượng kỹ
thuật của Google đã có được những tiến bộ quan trọng nhất trong thập kỷ qua. Một
số nhà phân tích công nghệ cho rằng, Google đã tụt hậu trong hoạt động thương mại
hóa những phát minh của doanh nghiệp.
Trong nội bộ, công ty đang chạy đua để tung ra sản phẩm AI
và chứng minh rằng doanh nghiệp kiên quyết không từ boor vị trí dẫn đầu, một
tình huống “mã đỏ” đang được áp đặt ở công ty, theo bản tin của CNBC trước đó.
Những mô hình và sản phẩm AI như Bard của Google hay ChatGPT
của OpenAI, được chip A100 của Nvidia cung cấp sức mạnh tính toán. Hoạt động của
mô hình AI yêu cầu rất nhiều máy tính và hàng trăm hoặc hàng nghìn chip làm việc
cùng nhau để đào tạo những mô hình khác nhau với những máy tính chạy liên tục
trong nhiều tuần hoặc nhiều tháng. Những mô hình AI tiêu thụ năng lượng rất cao
đang là phần nóng nhất của ngành công nghệ điện toán ứng dụng AI.
Ngày 4/4, Google cho biết đã xây dựng một hệ thống với hơn
4.000 TPU, kết hợp với những thành phần tùy chỉnh, được thiết kế để chạy và huấn
luyện các mô hình AI. Hệ thống này chạy từ năm 2020, được sử dụng để đào tạo mô
hình PaLM của Google, cạnh tranh với mô hình GPT của OpenAI trong hơn 50 ngày.
Các nhà khoa học của Google cho biết, siêu máy tính trên nền
tảng TPU của Google, được gọi là TPU v4 “nhanh hơn 1,2 lần–1,7 lần và sử dụng
ít năng lượng hơn 1,3 lần–1,9 lần so với máy tính sử dụng chip Nvidia A100. “Hiệu
suất, khả năng mở rộng và tính khả dụng khiến siêu máy tính TPU v4 trở thành ngựa
ô của những mô hình AI ngôn ngữ lớn”.
Nhưng đến nay, kết quả tính toán TPU của Google không được
so sánh với chip Nvidia AI mới nhất, H100, vì sản phẩm TPU mới ra đời gần đây
hơn và được sản xuất bằng nút công nghệ tiên tiến hơn, các nhà nghiên cứu Google
cho biết.
Kết quả và thứ hạng từ bài kiểm tra toàn nghành chip AI có
tên là MLperf được công bố ngày 5/4, giám đốc điều hành Nvidia Jensen Huang cho
biết, kết quả kiểm tra chip Nvidia gần đây nhất cho thấy, H100 nhanh hơn rất
nhiều so với thế hệ trước.
MLPerf là bộ điểm chuẩn được sử dụng để đánh giá hiệu suất
đào tạo và suy luận của các hệ thống máy tính và đám mây. MLPerf được xác định
là thước đo hiệu suất khách quan, độc lập cho các khung hoạt động phần mềm, nền
tảng phần cứng và nền tảng đám mây dành cho Máy học.
“Điểm nổi bật theo kết quả đánh giá MLPerf 3.0 là kiến trúc
Hopper mang lại hiệu suất gấp 4 lần so với A100,” ông Huang viết trong một bài
đăng trên blog. “Cấp độ tiếp theo của AI sáng tạo yêu cầu cơ sở hạ tầng AI mới
để đào tạo những Mô hình ngôn ngữ lớn (LLM) với hiệu quả năng lượng cao.
Một lượng công năng máy tính rất lớn, cần thiết cho AI có
giá rất cao, điều đó khiến nhiều kỹ sư trong ngành tập trung vào nỗ lực phát
triển các chip mới, những thành phần như kết nối quang học hoặc kỹ thuật phần mềm
nhằm giảm công năng máy tính cần thiết cho đào tạo AI.
Những yêu cầu về công năng máy tính lớn của AI là một lợi
ích cho các nhà cung cấp đám mây như Google, Microsoft và Amazon, có thể cho
thuê xử lý máy tính theo giờ và cung cấp tín dụng hoặc thời gian tính toán cho
các công ty khởi nghiệp để xây dựng và phát triển các mối quan hệ chia sẻ lợi
ích. Đám mây của Google cũng bán thời gian xử lý máy tinh trên chip Nvidia. Gần
đây, Google cho biết Midjourney, một trình tạo hình ảnh AI đã được đào tạo trên
chip TPU của doanh nghiệp.