Đứng sau sự bùng phát mạnh mẽ của ChatGPT và các ứng dụng AI, đang gây bão trên internet là công ty Nvidia, sản xuất ra công cụ tính toán quan trọng nhất, cung cấp sức mạnh cho Trí tuệ Nhân tạo: Chip Nvidia
AI đã tạo ra những ứng dụng có thể tương tác với người dùng,
trả lời các câu hỏi, viết các đoạn văn bản, soạn nhạc hoặc vẽ tranh tương tự
con người, hình thành một cơn sốt vàng trong ngành công nghệ.
Các công ty khổng lồ như Microsoft và Google đang chạy đua
tích hợp những ứng dụng AI tiên tiến vào công cụ tìm kiếm, khi những công ty AI
trị giá hàng tỷ USD như OpenAI và Stable Diffusion nỗ lực phát hành những phần
mềm ấn tượng ra công chúng.
Cung cấp sức mạnh tính toán cho những ứng dụng này là một chip
trị giá khoảng 10.000 USD, trở thành một trong những công cụ quan trọng nhất
trong ngành Trí tuệ Nhân tạo: Nvidia A100.
Nathan Benaich, một nhà đầu tư, thưởng xuất bản các bản tin
và thông báo về ngành AI bao gồm một phần danh sách những siêu máy tính sử dụng
A100 cho biết, A100 trở thành “con ngựa ô” cho các chuyên gia AI hiện nay. Theo
New Street Research, Nvidia chiếm 95% thị trường bộ xử lý đồ họa sử dụng cho Máy
học.
A100 là công cụ lý tưởng, áp dụng cho loại mô hình máy học hỗ
trợ những công cụ thông minh như ChatGPT, Bing AI hoặc Stable Diffusion. Chip
có thể đồng thời thực hiện hàng loạt phép tính đơn giản, có ý nghĩa vô cùng
quan trọng trong đào tạo và sử dụng các mô hình mạng thần kinh.
Công nghệ phát triển chip A100 ban đầu được sử dụng để hiển
thị đồ họa 3D phức tạp trong các trò chơi. Chip thường được gọi là bộ xử lý đồ
họa hoặc GPU, nhưng hiện nay A100 của Nvidia được định cấu hình và hướng đến
các tác vụ Máy học và chạy trong các trung tâm dữ liệu lớn chứ không phải bên
trong những PC chơi games.
Các công ty công nghệ lớn hoặc công ty khởi nghiệp, phát triển
những phần mềm như chatbot và trình tạo hình ảnh yêu cầu hàng trăm hoặc hàng nghìn
chip Nvidia, doanh nghiệp có thể tự mua chíp hoặc truy cập an toàn từ máy tính vào
nhà cung cấp đám mây.
Cần có hàng trăm GPU để đào tạo các mô hình Trí tuệ Nhân tạo
như những mô hình ngôn ngữ lớn. Những con chip phải đủ sức mạnh xử lý hàng
terabyte dữ liệu nhanh chóng để có thể nhận dạng các mẫu. Sau đó các GPU như
A100 được sử dụng để “suy luận” các câu trả lời hoặc sử dụng mô hình tạo ra văn
bản, đưa ra những dự báo hoặc xác định đối tượng trong ảnh.
Những công việc này khiến các công ty AI cần sở hữu rất nhiều
A100. Một số doanh nhân trong không gian thậm chí còn coi số lượng A100 có quyền
truy cập là dấu hiệu của sự phát triển mang tính cách mạng.
Tháng 1, Giám đốc điều hành Stability AI, Emad Mostaque đã
viết trên Twitter:
“Một năm trước, chúng tôi có 32 chiếc A100. Chúng tôi có ước
mơ lớn là xếp chồng các chip GPU lên nhau để đào tạo các mô hình Trí tuệ Nhân tạo.”
Stability AI là công ty phát triển Stable Diffusion, một công cụ AI tạo hình ảnh
từ tin nhắn văn bản, thu hút được sự chú ý đặc biệt vào mùa thu năm 2022 và được
cho là có mức định giá hơn 1 tỷ USD .
Hiện nay, Stability AI có quyền truy cập vào hơn 5.400 GPU
A100, theo một ước tính từ báo cáo của State of AI, cung cấp biểu đồ theo dõi
những công ty và trường đại học nào có bộ sưu tập GPU A100 lớn nhất, không bao
gồm các nhà cung cấp dịch vụ đám mây do không công bố số lượng GPU A100 công
khai.
Nvidia đang phát triển chip định hướng AI
Nvidia sẽ có nhiều lợi nhuận từ sự lan tỏa mạnh mẽ của các ứng
dụng AI. Trong báo cáo thu nhập tài chính quý IV, được công bố ngày 22/2, tổng
doanh thu giảm 21%, nhưng các nhà đầu tư đã đẩy cổ phiếu lên khoảng 14% vào ngày
23/2, chủ yếu là do hoạt động kinh doanh chip AI của công ty, được báo cáo là
GPU cho trung tâm dữ liệu tăng 11%, lên hơn 3,6 tỷ USD doanh thu trong quý, cho
thấy sự tăng trưởng liên tục của chip Nvidia.
Cổ phiếu của Nvidia cũng tăng 65% trong năm 2023, vượt xa
S&P 500 và các cổ phiếu bán dẫn khác.
Giám đốc điều hành Nvidia Jensen Huang không thể ngừng nói về
AI trong các cuộc đàm thoại điện thoại với các nhà phân tích ngày 22/2, lưu ý rằng
sự bùng nổ mạnh mẽ của Trí tuệ Nhân tạo là trọng tâm trong chiến lược của công
ty.
Ông Huang cho biết: “Hoạt động mạnh mẽ xung quanh cơ sở hạ tầng
AI mà chúng tôi đã xây dựng và liên quan đến đầu ra logic bằng phương pháp sử dụng
Hopper và Ampere, tác động đến các mô hình ngôn ngữ lớn đã tăng vọt trong 60
ngày qua”.
“Không có bất cứ nghi
ngờ nào, bất kể quan điểm nào của chúng ta về năm 2023 khi bước vào năm 2023 đã
thay đổi khá nhiều do kết quả ứng dụng AI của 60, 90 ngày cuối và đầu năm.”
Ampere là tên mã của Nvidia cho thế hệ chip A100. Hopper là
tên mã của chip thế hệ mới H100, mới bắt đầu xuất xưởng.
Cung cấp sức mạnh tính toán ngày càng cao cho máy tính
Bộ Vi xử lý Nvidia A100
So với những loại phần mềm khác như phục vụ một trang web,
đôi khi sử dụng sức mạnh xử lý theo từng đợt trong vài phần triệu giây, các tác
vụ Máy học có thể chiếm toàn bộ sức mạnh xử lý của máy tính trong nhiều giờ hoặc
nhiều ngày. Thực tế này có nghĩa là các công ty có sản phẩm AI thành công thường
cần mua thêm GPU để xử lý những giai đoạn cao điểm hoặc hoàn thiện, nâng cao mô
hình AI.
Những GPU này không hề rẻ. Ngoài một A100 duy nhất trên thẻ
có thể được cắm vào một máy chủ, nhiều trung tâm dữ liệu sử dụng một hệ thống đến
8 GPU A100 hoạt động cùng nhau.
Hệ thống này, được gọi là DGX A100 của Nvidia, có giá đề xuất
gần 200,000 USD đi kèm với các chip cần thiết. Ngày 22/4, Nvidia cho biết sẽ
bán trực tiếp quyền truy cập đám mây của các hệ thống DGX, có thể sẽ giảm chi
phí đầu vào cho những lập trình viên độc lập và nhà nghiên cứu.
Thật dễ dàng để thấy chi phí cho A100 có thể tăng lên như thế
nào.
Một ước tính từ New Street Research cho thấy, mô hình
ChatGPT trên cơ sở OpenAI trong tìm kiếm của Bing có thể yêu cầu 8 GPU để đưa
ra câu trả lời cho một câu hỏi trong vòng chưa đầy một giây. Với tốc độ này,
Microsoft sẽ cần hơn 20 000 máy chủ 8 GPU để triển khai mô hình trong Bing cho người
dùng, cho thấy tính năng mới BingAI của Microsoft có thể tiêu tốn 4 tỷ USD cho
cơ sở hạ tầng.
Antoine Chkaiban, nhà phân tích công nghệ tại New Street
Research cho biết, nếu Microsoft mở rộng quy mô của Bing, yêu cầu là 4 tỷ USD. Nhưng
nếu mở rộng quy mô của Google, phục vụ 8 hoặc 9 tỷ truy vấn mỗi ngày, chi phí sẽ
lên tới 80 tỷ USD cho DGX. Đây là những chi phí rất lớn, phản ánh thực tế là mỗi
người dùng sử dụng một mô hình ngôn ngữ lớn như vậy đều cần một siêu máy tính
khổng lồ.
Phiên bản mới nhất của Stable Diffusion, một trình duyệt tạo
hình ảnh bằng lời nhắc được đào tạo trên 256 GPU A100 hoặc 32 máy với 8 A100 mỗi
máy tính, theo thông tin trực tuyến do Stability AI công bố với tổng cộng là
200 000 giờ điện toán.
Theo giá thị trường, chỉ riêng tiến trình đào tạo mô hình AI
đã có giá 600 000 USD, Giám đốc điều hành Stability AI, ông Mostaque viết trên
Twitter trong một tweet trao đổi về giá rẻ bất thường so với các đối thủ. Con số
này không tính chi phí “suy luận” hoặc triển khai mô hình.
Huang, giám đốc điều hành của Nvidia trong cuộc phỏng vấn với
phóng viên Katie Tarasov của CNBC cho biết, các sản phẩm của công ty thực sự
không đắt so với số lượng tính toán mà những loại mô hình này thực hiện và đó
là một bước phát triển lớn. Ông nói: “Chúng tôi đã lấy một trung tâm dữ liệu trị
giá 1 tỷ USD chạy CPU và thu nhỏ lại thành một trung tâm dữ liệu trị giá 100
triệu USD. 100 triệu đô la, khi đưa vào đám mây và được 100 công ty chia sẻ, giá
cả gần như không là gì cả đối với doanh nghiệp.”
Theo ông Huang, GPU của Nvidia cho phép các công ty khởi
nghiệp đào tạo các mô hình AI với chi phí thấp hơn nhiều so với việc các doanh
nghiệp sử dụng bằng bộ xử lý máy tính truyền thống. Hiện nay các doanh nghiệp
có thể xây dựng sản phẩm tương tự như mô hình ngôn ngữ lớn như GPT với giá khoảng
10, 20 triệu USD và đó là giá thành hợp lý.”
Cạnh tranh gay gắt trong lĩnh vực chip AI
Nvidia không phải là công ty duy nhất sản xuất GPU để sử dụng
Trí tuệ Nhân tạo. AMD và Intel cũng cung cấp bộ xử lý đồ họa cạnh tranh và các
công ty điện toán đám mây lớn như Google và Amazon đang phát triển và triển
khai chip của doanh nghiệp, được thiết kế đặc biệt cho khối lượng công việc AI.
Nhưng đến thời điểm này, phần cứng AI vẫn được tích hợp chặt
chẽ với Nvidia, theo bản báo cáo về Chỉ số điện toán trạng thái AI . Tính đến
tháng 12, hơn 21 000 báo cáo mã nguồn mở về AI cho biết nhà phát triển sử dụng
chip Nvidia.
Hầu hết các nhà nghiên cứu được đưa vào Chỉ số điện toán trạng
thái AI đã sử dụng V100, chip của Nvidia, ra mắt vào năm 2017. Nhưng A100 đã
phát triển nhanh chóng vào năm 2022 và trở thành chip Nvidia được sử dụng nhiều
thứ 3, chỉ sau chip đồ họa dành cho người tiêu dùng có giá 1500 USD trở xuống
cho chơi game.
A100 cũng có điểm khác biệt, là 1 trong số ít chip áp dụng
các biện pháp kiểm soát xuất khẩu vì lý do quốc phòng. Mùa thu năm 2022, Nvidia
cho biết trong một hồ sơ của Ủy ban Chứng khoán và Giao dịch Mỹ (SEC), chính phủ
Mỹ áp đặt yêu cầu xin giấy phép do lệnh cấm xuất khẩu A100 và H100 sang Trung
Quốc, Hồng Kông và Nga.
“Chính phủ Mỹ chỉ rõ, yêu cầu cấp phép mới sẽ giải quyết rủi ro về
khả năng những sản phẩm được bảo vệ có thể bị sử dụng hoặc chuyển hướng sang “sử
dụng cuối cùng cho quân sự” hoặc “người dùng cuối - quân đội” ở Trung Quốc và
Nga,” Nvidia giải thích trong hồ sơ chứng khoán. Nvidia trước đây cũng đã điều
chỉnh một số loại chip cho thị trường Trung Quốc để tuân thủ những hạn chế xuất
khẩu của Mỹ.
Cuộc cạnh tranh khốc liệt nhất cho A100 có thể là chip kế
nhiệm. A100 được giới thiệu lần đầu tiên vào năm 2020, một thời gian rất dài
trong chu kỳ hoạt động của chip. H100, được giới thiệu vào năm 2022, đang bắt đầu
được sản xuất với số lượng lớn. Nvidia đã ghi nhận doanh thu từ chip H100 trong
quý IV kết thúc vào tháng 1 nhiều hơn so với A100, mặc dù theo đơn giá H100 đắt
hơn.
Nvidia cho biết H100 là GPU đầu tiên trong số các GPU trung
tâm dữ liệu của hãng được tối ưu hóa cho chuyển đổi ngôn ngữ, một kỹ thuật ngày
càng trở lên quan trọng mà nhiều ứng dụng AI hàng đầu và mới nhất sử dụng.
Nvidia cho biết đang hướng tới mục tiêu đào tạo AI nhanh hơn 1 triệu phần trăm.
Mục tiêu này nhằm giảm số lượng GPU cần thiết cho trung tâm dữ liệu hoặc những mô hình AI tương lai sẽ có sức mạnh lớn hơn nhiều./.