Hãng chứng khoán Mizuho Securities ước tính Nvidia kiểm soát từ 70% đến 95% thị trường chip AI dùng để đào tạo và triển khai các mô hình như GPT của OpenAI. Ấn tượng hơn cả là tỷ suất lợi nhuận gộp lên tới 78%, vô cùng cao với một công ty phần cứng. Trong quý gần nhất, hai đối thủ Intel và AMD lần lượt đạt tỷ suất lợi nhuận gộp 41% và 47%.
Dòng sản phẩm GPU AI hàng đầu như H100 kết hợp với phần mềm CUDA của hãng khiến cho việc chuyển sang một giải pháp thay thế khác dường như bất khả thi.
Dù vậy, CEO Jensen Huang vẫn bày tỏ “lo lắng và quan ngại” về công ty 31 năm tuổi của mình. Tại một hội nghị cuối năm ngoái, ông thừa nhận có nhiều đối thủ mạnh đang trỗi dậy.
Nvidia cam kết ra mắt kiến trúc chip AI mới hằng năm thay vì mỗi hai năm một lần như truyền thống bên cạnh các phần mềm mới. Tuy nhiên, GPU của Nvidia không phải là loại duy nhất có thể chạy các phép toán phức tạp đằng sau AI tạo sinh. Nếu những con chip yếu hơn cũng làm được cùng một việc, lo lắng của ông Huang là chính đáng.
Sự chuyển dịch từ đào tạo mô hình AI sang cái gọi là “suy luận” – hay triển khai mô hình – có thể giúp các doanh nghiệp có cơ hội thay thế GPU Nvidia, đặc biệt khi giá bán và chi phí vận hành rẻ hơn. Những con chip cao cấp của Nvidia có giá trên dưới 30.000 USD, là động lực để khách hàng tìm phương án thay thế.
D-Matrix, công ty thành lập năm 2019 và gần đây huy động được 100 triệu USD đầu tư, dự định ra mắt card bán dẫn cho máy chủ vào cuối năm nay với mục tiêu giảm chi phí và độ trễ khi vận hành mô hình AI. Không chỉ D-Matrix, các doanh nghiệp khác từ tập đoàn đa quốc gia đến startup nhỏ bé đều đang chiến đấu để giành được một phần trong thị trường chip AI.
Theo các nhà phân tích, thị trường có thể đạt doanh thu thường niên 400 tỷ USD trong 5 năm tới. Nvidia kiếm được khoảng 80 tỷ USD trong 4 quý vừa qua. Ngân hàng Bank of America ước tính “gã khổng lồ” này đã bán 34,5 tỷ USD chip AI năm ngoái.
Không ai có thể phủ nhận mong muốn có được phần cứng Nvidia để đào tạo và vận hành mô hình AI. Song, đang có những tiến bộ trong việc cân bằng cuộc chơi, từ các ông lớn đang tự phát triển chip riêng cho đến những startup nhỏ bé thiết kế bán dẫn của riêng mình.
CEO AMD Lisa Su muốn các nhà đầu tư tin rằng còn nhiều dư địa cho nhiều người thành công trong lĩnh vực chip AI. Tháng 12/2023, khi giới thiệu chip AI mới, bà nói với các phóng viên: “Điều quan trọng là có rất nhiều cơ hội ở đây. Tôi nghĩ chúng ta sẽ thấy tình huống nơi không chỉ có một mà có nhiều giải pháp”.
AMD chuyên sản xuất GPU cho game và giống như Nvidia, hãng điều chỉnh nó để dùng cho AI trong các trung tâm dữ liệu. Chip đầu bảng của AMD là Instinct MI300X. Microsoft đã mua chip AMD và bán quyền truy cập thông qua đám mây Azure.
Tại lễ ra mắt, CEO Su nhấn mạnh khả năng suy luận của con chip, thay vì cạnh tranh khả năng đào tạo với Nvidia. Microsoft cho biết đang dùng GPU AMD Instinct để phục vụ các mô hình Copilot. Theo các chuyên gia của ngân hàng Morgan Stanley, đây là dấu hiệu cho thấy doanh số chip AI của AMD có thể vượt 4 tỷ USD năm nay.
Intel, bị Nvidia qua mặt về doanh thu năm ngoái, cũng đang muốn thiết lập sự hiện diện trong lĩnh vực AI. Công ty đã công bố phiên bản thứ ba của chip AI Gaudi. Lần này, Intel so sánh trực tiếp với đối thủ, mô tả đây là giải pháp thay thế hiệu quả hơn và tiết kiệm hơn Nvidia H100 về suy luận, đồng thời nhanh hơn trong đào tạo các mô hình.
Bank of America ước tính Intel nắm chưa tới 1% thị phần chip AI. Intel cho biết có một đơn đặt hàng chip 2 tỷ USD.
CNBC nhận định, tảng đá chính ngăn chip AI đối thủ phổ biến hơn có thể là phần mềm. AMD và Intel đều đang tham gia một tổ chức lớn có tên UXL, mục đích là tạo ra các lựa chọn thay thế miễn phí cho CUDA của Nvidia.
Một thách thức tiềm tàng khác đối với Nvidia là cạnh tranh từ chính những khách hàng lớn nhất, bao gồm Amazon, Google, Microsoft. Họ đều đang phát triển bộ xử lý để dùng nội bộ. Ba tên tuổi này cùng với Oracle đang đóng góp hơn 40% doanh thu cho nhà sản xuất chip.
Amazon ra mắt chip định hướng AI vào năm 2018 mang tên Inferentia và nay đã bước sang đời thứ hai. Năm 2021, Amazon Web Services (AWS) công bố Tranium để đào tạo mô hình AI. Khách hàng không thể mua chip nhưng có thể thuê hệ thống thông qua AWS. AWS quảng cáo những con chip này tiết kiệm hơn so với Nvidia.
Google có lẽ là nhà cung cấp dịch vụ đám mây có cam kết mạnh mẽ nhất với bán dẫn. Công ty sử dụng bộ xử lý Tensor (TPU) từ năm 2015 để đào tạo và triển khai các mô hình AI. Hồi tháng 5, hãng trình diễn thế hệ thứ 6 và nói sẽ dùng để phát triển các mô hình như Gemini, Imagen. Ngoài ra, Google cũng dùng chip Nvidia và cho thuê qua đám mây.
Microsoft bám sát nút phía sau. Năm 2023, nhà sản xuất Windows cho biết đang phát triển chip AI và bộ tăng tốc riêng có tên Cobalt và Maia.
Dù không phải nhà cung cấp dịch vụ đám mây, Meta cần lượng năng lực tính toán khổng lồ để chạy phần mềm và website, phục vụ quảng cáo. Công ty mẹ Facebook vẫn mua hàng tỷ USD chip Nvidia nhưng đã sử dụng một số chip tự phát triển trong các trung tâm dữ liệu của mình.
Nguy cơ lớn nhất đối với mảng trung tâm dữ liệu của Nvidia có thể là thay đổi trong địa điểm xử lý. Các nhà phát triển đặt cược rằng tác vụ AI sẽ chuyển từ các trang trại máy chủ sang chính laptop, PC và điện thoại hàng ngày.
Các mô hình lớn như của OpenAI đòi hỏi các cụm GPU lớn để suy luận, nhưng những hãng như Aapple và Microsoft đang phát triển các mô hình nhỏ hơn, tốn ít năng lượng và dữ liệu hơn, chạy được ngay trên thiết bị. Chúng không tinh vi như ChatGPT nhưng làm được nhiều việc như tóm tắt văn bản hay tìm kiếm hình ảnh.
Apple và Qualcomm đều đang nâng cấp chip của mình để chạy AI hiệu quả hơn, bổ sung bộ xử lý thần kinh để có lợi thế về quyền riêng tư và tốc độ.
Qualcomm vừa giới thiệu chip máy tính, cho phép laptop chạy dịch vụ AI của Microsoft. Trong khi đó, Apple quảng cáo các laptop và máy tính bảng mới nhất của mình đã được tối ưu hóa cho AI nhờ bộ xử lý thần kinh trong chip.
Tại Hội nghị nhà phát triển toàn cầu WWDC 2024, “Táo khuyết” đã trình diễn một loạt tính năng AI mới có tên Apple Intelligence, tiếp tục là cơn đau đầu mới với Nvidia.
Thiết kế: Amy Nguyễn