Các nhà đầu tư đang đặt cược vào Nvidia, đơn vị xử lý đồ họa thống trị thị trường
Chip H100 mới của Nvidia đã đến lúc tung ra thị trường © Nvidia
Khi một cuộc đấu tranh toàn diện để giành quyền thống trị AI nổ ra trong ngành công nghệ, Phố Wall đã đặt cược sớm vào việc ai sẽ là người chiến thắng lớn nhất: các công ty sản xuất vũ khí sẽ được sử dụng bởi tất cả các bên tham chiến.
Cụ thể, điều đó có nghĩa là các chip tiên tiến cần thiết cho các hệ thống “AI thế hệ mới” như chatbot ChatGPT và các hệ thống tạo hình ảnh như Dall-E.
Và các nhà đầu tư không đặt cược vào bất kỳ nhà sản xuất nào. Cổ phiếu của Nvidia, công ty sở hữu các đơn vị xử lý đồ họa – hay còn gọi là GPU – đang thống trị thị trường đào tạo các mô hình AI lớn, đã tăng 55% trong năm nay. Chúng cũng đã tăng gấp đôi kể từ tháng 10, khi Nvidia gặp khó khăn do sự kết hợp của sự phá sản tiền điện tử (chip của nó được sử dụng rộng rãi bởi những người khai thác tiền điện tử), doanh số bán PC sụt giảm và quá trình chuyển đổi sản phẩm được quản lý kém trong chip trung tâm dữ liệu.
Chiến lược đầu tư “cuốc và xẻng” có ý nghĩa khi vẫn còn khó để biết một công nghệ mới sẽ phát huy tác dụng như thế nào. Các công ty công nghệ lớn đang chuẩn bị sử dụng các hệ thống AI mới đắt tiền để chống lại nhau mà vẫn chưa có dấu hiệu rõ ràng về cách đạt được lợi thế lâu dài.
Một điều chắc chắn là rất nhiều silicon tiên tiến sẽ được triển khai và tiêu thụ năng lượng. Nhưng đó sẽ là loại silicon nào – và ai sẽ là nơi tốt nhất để cung cấp nó?
Có vẻ an toàn khi nói rằng GPU sẽ có nhu cầu cao, mang lại lợi ích cho Nvidia và ở mức độ thấp hơn là AMD (có cổ phần tăng 30% trong năm nay). Bên cạnh công việc đào tạo các mô hình AI lớn, GPU cũng có khả năng được sử dụng rộng rãi hơn trong suy luận — công việc so sánh dữ liệu trong thế giới thực với mô hình được đào tạo để đưa ra câu trả lời hữu ích.
Cho đến nay, suy luận AI là một thị trường lành mạnh cho các công ty như Intel sản xuất CPU (bộ xử lý có thể xử lý nhiều tác vụ hơn nhưng hoạt động kém hiệu quả hơn). Tuy nhiên, theo Karl Freund tại Cambrian AI Research, các mô hình AI được sử dụng trong các hệ thống tổng quát có thể quá lớn so với CPU, đòi hỏi GPU mạnh hơn để xử lý tác vụ này.
Năm năm trước, không có gì chắc chắn rằng Nvidia sẽ ở vị trí này. Với nhu cầu tính toán từ học máy tăng theo cấp số nhân, một loạt các công ty khởi nghiệp đã xuất hiện để tạo ra các “máy gia tốc” AI chuyên dụng. Cái gọi là ASIC này — các mạch tích hợp dành riêng cho ứng dụng, được thiết kế để chỉ thực hiện một tác vụ nhưng theo cách hiệu quả nhất — đã đề xuất một cách tốt hơn để xử lý hoạt động xử lý dữ liệu chuyên sâu.
Tuy nhiên, những dự đoán rằng GPU sẽ không phù hợp với phần cứng được xây dựng có mục đích này đã được chứng minh là sai và Nvidia vẫn đứng đầu. Điều đó phần lớn nhờ vào phần mềm Cuda, được sử dụng để chạy các ứng dụng trên GPU của công ty, ràng buộc các nhà phát triển với chip Nvidia và giảm động cơ mua hàng từ AMD.
Nvidia cũng có một sản phẩm mới được tung ra thị trường vào đúng thời điểm, dưới dạng chip H100 mới. Điều này đã được thiết kế đặc biệt để xử lý máy biến áp, kỹ thuật AI đằng sau những tiến bộ lớn gần đây trong các mô hình ngôn ngữ và tầm nhìn. Đối với các nhà thiết kế ASIC, những thay đổi trong kiến trúc cơ bản như thế này rất khó xử lý. Việc thiết kế lại mỗi thế hệ chip mới rất tốn kém và khó có thể bán đủ để trả dần chi phí phát triển.
Nhưng sự cạnh tranh sắp trở nên khốc liệt hơn. Thành công của Microsoft trong việc khai thác nghiên cứu OpenAI để sớm dẫn đầu trong lĩnh vực AI tổng quát phụ thuộc rất nhiều vào phần cứng chuyên dụng mà hãng đã xây dựng để chạy các mô hình OpenAI. Chúng dựa trên GPU, nhưng ngành công nghiệp chip đã có nhiều suy đoán rằng gã khổng lồ phần mềm hiện đang thiết kế bộ tăng tốc AI của riêng mình.
Nếu có, chắc chắn nó sẽ không đơn độc. Tám năm trước, Google đã quyết định thiết kế chip của riêng mình, được gọi là bộ xử lý tensor hoặc TPU, để xử lý công việc AI chuyên sâu nhất của mình. Amazon và Meta đã làm theo. Ý tưởng về máy biến áp bắt nguồn từ Google, gợi ý rằng gã khổng lồ tìm kiếm ít nhất sẽ tối ưu hóa những con chip mới nhất của mình để hoạt động với các mô hình AI mới.
Một mối đe dọa khác có thể đến từ chính OpenAI. Công ty nghiên cứu đằng sau ChatGPT đã phát triển phần mềm của riêng mình, được gọi là Triton, để giúp các nhà phát triển chạy mạng thần kinh của họ trên GPU. Điều đó có thể làm giảm nhu cầu về Cuda của Nvidia — một bước hướng tới việc biến chip của họ thành hàng hóa và mang đến cho các nhà phát triển như OpenAI cơ hội triển khai các mô hình của họ trên bất kỳ phần cứng nào.
Nếu thị trường AI kết thúc trong tay một số ít công ty công nghệ khổng lồ, mỗi công ty đều có động lực kinh tế dồi dào để thiết kế chip chuyên dụng của riêng mình, thì triển vọng dài hạn của Nvidia sẽ bị ảnh hưởng. Nhưng nó đã thách thức những nghi ngờ trước đây và, ít nhất là cho đến bây giờ, được đặt ở vị trí thuận lợi cho cơn cuồng AI mới nhất của thế giới công nghệ.