Tại GTC năm 2025, Jen-Hsun Huang đã công bố một tin sốc rằng Nvidia sẽ đầu tư 1 tỷ đô la vào Nokia. Đúng vậy, đó là công ty điện thoại Symbian nổi tiếng cách đây 20 năm.
Jen-Hsun Huang trong bài phát biểu cho biết, mạng viễn thông đang trải qua một sự chuyển đổi lớn từ kiến trúc truyền thống sang hệ thống gốc AI, và việc đầu tư của NVIDIA sẽ tăng tốc quá trình này. Do đó, NVIDIA đã đầu tư cùng với Nokia để tạo ra một nền tảng AI cho mạng 6G, mang sức mạnh AI vào mạng RAN truyền thống.
Hình thức đầu tư cụ thể là NVIDIA đã mua khoảng 166 triệu cổ phiếu mới của Nokia với giá 6,01 đô la mỗi cổ phiếu, điều này sẽ khiến NVIDIA nắm giữ khoảng 2,9% cổ phần của Nokia.
Ngay khi thông báo hợp tác, giá cổ phiếu Nokia đã tăng 21%, là mức tăng lớn nhất kể từ năm 2013.
01 AI-RAN là gì?
RAN là mạng truy cập không dây, trong khi AI-RAN là kiến trúc mạng mới tích hợp khả năng tính toán AI trực tiếp vào trạm gốc không dây. Hệ thống RAN truyền thống chủ yếu chịu trách nhiệm truyền dữ liệu giữa trạm gốc và thiết bị di động, trong khi AI-RAN bổ sung chức năng tính toán biên và xử lý thông minh trên nền tảng này.
Cho phép các trạm gốc ứng dụng thuật toán AI để tối ưu hóa tỷ lệ sử dụng phổ tần và hiệu quả năng lượng, cải thiện hiệu suất mạng tổng thể, đồng thời có thể tận dụng tài sản RAN nhàn rỗi để lưu trữ dịch vụ AI biên, tạo ra nguồn doanh thu mới cho các nhà khai thác.
Nhà điều hành có thể chạy ứng dụng AI trực tiếp tại hiện trường trạm gốc mà không cần gửi tất cả dữ liệu về trung tâm dữ liệu, giảm tải đáng kể cho mạng.
Jen-Hsun Huang đã đưa ra một ví dụ, gần 50% người dùng ChatGPT truy cập qua thiết bị di động, không chỉ vậy, lượng tải xuống ứng dụng di động của ChatGPT hàng tháng đã vượt quá 40 triệu. Trong thời đại sự bùng nổ của các ứng dụng AI, hệ thống RAN truyền thống không thể đối phó với AI sinh tạo và mạng di động do các tác nhân thông minh chi phối.
AI-RAN cung cấp khả năng suy luận AI phân tán tại biên, giúp các ứng dụng AI tiếp theo, như tác nhân thông minh và chatbot phản hồi nhanh hơn. Đồng thời, AI-RAN cũng chuẩn bị cho các ứng dụng cảm biến và truyền thông tích hợp trong kỷ nguyên 6G.
Jen-Hsun Huang đã trích dẫn dự đoán của công ty phân tích Omdia, công ty này dự đoán rằng thị trường RAN sẽ tích lũy vượt qua 200 tỷ USD vào năm 2030, trong đó phần AI-RAN sẽ trở thành phân khúc phát triển nhanh nhất.
Giám đốc điều hành và Tổng thống Nokia, Justin Hotard, đã cho biết trong một tuyên bố chung rằng quan hệ đối tác này sẽ đưa trung tâm dữ liệu AI vào tay mọi người, thực hiện một thiết kế lại cơ bản từ 5G đến 6G.
Ông đặc biệt nhấn mạnh rằng Nokia đang hợp tác với ba công ty khác nhau là NVIDIA, Dell và T-Mobile. T-Mobile, với tư cách là một trong những đối tác đầu tiên, sẽ bắt đầu thử nghiệm thực địa công nghệ AI-RAN từ năm 2026, tập trung vào việc xác minh hiệu suất và cải tiến hiệu quả. Justin cho biết thử nghiệm này sẽ cung cấp dữ liệu quý giá cho đổi mới 6G, giúp các nhà khai thác xây dựng mạng thông minh phù hợp với nhu cầu AI.
Dựa trên AI-RAN, sản phẩm mới được Nvidia phát hành có tên là Aerial RAN Computer Pro (ARC-Pro), đây là một nền tảng tính toán tăng tốc chuẩn bị cho 6G. Cấu hình phần cứng cốt lõi của nó bao gồm hai loại GPU của Nvidia: Grace CPU và Blackwell GPU.
Nền tảng này hoạt động thông qua NVIDIA CUDA, phần mềm RAN có thể được nhúng trực tiếp vào công nghệ CUDA. Do đó, nó không chỉ xử lý các chức năng mạng truy cập không dây truyền thống mà còn có thể chạy đồng thời các ứng dụng AI phổ biến. Đây cũng là phương pháp cốt lõi mà NVIDIA thực hiện hai chữ AI trong AI-RAN.
Xét về lịch sử lâu dài của CUDA, lợi thế lớn nhất của nền tảng này thực sự là khả năng lập trình. Không chỉ vậy, Jen-Hsun Huang còn công bố sẽ mở mã nguồn framework Aerial, dự kiến sẽ được phát hành trên GitHub dưới giấy phép Apache 2.0 bắt đầu từ tháng 12 năm 2025.
Sự khác biệt chính giữa ARC-Pro và sản phẩm tiền nhiệm ARC nằm ở vị trí triển khai và bối cảnh ứng dụng. ARC tiền nhiệm chủ yếu được sử dụng để triển khai RAN đám mây tập trung, trong khi ARC-Pro có thể được triển khai trực tiếp tại hiện trường trạm gốc, điều này cho phép khả năng tính toán biên thực sự được triển khai.
Giám đốc bộ phận viễn thông của Nvidia, Ronnie Vashita, cho biết trước đây RAN và AI cần hai bộ phần cứng khác nhau để hoạt động, nhưng ARC-Pro có thể phân bổ tài nguyên tính toán một cách linh hoạt theo nhu cầu mạng, vừa có thể ưu tiên xử lý các chức năng truy cập không dây, vừa có thể thực hiện các tác vụ suy diễn AI trong thời gian nhàn rỗi.
ARC-Pro còn tích hợp nền tảng AI Aerial của NVIDIA, đây là một ngăn xếp phần mềm hoàn chỉnh, bao gồm phần mềm RAN được tăng tốc bằng CUDA, công cụ sinh đôi số Aerial Omniverse và Khung Aerial mới. Khung Aerial có khả năng chuyển đổi mã Python thành mã CUDA hiệu suất cao để chạy trên nền tảng ARC-Pro. Ngoài ra, nền tảng còn hỗ trợ các mô hình mạng nơ-ron được điều khiển bởi AI, phục vụ cho việc ước lượng kênh nâng cao.
Jen-Hsun Huang nói, viễn thông là hệ thần kinh số của kinh tế và an ninh. Sự hợp tác với Nokia và hệ sinh thái viễn thông sẽ thắp sáng cuộc cách mạng này, giúp các nhà khai thác xây dựng mạng lưới thông minh, thích ứng, định hình kết nối toàn cầu thế hệ tiếp theo.
02 Nhìn về năm 2025, Nvidia thực sự đã đầu tư không ít tiền.
Vào ngày 22 tháng 9, Nvidia và OpenAI đã đạt được thỏa thuận hợp tác, Nvidia dự kiến sẽ đầu tư 1000 tỷ đô la vào OpenAI, điều này sẽ tăng tốc việc xây dựng cơ sở hạ tầng của họ.
Jen-Hsun Huang nói rằng thực ra OpenAI đã tìm kiếm đầu tư từ NVIDIA từ rất lâu trước đây, nhưng lúc đó công ty hạn chế về tài chính. Ông hài hước nói rằng lúc đó quá nghèo, thực sự nên lấy tất cả tiền để đưa cho họ.
Jen-Hsun Huang cho rằng, sự tăng trưởng của AI không phải là 100 lần hay 1000 lần, mà là 1 tỷ lần. Hơn nữa, sự hợp tác này không chỉ giới hạn ở phần cứng mà còn bao gồm tối ưu hóa phần mềm, đảm bảo OpenAI có thể sử dụng hiệu quả hệ thống của NVIDIA.
Điều này có thể là do anh ấy lo ngại rằng OpenAI sẽ từ bỏ CUDA sau khi biết về sự hợp tác giữa OpenAI và AMD. Nếu mô hình AI lớn nhất thế giới không sử dụng CUDA, thì việc các nhà cung cấp mô hình lớn khác bắt chước OpenAI cũng là điều hợp lý.
Jen-Hsun Huang dự đoán trong chương trình podcast BG2 rằng OpenAI rất có thể trở thành công ty có giá trị thị trường một ngàn tỷ đô la tiếp theo, với tốc độ tăng trưởng sẽ thiết lập kỷ lục trong ngành. Ông đã phản bác lý thuyết về bong bóng AI, chỉ ra rằng chi tiêu vốn cho cơ sở hạ tầng AI toàn cầu sẽ đạt 5 ngàn tỷ đô la mỗi năm.
Cũng chính vì khoản đầu tư này, OpenAI đã công bố hoàn tất việc tái cấu trúc vốn công ty vào ngày 29 tháng 10. Công ty được chia thành hai phần, một phần là quỹ phi lợi nhuận, phần còn lại là công ty có lợi nhuận.
Quỹ phi lợi nhuận sẽ kiểm soát phần có lợi nhuận về mặt pháp lý và phải cân nhắc lợi ích công cộng. Tuy nhiên, vẫn có thể tự do huy động vốn hoặc mua lại công ty. Quỹ sẽ sở hữu 26% cổ phần của công ty có lợi nhuận này và nắm giữ một quyền chọn mua cổ phần. Nếu công ty tiếp tục phát triển mạnh mẽ, quỹ còn có thể nhận thêm cổ phần.
Ngoài OpenAI, NVIDIA cũng đã đầu tư vào xAI của Elon Musk vào năm 2025. Quy mô vòng gọi vốn hiện tại của công ty này đã tăng lên 20 tỷ USD. Trong đó, khoảng 7,5 tỷ USD được huy động qua cổ phần, và tối đa 12,5 tỷ USD thông qua huy động nợ từ các thực thể mục đích đặc biệt (SPV).
Cách thức hoạt động của thực thể mục đích đặc biệt này là nó sẽ sử dụng số tiền huy động được để mua các bộ xử lý hiệu suất cao của Nvidia, sau đó cho xAI thuê những bộ xử lý này.
Những bộ xử lý này sẽ được sử dụng cho dự án Colossus 2 của xAI. Colossus thế hệ đầu tiên là trung tâm dữ liệu siêu tính toán của xAI tại Memphis, Tennessee. Dự án Colossus thế hệ đầu tiên đã triển khai 100.000 GPU Nvidia H100, khiến nó trở thành một trong những cụm huấn luyện AI lớn nhất thế giới. Hiện tại, xAI đang xây dựng Colossus 2, dự kiến sẽ mở rộng số lượng GPU lên hàng trăm ngàn hoặc thậm chí nhiều hơn.
Vào ngày 18 tháng 9, NVIDIA cũng đã công bố sẽ đầu tư 5 tỷ đô la vào Intel và thiết lập mối quan hệ hợp tác chiến lược sâu sắc. NVIDIA sẽ mua cổ phần phổ thông mới phát hành của Intel với giá 23,28 đô la mỗi cổ phiếu, tổng số tiền đầu tư đạt 5 tỷ đô la. Sau khi giao dịch hoàn tất, NVIDIA sẽ nắm giữ khoảng 4% cổ phần của Intel, trở thành nhà đầu tư chiến lược quan trọng của công ty.
03 Tất nhiên, trong GTC này, Jen-Hsun Huang còn nói rất nhiều.
Ví dụ, Nvidia đã cho ra mắt nhiều gia đình mô hình AI mã nguồn mở, bao gồm Nemotron cho AI số, Cosmos cho AI vật lý, Isaac GR00T cho robot và Clara cho AI y sinh.
Trong khi đó, Jen-Hsun Huang đã ra mắt nền tảng phát triển lái xe tự động DRIVE AGX Hyperion 10. Đây là một nền tảng dành cho lái xe tự động cấp độ 4, tích hợp chip tính toán của NVIDIA và bộ cảm biến hoàn chỉnh, bao gồm lidar, camera và radar.
NVIDIA cũng đã giới thiệu chương trình chứng nhận Halos, đây là hệ thống đầu tiên trong ngành để đánh giá và chứng nhận tính an toàn của AI vật lý, đặc biệt dành cho xe tự lái và công nghệ robot.
Chương trình chứng nhận Halos có cốt lõi là hệ thống Halos AI, đây là phòng thí nghiệm đầu tiên trong ngành được ủy ban chứng nhận ANSI công nhận. Và ANSI là Hiệp hội Tiêu chuẩn Quốc gia Hoa Kỳ, chứng nhận của họ có độ uy tín và tính công khai rất cao.
Nhiệm vụ của hệ thống này là sử dụng AI vật lý của Nvidia để kiểm tra xem hệ thống lái tự động có đáp ứng tiêu chuẩn hay không. Các công ty như AUMOVIO, Bosch, Nuro và Wayve là những thành viên đầu tiên của phòng thí nghiệm kiểm tra hệ thống Halos AI.
Để thúc đẩy lái xe tự động cấp độ 4, Nvidia đã phát hành một tập dữ liệu lái xe tự động đa phương thức từ 25 quốc gia, bao gồm 1700 giờ dữ liệu từ camera, radar và lidar.
Jen-Hsun Huang nói rằng giá trị của tập dữ liệu này nằm ở sự đa dạng và quy mô của nó, nó bao gồm các điều kiện đường khác nhau, quy tắc giao thông và văn hóa lái xe, cung cấp nền tảng cho việc đào tạo hệ thống lái xe tự động tổng quát hơn.
Tuy nhiên, kế hoạch của Jen-Hsun Huang không dừng lại ở đây.
Ông đã công bố một loạt hợp tác với các phòng thí nghiệm chính phủ Mỹ và các doanh nghiệp hàng đầu trên GTC, với mục tiêu xây dựng cơ sở hạ tầng AI của Mỹ. Jen-Hsun Huang nói, chúng ta đang ở ngưỡng cửa của cuộc cách mạng công nghiệp AI, điều này sẽ định hình tương lai của mỗi ngành và quốc gia.
Sự hợp tác chính trong lần này là hợp tác với Bộ Năng lượng Hoa Kỳ. Nvidia đang giúp Bộ Năng lượng xây dựng hai trung tâm siêu máy tính, một tại Phòng thí nghiệm Quốc gia Argonne và một tại Phòng thí nghiệm Quốc gia Los Alamos.
Phòng thí nghiệm Argonne sẽ nhận được một siêu máy tính mang tên Solstice, hệ thống này được trang bị 100.000 GPU Blackwell của NVIDIA. 100.000 GPU là một khái niệm như thế nào? Đây sẽ là siêu máy tính AI lớn nhất trong lịch sử của Bộ Năng lượng. Ngoài ra còn có một hệ thống khác tên là Equinox, được trang bị 10.000 GPU Blackwell, dự kiến sẽ đi vào hoạt động vào năm 2026. Hai hệ thống này cộng lại có thể cung cấp 2200 exaflops hiệu suất tính toán AI.
Giám đốc phòng thí nghiệm Argonne, Paul Kerns, cho biết những hệ thống này sẽ định nghĩa lại hiệu suất, khả năng mở rộng và tiềm năng khoa học. Họ muốn sử dụng sức mạnh tính toán này để làm gì? Từ khoa học vật liệu đến mô hình khí hậu, từ tính toán lượng tử đến mô phỏng vũ khí hạt nhân, tất cả đều cần đến mức độ khả năng tính toán này.
Ngoài các phòng thí nghiệm của chính phủ, Nvidia còn xây dựng một trung tâm nghiên cứu nhà máy AI ở Virginia. Điều đặc biệt về trung tâm này là nó không chỉ là một trung tâm dữ liệu, mà còn là một khu thử nghiệm. Nvidia sẽ thử nghiệm một thứ gọi là Omniverse DSX ở đây, đây là một bản thiết kế để xây dựng nhà máy AI công suất gigawatt.
Một trung tâm dữ liệu thông thường có thể chỉ cần vài chục megawatt điện, trong khi một gigawatt tương đương với sản lượng điện của một nhà máy điện hạt nhân quy mô vừa.
Ý tưởng cốt lõi của bản kế hoạch Omniverse DSX này là biến nhà máy AI thành một hệ thống tự học. Các đại lý AI sẽ liên tục giám sát điện năng, làm mát và khối lượng công việc, tự động điều chỉnh các tham số để nâng cao hiệu suất. Ví dụ, khi tải lưới điện cao, hệ thống có thể tự động giảm tiêu thụ năng lượng hoặc chuyển sang sử dụng pin lưu trữ.
Quản lý thông minh như vậy là rất quan trọng đối với cơ sở hạ tầng cấp gigawatt, vì chi phí điện và chi phí làm mát có thể lên đến con số trên trời.
Tầm nhìn này rất lớn, Jen-Hsun Huang cho biết ông cần ba năm để hiện thực hóa. Các thử nghiệm AI-RAN sẽ bắt đầu vào năm 2026, xe tự lái dựa trên DRIVE AGX Hyperion 10 sẽ không được đưa vào hoạt động cho đến năm 2027, và siêu máy tính của Bộ Năng lượng cũng sẽ được đưa vào sử dụng vào năm 2027.
NVIDIA nắm giữ CUDA, vũ khí bí mật này, kiểm soát tiêu chuẩn thực tế của tính toán AI. Từ đào tạo đến suy diễn, từ trung tâm dữ liệu đến thiết bị biên, từ lái xe tự động đến y sinh, GPU của NVIDIA có mặt ở khắp nơi. Những khoản đầu tư và hợp tác được công bố tại GTC lần này đã củng cố thêm vị trí này.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Cho Nokia 1 tỷ, Jen-Hsun Huang muốn kiếm 2000 tỷ
Tại GTC năm 2025, Jen-Hsun Huang đã công bố một tin sốc rằng Nvidia sẽ đầu tư 1 tỷ đô la vào Nokia. Đúng vậy, đó là công ty điện thoại Symbian nổi tiếng cách đây 20 năm.
Jen-Hsun Huang trong bài phát biểu cho biết, mạng viễn thông đang trải qua một sự chuyển đổi lớn từ kiến trúc truyền thống sang hệ thống gốc AI, và việc đầu tư của NVIDIA sẽ tăng tốc quá trình này. Do đó, NVIDIA đã đầu tư cùng với Nokia để tạo ra một nền tảng AI cho mạng 6G, mang sức mạnh AI vào mạng RAN truyền thống.
Hình thức đầu tư cụ thể là NVIDIA đã mua khoảng 166 triệu cổ phiếu mới của Nokia với giá 6,01 đô la mỗi cổ phiếu, điều này sẽ khiến NVIDIA nắm giữ khoảng 2,9% cổ phần của Nokia.
Ngay khi thông báo hợp tác, giá cổ phiếu Nokia đã tăng 21%, là mức tăng lớn nhất kể từ năm 2013.
01 AI-RAN là gì?
RAN là mạng truy cập không dây, trong khi AI-RAN là kiến trúc mạng mới tích hợp khả năng tính toán AI trực tiếp vào trạm gốc không dây. Hệ thống RAN truyền thống chủ yếu chịu trách nhiệm truyền dữ liệu giữa trạm gốc và thiết bị di động, trong khi AI-RAN bổ sung chức năng tính toán biên và xử lý thông minh trên nền tảng này.
Cho phép các trạm gốc ứng dụng thuật toán AI để tối ưu hóa tỷ lệ sử dụng phổ tần và hiệu quả năng lượng, cải thiện hiệu suất mạng tổng thể, đồng thời có thể tận dụng tài sản RAN nhàn rỗi để lưu trữ dịch vụ AI biên, tạo ra nguồn doanh thu mới cho các nhà khai thác.
Nhà điều hành có thể chạy ứng dụng AI trực tiếp tại hiện trường trạm gốc mà không cần gửi tất cả dữ liệu về trung tâm dữ liệu, giảm tải đáng kể cho mạng.
Jen-Hsun Huang đã đưa ra một ví dụ, gần 50% người dùng ChatGPT truy cập qua thiết bị di động, không chỉ vậy, lượng tải xuống ứng dụng di động của ChatGPT hàng tháng đã vượt quá 40 triệu. Trong thời đại sự bùng nổ của các ứng dụng AI, hệ thống RAN truyền thống không thể đối phó với AI sinh tạo và mạng di động do các tác nhân thông minh chi phối.
AI-RAN cung cấp khả năng suy luận AI phân tán tại biên, giúp các ứng dụng AI tiếp theo, như tác nhân thông minh và chatbot phản hồi nhanh hơn. Đồng thời, AI-RAN cũng chuẩn bị cho các ứng dụng cảm biến và truyền thông tích hợp trong kỷ nguyên 6G.
Jen-Hsun Huang đã trích dẫn dự đoán của công ty phân tích Omdia, công ty này dự đoán rằng thị trường RAN sẽ tích lũy vượt qua 200 tỷ USD vào năm 2030, trong đó phần AI-RAN sẽ trở thành phân khúc phát triển nhanh nhất.
Giám đốc điều hành và Tổng thống Nokia, Justin Hotard, đã cho biết trong một tuyên bố chung rằng quan hệ đối tác này sẽ đưa trung tâm dữ liệu AI vào tay mọi người, thực hiện một thiết kế lại cơ bản từ 5G đến 6G.
Ông đặc biệt nhấn mạnh rằng Nokia đang hợp tác với ba công ty khác nhau là NVIDIA, Dell và T-Mobile. T-Mobile, với tư cách là một trong những đối tác đầu tiên, sẽ bắt đầu thử nghiệm thực địa công nghệ AI-RAN từ năm 2026, tập trung vào việc xác minh hiệu suất và cải tiến hiệu quả. Justin cho biết thử nghiệm này sẽ cung cấp dữ liệu quý giá cho đổi mới 6G, giúp các nhà khai thác xây dựng mạng thông minh phù hợp với nhu cầu AI.
Dựa trên AI-RAN, sản phẩm mới được Nvidia phát hành có tên là Aerial RAN Computer Pro (ARC-Pro), đây là một nền tảng tính toán tăng tốc chuẩn bị cho 6G. Cấu hình phần cứng cốt lõi của nó bao gồm hai loại GPU của Nvidia: Grace CPU và Blackwell GPU.
Nền tảng này hoạt động thông qua NVIDIA CUDA, phần mềm RAN có thể được nhúng trực tiếp vào công nghệ CUDA. Do đó, nó không chỉ xử lý các chức năng mạng truy cập không dây truyền thống mà còn có thể chạy đồng thời các ứng dụng AI phổ biến. Đây cũng là phương pháp cốt lõi mà NVIDIA thực hiện hai chữ AI trong AI-RAN.
Xét về lịch sử lâu dài của CUDA, lợi thế lớn nhất của nền tảng này thực sự là khả năng lập trình. Không chỉ vậy, Jen-Hsun Huang còn công bố sẽ mở mã nguồn framework Aerial, dự kiến sẽ được phát hành trên GitHub dưới giấy phép Apache 2.0 bắt đầu từ tháng 12 năm 2025.
Sự khác biệt chính giữa ARC-Pro và sản phẩm tiền nhiệm ARC nằm ở vị trí triển khai và bối cảnh ứng dụng. ARC tiền nhiệm chủ yếu được sử dụng để triển khai RAN đám mây tập trung, trong khi ARC-Pro có thể được triển khai trực tiếp tại hiện trường trạm gốc, điều này cho phép khả năng tính toán biên thực sự được triển khai.
Giám đốc bộ phận viễn thông của Nvidia, Ronnie Vashita, cho biết trước đây RAN và AI cần hai bộ phần cứng khác nhau để hoạt động, nhưng ARC-Pro có thể phân bổ tài nguyên tính toán một cách linh hoạt theo nhu cầu mạng, vừa có thể ưu tiên xử lý các chức năng truy cập không dây, vừa có thể thực hiện các tác vụ suy diễn AI trong thời gian nhàn rỗi.
ARC-Pro còn tích hợp nền tảng AI Aerial của NVIDIA, đây là một ngăn xếp phần mềm hoàn chỉnh, bao gồm phần mềm RAN được tăng tốc bằng CUDA, công cụ sinh đôi số Aerial Omniverse và Khung Aerial mới. Khung Aerial có khả năng chuyển đổi mã Python thành mã CUDA hiệu suất cao để chạy trên nền tảng ARC-Pro. Ngoài ra, nền tảng còn hỗ trợ các mô hình mạng nơ-ron được điều khiển bởi AI, phục vụ cho việc ước lượng kênh nâng cao.
Jen-Hsun Huang nói, viễn thông là hệ thần kinh số của kinh tế và an ninh. Sự hợp tác với Nokia và hệ sinh thái viễn thông sẽ thắp sáng cuộc cách mạng này, giúp các nhà khai thác xây dựng mạng lưới thông minh, thích ứng, định hình kết nối toàn cầu thế hệ tiếp theo.
02 Nhìn về năm 2025, Nvidia thực sự đã đầu tư không ít tiền.
Vào ngày 22 tháng 9, Nvidia và OpenAI đã đạt được thỏa thuận hợp tác, Nvidia dự kiến sẽ đầu tư 1000 tỷ đô la vào OpenAI, điều này sẽ tăng tốc việc xây dựng cơ sở hạ tầng của họ.
Jen-Hsun Huang nói rằng thực ra OpenAI đã tìm kiếm đầu tư từ NVIDIA từ rất lâu trước đây, nhưng lúc đó công ty hạn chế về tài chính. Ông hài hước nói rằng lúc đó quá nghèo, thực sự nên lấy tất cả tiền để đưa cho họ.
Jen-Hsun Huang cho rằng, sự tăng trưởng của AI không phải là 100 lần hay 1000 lần, mà là 1 tỷ lần. Hơn nữa, sự hợp tác này không chỉ giới hạn ở phần cứng mà còn bao gồm tối ưu hóa phần mềm, đảm bảo OpenAI có thể sử dụng hiệu quả hệ thống của NVIDIA.
Điều này có thể là do anh ấy lo ngại rằng OpenAI sẽ từ bỏ CUDA sau khi biết về sự hợp tác giữa OpenAI và AMD. Nếu mô hình AI lớn nhất thế giới không sử dụng CUDA, thì việc các nhà cung cấp mô hình lớn khác bắt chước OpenAI cũng là điều hợp lý.
Jen-Hsun Huang dự đoán trong chương trình podcast BG2 rằng OpenAI rất có thể trở thành công ty có giá trị thị trường một ngàn tỷ đô la tiếp theo, với tốc độ tăng trưởng sẽ thiết lập kỷ lục trong ngành. Ông đã phản bác lý thuyết về bong bóng AI, chỉ ra rằng chi tiêu vốn cho cơ sở hạ tầng AI toàn cầu sẽ đạt 5 ngàn tỷ đô la mỗi năm.
Cũng chính vì khoản đầu tư này, OpenAI đã công bố hoàn tất việc tái cấu trúc vốn công ty vào ngày 29 tháng 10. Công ty được chia thành hai phần, một phần là quỹ phi lợi nhuận, phần còn lại là công ty có lợi nhuận.
Quỹ phi lợi nhuận sẽ kiểm soát phần có lợi nhuận về mặt pháp lý và phải cân nhắc lợi ích công cộng. Tuy nhiên, vẫn có thể tự do huy động vốn hoặc mua lại công ty. Quỹ sẽ sở hữu 26% cổ phần của công ty có lợi nhuận này và nắm giữ một quyền chọn mua cổ phần. Nếu công ty tiếp tục phát triển mạnh mẽ, quỹ còn có thể nhận thêm cổ phần.
Ngoài OpenAI, NVIDIA cũng đã đầu tư vào xAI của Elon Musk vào năm 2025. Quy mô vòng gọi vốn hiện tại của công ty này đã tăng lên 20 tỷ USD. Trong đó, khoảng 7,5 tỷ USD được huy động qua cổ phần, và tối đa 12,5 tỷ USD thông qua huy động nợ từ các thực thể mục đích đặc biệt (SPV).
Cách thức hoạt động của thực thể mục đích đặc biệt này là nó sẽ sử dụng số tiền huy động được để mua các bộ xử lý hiệu suất cao của Nvidia, sau đó cho xAI thuê những bộ xử lý này.
Những bộ xử lý này sẽ được sử dụng cho dự án Colossus 2 của xAI. Colossus thế hệ đầu tiên là trung tâm dữ liệu siêu tính toán của xAI tại Memphis, Tennessee. Dự án Colossus thế hệ đầu tiên đã triển khai 100.000 GPU Nvidia H100, khiến nó trở thành một trong những cụm huấn luyện AI lớn nhất thế giới. Hiện tại, xAI đang xây dựng Colossus 2, dự kiến sẽ mở rộng số lượng GPU lên hàng trăm ngàn hoặc thậm chí nhiều hơn.
Vào ngày 18 tháng 9, NVIDIA cũng đã công bố sẽ đầu tư 5 tỷ đô la vào Intel và thiết lập mối quan hệ hợp tác chiến lược sâu sắc. NVIDIA sẽ mua cổ phần phổ thông mới phát hành của Intel với giá 23,28 đô la mỗi cổ phiếu, tổng số tiền đầu tư đạt 5 tỷ đô la. Sau khi giao dịch hoàn tất, NVIDIA sẽ nắm giữ khoảng 4% cổ phần của Intel, trở thành nhà đầu tư chiến lược quan trọng của công ty.
03 Tất nhiên, trong GTC này, Jen-Hsun Huang còn nói rất nhiều.
Ví dụ, Nvidia đã cho ra mắt nhiều gia đình mô hình AI mã nguồn mở, bao gồm Nemotron cho AI số, Cosmos cho AI vật lý, Isaac GR00T cho robot và Clara cho AI y sinh.
Trong khi đó, Jen-Hsun Huang đã ra mắt nền tảng phát triển lái xe tự động DRIVE AGX Hyperion 10. Đây là một nền tảng dành cho lái xe tự động cấp độ 4, tích hợp chip tính toán của NVIDIA và bộ cảm biến hoàn chỉnh, bao gồm lidar, camera và radar.
NVIDIA cũng đã giới thiệu chương trình chứng nhận Halos, đây là hệ thống đầu tiên trong ngành để đánh giá và chứng nhận tính an toàn của AI vật lý, đặc biệt dành cho xe tự lái và công nghệ robot.
Chương trình chứng nhận Halos có cốt lõi là hệ thống Halos AI, đây là phòng thí nghiệm đầu tiên trong ngành được ủy ban chứng nhận ANSI công nhận. Và ANSI là Hiệp hội Tiêu chuẩn Quốc gia Hoa Kỳ, chứng nhận của họ có độ uy tín và tính công khai rất cao.
Nhiệm vụ của hệ thống này là sử dụng AI vật lý của Nvidia để kiểm tra xem hệ thống lái tự động có đáp ứng tiêu chuẩn hay không. Các công ty như AUMOVIO, Bosch, Nuro và Wayve là những thành viên đầu tiên của phòng thí nghiệm kiểm tra hệ thống Halos AI.
Để thúc đẩy lái xe tự động cấp độ 4, Nvidia đã phát hành một tập dữ liệu lái xe tự động đa phương thức từ 25 quốc gia, bao gồm 1700 giờ dữ liệu từ camera, radar và lidar.
Jen-Hsun Huang nói rằng giá trị của tập dữ liệu này nằm ở sự đa dạng và quy mô của nó, nó bao gồm các điều kiện đường khác nhau, quy tắc giao thông và văn hóa lái xe, cung cấp nền tảng cho việc đào tạo hệ thống lái xe tự động tổng quát hơn.
Tuy nhiên, kế hoạch của Jen-Hsun Huang không dừng lại ở đây.
Ông đã công bố một loạt hợp tác với các phòng thí nghiệm chính phủ Mỹ và các doanh nghiệp hàng đầu trên GTC, với mục tiêu xây dựng cơ sở hạ tầng AI của Mỹ. Jen-Hsun Huang nói, chúng ta đang ở ngưỡng cửa của cuộc cách mạng công nghiệp AI, điều này sẽ định hình tương lai của mỗi ngành và quốc gia.
Sự hợp tác chính trong lần này là hợp tác với Bộ Năng lượng Hoa Kỳ. Nvidia đang giúp Bộ Năng lượng xây dựng hai trung tâm siêu máy tính, một tại Phòng thí nghiệm Quốc gia Argonne và một tại Phòng thí nghiệm Quốc gia Los Alamos.
Phòng thí nghiệm Argonne sẽ nhận được một siêu máy tính mang tên Solstice, hệ thống này được trang bị 100.000 GPU Blackwell của NVIDIA. 100.000 GPU là một khái niệm như thế nào? Đây sẽ là siêu máy tính AI lớn nhất trong lịch sử của Bộ Năng lượng. Ngoài ra còn có một hệ thống khác tên là Equinox, được trang bị 10.000 GPU Blackwell, dự kiến sẽ đi vào hoạt động vào năm 2026. Hai hệ thống này cộng lại có thể cung cấp 2200 exaflops hiệu suất tính toán AI.
Giám đốc phòng thí nghiệm Argonne, Paul Kerns, cho biết những hệ thống này sẽ định nghĩa lại hiệu suất, khả năng mở rộng và tiềm năng khoa học. Họ muốn sử dụng sức mạnh tính toán này để làm gì? Từ khoa học vật liệu đến mô hình khí hậu, từ tính toán lượng tử đến mô phỏng vũ khí hạt nhân, tất cả đều cần đến mức độ khả năng tính toán này.
Ngoài các phòng thí nghiệm của chính phủ, Nvidia còn xây dựng một trung tâm nghiên cứu nhà máy AI ở Virginia. Điều đặc biệt về trung tâm này là nó không chỉ là một trung tâm dữ liệu, mà còn là một khu thử nghiệm. Nvidia sẽ thử nghiệm một thứ gọi là Omniverse DSX ở đây, đây là một bản thiết kế để xây dựng nhà máy AI công suất gigawatt.
Một trung tâm dữ liệu thông thường có thể chỉ cần vài chục megawatt điện, trong khi một gigawatt tương đương với sản lượng điện của một nhà máy điện hạt nhân quy mô vừa.
Ý tưởng cốt lõi của bản kế hoạch Omniverse DSX này là biến nhà máy AI thành một hệ thống tự học. Các đại lý AI sẽ liên tục giám sát điện năng, làm mát và khối lượng công việc, tự động điều chỉnh các tham số để nâng cao hiệu suất. Ví dụ, khi tải lưới điện cao, hệ thống có thể tự động giảm tiêu thụ năng lượng hoặc chuyển sang sử dụng pin lưu trữ.
Quản lý thông minh như vậy là rất quan trọng đối với cơ sở hạ tầng cấp gigawatt, vì chi phí điện và chi phí làm mát có thể lên đến con số trên trời.
Tầm nhìn này rất lớn, Jen-Hsun Huang cho biết ông cần ba năm để hiện thực hóa. Các thử nghiệm AI-RAN sẽ bắt đầu vào năm 2026, xe tự lái dựa trên DRIVE AGX Hyperion 10 sẽ không được đưa vào hoạt động cho đến năm 2027, và siêu máy tính của Bộ Năng lượng cũng sẽ được đưa vào sử dụng vào năm 2027.
NVIDIA nắm giữ CUDA, vũ khí bí mật này, kiểm soát tiêu chuẩn thực tế của tính toán AI. Từ đào tạo đến suy diễn, từ trung tâm dữ liệu đến thiết bị biên, từ lái xe tự động đến y sinh, GPU của NVIDIA có mặt ở khắp nơi. Những khoản đầu tư và hợp tác được công bố tại GTC lần này đã củng cố thêm vị trí này.