Jensen Huang đã sử dụng GTC Washington để trình bày kế hoạch của Nvidia cho thập kỷ tới của sức mạnh tính toán: accelerated computing (tính toán tăng tốc) ở mọi nơi, “nhà máy” chuyên biệt cho AI, và viễn thông, robot, lượng tử được kéo trực tiếp vào quỹ đạo data center.
Dưới đây là 19 điểm mấu chốt từ bài phát biểu chính, tiếp theo là các hệ quả đối với hạ tầng Mỹ và toàn cầu.
19 điểm quan trọng nhất
1. “Nhà máy AI” thay thế data center đa mục đích
Khái niệm trung tâm của Huang – “nhà máy AI” (AI factory) – định khung lại data center như các cơ sở công nghiệp sản xuất token (đầu ra AI). Điện năng, làm mát và thông lượng giờ hoạt động giống như các ràng buộc dây chuyền sản xuất. Sự thay đổi mô hình này sẽ định nghĩa tiêu chuẩn thiết kế toàn cầu cho thập kỷ.
2. 500 tỷ USD đơn hàng báo hiệu chu kỳ xây dựng nhiều năm
Nvidia tiết lộ khoảng 500 tỷ USD đơn đặt hàng tích lũy cho các hệ thống Blackwell và Reuben sớm đến năm 2026. Chỉ riêng khối lượng đó đã ngụ ý một làn sóng xây dựng nhiều gigawatt ở Mỹ, châu Á và châu Âu.
3. Grace Blackwell + NVLink 72 đặt đơn vị quy mô giá mới
Kiến trúc GB200 cung cấp thông lượng gấp 10 lần với chi phí mỗi token thấp hơn 10 lần so với Hopper, thiết lập các giá làm mát bằng chất lỏng, mật độ cao như cơ sở ngành công nghiệp mới.
4. Omniverse DSX trở thành bản thiết kế cho thiết kế nhà máy AI
DSX tích hợp lập kế hoạch song sinh kỹ thuật số (digital-twin) cho tòa nhà, điện năng và hệ thống nhiệt. Điều này tăng tốc chu kỳ thiết kế và nhúng EPC, OEM và công ty điện lực trực tiếp vào hệ sinh thái data center của Nvidia.
5. Đồng thiết kế điện năng và năng lượng chuyển vào trung tâm chiến lược
Với Định luật Moore chậm lại và nhu cầu tính toán tăng gấp đôi, tính sẵn có của năng lượng giờ định nghĩa lợi thế cạnh tranh. Khung “năng lượng + tính toán” của Nvidia nâng kết nối lưới điện, phát điện tư nhân và tái sử dụng nhiệt lên tiêu chí đầu tư chính.
6. Tái công nghiệp hóa Mỹ neo chuỗi cung ứng AI
Sản xuất GPU, HBM, NIC và DPU ở Arizona, Indiana, Texas và California bản địa hóa chế tạo công nghệ cao và tạo ra các cụm năng lượng công nghiệp mới, định hình lại nhu cầu lưới điện Bắc Mỹ.
7. Hai hàm mũ định nghĩa lại mở rộng quy mô hạ tầng
Độ phức tạp mô hình và nhu cầu người dùng tăng trưởng đồng thời, thúc đẩy các yêu cầu tính toán theo cấp số nhân ngay cả khi các cải tiến cấp độ chip phẳng. Động lực này củng cố các nhà máy AI như động cơ tăng trưởng dài hạn.
8. Accelerated computing trở thành mặc định
Huang tuyên bố kỷ nguyên CPU thực sự kết thúc đối với các khối lượng công việc hiệu suất. Tăng tốc GPU giờ là nền tảng cho mọi thứ từ cơ sở dữ liệu đến hệ thống kiểm soát lượng tử.
9. Đồng thiết kế cực đoan duy trì hiệu suất theo cấp số nhân
Bằng cách thiết kế chip, hệ thống, phần mềm và mô hình đồng thời, Nvidia đạt được các bước nhảy hiệu suất (10×+ mỗi thế hệ) vượt xa quy mô transistor – buộc các hyperscaler phải thiết kế lại toàn bộ khu phức hợp.
10. 6G được định nghĩa bằng phần mềm với Nvidia Arc + Nokia
Nền tảng Arc hợp nhất tính toán GPU với truyền thông không dây. Hàng triệu trạm gốc trở thành các nút AI biên, mở rộng đáng kể dấu ấn tính toán phân tán.
11. DOE/Phòng thí nghiệm năng lượng xây dựng 7 siêu máy tính AI
Quan hệ đối tác với Bộ Năng lượng Mỹ gieo 7 cơ sở AI khu vực mới, tăng tốc nhu cầu chuyên biệt cho làm mát, điện năng và công suất mạng ở các thị trường không phải hyperscale.
12. Spectrum X Ethernet và các fabric mới là điều tối thiểu
Ethernet được tối ưu hóa cho AI, Quantum và InfiniBand fabrics nâng thiết kế kết nối lên cùng mức chiến lược với mua sắm điện năng – một nút thắt cổ chai chính trong việc mở rộng quy mô các hệ thống AI nhiều giá.
13. BlueField 4 và ConnectX 9 giảm nút thắt cổ chai ngữ cảnh
Những chip này giải quyết các thách thức truy xuất KV-cache và suy luận ngữ cảnh dài, báo hiệu dấu ấn lớn hơn cho các nút suy luận chuyên sâu về bộ nhớ.
14. “Reuben” (GB300-class) bước vào thử nghiệm
Người kế nhiệm Blackwell hoàn toàn không cáp, làm mát bằng chất lỏng đã đang phát triển cho năm 2026 ngụ ý nhịp độ làm mới hàng năm, thắt chặt thời gian xây dựng và cải tạo.
15. Tích hợp ngăn xếp doanh nghiệp tạo nhu cầu suy luận định kỳ
Palantir, CrowdStrike, SAP, ServiceNow, Synopsys và Cadence sẽ nhúng Nvidia AI gốc. Khối lượng công việc suy luận liên tục sẽ neo nhu cầu colocation quy mô doanh nghiệp.
16. Mô hình mã nguồn mở đảm bảo cơ sở nhà phát triển
Vai trò lãnh đạo của Nvidia trong các mô hình mở trên lý luận, giọng nói, sinh học và vật lý củng cố khóa nền tảng của nó trong khi tăng sử dụng GPU trên các phòng thí nghiệm và startup độc lập.
17. Physical AI trải dài robot, y tế và công nghiệp
Sử dụng Omniverse cho mô phỏng và Jetson Thor cho triển khai, Nvidia hợp nhất Foxconn, Caterpillar, Johnson & Johnson và Disney trong một hệ sinh thái AI công nghiệp – nhân lên nhu cầu dữ liệu biên và nhà máy.
18. Drive Hyperion tiêu chuẩn hóa nền tảng xe tự lái
Một khung gầm thống nhất được áp dụng bởi Lucid, Mercedes-Benz, Stellantis và Uber mở rộng tính toán cho đội xe và các biên đô thị, thêm các lớp mới của nhu cầu suy luận bản địa hóa.
19. NVQ Link kết nối cụm lượng tử và GPU
Tính toán lai lượng tử-GPU sẽ vẫn là ngách ban đầu nhưng giới thiệu một lớp data center mới yêu cầu kết nối photonic và sự ổn định môi trường cực đoan.
Hệ quả đối với hạ tầng data center (từ quan trọng nhất đến ít nhất)
1. Điện năng là ràng buộc mới và hào cạnh tranh
Nhà máy AI sẽ tiêu thụ gigawatt mỗi khu phức hợp. Các nhà phát triển phải đảm bảo phát điện, truyền tải và công suất dự phòng sớm, thường thông qua nhà máy điện tư nhân hoặc hệ thống lai khí-lưới điện. Chiến lược năng lượng bằng chiến lược kinh doanh.
2. Làm mát bằng chất lỏng là bắt buộc cho khả năng tồn tại
Mật độ và thông lượng nhiệt từ các giá lớp GB200 khiến làm mát trực tiếp đến chip hoặc ngâm không thể tránh khỏi. Tái sử dụng nước, làm mát khô và thu hồi nhiệt thải sẽ quyết định khu vực pháp lý nào có thể lưu trữ các dự án xây dựng mới.
3. Xây dựng ba tầng định hình lại địa lý
Mở rộng data center sẽ phân chia thành:
- Trung tâm đào tạo (500MW–1GW) cho các mô hình nền tảng
- Metros suy luận (10–50MW) gần dữ liệu doanh nghiệp
- Micro-site biên (1–5MW) trong mạng viễn thông, robot và sản xuất
4. Xây dựng song sinh kỹ thuật số nén thời gian giao hàng
Omniverse DSX cho phép đồng thiết kế các hệ thống cơ khí, điện và kiến trúc. Các nhà phát triển sẽ di chuyển từ khái niệm đến cung cấp năng lượng trong vài tháng, không phải vài năm.
5. Topology mạng trở thành trung tâm chi phí ẩn
AI fabric yêu cầu kết nối đông–tây độ trễ thấp. Sự gần gũi cáp quang và topology có thể mở rộng sẽ định nghĩa giá trị đất đai nhiều như công suất trạm biến áp.
6. Cụm sản xuất Mỹ thúc đẩy nhu cầu khu vực
Sản xuất GPU và linh kiện onshore ở Arizona, Texas và Indiana sẽ yêu cầu hỗ trợ dữ liệu, logistics và hạ tầng điện năng – làm mờ bất động sản công nghiệp và kỹ thuật số.
7. Tích hợp viễn thông và data center tạo lớp phân tán
Với 6G + Arc, các nhà khai thác viễn thông trở thành chủ nhà tính toán biên. Kỳ vọng một lưới các micro data center được nhúng trong hạ tầng di động toàn cầu.
8. Tích hợp lượng tử-GPU sinh ra loại cơ sở ngách
Các hệ thống lai sẽ yêu cầu làm mát cryogenic, mạng photonic và môi trường cực kỳ ổn định, mở một biên giới mới cho các colo chuyên biệt mật độ cao.
9. Mô hình vốn xây dựng phát triển theo hướng lắp ghép sẵn
Các mô-đun được xây dựng trong nhà máy của Vertiv, Bechtel và Foxconn giảm độ phức tạp tại chỗ. Prefab sẽ thống trị các triển khai nhiều giai đoạn trên các khu phức hợp AI.
10. Ngân sách chuyển từ chi phí mỗi MW sang chi phí mỗi token
Các nhà đầu tư sẽ đo ROI bằng token được tạo ra mỗi watt hoặc mỗi đô la. Các mô hình Capex sẽ giống kế toán chi phí sản xuất hơn là ngân sách IT truyền thống.
11. Các lớp rủi ro mới nổi lên xung quanh lưới điện, làm mát và cung ứng
Thiếu hụt máy biến áp, tắc nghẽn lưới điện, khan hiếm nước và chu kỳ sống mô hình rút ngắn tăng rủi ro hoạt động. Chỉ các nhà phát triển với chuyên môn nhiều lĩnh vực mới duy trì lợi nhuận biên.
12. Quan hệ đối tác chính phủ tăng tốc công suất AI khu vực công
DOE, các phòng thí nghiệm quốc gia và các chương trình tính toán có chủ quyền sẽ trợ cấp xây dựng hạ tầng AI, mở rộng nhu cầu vượt ra ngoài các hyperscaler tư nhân.
Phương trình xây dựng mới
Tại GTC Washington, Huang rút gọn tương lai của tính toán thành bốn biến số: năng lượng, kết nối, nhiệt và thông lượng.
Thập kỷ tới của data center sẽ thuộc về những người có thể cung cấp năng lượng cho megawatt dày đặc nhanh nhất, di chuyển dữ liệu với độ trễ gần như bằng không, thoát nhiệt hiệu quả và làm mới phần cứng hàng năm mà không có thời gian ngừng hoạt động.
Đó là bản thiết kế thực sự của kỷ nguyên nhà máy AI – nơi chính hạ tầng trở thành lợi thế cạnh tranh có giá trị nhất trong công nghệ.
Phân tích của Infinity News: Jensen Huang không phát biểu về chip. Ông đang định nghĩa lại data center. 500 tỷ USD đơn hàng Blackwell/Reuben = nhiều gigawatt xây dựng. GB200 = 10x hiệu suất, 10x rẻ hơn, nhưng cần làm mát chất lỏng bắt buộc. Omniverse DSX = thiết kế digital twin, từ khái niệm đến cấp điện trong vài tháng thay vì vài năm. Kết luận quan trọng nhất: Data center không còn là “IT infrastructure” – chúng là “nhà máy sản xuất token”. Kế toán chuyển từ “chi phí/MW” sang “chi phí/token”. Địa lý phân ba tầng: Training (500MW-1GW), Inference (10-50MW), Edge (1-5MW). Và ràng buộc? Không phải chip. Mà là bốn yếu tố: Năng lượng, Kết nối, Nhiệt, Thông lượng. Ai giải quyết được bốn yếu tố này sẽ thắng thập kỷ tới.

