Vốn hóa Nvidia vượt 5.000 tỉ USD nhờ cổ phiếu tăng giá sau báo cáo từ Intel
Động thái này diễn ra khi các nhà đầu tư đổ tiền vào cổ phiếu chip AI trước thềm báo cáo kết quả kinh doanh của các hãng công nghệ lớn tuần tới.
Cổ phiếu Nvidia tăng 4,3% hôm 24/4 lên mức 208,27 USD và đã tăng hơn 14 lần kể từ cuối năm 2022, nhờ nhu cầu bùng nổ với các dịch vụ và mô hình AI (trí tuệ nhân tạo).
Các GPU (bộ xử lý đồ họa) Nvidia đang được sử dụng bởi gã khổng lồ công nghệ Google, Microsoft, Meta và Amazon, cũng như công ty khởi nghiệp AI hàng đầu như OpenAI và Anthropic.
Đà tăng cổ phiếu hôm 24/4 được kích hoạt bởi báo cáo kết quả kinh doanh quý I/2026 tốt hơn kỳ vọng của Intel cuối ngày 23/4. Cổ phiếu Intel tăng vọt 24% hôm 24/4, mức tăng tốt nhất kể từ năm 1987. Đây là thông tin đáng mừng cho công ty đã bị bỏ lại phía sau trong thị trường AI cho đến gần đây.
Cổ phiếu của AMD, đối thủ cạnh tranh với Nvidia và Intel, tăng 14%. Cổ phiếu nhà sản xuất chip thiết bị di động Qualcomm tăng 11%.
Trước đó, các nhà đầu tư đã rút khỏi nhóm cổ phiếu công nghệ vốn hóa lớn khi giá dầu tăng vọt do cuộc chiến ở Iran và những gián đoạn chuỗi cung ứng sau đó. Song gần đây, nhiều lĩnh vực công nghệ đã lấy lại sức hút, với nhu cầu cho hạ tầng AI chưa có dấu hiệu chậm lại.

Cổ phiếu Nvidia chốt phiên 24/4 ở mức cao kỷ lục, đưa vốn hóa thị trường của công ty vượt mốc 5.000 tỉ USD lần đầu kể từ tháng 10/2025 - Ảnh: MTG
Nvidia đối mặt với sự cạnh tranh ngày càng tăng
Chỉ số Nasdaq hiện đã tăng 15% trong tháng 4, hướng tới tháng tăng mạnh nhất kể từ tháng 4/2020. Tuy vậy, Nvidia cũng đang đối mặt với sự cạnh tranh ngày càng gia tăng trong lĩnh vực AI.
Google vừa công bố dòng chip AI mới nhằm cạnh tranh trực tiếp với GPU Nvidia. Sau nhiều năm sản xuất chip vừa huấn luyện mô hình AI vừa xử lý công việc suy luận, Google đang tách riêng hai nhiệm vụ này trong nỗ lực cạnh tranh với Nvidia.
Hôm 22/4, Google thông báo sẽ thực hiện thay đổi này với thế hệ thứ 8 của TPU do hãng phát triển. Google cho biết TPU 8t, chip huấn luyện AI mới, đạt hiệu năng cao gấp 2,8 lần so với TPU thế hệ thứ 7 là Ironwood (ra mắt tháng 11/2025) dù cùng mức giá. Trong khi đó, chip suy luận mới là TPU 8i có hiệu năng tốt hơn 80%. Cả hai loại chip AI này sẽ được cung cấp cuối năm 2026.
“Với sự trỗi dậy của các tác tử AI, chúng tôi nhận thấy cộng đồng sẽ hưởng lợi từ các chip được chuyên biệt hóa riêng cho nhu cầu huấn luyện và triển khai”, ông Amin Vahdat, Phó chủ tịch cấp cao kiêm giám đốc công nghệ AI và hạ tầng của Google, cho hay.
TPU là loại chip do Google phát triển từ năm 2015, được thiết kế chuyên phục vụ các tác vụ liên quan đến AI. Nhờ được tối ưu cho một nhiệm vụ, TPU có thể huấn luyện và vận hành các mô hình AI lớn nhanh hơn, hiệu quả hơn và tiết kiệm điện hơn so với nhiều loại chip truyền thống.
Vào tháng 3, Nvidia đã giới thiệu các dòng chip sắp ra mắt có khả năng giúp các mô hình AI phản hồi nhanh chóng trước câu hỏi của người dùng, nhờ công nghệ có được trong thương vụ với công ty khởi nghiệp chip Groq.
Tháng 12/2025, Nvidia chi khoảng 20 tỉ USD để mua tài sản và giấy cấp phép công nghệ của Groq, đồng thời tuyển dụng nhiều lãnh đạo của công ty này. Đây là thương vụ lớn nhất trong lịch sử Nvidia.
Groq chuyên phát triển chip để tăng tốc xử lý AI, đặc biệt là phần suy luận. Nếu Nvidia nổi tiếng với GPU dùng để huấn luyện AI, thì Groq tập trung vào việc giúp AI trả lời nhanh hơn sau khi đã được huấn luyện. Điểm khác biệt là Groq tự phát triển một loại chip riêng gọi là LPU, tối ưu cho các tác vụ AI như tạo văn bản, viết mã…
Groq được thành lập bởi những người tạo ra TPU của Google. Groq 3 LPU được xây dựng để nâng cao công nghệ này, với một lõi được thiết kế để xử lý suy luận AI với độ trễ thấp, hoạt động bổ trợ cho GPU.
Google là khách hàng lớn của Nvidia, nhưng đồng thời cũng cung cấp TPU như một lựa chọn thay thế cho các doanh nghiệp sử dụng dịch vụ đám mây của mình.
Vào tháng 9/2025, các nhà phân tích của hãng dịch vụ tài chính DA Davidson ước tính rằng mảng TPU, cùng với bộ phận Google DeepMind, có thể được định giá khoảng 900 tỉ USD.
Tháng trước, Nvidia thông báo LPU Groq 3 sắp ra mắt của họ sẽ sử dụng lượng lớn SRAM (bộ nhớ truy cập ngẫu nhiên tĩnh). Đây là loại bộ nhớ được sử dụng bởi Cerebras, nhà sản xuất chip AI đã nộp đơn xin niêm yết cổ phiếu vào đầu tháng 4.
TPU 8i, chip suy luận mới của Google, cũng sử dụng SRAM. Mỗi TPU 8i chứa 384 MB SRAM, gấp 3 lần so với Ironwood.
“Kiến trúc này được thiết kế để cung cấp thông lượng lớn và độ trễ thấp cần thiết nhằm vận hành đồng thời hàng triệu tác tử AI với chi phí hiệu quả”, ông Sundar Pichai, Giám đốc điều hành Google, viết trong một bài blog.
Việc ứng dụng TPU của Google đang tăng tốc. Công ty tài chính Citadel Securities đã xây dựng phần mềm nghiên cứu định lượng dựa trên TPU và tất cả 17 phòng thí nghiệm quốc gia thuộc Bộ Năng lượng Mỹ đều sử dụng phần mềm cộng tác khoa học AI được xây dựng trên các chip AI này, Google cho biết.
Hồi tháng 10/2025, Anthropic ký thỏa thuận trị giá hàng chục tỉ USD với Google. Theo đó, Anthropic sẽ được tiếp cận tới 1 triệu TPU của gã khổng lồ công nghệ Mỹ.
Thỏa thuận này dự kiến mang lại hơn 1 gigawatt năng lực tính toán vào năm 2026, để vận hành và huấn luyện mô hình AI Claude. Việc mở rộng quy mô TPU giúp Anthropic tăng tốc đáng kể cả hai khâu quan trọng là huấn luyện và suy luận, trong bối cảnh nhu cầu sử dụng AI doanh nghiệp đang bùng nổ.
Đây còn là bước đi chiến lược giúp Anthropic xây dựng nền tảng hạ tầng dài hạn. Google nhấn mạnh rằng TPU có lợi thế về hiệu năng và chi phí, cho phép xử lý các tác vụ học máy ở quy mô lớn hiệu quả hơn so với nhiều giải pháp truyền thống. Điều này đặc biệt quan trọng khi chi phí tính toán đang trở thành yếu tố quyết định trong cuộc đua AI.
Sơn Vân
1 ngày trước
1 ngày trước
2 ngày trước
12 ngày trước
14 ngày trước
15 ngày trước
7 giờ trước
5 giờ trước
8 giờ trước
58 phút trước
7 giờ trước
7 giờ trước
7 giờ trước