Meta chi thêm 21 tỉ USD cho CoreWeave, hướng tới siêu trí tuệ
Động thái này diễn ra trong bối cảnh Meta gấp rút bắt kịp các đối thủ trong cuộc đua AI đầy cạnh tranh sau khi ra mắt mô hình Llama 4 kém ấn tượng năm ngoái.
Thỏa thuận mới kéo dài đến tháng 12.2032, bổ sung cho một hợp đồng mua năng lực điện toán đám mây tương tự trị giá 14,2 tỉ USD được ký với CoreWeave vào tháng 9.2025, Meta thông báo hôm 9.4.
Cổ phiếu của Meta tăng 3,69% và CoreWeave tăng gần 5% sau thông tin trên.
Meta đã nhanh chóng mở rộng năng lực tính toán phục vụ việc phát triển và triển khai các mô hình ngôn ngữ lớn để hướng đến siêu trí tuệ, qua đó mang lại lợi ích cho CoreWeave.
CoreWeave là công ty chuyên cung cấp phần cứng và tài nguyên đám mây cho khách hàng. Mối quan hệ mật thiết với Nvidia giúp CoreWeave thành nhà cung cấp chủ chốt các chip AI chuyên dụng mà các hãng công nghệ lớn đang tranh giành.
Thỏa thuận hôm 9.4 cho phép Meta tiếp cận dòng chip Rubin thế hệ mới của Nvidia, có tốc độ nhanh hơn đáng kể so với Blackwell hiện tại.
Theo Nvidia, Rubin có thể nhanh hơn Blackwell gấp 5 lần khi thực hiện các tác vụ suy luận và rẻ hơn nhiều lúc vận hành AI, giảm chi phí xử lý token tới 10 lần.
“Đây là minh chứng nữa cho thấy các công ty hàng đầu đang lựa chọn nền tảng đám mây AI của CoreWeave để vận hành những khối lượng công việc đòi hỏi sự khắt khe nhất”, ông Michael Intrator, Giám đốc điều hành CoreWeave, tuyên bố.
Công ty mẹ của Facebook dự kiến chi tới 135 tỉ USD cho việc xây dựng hạ tầng AI trong năm nay, khi Thung lũng Silicon tăng tốc theo đuổi AGI - cột mốc lý thuyết nơi AI có thể đạt khả năng nhận thức ngang con người.

Meta vừa ký thỏa thuận 21 tỉ USD với CoreWeave, bổ sung cho một hợp đồng mua năng lực điện toán đám mây trị giá 14,2 tỉ USD vào tháng 9.2025 - Ảnh: SV
Hôm 8.4, Meta đã công bố Muse Spark - mô hình AI đầu tiên từ Meta Superintelligence Labs - đội ngũ đắt giá được thành lập năm ngoái sau màn thể hiện kém của Llama 4.
Do Alex Wang (cựu giám đốc điều hành Scale AI) lãnh đạo, Meta Superintelligence Labs tập trung phát triển siêu trí tuệ cá nhân cho mọi người.
Muse Spark là mô hình đầu tiên mà Meta phát hành sau khoảng một năm, ban đầu chỉ có mặt trên ứng dụng và website Meta AI. Trong vài tuần tới, Muse Spark sẽ thay thế các mô hình Llama đang vận hành chatbot trên WhatsApp, Instagram, Facebook và dòng kính thông minh của Meta, theo công ty.
Meta không tiết lộ tham số của Muse Spark. Đây là chỉ số quan trọng thường dùng để so sánh sức mạnh tính toán giữa các mô hình AI. Công ty mẹ Facebook cũng thay đổi chiến lược so với trước đây khi không công khai mã nguồn mở Muse Spark như các mô hình Llama, mà chỉ chia sẻ bản xem trước riêng tư với một số đối tác không được nêu tên.
“Phiên bản ban đầu này được thiết kế nhỏ gọn và nhanh, nhưng vẫn đủ khả năng suy luận các câu hỏi phức tạp trong khoa học, toán học và y tế. Đây là nền tảng mạnh mẽ và thế hệ tiếp theo đang được phát triển”, Meta cho biết trong một bài blog.
Các đánh giá độc lập cho thấy Muse Spark đang bắt kịp mô hình hàng đầu từ Google, OpenAI và Anthropic ở một số lĩnh vực như ngôn ngữ và hiểu hình ảnh, nhưng vẫn tụt lại ở các mảng như lập trình và suy luận trừu tượng. Muse Spark đồng hạng tư trong một bảng xếp hạng tổng hợp các bài kiểm tra AI của công ty Artificial Analysis.
Alex Wang, Giám đốc AI của Meta, thừa nhận trong loạt bài đăng trên mạng xã hội X hôm 8.4 rằng “chắc chắn vẫn còn những điểm sẽ được hoàn thiện dần theo thời gian trong hành vi của mô hình AI”.
Ông cho biết các phiên bản mô hình AI lớn hơn đang được phát triển và Meta có kế hoạch phát hành công khai ít nhất một phần trong số đó.
CoreWeave và Meta hợp tác lâu năm
CoreWeave và Meta đã hợp tác từ năm 2023. Dù Microsoft chiếm khoảng 67% doanh thu của CoreWeave năm ngoái, Meta hiện đã trở thành một trong những khách hàng lớn nhất với công ty này.
Trong một hồ sơ pháp lý riêng hôm 9.4, CoreWeave cho biết có kế hoạch phát hành trái phiếu trị giá 1,25 tỉ USD và trái phiếu chuyển đổi trị giá 3 tỉ USD.
Vào tháng 2, công ty điện toán đám mây mới này cho biết sẽ chi tới 35 tỉ USD vốn đầu tư trong 2026, tăng từ 14,9 tỉ USD năm 2025.
Meta đa dạng hóa nguồn cung chip
Các hãng công nghệ lớn đang đẩy mạnh xây dựng các trung tâm dữ liệu khổng lồ để đáp ứng nhu cầu tính toán ngày càng cao từ các mô hình ngôn ngữ lớn và ứng dụng AI tạo sinh.
Alphabet (công ty mẹ Google), Microsoft, Meta và Amazon dự kiến chi tiêu vốn trong năm 2026 từ 650 USD đến 700 tỉ USD, phần lớn dành cho mở rộng cơ sở hạ tầng AI, như trung tâm dữ liệu mới, máy chủ xử lý AI, hệ thống làm mát, điện và mạng… Trong số đó, Meta là một trong những hãng chi tiêu mạnh tay nhất, không chỉ đầu tư lớn vào trung tâm dữ liệu mà còn chủ động tái cơ cấu chiến lược nguồn cung chip.
Cuối tháng 3, Meta thông báo nâng mức đầu tư cho trung tâm dữ liệu AI tại thành phố El Paso (bang Texas, Mỹ) từ 1,5 tỉ USD ban đầu lên đến 10 tỉ USD, với mục tiêu đạt công suất 1 gigawatt trước khi dự kiến đi vào hoạt động vào năm 2028. Động thái này phản ánh quyết tâm củng cố năng lực điện toán của Meta cho các ứng dụng AI cao cấp trong tương lai.
Khi đi vào hoạt động, trung tâm dữ liệu ở El Paso sẽ tạo ra 300 việc làm mới, với hơn 3.000 công nhân dự kiến có mặt tại công trường vào giai đoạn cao điểm xây dựng, theo Meta.
Meta cũng cho biết công ty đang triển khai các dự án theo hợp đồng bổ sung hơn 5.000 megawatt năng lượng sạch vào lưới điện tại Texas, đồng thời giảm áp lực về nước bằng cách hợp tác với các tổ chức phi lợi nhuận chuyên môn để cung cấp nước ngọt cho khu vực này.
Cơ sở ở El Paso trở thành trung tâm dữ liệu thứ 29 của Meta trên toàn cầu và thứ ba tại Texas.
Điều đáng chú ý không chỉ nằm ở khoản đầu tư hàng tỉ USD, mà là chiến lược đa dạng hóa nguồn cung chip của Meta trong cuộc đua hạ tầng AI.
Trước đây, các trung tâm dữ liệu AI lớn thường phụ thuộc chủ yếu vào GPU (bộ xử lý đồ họa) của Nvidia - nhà cung cấp dẫn đầu thị trường chip AI nhiều năm qua. Song gần đây, Meta đang âm thầm thay đổi chiến lược. Dù vẫn ký hợp đồng trị giá hàng tỉ USD với Nvidia để sử dụng các GPU mạnh nhất như dòng Blackwell và Rubin, Meta đang mở rộng hợp tác với công ty khác như AMD, Google, thậm chí phát triển chip AI riêng.

Meta đa dạng hóa nguồn cung chip với các đối tác Nvidia, AMD và Google - Ảnh: MTG
Ngày 17.2, Nvidia thông báo đã ký thỏa thuận kéo dài nhiều năm để bán cho Meta hàng triệu chip AI hiện tại và tương lai, gồm cả CPU cạnh tranh với sản phẩm của AMD và Intel.
Nvidia không tiết lộ giá trị nhưng cho biết thỏa thuận này gồm các GPU Blackwell hiện tại cũng như phiên bản Rubin sắp ra mắt. Thỏa thuận cũng gồm cả việc triển khai độc lập các CPU Grace và Vera của Nvidia. Nvidia đã giới thiệu các CPU này, dựa trên công nghệ từ Arm Holdings, từ năm 2023 như những sản phẩm bổ trợ cho các chip AI của mình.
Hôm 24.2, AMD cho biết đã đồng ý bán tới 60 tỉ USD chip AI cho Meta trong 5 năm, một thỏa thuận cho phép công ty mẹ Facebook mua tới 10% cổ phần của hãng chip Mỹ.
AMD sẽ cung cấp cho Meta lượng chip AI tương đương công suất 6 gigawatt, bắt đầu với 1 gigawatt từ sản phẩm chủ lực MI450 sắp ra mắt của công ty vào nửa cuối năm 2026.
Ngoài GPU AMD, Meta Platforms có kế hoạch mua CPU, gồm cả phiên bản được tùy chỉnh theo nhu cầu của gã khổng lồ mạng xã hội này. Bà Lisa Su, Giám đốc điều hành AMD, cho biết CPU tùy chỉnh sẽ được tối ưu để mang lại hiệu năng mạnh mẽ, đồng thời giữ mức tiêu thụ năng lượng thấp nhất có thể. Thỏa thuận sẽ gồm cả hai thế hệ CPU của AMD.
Không dừng lại ở Nvidia và AMD, Meta còn tiếp cận dòng chip AI khác từ Google. Cuối tháng 2, một số trang đưa tin Meta đã ký thỏa thuận nhiều tỉ USD với Google để thuê các TPU thông qua Google Cloud, nhằm phục vụ việc huấn luyện các mô hình AI thế hệ mới.
TPU là loại chip do Google phát triển từ năm 2015, được thiết kế chuyên phục vụ các tác vụ liên quan đến AI. Nhờ được tối ưu cho một nhiệm vụ, TPU có thể huấn luyện và vận hành các mô hình AI lớn nhanh hơn, hiệu quả hơn và tiết kiệm điện hơn so với nhiều loại chip truyền thống.
Điểm đáng chú ý là Google không còn giữ TPU cho riêng mình. Thông qua dịch vụ đám mây Google Cloud, gã khổng lồ công nghệ Mỹ cho phép các công ty, tổ chức bên ngoài thuê và sử dụng sức mạnh của TPU để phát triển sản phẩm AI. Chính điều này giúp TPU đang trở thành một trong những công nghệ quan trọng cho hạ tầng AI thế hệ mới, có thể cạnh tranh với GPU Nvidia.
Theo Santosh Janardhan - Giám đốc hạ tầng Meta, quy mô xây dựng trung tâm dữ liệu và hạ tầng của Meta lớn đến mức cần nhiều nhà cung cấp chip cùng nhiều cách tiếp cận khác nhau.
"Tất cả nhà sản xuất chip đều có một chỗ đứng nhất định trong cuộc thảo luận với Meta", ông nhấn mạnh.
Santosh Janardhan nói Meta vẫn có kế hoạch tiếp tục mua chip từ các nhà cung cấp khác và đồng thời phát triển chip của riêng mình.
Một số nhà phân tích cho rằng Broadcom là đối tác quan trọng giúp Meta thiết kế và sản xuất chip riêng.
Hôm 11.3, Meta công bố lộ trình phát triển 4 chip AI do công ty tự thiết kế trong bối cảnh đang nhanh chóng mở rộng các trung tâm dữ liệu.
Các chip AI mới nằm trong chương trình Meta Training and Inference Accelerator (MTIA) của công ty. Chip đầu tiên trong loạt này có tên MTIA 300, đã được đưa vào sử dụng để vận hành các hệ thống xếp hạng và gợi ý nội dung của Meta. Ba chip còn lại gồm MTIA 400, MTIA 450, MTIA 500 sẽ được triển khai vào năm 2026 và 2027. Trong đó, MTIA 450 và MTIA 500 được thiết kế để thực hiện suy luận, quá trình mô hình AI phản hồi các câu hỏi và yêu cầu của người dùng.
Ông Yee Jiun Song, Phó chủ tịch phụ trách kỹ thuật của Meta, thông báo công ty dự định tung ra các chip AI mới với chu kỳ sáu tháng một lần, do công ty đang nhanh chóng mở rộng số lượng trung tâm dữ liệu để vận hành các ứng dụng như Instagram và Facebook.
Sơn Vân
4 giờ trước
13 giờ trước
48 phút trước
31 phút trước
27 phút trước
4 giờ trước
57 phút trước
1 giờ trước
3 giờ trước
3 giờ trước