'Đại ly giáo' giữa OpenAI và Anthropic đã diễn ra như thế nào?
Sự chia tách này bắt nguồn từ những mâu thuẫn sâu sắc về triết lý phát triển và định hướng nguồn vốn, tạo tiền đề cho một cuộc chạy đua khốc liệt bậc nhất trong thập kỷ. Hành trình đi từ những người đồng nghiệp chung chí hướng đến việc trở thành đối thủ trên thương trường phản ánh sự va đập gay gắt giữa khát vọng khoa học thuần túy và áp lực sinh tồn của nền kinh tế thị trường.

Cùng chung một gốc nhưng OpenAI và Anthropic đã chia ly
Mâu thuẫn cốt lõi về chiến lược thương mại hóa
OpenAI được thành lập vào năm 2015 dưới hình thức một phòng thí nghiệm phi lợi nhuận, mang theo sứ mệnh xây dựng trí tuệ nhân tạo tổng quát (AGI) minh bạch và an toàn cho toàn nhân loại. Tuy nhiên, việc huấn luyện các mô hình ngôn ngữ lớn như GPT-2 và sau này là GPT-3 đòi hỏi một nguồn lực điện toán khổng lồ. Chi phí mua sắm phần cứng, đặc biệt là các cụm máy chủ trang bị bộ xử lý đồ họa (GPU) hiện đại nhất, cùng với chi phí vận hành trung tâm dữ liệu đã nhanh chóng vượt quá khả năng tài trợ từ các khoản quyên góp thiện nguyện ban đầu. Điều này đặt ban lãnh đạo OpenAI, đứng đầu là Sam Altman, trước một ngã rẽ mang tính quyết định: hoặc chấp nhận nhịp độ phát triển chậm chạp và tụt hậu trong cuộc đua công nghệ toàn cầu, hoặc tìm kiếm một cấu trúc tài chính mới có khả năng thu hút dòng vốn đầu tư mạo hiểm quy mô lớn.
Quyết định cuối cùng được đưa ra vào năm 2019, khi OpenAI chính thức chuyển đổi mô hình hoạt động sang dạng công ty có lợi nhuận giới hạn (capped-profit). Cơ chế này quy định các nhà đầu tư có thể nhận được mức lợi nhuận tối đa gấp 100 lần số vốn bỏ ra, phần thặng dư sau đó sẽ được trả lại cho tổ chức phi lợi nhuận mẹ. Bước đi này được hiện thực hóa bằng một thỏa thuận lịch sử trị giá một tỉ USD với Microsoft. Thỏa thuận này chủ yếu được thanh toán dưới dạng tín dụng sử dụng nền tảng điện toán đám mây Azure, đi kèm với việc trao cho gã khổng lồ phần mềm quyền khai thác thương mại các công nghệ cốt lõi của phòng thí nghiệm. Sự dịch chuyển trọng tâm từ nghiên cứu học thuật sang quá trình thương mại hóa thần tốc lập tức làm dấy lên một làn sóng bất an trong nội bộ tổ chức.
Nhiều nhà khoa học chủ chốt lo ngại rằng áp lực tạo ra lợi nhuận để làm hài lòng các cổ đông mới sẽ làm lu mờ những nguyên tắc an toàn nghiêm ngặt mà tổ chức đã cam kết từ ngày đầu thành lập. Họ tin rằng việc gắn chặt vận mệnh của trí tuệ nhân tạo vào các báo cáo tài chính hàng quý của Phố Wall sẽ đẩy nhanh tốc độ tung sản phẩm ra thị trường, bất chấp việc các hệ thống này chưa được kiểm thử toàn diện về mặt đạo đức và khả năng kiểm soát rủi ro. Việc Microsoft có quyền tiếp cận độc quyền vào mã nguồn của các mô hình GPT cũng dấy lên nghi ngờ về tính mở và sự công bằng trong việc phân phối lợi ích từ trí tuệ nhân tạo đến cộng đồng.
Cuộc ly giáo lịch sử tại Thung lũng Silicon
Những khác biệt sâu sắc về mặt tư tưởng cuối cùng đã dẫn đến một sự phân tách nhân sự quy mô lớn tại Thung lũng Silicon vào cuối năm 2020. Một nhóm các nhà nghiên cứu hàng đầu, được dẫn dắt bởi cựu Phó chủ tịch Nghiên cứu Dario Amodei và em gái ông là Daniela Amodei (cựu Phó chủ tịch Chính sách và An toàn), đã quyết định rời khỏi tổ chức. Quyết định rời bỏ một phòng thí nghiệm đang trên đà phát triển rực rỡ mang theo một thông điệp mạnh mẽ về sự cự tuyệt đối với định hướng mới của ban lãnh đạo. Sự ra đi của anh em nhà Amodei kéo theo hàng loạt những bộ óc xuất chúng khác, bao gồm những kiến trúc sư trưởng đằng sau sự thành công vang dội của mô hình GPT-3.
Ngay sau đó, vào đầu năm 2021, nhóm kỹ sư này đã chính thức tuyên bố thành lập Anthropic. Tổ chức mới này được định hình dưới cấu trúc pháp lý của một Tập đoàn vì lợi ích công cộng (Public Benefit Corporation - PBC). Lựa chọn hình thái doanh nghiệp này hoàn toàn có chủ ý từ những người sáng lập. Cấu trúc PBC cung cấp cho ban lãnh đạo một lá chắn pháp lý vững chắc, cho phép họ ưu tiên các mục tiêu xã hội, sự an toàn của thuật toán và tính minh bạch của dữ liệu lên trên nghĩa vụ tối đa hóa lợi nhuận cho giới đầu tư. Nếu ban quản trị Anthropic quyết định trì hoãn việc ra mắt một sản phẩm vì lý do an toàn dẫn đến giảm doanh thu, họ sẽ không phải đối mặt với các vụ kiện từ cổ đông như các mô hình công ty cổ phần truyền thống.
Việc Anthropic ra đời tạo ra một sự phân hóa rõ nét trong cộng đồng kỹ sư và các nhà hoạch định chính sách toàn cầu. Một nhóm lựa chọn ở lại OpenAI để tận hưởng nguồn tài nguyên tính toán vô tận, tốc độ triển khai sản phẩm như vũ bão và cơ hội thay đổi cách thế giới vận hành trong thời gian thực. Nhóm còn lại tập hợp dưới ngọn cờ của Anthropic, chấp nhận một nhịp độ nghiên cứu chậm rãi, tập trung sâu vào khả năng diễn giải (interpretability) của mạng nơ-ron nhằm xây dựng các cơ chế bảo vệ nhân loại trước những hệ thống máy học siêu việt. Sự kiện ly giáo này xác lập một đường phân thủy, biến những người cộng sự cũ thành hai thế lực cạnh tranh trực diện trên mọi mặt trận, từ việc thu hút tài năng kỹ thuật, gọi vốn đầu tư cho đến thiết kế kiến trúc phần mềm cốt lõi.
Khởi nguyên của hai triết lý phát triển trái ngược
Sự chia cắt về mặt tổ chức lập tức phản chiếu vào sự khác biệt căn bản trong phương pháp luận nghiên cứu của hai công ty. OpenAI kiên định theo đuổi định luật quy mô (scaling laws). Triết lý này được xây dựng dựa trên dữ kiện thực tế rằng hiệu năng của các mạng nơ-ron nhân tạo sẽ tăng tiến tỷ lệ thuận với khối lượng dữ liệu đầu vào và sức mạnh điện toán được cấp phát. Dưới góc nhìn quản trị của Sam Altman, việc nhồi nhét thêm hàng nghìn tỉ tham số và liên tục mở rộng quy mô trung tâm dữ liệu sẽ giúp thuật toán tự động giải quyết các điểm yếu về mặt nhận thức.
Công ty này chấp nhận chiến lược phát hành sản phẩm liên tục, sử dụng chính nguồn dữ liệu tương tác từ hàng triệu người dùng thực tế để làm cơ sở tinh chỉnh và vá lỗi thuật toán thông qua phương pháp học tăng cường từ phản hồi của con người (RLHF). Cách tiếp cận thực dụng này mang lại tốc độ chiếm lĩnh thị trường đáng kinh ngạc, đi kèm rủi ro khi các mô hình thường xuyên bộc lộ sự thiên lệch và sinh ra thông tin sai lệch trong quá trình sử dụng đại trà.
Ngược lại hoàn toàn, Anthropic từ chối việc để máy móc tự do học hỏi từ những tập dữ liệu hỗn loạn trên internet mà không có một bộ lọc giá trị định hướng. Đội ngũ kỹ sư tại đây đã đặt nền móng kiến trúc của họ bằng phương pháp tiếp cận Trí tuệ nhân tạo hợp hiến (Constitutional AI). Phương pháp này bắt buộc hệ thống máy học phải tuân thủ nghiêm ngặt một bản "hiến pháp" kỹ thuật số do con người lập trình từ trước. Bản hiến pháp này tập hợp các bộ quy tắc đạo đức, luật lệ cơ bản về nhân quyền và các nguyên tắc hành xử cốt lõi, đóng vai trò như một cơ chế kiểm soát cứng nhằm đảm bảo thuật toán luôn hoạt động trong một ranh giới an toàn tuyệt đối.
Thay vì phụ thuộc hoàn toàn vào quá trình đánh giá thủ công của con người vốn tốn kém, mất thời gian và mang tính chủ quan cao, Anthropic sử dụng chính trí tuệ nhân tạo để giám sát và tự điều chỉnh hành vi của mạng nơ-ron dựa trên các nguyên tắc hiến pháp đã được thiết lập. Sự khác biệt về mặt nền tảng này giải thích cho mọi bước đi chiến lược của hai bên trong tương lai.
OpenAI dồn lực vào việc tối ưu hóa khả năng sáng tạo không giới hạn và tính linh hoạt trong giải quyết vấn đề của hệ thống. Anthropic lại dành trọn nguồn lực vào việc xây dựng những cỗ máy có khả năng tự động từ chối các yêu cầu độc hại, duy trì tính trung thực tuyệt đối và minh bạch trong mọi luồng suy luận. Hai triết lý đối lập này chính thức khởi động một cuộc đua song mã, nơi kết quả cuối cùng sẽ trực tiếp định hình nền tảng công nghệ của nhân loại trong thế kỷ 21.
Bùi Tú
4 giờ trước
1 ngày trước
1 ngày trước
1 ngày trước
2 ngày trước
3 ngày trước
3 ngày trước
1 giờ trước
1 giờ trước
33 phút trước
46 phút trước
46 phút trước
1 giờ trước
1 giờ trước
1 giờ trước