OpenAI, Google, Meta, Adobe triển khai watermark AI để giành lại niềm tin số
Động thái này không chỉ mang ý nghĩa kỹ thuật mà còn là nỗ lực tái lập niềm tin trong thời đại thông tin dễ bị thao túng.
Watermark AI là gì?
Watermark AI không phải là logo hay chữ mờ trên ảnh như kiểu truyền thống. Đây là công nghệ chèn dấu hiệu ẩn vào văn bản, hình ảnh, video hoặc âm thanh do AI (trí tuệ nhân tạo) tạo ra, để sau này có thể xác minh rằng nội dung đó được tạo từ mô hình nào, thời điểm ra sao và có bị chỉnh sửa hay không. Dấu hiệu đó chỉ có thể được phát hiện bởi các công cụ chuyên dụng.
Watermark AI giúp phân biệt nội dung có phải do AI tạo ra hay không, hạn chế tin giả, deepfake, gian lận học thuật, hoặc lạm dụng trong bầu cử và truyền thông. Có thể áp dụng Watermark AI bằng nhiều cách.
Trong văn bản: Mô hình AI tạo ra chuỗi từ có cấu trúc thống kê đặc biệt, khó nhận ra bằng mắt người nhưng có thể dò bằng thuật toán.
Trong hình ảnh: Chèn các mẫu pixel tinh vi hoặc thay đổi tần số mà mắt không nhận thấy.
Trong âm thanh và video: Cài tín hiệu hoặc mẫu dao động đặc trưng.
Các hình thức chính
Watermark AI có ba hình thức chính:
Watermark vô hình: Nhúng trực tiếp vào ảnh, video, âm thanh bằng thay đổi nhỏ ở mức pixel hoặc tín hiệu tần số.
Metadata (siêu dữ liệu) có chữ ký số: Đính kèm trong file, ghi lại lịch sử tạo và chỉnh sửa.
Watermark trong văn bản: Nhúng vào chính cách AI chọn từ, tạo ra một dấu hiệu thống kê đặc biệt mà thuật toán có thể phát hiện.
Tại sao watermark AI cần thiết?
Vài năm trở lại đây, khả năng tạo ra nội dung giả mạo bằng AI đã tiến bộ vượt bậc. Những hình ảnh và video deepfake được tạo ra từ các mô hình AI gây lo ngại trong an ninh thông tin, lan truyền tin giả và lừa đảo người dùng. Việc người dùng và các nền tảng mạng xã hội không thể phân biệt đâu là nội dung thật hay do AI tạo trở thành mối rủi ro thực tế.
Đáp lại, các hãng công nghệ triển khai watermark AI không chỉ như cách đánh dấu nội dung, mà còn mang đến giải pháp minh bạch nguồn gốc để người dùng, nhà báo, cơ quan quản lý có thể kiểm tra lại quá trình tạo nội dung kỹ thuật số. Tuy nhiên, không phải mọi công ty đều chọn cách giống nhau, khi OpenAI, Google, Meta Platforms và Adobe mỗi bên theo đuổi chiến lược riêng, tùy theo mô hình kinh doanh, loại nội dung và tầm nhìn của mình.
OpenAI: Tiếp cận watermark AI qua việc tham gia C2PA
OpenAI, công ty khởi nghiệp tạo ra ChatGPT, đã tiếp cận watermark AI chủ yếu qua việc tham gia C2PA (Liên minh về Nguồn gốc và Tính xác thực của Nội dung).
C2PA là tiêu chuẩn mở được các công ty công nghệ như OpenAI, Adobe, Microsoft, Intel, X, Google, Meta Platforms cùng phát triển để giúp xác minh nguồn gốc và tính xác thực của nội dung số.

OpenAI tham gia C2PA cùng nhiều hãng công nghệ lớn - Ảnh: Internet
Tháng 5.2024, OpenAI gia nhập ban điều hành của C2PA, khẳng định cam kết trong việc phát triển content credentials (chứng nhận nguồn gốc nội dung) - siêu dữ liệu có chữ ký để quy nguồn gốc nội dung.
Một trong những ứng dụng nổi bật là Sora, mô hình AI tạo video của OpenAI. Theo OpenAI, mỗi video tạo ra bằng Sora 2 đều mang hai loại dấu nhận dạng nguồn gốc: Một watermark có thể nhìn thấy và một dấu ẩn dưới dạng siêu dữ liệu C2PA. Công ty khởi nghiệp AI số 1 thế giới còn phát triển các công cụ nội bộ để truy vết video về lại Sora bằng kỹ thuật tìm ngược hình ảnh và tìm âm thanh tương tự, nhằm đảm bảo tính xác thực và trách nhiệm.
Tuy nhiên theo tờ The Washington Post, việc gắn content credentials vào video Sora không đảm bảo rằng các nền tảng bên ngoài sẽ giữ lại thông tin này khi người dùng đăng tải. Trong thử nghiệm của The Washington Post, một video Sora chứa metadata C2PA khi được tải lên 8 mạng xã hội lớn thì hầu như không được giữ lại, hoặc nếu có, cũng không được hiển thị rõ ràng cho người xem. Điều này phản ánh vấn đề lớn là watermark hay metadata chỉ có giá trị nếu hệ sinh thái (nền tảng, công cụ kiểm tra) phối hợp để duy trì và hiển thị nó.
Một số người dùng trên Reddit phản ánh rằng video tạo bằng Sora có sự khác biệt giữa các phiên bản tài khoản. Với tài khoản thông thường, video thường được gắn watermark hiển thị rõ ngay trên khung hình. Tuy nhiên, khi họ tải video xuống và kiểm tra phần metadata C2PA, vốn dùng để xác minh nguồn gốc nội dung, thì lại không tìm thấy bất kỳ thông tin nào. Ngược lại, những người dùng thử nghiệm phiên bản Sora Pro cho biết video của họ đôi khi không có watermark hiển thị, nhưng khi kiểm tra thì lại chứa metadata C2PA khá đầy đủ. Việc đó đặt ra câu hỏi về tính nhất quán, minh bạch và bảo vệ nguồn gốc thực sự.
Tóm lại, OpenAI đang theo hướng chứng thực nguồn gốc bằng metadata, ưu tiên tiêu chuẩn mở C2PA thay vì watermark vô hình quá phức tạp, nhưng vẫn đối mặt nhiều thách thức khi các nền tảng khác không giữ metadata hoặc không hiển thị chúng cho người dùng cuối.
Google triển khai watermark vô hình quy mô internet
Google là một trong những công ty tiên phong trong việc triển khai watermark vô hình cho hình ảnh AI, với dự án SynthID. Đến năm 2025, Google tiếp tục mở rộng các khả năng của SynthID, đặc biệt với phiên bản mới SynthID-Image.
Trong báo cáo công bố tháng 10/2025, bộ phận DeepMind đã giới thiệu nghiên cứu về SynthID-Image, bước tiến lớn của Google trong việc phát triển hệ thống watermark dựa trên học sâu có khả năng nhúng dấu ẩn trực tiếp vào ảnh và từng khung hình video do AI tạo. Điều đáng chú ý là SynthID-Image được thiết kế ngay từ đầu để hoạt động ở quy mô internet, nghĩa là phải đủ nhẹ, ổn định và hiệu quả để Google có thể áp dụng cho hàng tỉ hình ảnh trong hệ sinh thái của mình.
Không chỉ dừng lại ở việc gắn watermark, SynthID-Image còn được tối ưu theo bốn tiêu chí quan trọng:
1. Hiệu quả phát hiện: Watermark phải được đặt theo cách mà các công cụ xác minh của Google có thể dễ dàng nhận diện, ngay cả khi ảnh đã được xử lý lại hoặc đăng tải qua nhiều nền tảng khác nhau.
2. Giữ nguyên chất lượng ảnh: Mục tiêu là tạo ra watermark mà mắt thường không nhìn thấy được, đồng thời không làm giảm chất lượng hình ảnh, giữ nguyên độ sắc nét, màu sắc và chi tiết. Điều này đặc biệt quan trọng với các sản phẩm thương mại.
3. Độ bền trước chỉnh sửa: SynthID-Image phải tồn tại qua những thao tác phổ biến khi người dùng chia sẻ nội dung như nén file, cắt xén ảnh, thay đổi độ sáng, thêm bộ lọc… Đây là thử thách lớn vì nhiều kỹ thuật watermark truyền thống thường bị phá hỏng khi ảnh bị xử lý.
4. Khả năng chống tấn công: SynthID-Image được thiết kế sao cho dù kẻ xấu biết ảnh có gắn watermark, họ cũng rất khó xóa hay làm giả dấu hiệu này mà không làm hỏng chất lượng hoặc nội dung gốc của ảnh.
Với người dùng cuối, Google đã bắt đầu đưa khả năng kiểm tra watermark vào ngay trong ứng dụng Gemini trên cả Android và iOS. Từ tháng 11.2025, bản cập nhật Gemini cho phép người dùng tải bất kỳ ảnh nào lên và đặt câu hỏi rất trực tiếp: “Hình này có phải do Google AI tạo ra không?”. Ngay sau đó, Gemini sẽ phân tích ảnh và tìm dấu hiệu SynthID - loại watermark vô hình được nhúng vào từng pixel khi ảnh được tạo bởi các mô hình của Google.
Tính năng này giúp người dùng có một công cụ nhận diện nội dung AI đơn giản và dễ tiếp cận, đặc biệt trong bối cảnh deepfake và ảnh giả lan truyền ngày càng nhiều trên mạng xã hội. Theo trang TechRadar, Google xem đây là bước khởi đầu cho một hệ sinh thái minh bạch hơn.
Sau khi hoàn thiện khả năng kiểm tra ảnh, Google cho biết sẽ tiếp tục mở rộng cơ chế xác minh này sang cả video và âm thanh - hai loại nội dung đang trở nên dễ bị giả mạo nhất. Xa hơn nữa, mục tiêu của Google là tích hợp công cụ phát hiện SynthID ngay vào công cụ tìm kiếm của mình. Khi đó, người dùng chỉ cần tìm kiếm hoặc tải một nội dung lên, hệ thống sẽ tự động đánh giá xem nó có phải sản phẩm của AI hay không, mang lại mức độ minh bạch chưa từng có cho thông tin trên internet.

Google triển khai watermark vô hình cho hình ảnh AI với dự án SynthID - Ảnh: Internet
Một trong những công cụ quan trọng trong hệ sinh thái watermark AI của Google là SynthID Detector, được giới thiệu tại hội nghị I/O 2025 hồi tháng 5. Đây có thể coi như cổng xác minh kỹ thuật số, nơi bất kỳ ai đều có thể tải lên nội dung số, gồm hình ảnh, video, âm thanh hay thậm chí văn bản, để kiểm tra xem liệu nó có được tạo bởi AI và có chứa watermark SynthID hay không.
Ngoài ra, Google đang mở rộng chiến lược watermark AI của mình bằng cách hướng tới tích hợp tiêu chuẩn mở C2PA song song với hệ thống riêng SynthID. Mục tiêu là giúp thông tin về nguồn gốc nội dung do AI tạo ra không chỉ bị giới hạn trong hệ sinh thái của Google, mà còn có thể được truy vết, xác minh rộng rãi trên nhiều nền tảng và công cụ khác nhau.
Meta: Cách tiếp cận đa lớp và toàn diện
Meta Platforms (công ty mẹ Facebook, Instagram, Threads) đang tham gia sâu vào lĩnh vực provenance AI, tức xác minh và theo dõi nguồn gốc nội dung do AI tạo. Là chủ sở hữu một số nền tảng mạng xã hội lớn nhất thế giới, Meta Platforms nhận thấy rằng chỉ sử dụng watermark kỹ thuật thôi là chưa đủ, mà còn cần nhãn hiển thị trực quan để người dùng dễ dàng nhận biết rằng ảnh hay video mình xem có được tạo bởi AI không. Đây là một phần quan trọng trong chiến lược chống tin giả, deepfake và các nội dung lừa đảo lan truyền trên mạng.
Từ những năm trước, Meta Platforms đã thử nghiệm việc gắn nhãn như Imagined with AI trên các ảnh do AI của họ tạo ra. Chính sách này dần được mở rộng để hỗ trợ cả những nội dung được tạo từ các công cụ AI khác, miễn là chúng có chứa watermark hoặc thông tin nguồn gốc có thể xác minh. Nhờ vậy, người dùng sẽ nhận biết được nguồn gốc của nội dung và tăng khả năng phân biệt thật - giả.
Ngoài nhãn hiển thị, công ty mẹ Facebook còn nghiên cứu và phát triển các kỹ thuật watermark chuyên biệt, tiêu biểu là Stable Signature. Đây là một cơ chế watermark nhúng trực tiếp vào mô hình diffusion, tạo ra “dấu vân tay” trong quá trình ảnh được sinh ra. Nhờ vậy, mỗi ảnh do mô hình tạo ra từ đầu đã mang một dấu hiệu nhận diện riêng, giúp người dùng hoặc các công cụ kiểm tra có thể dễ dàng truy vết nguồn gốc nội dung khi cần.
Mô hình diffusion là loại mô hình học sâu dùng để tạo ra dữ liệu mới, thường là hình ảnh, video hoặc âm thanh, bằng cách dần dần học cách khôi phục dữ liệu từ nhiễu ngẫu nhiên. Nhiễu ngẫu nhiên là các dữ liệu hoặc tín hiệu không có trật tự, không có mẫu cố định, nhìn vào rất hỗn loạn.
Tuy nhiên, nghiên cứu học thuật gần đây chỉ ra một hạn chế của Stable Signature: Nếu các nhà nghiên cứu hoặc người dùng có kỹ năng tinh chỉnh lại mô hình diffusion gốc, họ có thể loại bỏ watermark mà vẫn giữ nguyên chất lượng ảnh rất cao. Điều này cho thấy dù Meta Platforms đã nghĩ đến việc nhúng watermark ngay trong quá trình tạo ảnh, việc bảo vệ dấu vân tay khỏi bị xóa hoặc giả mạo vẫn là thách thức kỹ thuật lớn.

Meta Platforms đang tham gia sâu vào lĩnh vực xác minh và theo dõi nguồn gốc nội dung do AI tạo - Ảnh: Internet
Về tiêu chuẩn, Meta Platforms cũng nằm trong nhóm các công ty cam kết với C2PA. Công ty do Mark Zuckerberg điều hành đã tham gia cùng OpenAI, Google, Adobe để triển khai watermark hoặc nhãn cho nội dung AI, nhằm chống tin giả, bảo vệ thông tin trong bối cảnh các mối lo về bầu cử và thông tin sai lệch ngày càng tăng.
Một thách thức quan trọng khác là quy mô của Meta Platforms. “Vua mạng xã hội” xử lý khối lượng nội dung khổng lồ từ người dùng trên Facebook, Instagram, Threads, với đủ loại ảnh, video, gif hay meme. Nhiều người dùng có thể tắt hoặc xóa metadata, trong khi mỗi nền tảng xử lý ảnh theo cách riêng. Điều này khiến việc kiểm tra và xác minh watermark trở nên rất phức tạp, đặc biệt khi phải áp dụng cho lượng nội dung khổng lồ trên toàn hệ thống.
Vì vậy, để đảm bảo hiệu quả và độ tin cậy, Meta Platforms kết hợp ba yếu tố: Kỹ thuật watermark tinh vi, nhãn hiển thị trực quan và kết hợp tiêu chuẩn mở như C2PA, nhằm tạo ra hệ thống provenance AI vừa bền vững vừa có thể áp dụng rộng rãi. Nhìn chung, chiến lược của Meta Platforms thể hiện một cách tiếp cận đa lớp và toàn diện.
Adobe: Chứng thực nguồn gốc nội dung với Content Credentials
Adobe từ lâu đã nổi tiếng với các công cụ sáng tạo, quản lý nội dung số và gần đây tiếp tục dẫn đầu trong lĩnh vực provenance AI. Là một trong những hãng sáng lập C2PA, Adobe triển khai hệ thống Content Credentials giúp ghi lại lịch sử tạo và chỉnh sửa nội dung một cách minh bạch và có thể kiểm chứng.
Khi người dùng làm việc với Firefly, mô hình AI tạo ảnh của Adobe, hoặc các công cụ hỗ trợ C2PA khác, mỗi nội dung số (ảnh, video, âm thanh) có thể được gắn content credentials ngay khi lưu hoặc xuất file. Hệ thống này lưu trữ đầy đủ thông tin về nội dung, gồm tác giả, thời điểm tạo, các bước chỉnh sửa và thậm chí ý định của người sáng tạo (chẳng hạn có cho phép AI học tập từ tác phẩm đó hay không). Nhờ vậy, cộng đồng sáng tạo có thể bảo vệ quyền sở hữu trí tuệ, đồng thời tăng tính minh bạch cho nội dung được chia sẻ rộng rãi.
Về mặt kỹ thuật, Content Credentials của Adobe kết hợp ba yếu tố quan trọng:
Metadata có chữ ký số: Ghi lại mọi thông tin về tác giả, thời gian và các bước chỉnh sửa.
Watermark ẩn: Nhúng trực tiếp vào ảnh hoặc video, không làm thay đổi trải nghiệm nhìn thấy bằng mắt thường nhưng có thể đọc được bằng công cụ chuyên dụng.
Dấu vân tay kỹ thuật số: Mã hóa đặc điểm riêng của nội dung, giúp nhận diện và so sánh chính xác nếu nội dung bị chỉnh sửa.
Khi người xem hoặc nền tảng muốn kiểm tra nguồn gốc, các công cụ hỗ trợ C2PA (chẳng hạn trình kiểm tra của Adobe) có thể giải mã watermark, đối chiếu dấu vân tay kỹ thuật số và xác minh tính toàn vẹn của metadata.

Adobe đã phát hành Content Authenticity App phiên bản beta - Ảnh: Internet
Trong năm 2025, Adobe tiếp tục nâng cấp khả năng truy xuất nguồn gốc với Adobe Content Authenticity App ở phiên bản beta. Ứng dụng này cho phép người sáng tạo thêm tên tác giả, tài khoản mạng xã hội và quyền kiểm soát cách nội dung được sử dụng, chẳng hạn từ chối việc AI học từ tác phẩm của họ. Đây là bước tiến quan trọng, giúp các nhà sáng tạo chủ động bảo vệ quyền sở hữu trí tuệ trong môi trường số ngày càng phức tạp.
Tuy nhiên, Adobe cũng gặp những thách thức tương tự các công ty khác: Nếu người dùng chia sẻ nội dung lên nền tảng bên thứ ba (mạng xã hội, website) mà không giữ metadata content credentials, thông tin về nguồn gốc có thể bị mất.
Sơn Vân
3 giờ trước
1 giờ trước
2 giờ trước
2 giờ trước
57 phút trước
1 giờ trước
3 giờ trước
3 giờ trước
5 giờ trước
5 giờ trước