Khi AI thành công cụ của tội phạm có tổ chức
Đầu tháng 2/2024, Cảnh sát Hong Kong (Trung Quốc) công bố một vụ lừa đảo gây chấn động khi một nhân viên tài chính của Arup Group Limited (Tập đoàn đa quốc gia của Anh chuyên về tư vấn kỹ thuật, thiết kế kiến trúc, quy hoạch đô thị và dịch vụ kỹ thuật hạ tầng) đã chuyển khoảng 200 triệu HKD, tương đương hơn 25 triệu USD, sau khi tham gia một cuộc họp trực tuyến với những người mà anh ta tin là Giám đốc Tài chính và các đồng nghiệp quen thuộc. Trên màn hình, mọi thứ diễn ra như một cuộc họp nội bộ quen thuộc: đúng khuôn mặt, đúng giọng nói, đúng cả những phản ứng mà anh ta đã từng thấy hàng ngày.
Không có hệ thống nào bị xâm nhập, không một cảnh báo an ninh nào được kích hoạt. Điểm đột phá duy nhất nằm ở chỗ: nạn nhân tự mình thực hiện toàn bộ quy trình chuyển tiền, với niềm tin rằng anh ta đang làm đúng. Chỉ đến khi giao dịch hoàn tất và quy trình kiểm tra nội bộ được tiến hành, sự thật mới lộ ra: toàn bộ những người tham gia cuộc họp đều là sản phẩm của công nghệ giả mạo bằng AI.

Hình ảnh Elon Musk nhiều lần bị lợi dụng trong các video giả mạo nhằm quảng bá các dự án tiền mã hóa không có thật, gây thiệt hại lớn cho nhà đầu tư.
Vụ việc này nhanh chóng được nhiều cơ quan thực thi pháp luật quốc tế xem là dấu hiệu rõ ràng cho một xu hướng mới: Tội phạm không còn cần phá vỡ hệ thống. Chúng tìm cách đi vòng qua hệ thống bằng cách tác động trực tiếp vào con người vận hành nó. Trước đó, năm 2019, một vụ việc tại châu Âu đã cho thấy những dấu hiệu đầu tiên của xu hướng này. Giám đốc điều hành của công ty con tại Anh thuộc tập đoàn năng lượng Đức đã chuyển 220.000 euro sau khi nhận được cuộc gọi mà ông tin là từ cấp trên trực tiếp. Giọng nói ở đầu dây bên kia mang đầy đủ đặc điểm của người thật, từ âm sắc, nhịp đi đến cách nhấn giọng quen thuộc. Theo kết luận của công ty bảo hiểm Euler Hermes, đây là một trong những trường hợp đầu tiên ghi nhận việc sử dụng công nghệ AI để giả giọng lãnh đạo doanh nghiệp. Số tiền sau đó được chuyển qua nhiều tài khoản tại Hungary trước khi biến mất. Hai vụ việc, cách nhau gần 5 năm, cho thấy một sự chuyển dịch rõ ràng: từ tấn công kỹ thuật sang thao túng nhận thức. Nếu trước đây tội phạm tìm cách “phá cửa”, thì nay chúng học cách “gõ chuông”.
Trong báo cáo năm 2023, Cơ quan Cảnh sát châu Âu (Europol) cảnh báo một thay đổi mang tính cấu trúc trong hoạt động của tội phạm có tổ chức: AI đang biến lừa đảo từ hoạt động dựa vào số lượng thành hoạt động dựa vào độ chính xác. Thay vì phát tán hàng triệu email để “lọc” nạn nhân, các đối tượng giờ đây xây dựng những kịch bản được cá nhân hóa gần như tuyệt đối: đúng tên, đúng ngữ cảnh, đúng mối quan hệ. Cảnh báo tương tự cũng được Cục Điều tra liên bang Mỹ (FBI) đưa ra trong các báo cáo năm 2023 và 2024. Theo Trung tâm khiếu nại tội phạm Internet của FBI (IC3), các vụ lừa đảo qua email doanh nghiệp đã gây thiệt hại hơn 2,7 tỷ USD trong năm 2023. Nếu trước đây một chiến dịch lừa đảo cần dựa vào xác suất, thì nay chỉ cần một kịch bản đúng người, đúng thời điểm - và gần như không còn chỗ cho sự nghi ngờ. Giáo sư Michael Levi, chuyên gia tội phạm học tại Đại học Cardiff, nhận định, lợi thế lớn nhất của tội phạm trong kỷ nguyên số không nằm ở công nghệ, mà nằm ở tốc độ thích nghi. Và AI đang rút ngắn khoảng cách đó xuống mức gần như tức thời.

Các hệ thống chatbot sử dụng trí tuệ nhân tạo được tội phạm khai thác để duy trì tương tác dài hạn với nạn nhân, từ lừa đảo đầu tư đến lừa đảo tình cảm.
Một trong những biểu hiện rõ ràng nhất của xu hướng này là việc “vay mượn uy tín” - khi AI cho phép tội phạm sử dụng hình ảnh và danh tiếng của những nhân vật có ảnh hưởng để tạo dựng niềm tin giả. Năm 2023, Ủy ban Chứng khoán và Giao dịch Mỹ (SEC) đã phải phát đi cảnh báo về việc hình ảnh của Elon Musk bị sử dụng trong các video quảng bá tiền mã hóa không có thật. Hình ảnh của Elon Musk xuất hiện không phải để thuyết phục bằng lý lẽ, mà để rút ngắn quá trình hoài nghi. Những video này được tạo bằng công nghệ AI, với độ chân thực đủ để khiến người xem nhầm lẫn với phát biểu thật.
Theo Ủy ban Thương mại liên bang Mỹ (FTC), các vụ lừa đảo liên quan đến tiền mã hóa đã gây thiệt hại hơn 3,9 tỷ USD trong năm 2022 và tiếp tục gia tăng trong các năm sau đó. Một phần đáng kể trong số này liên quan đến các nội dung giả mạo lan truyền trên mạng xã hội, nơi tốc độ tiếp cận thường nhanh hơn khả năng kiểm chứng. Tại Anh, Cơ quan Quản lý tài chính (FCA) cũng ghi nhận sự gia tăng của các quảng cáo đầu tư giả mạo sử dụng hình ảnh và video của người nổi tiếng. Các nội dung này thường được phát tán trên nhiều nền tảng cùng lúc, tạo ra hiệu ứng lan truyền mạnh và khiến việc kiểm chứng trở nên khó khăn hơn.
Những gì đang xảy ra ở Hong Kong (Trung Quốc), Anh hay Mỹ không còn xa lạ với Việt Nam. Trong những năm gần đây, Bộ Công an Việt Nam liên tục phát cảnh báo về các hình thức lừa đảo có yếu tố công nghệ cao, trong đó nổi bật là thủ đoạn giả mạo cuộc gọi video bằng deepfake để vay tiền hoặc chiếm đoạt tài sản. Kịch bản phổ biến: đối tượng chiếm quyền tài khoản mạng xã hội của nạn nhân, sau đó thực hiện cuộc gọi video đến người thân với gương mặt được dựng lại từ dữ liệu có sẵn. Trong vài phút, chúng xin chuyển tiền gấp vì “đang cấp cứu” hoặc “kẹt việc”. Và chỉ cần vài chục giây hình ảnh quen thuộc trên màn hình, cơ chế phòng vệ tự nhiên của con người gần như bị vô hiệu hóa.
Điều đáng lo hơn là, trong khi công nghệ thay đổi theo tuần, thói quen xác minh của người dùng gần như không thay đổi. Nhiều báo cáo ghi nhận số vụ lừa đảo trực tuyến tại Việt Nam tăng đột biến từ năm 2022 đến nay, với thiệt hại hàng nghìn tỷ đồng mỗi năm. Đáng chú ý, độ tinh vi của các chiêu trò ngày càng tăng theo mức độ phổ cập của các công cụ AI tạo sinh - nhiều ứng dụng cho phép thay mặt, đổi giọng chỉ với vài cú nhấp chuột, hoàn toàn miễn phí. Điều đáng lo hơn là nhận thức của người dùng chưa theo kịp tốc độ phát triển của công nghệ. Nhiều người vẫn giữ thói quen xác minh danh tính qua khuôn mặt và giọng nói - hai thứ nay đã có thể bị làm giả trong thời gian thực.

Công nghệ giả mạo bằng AI đã được sử dụng trong các vụ lừa đảo doanh nghiệp.
Điều khiến các chuyên gia an ninh thực sự lo ngại không phải là bất kỳ công cụ đơn lẻ nào, mà là cách chúng được kết hợp với nhau. Một chiến dịch lừa đảo hiện đại không còn diễn ra trong một bước. Nó được chia thành nhiều lớp: một email đủ thuyết phục để mở đầu, một cuộc gọi để củng cố niềm tin, một trang web giả để hoàn tất quy trình. Mỗi bước, nếu đứng riêng lẻ, đều hợp lý. Chính sự hợp lý đó khiến toàn bộ chuỗi trở nên nguy hiểm. Nhưng lúc đó tiền đã chuyển đi từ lâu. Báo cáo năm 2024 của Europol về tội phạm có tổ chức mô tả xu hướng này là các chiến dịch “đa lớp”, trong đó AI không còn chỉ là một công cụ hỗ trợ, mà trở thành yếu tố kết dính, biến những hành vi riêng lẻ thành một hệ thống tấn công hoàn chỉnh.
Trung tâm An ninh mạng quốc gia Anh (NCSC) cũng cảnh báo rằng, AI đang hạ thấp rào cản kỹ thuật, cho phép cả những đối tượng không có “chuyên môn” vẫn có thể triển khai các chiến dịch lừa đảo quy mô lớn. Không chỉ dừng lại ở lĩnh vực tài chính, AI còn cho thấy khả năng tác động tới nhận thức xã hội. Tháng 3/2022, một video deepfake mô phỏng Tổng thống Ukraine Volodymyr Zelensky kêu gọi binh sĩ đầu hàng đã xuất hiện trên mạng xã hội, tồn tại đủ lâu để gây hoang mang trước khi bị gỡ xuống. Đó là minh chứng rõ ràng rằng AI không chỉ đe dọa tài sản, mà còn có thể làm xói mòn niềm tin tập thể.

Video giả mạo Tổng thống Volodymyr Zelensky kêu gọi đầu hàng xuất hiện năm 2023.
Trong các khuyến nghị gần đây, FBI không nhấn mạnh công nghệ, mà nhấn mạnh con người: mắt xích dễ bị tổn thương nhất vẫn nằm ở cách con người phản ứng trước những tín hiệu quen thuộc. Nâng cấp hệ thống kỹ thuật là cần thiết, nhưng không đủ khi kẻ tấn công không cố phá hệ thống, mà cố thuyết phục con người bên trong hệ thống đó tự hành động. Nhiều tổ chức đã bắt đầu áp dụng các biện pháp như thiết lập “từ khóa xác thực” nội bộ, kiểm tra chéo qua kênh độc lập hoặc đào tạo nhân viên về nhận diện deepfake.
Tại Việt Nam, Bộ Công an đã bắt đầu triển khai các chiến dịch truyền thông cảnh báo deepfake. Tuy nhiên, giới chuyên gia nhận định rằng cần có khung pháp lý rõ ràng hơn về việc sử dụng AI tạo sinh, đặc biệt trong các giao dịch tài chính và xác thực danh tính, để tạo cơ sở xử lý khi xảy ra vi phạm. Ở góc độ cá nhân, câu hỏi không còn là hệ thống có an toàn hay không, mà là mỗi cá nhân có đủ khả năng dừng lại và kiểm tra khi mọi thứ trông có vẻ “quá bình thường” hay không. Trong một thế giới mà khuôn mặt, giọng nói và cả phong cách viết đều có thể bị tái tạo, thứ khó làm giả nhất lại là điều đơn giản nhất: một cuộc gọi điện thoại thông thường để hỏi lại trực tiếp.
Tội phạm không cần đánh bại hệ thống. Chúng chỉ cần khiến con người bên trong hệ thống hành động thay chúng. Và trong một thế giới nơi khuôn mặt, giọng nói, thậm chí cả cách viết đều có thể bị tái tạo, ranh giới giữa thật và giả không còn nằm ở công nghệ, mà nằm ở khả năng hoài nghi của mỗi con người.
Đó là một ranh giới mong manh hơn nhiều so với bất kỳ tường lửa nào.
Minh Hải
1 ngày trước
3 giờ trước
1 giờ trước
1 giờ trước
1 giờ trước
45 phút trước
55 phút trước
2 giờ trước
2 giờ trước
2 giờ trước
2 giờ trước
3 giờ trước
3 giờ trước