Người già trở thành nạn nhân lớn nhất của lừa đảo AI

Trong một thế giới mà video và giọng nói từng được coi là bằng chứng xác thực nhất, sự trỗi dậy của trí tuệ nhân tạo (AI) đang làm đảo lộn mọi quy chuẩn.
Lừa đảo AI: Mối đe dọa toàn cầu, đặc biệt nhóm người cao tuổi
Các báo cáo quốc tế cho thấy tội phạm sử dụng AI đang gia tăng đột biến cả về quy mô lẫn sự tinh vi. Theo dữ liệu từ cơ quan chức năng Mỹ, chỉ riêng năm 2025, thiệt hại từ các vụ lừa đảo liên quan đến AI đã cán mốc 893 triệu USD.
Hồ sơ từ FBI cũng ghi nhận một xu hướng đáng báo động: Các vụ lừa đảo nhắm vào người trên 60 tuổi tăng mạnh. Không còn là những email lừa đảo vụng về hay tin nhắn sai lỗi chính tả, các cuộc tấn công hiện nay được "cá nhân hóa" ở mức thượng thừa. Kẻ gian sử dụng AI để tái tạo khuôn mặt, giọng nói của người thân hoặc các nhân vật có uy tín nhằm thao túng tâm lý và ép buộc nạn nhân chuyển tiền trong tích tắc.
Các chuyên gia nhận định, điểm yếu này không hẳn đến từ sự thiếu cẩn trọng, mà xuất phát từ đặc điểm tâm lý thế hệ. Người lớn tuổi có thói quen đặt niềm tin tuyệt đối vào hình ảnh và giọng nói quen thuộc. Khi những yếu tố này kết hợp với một kịch bản "khẩn cấp" liên quan đến gia đình, hàng rào phòng thủ lý trí của họ gần như bị vô hiệu hóa.
Tội phạm mạng hiện đang sử dụng trí tuệ nhân tạo (AI) và công nghệ deepfake để khiến các vụ lừa đảo trông thật hơn”
Lennon Chang, Phó Giáo sư về Rủi ro và Chính sách mạng tại Đại học Deakin, Australia
Deepfake và "Kịch bản khẩn cấp" tạo ra công thức thao túng hoàn hảo
Sự kết hợp giữa công nghệ cao và đòn tâm lý đã tạo nên những kịch bản lừa đảo cực kỳ nguy hiểm. Deepfake cho phép kẻ gian đóng vai người thân trong các tình huống ngặt nghèo: tai nạn giao thông, cấp cứu bệnh viện hoặc rắc rối pháp lý.
- Công nghệ "vài giây": Chỉ cần một đoạn dữ liệu âm thanh ngắn ngủi từ mạng xã hội, AI có thể tái tạo giọng nói với độ chính xác kinh ngạc.
- Áp lực thời gian: Kẻ gian luôn ép nạn nhân phải hành động ngay lập tức, triệt tiêu thời gian kiểm chứng thông tin.
Đáng chú ý, dù người cao tuổi chiếm tỷ lệ nhỏ về số lượng vụ việc, nhưng giá trị tài sản bị mất của nhóm này lại chiếm tỷ trọng lớn nhất trong tổng thiệt hại của các vụ lừa đảo công nghệ cao.
Sự bùng nổ của Deepfake đang đặt ra thách thức nghiêm trọng cho an ninh tài chính và niềm tin cộng đồng. Số lượng nội dung Deepfake đã tăng vọt từ 500.000 (năm 2023) lên khoảng 8 triệu (năm 2025).
Trong bối cảnh ranh giới thật - giả bị xóa nhòa, những dấu hiệu nhận diện lừa đảo truyền thống như hình ảnh mờ hay giọng nói robot đã biến mất. Thay vào đó là những nội dung "nhìn tận mắt, nghe tận tai" nhưng thực chất chỉ là sản phẩm của thuật toán.
Cảnh báo và yêu cầu cấp thiết
Tất cả các tổ chức quốc tế đều dự báo lừa đảo AI sẽ còn diễn biến phức tạp hơn trong những năm tới.
Sự phát triển của AI mang lại tiện ích to lớn nhưng cũng biến niềm tin trở thành một món hàng dễ bị thao túng. Với người cao tuổi - những người vốn dựa vào trải nghiệm trực quan để đánh giá thế giới - sự thay đổi này là một cú sốc lớn. Khi "thấy tận mắt" không còn đồng nghĩa với sự thật, thách thức lớn nhất không chỉ nằm ở công nghệ, mà là cách chúng ta bảo vệ sự kết nối và niềm tin giữa người với người trong một thế giới đầy rẫy sự giả mạo.
Đỗ Tho
1 giờ trước
14 phút trước
41 phút trước
1 giờ trước
13 phút trước
1 giờ trước
1 giờ trước
2 giờ trước
2 giờ trước
2 giờ trước
2 giờ trước