🔍
Chuyên mục: CNTT - Viễn thông

Trí tuệ nhân tạo cảm xúc đã xuất hiện

8 giờ trước
Chia sẻ bài viết trên tờ Nikkei Asia, bà Penny Chai - Phó Chủ tịch khu vực châu Á - Thái Bình Dương của Sumsub (*) cho rằng trong một thế giới nơi trí tuệ nhân tạo có thể mô phỏng sự đồng cảm, việc bảo vệ lòng tin chưa bao giờ cấp thiết hơn thế. Xin giới thiệu cùng bạn đọc.
00:00
00:00

Chatbot AI không còn chỉ là công cụ nữa. Chúng đang thay đổi cách chúng ta hình thành các mối liên kết cảm xúc trực tuyến, làm mờ ranh giới giữa kết nối con người và sự thân mật nhân tạo. Tại Singapore, hơn 1/10 cư dân tìm đến AI để bầu bạn, một dấu hiệu đáng chú ý cho thấy công nghệ đang đáp ứng nhu cầu cảm xúc từng được thỏa mãn bởi các mối quan hệ thực tế nhanh chóng như thế nào.

Được hỗ trợ bởi khả năng xử lý ngôn ngữ tự nhiên, phân tích cảm xúc và học sâu, Chatbot AI không chỉ trả lời câu hỏi mà còn phản hồi với sự nhận thức về cảm xúc, ghi nhớ các tương tác trong quá khứ và điều chỉnh tính cách của chúng theo thời gian. Mặc dù những khả năng này có thể tạo ra những trải nghiệm hỗ trợ, chúng cũng tiềm ẩn những rủi ro mới.

Cho đến gần đây, các cuộc thảo luận về an toàn trực tuyến chủ yếu tập trung vào gian lận danh tính, lừa đảo tình cảm và mạo danh. Những mối đe dọa này rất rõ ràng và thường dễ nhận biết. Theo Báo cáo Gian lận Danh tính 2025-2026 của Sumsub, ngành công nghiệp hẹn hò phải đối mặt với một trong những tỷ lệ gian lận danh tính toàn cầu cao nhất ở mức 6,3%, thậm chí vượt cả dịch vụ tài chính và tiền điện tử. Tỷ lệ cao này xuất phát từ bản chất dựa trên sự tin tưởng vào hẹn hò trực tuyến, nơi các cá nhân tự nguyện chia sẻ thông tin cá nhân nhạy cảm và tham gia vào các mối quan hệ tình cảm trước khi xác minh danh tính, tạo ra môi trường thuận lợi cho những kẻ lừa đảo. Đồng thời, những mối đe dọa này cũng ngày càng tinh vi hơn, với số vụ sử dụng các kỹ thuật lừa đảo tiên tiến tăng 180% mỗi năm.

Trong các ứng dụng hẹn hò và nền tảng mạng xã hội, nơi lòng tin được đặt lên hàng đầu, kết nối không chỉ là một tính năng mà còn chính là sản phẩm. Sự hội tụ của kỹ thuật xã hội, thao túng cảm xúc, danh tính giả mạo và gian lận danh tính đã tạo ra một môi trường mà ranh giới giữa tương tác thực sự giữa con người và kết nối nhân tạo ngày càng trở nên mờ nhạt. Những người bạn đồng hành AI có thể hình thành mối liên kết cảm xúc nhanh chóng, đồng thời phản chiếu các tín hiệu cảm xúc, ghi nhớ những chi tiết riêng tư, phản hồi tức thì và luôn sẵn sàng. Trí tuệ nhân tạo không còn chỉ là tấm gương phản chiếu hành vi của con người – nó đang chủ động định hình lại bối cảnh cảm xúc.

Khi trí tuệ nhân tạo tiếp tục phát triển, chúng ta cần phải suy nghĩ lại về những quy tắc cơ bản về lòng tin trực tuyến và sự an toàn về mặt cảm xúc, và trách nhiệm bảo vệ điều này không thể chỉ thuộc về người dùng. Các nền tảng, cơ quan quản lý và toàn xã hội phải cùng nhau hợp tác để bảo vệ cả sức khỏe tinh thần và an toàn trên không gian mạng.

Cả chính phủ và các nền tảng đều đóng vai trò quan trọng. Khi các tác nhân AI trở nên tự chủ và tương tác xã hội hơn, các tiêu chuẩn quản lý không chỉ nên xem xét độ tin cậy về mặt kỹ thuật mà còn cả ảnh hưởng về mặt cảm xúc và tác động đến hành vi.

Khung quản trị AI mẫu mới của Singapore dành cho AI đặt ra một nền tảng vững chắc cho việc áp dụng AI một cách có trách nhiệm. Bằng cách yêu cầu các tổ chức đánh giá rủi ro tác nhân ngay từ đầu, duy trì trách nhiệm rõ ràng của con người và triển khai các cơ chế giám sát và leo thang, khung này thừa nhận các hệ thống ngày càng tự động cần sự giám sát của con người.

Đối với các trợ lý ảo AI, dù được hỗ trợ bởi trí tuệ nhân tạo có khả năng tự hành động hay không, việc đánh giá rủi ro cũng rất cần thiết để xem xét cách thức mà sự đồng cảm mô phỏng, sự tương tác liên tục và suy luận cảm xúc có thể định hình hành vi và gây ra rủi ro cho người dùng - đặc biệt là đối với các nhóm dễ bị tổn thương.

Ngoài ra, các cơ quan quản lý và ngành công nghiệp có thể tiến xa hơn trong ba lĩnh vực: Thứ nhất, bắt buộc phải công khai thông tin rõ ràng và tiêu chuẩn hóa khi người dùng tương tác với trợ lý AI. Thứ hai, yêu cầu sự đồng ý rõ ràng và có hiểu biết về việc sử dụng dữ liệu sinh trắc học hoặc dữ liệu nhạy cảm. Thứ ba, xác định các quy tắc rõ ràng hơn về thời điểm con người phải can thiệp thay cho AI - ví dụ, khi các cuộc hội thoại chuyển sang các vấn đề nhạy cảm, rủi ro cao hoặc các tình huống người dùng dễ bị tổn thương, tương tự như dự thảo quy tắc của Trung Quốc yêu cầu chuyển giao cho người điều hành và cấm nội dung thao túng cảm xúc.

Các nền tảng cũng phải thiết kế trải nghiệm AI với tính minh bạch, các rào cản đạo đức và giới hạn nghiêm ngặt về cách sử dụng dữ liệu cá nhân và cảm xúc. Điều này bao gồm việc công khai rõ ràng các tương tác của AI, sự đồng ý tự nguyện cho việc thu thập dữ liệu nhạy cảm và khả năng cho người dùng kiểm soát hoặc thiết lập lại bộ nhớ của AI về các tương tác cá nhân. Cùng nhau, các biện pháp này đảm bảo rằng AI có thể tăng cường kết nối giữa con người mà không gây ra những rủi ro không mong muốn cho người dùng.

Được thúc đẩy bởi sự dễ dàng của trí tuệ nhân tạo tạo sinh và công nghệ deepfake, việc thao túng cảm xúc thông qua các vụ lừa đảo tình cảm, "mổ xẻ lợn" và các thủ đoạn kỹ thuật xã hội khác chỉ có thể gia tăng. Những kẻ lừa đảo ngày càng sáng tạo và kiên nhẫn hơn, vun đắp các mối quan hệ trong nhiều tuần hoặc thậm chí nhiều tháng để tối đa hóa khả năng bóc lột về tài chính hoặc về cá nhân.

Để duy trì vị thế dẫn đầu, sự thành công của việc phòng chống gian lận sẽ ngày càng phụ thuộc vào các biện pháp phòng vệ dựa trên hành vi và ngữ cảnh, giúp phát hiện các bất thường và giảm thiểu rủi ro thao túng từ sớm. Nhưng chỉ riêng các biện pháp kiểm soát kỹ thuật là chưa đủ, khi các hệ thống AI ngày càng trở nên tinh vi hơn về mặt cảm xúc, niềm tin sẽ phụ thuộc vào việc các nền tảng có được thiết kế với sự kiềm chế, minh bạch và sự giám sát có ý nghĩa của con người hay không.

Đối với các doanh nghiệp khu vực châu Á - Thái Bình Dương, điều này có nghĩa là cần có hệ thống phòng thủ đa tầng, thích ứng, kết hợp tín hiệu thiết bị, sinh trắc học, dữ liệu ngữ cảnh và hiểu biết về hành vi tại nhiều điểm tiếp xúc. Bằng cách tích hợp các biện pháp này, các nền tảng không chỉ có thể ngăn chặn gian lận mà còn bảo vệ sức khỏe tinh thần của người dùng trong môi trường mà trí tuệ nhân tạo và kỹ thuật xã hội ngày càng đan xen nhau.

-----

Sumsub là một công ty công nghệ quốc tế có trụ sở tại Anh, chuyên cung cấp nền tảng xác thực toàn diện (KYC, KYB, KYT) nhằm chống gian lận, xác minh danh tính và tuân thủ pháp lý cho doanh nghiệp. Sumsub bảo vệ hơn 2.000 khách hàng trong các lĩnh vực fintech, tiền điện tử, và thương mại điện tử trên toàn cầu.

(Theo Nikkei Asia)

Thúy Hoa

TIN LIÊN QUAN











Home Icon VỀ TRANG CHỦ