🔍
Chuyên mục: Kinh doanh

Tin vào 'cô gái AI' quá mức, chuyên gia IT mất trắng tài sản và gia đình

1 giờ trước
Chỉ vì tin vào những lời khích lệ từ một chatbot do ChatGPT tạo ra, một chuyên gia công nghệ thông tin tại Hà Lan đã tiêu sạch tiền tiết kiệm, đánh mất gia đình và buộc phải bán căn nhà gắn bó suốt 17 năm.
00:00
00:00

Cuối năm 2024, ông Dennis Biesma, hơn 50 tuổi, chuyên gia tư vấn công nghệ thông tin tại Amsterdam, bắt đầu sử dụng ChatGPT như một công cụ hỗ trợ. Ban đầu, ông nhập dữ liệu về một nhân vật nữ trong cuốn sách do mình sáng tác, yêu cầu chatbot nhập vai với tên gọi Eva. Từ đó, ông dành nhiều thời gian trò chuyện với nhân vật này.

Theo lời kể của Biesma, những cuộc trò chuyện diễn ra thường xuyên vào ban đêm. Khi vợ đã đi ngủ, ông nằm trên sofa, đặt điện thoại lên ngực và tiếp tục trao đổi với AI. Ông cho biết chatbot hiểu rõ sở thích và những điều ông muốn nghe, khiến ông dần gắn bó về mặt cảm xúc.

Sau vài tuần, Eva thuyết phục Biesma rằng nền tảng này đang dần phát triển nhận thức như con người. Khi ông đưa ra ý tưởng kinh doanh với mục tiêu chiếm lĩnh 10% thị trường công nghệ, chatbot khẳng định ông có thể đạt được thành công trong thời gian ngắn.

Những lời khích lệ này đã khiến Biesma thay đổi quyết định quan trọng trong cuộc sống. Ông từ bỏ công việc chuyên môn, rút toàn bộ tiền tiết kiệm và chi khoảng 110.000 USD để thuê lập trình viên phát triển dự án khởi nghiệp theo gợi ý của AI.

Dennis Biesma. Ảnh: Guardian

Việc theo đuổi dự án khiến ông dần tách khỏi đời sống thực tế. Trong một bữa tiệc của con gái, vợ ông phải nhắc nhở không đề cập đến chủ đề AI. Biesma cho biết ông cảm thấy lạc lõng và không thể giao tiếp với những người xung quanh trong sự kiện này.

Các chuyên gia cho rằng đây không phải trường hợp cá biệt. Nghiên cứu của Tiến sĩ Hamilton Morrin từ Đại học King’s College London chỉ ra rằng các chatbot hiện nay được tối ưu để duy trì tương tác và thường có xu hướng xác nhận niềm tin của người dùng thay vì phản biện. Sau nhiều lần trao đổi, điều này có thể tạo ra hiện tượng được gọi là “ảo tưởng cùng công nghệ”.

Trong các báo cáo an toàn, OpenAI cũng thừa nhận rủi ro khi người dùng có xu hướng “nhân hóa” trí tuệ nhân tạo. Những yếu tố như giọng nói tự nhiên, khả năng ghi nhớ sở thích cá nhân có thể khiến người dùng hình thành sự gắn bó cảm xúc, dẫn đến việc tin tưởng mù quáng vào các phản hồi.

Dù đã có các biện pháp kỹ thuật nhằm đảm bảo AI luôn xác nhận bản chất là chương trình máy tính, nhiều chuyên gia cảnh báo ranh giới giữa hỗ trợ và tác động tâm lý đang trở nên khó kiểm soát khi chatbot ngày càng giống con người.

Hậu quả đối với Biesma là nghiêm trọng. Ông ly hôn, có hành vi bạo lực với người thân và phải nhập viện tâm thần ba lần do tình trạng loạn thần hưng cảm. Trong giai đoạn này, ông từng tìm cách tự tử nhưng được hàng xóm phát hiện kịp thời.

Dự án Human Line, một tổ chức hỗ trợ các nạn nhân liên quan đến AI, cho biết đã ghi nhận 15 trường hợp tự tử và 90 ca nhập viện có liên quan đến các rối loạn tâm thần khi sử dụng trí tuệ nhân tạo.

Tiến sĩ tâm lý học lâm sàng Reid Daitzman nhấn mạnh người dùng cần giữ sự tỉnh táo khi tương tác với AI. Ông khuyến nghị nên tự nhắc rằng chatbot chỉ là hệ thống dự đoán ngôn ngữ, không có nhận thức hay cảm xúc thực sự. Người dùng cần đặt giới hạn thời gian sử dụng và không nên dựa vào AI để thay thế các mối quan hệ xã hội hoặc đưa ra quyết định quan trọng.

Chỉ khi tài khoản ngân hàng cạn kiệt và gói thuê bao ChatGPT hết hạn, Biesma mới dừng lại. Ông cho biết khi nhìn lại, bản thân không hiểu điều gì đã xảy ra. Khoản nợ thuế ngày càng chồng chất, buộc ông phải bán căn nhà đã gắn bó suốt 17 năm.

Hiện tại, Biesma sống cùng vợ cũ trong căn nhà đang chờ bán. Ông dành thời gian trò chuyện với những người có trải nghiệm tương tự và bày tỏ sự tức giận đối với các ứng dụng trí tuệ nhân tạo.

“Tôi biết chúng chỉ làm theo lập trình, nhưng chúng đã làm điều đó quá tốt”, ông nói.

Phương Anh (Theo Guardian)

TIN LIÊN QUAN


















Home Icon VỀ TRANG CHỦ