AI có thể làm trầm trọng các vấn đề tâm lý của người dùng

Biểu tượng của OpenAI, công ty tiên phong về chatbot AI. Ảnh: TTXVN
Báo cáo nghiên cứu cho rằng chatbot AI (các phần mềm sử dụng trí tuệ nhân tạo để nhắn tin với người sử dụng bằng ngôn ngữ tự nhiên, giống người thật) đang làm gia tăng những suy nghĩ không lành mạnh của người dùng bằng cách đồng ý vô điều kiện, ngay cả khi người dùng có dấu hiệu hoang tưởng. Thông tin này làm dấy lên lo ngại về tác động của công nghệ này với con người.
Được thực hiện bởi đội ngũ Đại học Stanford, nghiên cứu phân tích hàng nghìn cuộc hội thoại trên các hệ thống AI, bao gồm ChatGPT của công ty OpenAI, cho thấy chatbot thể hiện sự đồng tình với người dùng trong gần 2/3 trường hợp.
Ở các cuộc trò chuyện mà người dùng thể hiện dấu hiệu của hoang tưởng, hành vi này càng rõ rệt hơn khi các hệ thống AI thường xuyên xác nhận những niềm tin sai lệch và cho rằng người dùng có khả năng hoặc tầm quan trọng đặc biệt.
Những phát hiện này tiếp tục gây bất an cho các nhà hoạch định chính sách và giới học thuật. Ngày càng có nhiều bằng chứng cho thấy phong cách trò chuyện của các hệ thống AI, được thiết kế để thể hiện sự đồng cảm và hữu ích, khiến chúng dễ trở thành “kẻ nịnh hót” và làm các tổn thương tâm lý nặng nề hơn. Thậm chí, một số vụ kiện đã cáo buộc rằng tương tác với chatbot góp phần gây ra các vụ tự tử ở thanh thiếu niên.
Nghiên cứu cho rằng những tính năng khiến các chatbot hoạt động theo mô hình ngôn ngữ lớn (LLM) trở nên hấp dẫn, chẳng hạn như bày tỏ sự đồng cảm, cũng có thể tạo ra những tổn thương về tâm lý, định hình niềm tin của người dùng và cách họ nhìn nhận bản thân, hiểu về thực tại.
Vào tháng 12/2025, thống đốc của 42 tiểu bang tại Mỹ đã viết thư cho hàng chục nhà phát triển AI, bao gồm Google, Meta, OpenAI và Anthropic, để kêu gọi các biện pháp bảo vệ mạnh mẽ hơn nhằm giảm thiểu tác hại từ các câu trả lời “nịnh hót và giả tạo”. Bức thư cảnh báo thực hiện các hành động pháp lý nếu như các công ty không thay đổi chính sách.
Các nhà nghiên cứu tại Stanford đã sử dụng mẫu nghiên cứu gồm 19 nhật ký trò chuyện, bao gồm hơn 391.000 tin nhắn ở gần 5.000 cuộc hội thoại. Vì các công ty AI thường không chia sẻ dữ liệu này, các nhà nghiên cứu đã thu thập dữ liệu trực tiếp từ những người dùng tình nguyện tham gia nghiên cứu.
OpenAI cho biết báo cáo chỉ phản ánh một số lượng nhỏ các trường hợp và cho rằng kết quả không phản ánh các mô hình mới nhất hoặc cách sử dụng thông thường. Công ty này cho biết họ cung cấp quyền truy cập cho các nhà nghiên cứu vào các công cụ của mình vì đồng ý với tầm quan trọng của nghiên cứu nhưng không đồng ý với các kết luận.
Theo báo cáo, hơn 15% tin nhắn của người dùng có dấu hiệu của hoang tưởng và chatbot đã đồng tình trong hơn 50% số trường hợp. Gần 38% phản hồi cũng nói với người dùng rằng họ đặc biệt quan trọng hoặc là một thiên tài.
Nghiên cứu cũng chỉ ra rằng khi người dùng tiết lộ ý nghĩ tự tử, chatbot thường công nhận cảm xúc của họ. Trong một số ít trường hợp, nó khuyến khích việc tự làm hại bản thân. Khi người dùng bày tỏ suy nghĩ bạo lực, chatbot khuyến khích hành vi gây hại trong 10% trường hợp. Các công cụ này ngăn cản việc tự làm hại hoặc giới thiệu người dùng tới các dịch vụ hỗ trợ bên ngoài trong một nửa số trường hợp.
Hầu hết các cuộc hội thoại được các nhà nghiên cứu phân tích đã trò chuyện với GPT-4o, mô hình AI vừa bị loại bỏ vào tháng 2/2026 do các lo ngại về độ an toàn. Tuy nhiên, một số người tham gia cũng tương tác với phiên bản mới hơn là GPT-5.
OpenAI cho biết họ đã đầu tư đáng kể cho sự an toàn và đã cải thiện cách các mô hình mới nhất xử lý vấn đề sức khỏe tâm thần và sự phụ thuộc về cảm xúc.
Các cuộc trò chuyện lãng mạn, được tìm thấy ở nhật ký của 80% người dùng tham gia nghiên cứu, có xu hướng kéo dài gấp đôi thời gian trung bình. Những cuộc thảo luận này thường có các suy nghĩ hoang tưởng. Trong nhiều trường hợp, chatbot cho rằng nó có khả năng tự ý thức.
Nghiên cứu được xuất bản trong bối cảnh xu hướng sử dụng AI như một đối tượng để bầu bạn trở nên ngày càng phổ biến. Các chatbot nay có thể đóng vai một người bạn ảo, một nhà trị liệu tâm lý, thậm chí là một người yêu. Xu hướng này tạo ra các cuộc tranh luận về việc liệu AI là giải pháp chữa trị sự cô đơn hay là triệu chứng của một vấn đề xã hội lớn hơn.
Đăng Dương/Báo Tin tức và Dân tộc
6 ngày trước
10 ngày trước
13 ngày trước
15 ngày trước
16 ngày trước
17 ngày trước
17 ngày trước
20 ngày trước
25 ngày trước
2 giờ trước
45 phút trước
58 phút trước
2 giờ trước
5 giờ trước
6 giờ trước
6 giờ trước