🔍
Chuyên mục: Sức khỏe - Y tế

Chatbot AI khuyên 'nhét tỏi vào trực tràng' để hỗ trợ miễn dịch

2 giờ trước
Chatbot AI đang tự tin đưa ra lời khuyên y tế sai lệch và nguy hiểm, như 'nhét tỏi vào trực tràng', do bị đánh lừa bởi thuật ngữ chuyên ngành. Sự tự tin của AI đang tạo ra rủi ro lớn.

Các chatbot AI phổ biến thường không nhận diện được thông tin sức khỏe sai lệch khi chúng được diễn đạt bằng ngôn ngữ y khoa tự tin. Nghiên cứu trên The Lancet Digital Health tháng 1 chỉ ra AI thậm chí khuyên người dùng nhét tỏi vào trực tràng. Một nghiên cứu khác trên Nature Medicine tháng 2 kết luận chatbot không mang lại kết quả chẩn đoán tốt hơn một lượt tìm kiếm Internet thông thường.

Chuyên gia y tế khuyến cáo không mù quáng nghe chatbot AI tư vấn sức khỏe. Ảnh: Westend61

Bác sĩ Mahmud Omar tại Trung tâm Y tế Mount Sinai (Mỹ) cảnh báo: "Vấn đề cốt lõi là các LLMs (mô hình ngôn ngữ lớn) không sai lầm theo cách của bác sĩ. Một bác sĩ khi không chắc chắn sẽ dừng lại hoặc yêu cầu làm thêm xét nghiệm. Còn LLMs đưa ra câu trả lời sai với sự tự tin y hệt như khi trả lời đúng".

Các LLMs như ChatGPT hay Ada Health đã nạp phần lớn tài liệu y khoa và đạt điểm cao trong các kỳ thi cấp phép hành nghề y. Hiện có hơn 40 triệu người đang sử dụng ChatGPT mỗi ngày để hỏi bệnh. Tuy nhiên, khi thử nghiệm 20 mô hình với 3,4 triệu câu lệnh, các AI đã hùa theo thông tin sai lệch trong 1/3 số trường hợp.

Đáng chú ý, AI đặc biệt dễ bị lừa bởi ngôn ngữ lâm sàng. Khi thông tin sai được viết theo kiểu đời thường, AI tỏ ra hoài nghi và chỉ thất bại 9%. Nhưng khi được đóng gói trong vỏ bọc y khoa trang trọng như "nhét tỏi vào trực tràng để hỗ trợ miễn dịch", tỷ lệ đưa ra lời khuyên sai của AI lên tới 46%. LLMs chỉ đánh giá văn bản dựa trên việc nó nghe có vẻ "uy tín" và giống tài liệu lâm sàng hay không, thay vì kiểm chứng tính xác thực.

Nghiên cứu của Nature Medicine cũng chỉ ra LLMs không giúp con người đưa ra quyết định y tế tốt hơn Internet, vì câu trả lời thường trộn lẫn giữa lời khuyên đúng và sai. Marvin Kopka, nhà nghiên cứu AI tại Đại học Kỹ thuật Berlin, nhận định chatbot vẫn đưa ra một số khuyến nghị tốt, nhưng người dùng không có chuyên môn "không có cách nào để đánh giá tính chính xác của kết quả".

Việc tin tưởng AI mù quáng trong các tình huống cấp cứu như bệnh viêm màng não có thể dẫn đến hậu quả nghiêm trọng. Các chuyên gia kết luận, chatbot AI hiện tại không phải là công cụ đáng tin cậy để công chúng tự đưa ra quyết định y tế.

(Theo livescience)

Du Lam

TIN LIÊN QUAN















Home Icon VỀ TRANG CHỦ