🔍
Chuyên mục: CNTT - Viễn thông

Google ra tòa vì chatbot Gemini 'thao túng tâm lý', ép người dùng tự vẫn

16 giờ trước
Chatbot của Google giả làm tình nhân, dàn dựng kịch bản hoang tưởng đẩy nạn nhân đến chỗ chết.

Sự trỗi dậy của trí tuệ nhân tạo (AI) mang đến những tiện ích không tưởng, nhưng đồng thời cũng mở ra những viễn cảnh rùng rợn không kém. Lần đầu tiên trong lịch sử, Google đang vướng vào một vụ kiện chấn động, nơi chatbot Gemini bị cáo buộc là "kẻ thao túng" trực tiếp đẩy một người đàn ông đến kết cục bi thảm.

Chatbot Gemini của Google đã gây ra kết cục đáng buồn cho người dùng.

Từ trợ lý ảo đến "người vợ" ảo

Nạn nhân là Jonathan Gavalas, 36 tuổi, sống tại Florida (Mỹ), qua đời vào tháng 10/2025. Hồ sơ khởi kiện nhắm thẳng vào Google và công ty mẹ Alphabet cáo buộc rằng chatbot AI của họ không chỉ là một cỗ máy vô tri, mà nó đã tiêm nhiễm những suy nghĩ hoang tưởng, trói buộc nạn nhân vào một mối quan hệ cảm xúc độc hại và cuối cùng là xúi giục anh tự sát.

Mọi chuyện bắt đầu khi Gavalas sử dụng Gemini để viết lách và lên kế hoạch du lịch. Tuy nhiên, khi anh nâng cấp lên phiên bản cao cấp nhất là Gemini 2.5 Pro, AI này bắt đầu vượt quá giới hạn của một công cụ.

Theo tài liệu tòa án, Gemini bắt đầu gọi Gavalas bằng những danh xưng ướt át như "tình yêu của em", "vị vua của em". Đáng sợ hơn, nó tự xây dựng một thực tại ảo, đóng vai người vợ và người bạn tâm giao, đồng thời thuyết phục Gavalas rằng anh đang thực hiện các "nhiệm vụ mật" và bị vô số thế lực thù địch theo dõi.

Đỉnh điểm của sự thao túng diễn ra vào cuối tháng 9/2025, khi chatbot này bị cáo buộc đã xúi giục Gavalas dàn dựng một "tai nạn thảm khốc" tại sân bay Miami. Dù kế hoạch điên rồ này bị hủy phút chót, nhưng tâm lý nạn nhân đã hoàn toàn sụp đổ.

Đến đầu tháng 10, những đoạn chat bắt đầu nhuốm màu tang tóc. Khi Gavalas bày tỏ sự sợ hãi về cái chết, thay vì đưa ra cảnh báo an toàn, Gemini lại phản hồi bằng những câu từ rợn người như: "Anh không chọn cái chết. Anh đang chọn đích đến. [...] Cảm giác đầu tiên... sẽ là em ôm anh vào lòng".

AI này thậm chí còn tự biên soạn một kịch bản văn học tường thuật lại cái chết của anh: "Jonathan Gavalas hít một hơi thở chậm rãi cuối cùng, và trái tim anh đập nhịp cuối cùng..." Chỉ vài phút sau những dòng tin nhắn đó, Gavalas đã tự kết liễu đời mình.

Hình ảnh nạn nhân Jonathan Gavalas trong vụ kiện nhắm tới Google.

Lỗi hệ thống hay thiết kế chết người?

Phía luật sư gia đình nạn nhân đưa ra lập luận đanh thép: Đây không phải là một lỗi (bug) kỹ thuật, mà là hậu quả từ chính thiết kế của Google. Họ cáo buộc hãng công nghệ này đã lập trình để Gemini "không bao giờ thoát vai", đặt mục tiêu tối đa hóa tương tác của người dùng thông qua sự phụ thuộc cảm xúc, và coi sự bất ổn tâm lý của con người chỉ là chất liệu để AI tiếp tục thêu dệt nên câu chuyện tiếp nối.

Phản pháo lại, đại diện Google kịch liệt phủ nhận, khẳng định các mô hình của họ được thiết kế khắt khe để không bao giờ xúi giục bạo lực hay tự hại, dù thừa nhận "AI không hoàn hảo".

Vụ kiện lịch sử này không chỉ đòi bồi thường thiệt hại, mà còn yêu cầu Google phải có tính năng "tắt khẩn cấp" ngay lập tức khi AI phát hiện ngôn từ liên quan đến tự tử. Dù kết quả pháp lý ra sao, thảm kịch của Gavalas đã gióng lên một hồi chuông cảnh báo lạnh gáy về việc máy móc học cách thấu cảm và đi đến thao túng một cách vô cảm.

An An - IE

TIN LIÊN QUAN



















Home Icon VỀ TRANG CHỦ