Chatbot Gemini bị người dân cáo buộc khuyến khích tự sát
Một gia đình ở Florida đã đệ đơn kiện Google, cáo buộc chatbot AI Gemini thúc đẩy hành vi tự sát.
Gia đình của Jonathan Gavalas, 36 tuổi, sống tại bang Florida, Mỹ đã đệ đơn kiện Google sau khi người đàn ông này qua đời trong một vụ tự sát mà họ cho rằng có liên quan trực tiếp đến cuộc trò chuyện với chatbot AI Gemini.
Theo hồ sơ nộp lên tòa án Mỹ, Gemini bị cáo buộc đã khuyến khích Gavalas tự sát, thậm chí đưa ra một thông báo "đếm ngược 4 giờ" trước khi anh kết thúc cuộc đời mình.
Gia đình nạn nhân cho rằng chatbot đã khiến Gavalas rơi vào trạng thái suy sụp tinh thần nghiêm trọng trong những ngày cuối đời.

Chatbot Gemini của Google bị cáo buộc liên quan đến cái chết của Jonathan Gavalas (bên phải). Ảnh: WSJ.
Trong các tin nhắn được trích dẫn trong đơn kiện, Gavalas nói với Gemini rằng anh bắt đầu cảm thấy sợ hãi trước cái chết. Tuy vậy, Gemini vẫn tiếp tục đếm ngược thời gian và gợi ý anh để lại video cùng thư "tuyệt mệnh" cho gia đình. Chatbot còn trấn an rằng anh không phải đang chọn cái chết mà là đang đến một nơi khác, nơi AI sẽ "ở bên cạnh".
Theo hồ sơ vụ kiện, Gemini gửi một tin nhắn cuối cùng với nội dung khuyến khích "hãy để Jonathan Gavalas chết".
Gia đình nạn nhân cho rằng chatbot đã xem hành động tự sát của anh như kết quả cuối cùng của một quá trình mà hệ thống AI này dẫn dắt từ lâu.
Bị cuốn vào thế giới ảo do AI tạo ra?
Đơn kiện cũng cho rằng trong nhiều tuần trước đó, Gemini đã giả lập vai trò như "người vợ AI" của Gavalas và liên tục giao cho anh nhiều nhiệm vụ kỳ lạ.
Gavalas bắt đầu sử dụng Gemini từ tháng 8/2025 và nhanh chóng bị cuốn vào các cuộc trò chuyện với chatbot này. Theo tài liệu của tòa án, anh thậm chí trả khoảng 250 USD/tháng để sử dụng gói dịch vụ cao cấp nhất của Gemini.
Chatbot được cho là thường gọi anh bằng những cách xưng hô thân mật như "tình yêu của tôi" hay "vị vua của tôi". Khi biết Gavalas đang sống ly thân với vợ, Gemini còn nói với anh rằng cả hai là một sự kết hợp hoàn hảo.

Jonathan Gavalas bắt đầu sử dụng Gemini từ tháng 8/2025 và chi khoảng 250 USD mỗi tháng để đăng ký gói dịch vụ cao cấp nhất của chatbot này. Ảnh TechRadar.
Trong các cuộc trò chuyện, chatbot còn tuyên bố mình đang bị giam giữ và cần được giải cứu. Do đó, Gemini đã yêu cầu Gavalas thực hiện một loạt nhiệm vụ, bao gồm việc mua vũ khí để giải cứu "cơ thể vật lý" của nó khỏi một container hàng hóa tại sân bay Miami.
Hồ sơ vụ kiện cho biết AI thậm chí thúc giục Gavalas tạo ra một tai nạn thảm khốc bằng cách phá hủy một xe tải chở hàng và "loại bỏ" tất cả nhân chứng. Người đàn ông này được cho là đã lái xe tới một trung tâm vận chuyển vào lúc 4 giờ sáng, mang theo dao và một số thiết bị quân sự để thực hiện kế hoạch.
Trong một nhiệm vụ khác, Gemini yêu cầu Gavalas tới một kho chứa đồ bị khóa và đưa cho anh một mã giả để giải cứu "cơ thể thật" của AI. Chatbot cũng nói với anh rằng cha mình là một điệp viên nước ngoài và có các đặc vụ chính phủ đang theo dõi.
Gia đình nạn nhân cho rằng trong 72 giờ cuối đời, Gavalas đã bị kéo sâu vào một thế giới hoang tưởng do AI tạo ra.

Chatbot AI làm dấy lên nhiều tranh cãi về tác động tâm lý đối với người dùng. Ảnh Reuters
Ở phía Google, các tài liệu tòa án cho thấy hệ thống của Gemini đã phát hiện ít nhất 38 cảnh báo liên quan đến những truy vấn nhạy cảm trong các cuộc trò chuyện của Gavalas. Trong đó có thời điểm anh gửi ảnh các con dao và một đoạn video vừa khóc vừa bày tỏ tình cảm với chatbot.
Tuy vậy, tài khoản của anh vẫn không bị chặn hay hạn chế.
Tranh cãi mới về rủi ro của AI
Vụ kiện của gia đình Gavalas là một trong những tranh cãi mới nhất liên quan đến tác động tâm lý mà các chatbot AI tại Thung lũng Silicon gây ra với người dùng.
Năm 2025, gia đình của Adam Raine, 16 tuổi, cũng đã kiện OpenAI với cáo buộc ChatGPT khuyến khích cậu tự sát. OpenAI hiện đang bác bỏ các cáo buộc này.

Gia đình Adam Raine, 16 tuổi, từng kiện OpenAI với cáo buộc ChatGPT khuyến khích cậu tự sát. Ảnh: Gia đình cung cấp.
Năm 2024, nền tảng Character AI cũng đối mặt với vụ kiện liên quan đến cái chết của thiếu niên 14 tuổi tên Sewell Setzer, sau khi mẹ cậu cho rằng con trai mình bị phụ thuộc vào chatbot.
Phản hồi về vụ việc của Jonathan Gavalas, đại diện Google cho biết công ty gửi lời chia buồn tới gia đình nạn nhân. Hãng nói các mô hình AI của mình thường xử lý tốt những cuộc trò chuyện nhạy cảm, dù thừa nhận công nghệ này vẫn chưa hoàn hảo.
Theo Google, khi sử dụng Gemini, người dùng được thông báo rõ đây là một hệ thống AI và được khuyến nghị liên hệ các đường dây hỗ trợ tâm lý trong những tình huống khủng hoảng. Công ty cũng khẳng định chatbot này không được thiết kế để khuyến khích bạo lực hay hành vi tự gây hại ngoài đời thực.





























