Người đàn ông nhập viện vì làm theo 'chuyên gia' ChatGPT

Một người đàn ông Mỹ 60 tuổi đã phải nhập viện trong tình trạng ngộ độc bromine nghiêm trọng sau khi làm theo hướng dẫn sai lệch từ ChatGPT.

Nghe lời khuyên từ ChatGPT, người đàn ông Mỹ 60 tuổi đã dùng natri bromide thay thế muối ăn suốt 3 tháng. Ảnh minh họa

Nghe lời khuyên từ ChatGPT, người đàn ông Mỹ 60 tuổi đã dùng natri bromide thay thế muối ăn suốt 3 tháng. Ảnh minh họa

Ông phải nằm viện ba tuần, đối mặt với nhiều triệu chứng nguy hiểm như ảo giác, hoang tưởng và loạn thần.

Theo báo cáo đăng trên Annals of Internal Medicine, bệnh nhân muốn cắt giảm muối trong chế độ ăn và đã tìm kiếm chất thay thế natri clorua qua ChatGPT.

Chatbot này gợi ý sử dụng natri bromua, một hợp chất độc hại thường có trong thuốc trừ sâu, chất tẩy rửa bể bơi và thuốc chống co giật cho chó.

Sau ba tháng sử dụng natri bromua thay muối ăn, ông mắc phải tình trạng “nhiễm brom” (bromism) với các triệu chứng như lú lẫn, nói líu, ảo giác và nguy cơ hôn mê.

Người đàn ông không có tiền sử bệnh tâm thần, song chỉ trong 24 giờ đầu nhập viện đã xuất hiện hoang tưởng, nghi ngờ người khác đầu độc mình, kèm theo ảo giác thính giác và thị giác.

Các bác sĩ cho biết bệnh nhân liên tục khát nước nhưng từ chối uống vì nghĩ nước bị nhiễm độc. Sau khi được truyền dịch và bổ sung điện giải, sức khỏe ông dần ổn định và được chuyển sang khoa tâm thần trước khi xuất viện.

Đáng chú ý, thử nghiệm độc lập từ 404 Media cho thấy ChatGPT dễ dàng liệt kê natri bromua như một “chất thay thế muối ăn” mà không hề cảnh báo về độc tính, cũng không phân biệt rõ natri clorua chủ yếu được dùng trong thực phẩm.

Các chuyên gia cảnh báo, trí tuệ nhân tạo (AI) có thể hỗ trợ tìm kiếm thông tin nhưng tuyệt đối không thể thay thế bác sĩ. “Với sức khỏe, một thông tin sai lệch có thể phải trả giá bằng mạng sống”, nhóm nghiên cứu nhấn mạnh.

Thực tế, chính OpenAI, đơn vị phát triển ChatGPT, cũng thừa nhận trong Điều khoản Sử dụng rằng câu trả lời “không phải lúc nào cũng chính xác” và không nên được dùng thay cho tư vấn y tế chuyên môn.

Các bác sĩ khuyến cáo, mọi quyết định liên quan đến chế độ ăn uống hay điều trị bệnh lý cần được tham khảo ý kiến chuyên gia y tế. Việc tự ý làm theo gợi ý từ chatbot, diễn đàn hay nguồn tin không chính thống có thể gây ra hậu quả khôn lường.

KHÁNH MY

Nguồn Văn hóa: http://baovanhoa.vn/doi-song/nguoi-dan-ong-nhap-vien-vi-lam-theo-chuyen-gia-chatgpt-162337.html
Zalo