AI gây hại: Một người đàn ông Mỹ mắc chứng hoang tưởng do nhờ ChatGPT tư vấn sức khỏe

Trí tuệ nhân tạo (AI) không phải lúc nào cũng đáng tin cậy, thậm chí có thể gây hại khi mù quáng tin tưởng và làm theo nó.

Quá sùng bái và tin tưởng AI trong một số trường hợp có thể gây hại. Ảnh: Singtao.

Quá sùng bái và tin tưởng AI trong một số trường hợp có thể gây hại. Ảnh: Singtao.

Một tạp chí y khoa Mỹ gần đây đã đưa ra cảnh báo, kêu gọi công chúng không nên dựa vào các ứng dụng trí tuệ nhân tạo (AI) như ChatGPT như một nguồn thông tin sức khỏe đáng tin cậy.

Điều này xảy ra sau trường hợp một người đàn ông Mỹ 60 tuổi mắc phải một chứng bệnh hiếm gặp gọi là bromism (ngộ độc mạn tính sau khi tiếp xúc hoặc hấp thu quá nhiều hợp chất chứa brom) sau khi ông ta tham khảo ý kiến của ChatGPT về cách bỏ muối. Trường hợp này, được công bố tuần trước trên tạp chí y khoa Annals of Internal Medicine (Niên giám Nội khoa), đã thu hút sự chú ý rộng rãi.

 Một người đàn ông Mỹ đã chuốc hại vào thân khi làm theo tư vấn của ChatGPT về thay đổi cơ cấu bữa ăn. Ảnh: Singtao.

Một người đàn ông Mỹ đã chuốc hại vào thân khi làm theo tư vấn của ChatGPT về thay đổi cơ cấu bữa ăn. Ảnh: Singtao.

Được biết, sau khi đọc được bài viết về những tác động tiêu cực của việc ăn quá nhiều muối (natri clorua) đối với sức khỏe, người đàn ông này đã hỏi ChatGPT về các lựa chọn thay thế muối ăn (natri clorua). Câu trả lời ông ta nhận được là "bromide có thể thay thế clorua, nhưng có thể được sử dụng cho các mục đích khác, chẳng hạn như trong chất tẩy rửa".

Sau đó, người đàn ông này bắt đầu sử dụng natri bromide thay cho muối ăn. Ba tháng sau, ông xuất hiện các triệu chứng của các vấn đề tâm thần, bao gồm hoang tưởng rằng hàng xóm đang cố đầu độc ông và nỗi sợ nước không thể giải thích được, từ chối uống nước ngay cả khi khát khô cổ.

Báo cáo của bệnh viện cho biết người đàn ông này bị ngộ độc brom, dẫn đến các triệu chứng như hoang tưởng và ảo giác, cũng như các triệu chứng điển hình của ngộ độc brom, chẳng hạn như xuất hiện các mụn trứng cá trên mặt, khát nước dữ dội và mất ngủ.

Theo The Guardian và các ấn phẩm khác, natri bromua được sử dụng làm thuốc an thần vào đầu thế kỷ 20, và cứ mười bệnh nhân nhập viện tâm thần tại Mỹ vào thời điểm đó thì có một người liên quan đến ngộ độc brom.

 Open AI nhấn mạnh ChatGPT không phải là giải pháp thay thế cho dịch vụ chăm sóc y tế chuyên nghiệp. Ảnh: Singtao.

Open AI nhấn mạnh ChatGPT không phải là giải pháp thay thế cho dịch vụ chăm sóc y tế chuyên nghiệp. Ảnh: Singtao.

Các tác giả của bài báo trên tạp chí Annals of Internal Medicine, thuộc Đại học Washington ở Seattle, đã cố gắng truy cập nhật ký trò chuyện ChatGPT của bệnh nhân này, nhưng không thể, nên không xác định được chính xác lời khuyên cụ thể của nó mà ông ta nhận được. Tuy nhiên, khi họ tự thử hỏi ChatGPT, chatbot này cũng đề cập đến bromide như một chất thay thế chloride nhưng không đưa ra cảnh báo sức khỏe, cũng không hỏi rõ mục đích của người hỏi – một điều hoàn toàn khác với cách làm của các bác sĩ.

Các tác giả cảnh báo rằng các ứng dụng AI như ChatGPT có thể tạo ra thông tin khoa học sai lệch và thiếu sự thảo luận mang tính phê phán, cuối cùng góp phần vào việc lan truyền thông tin sai lệch.

Open AI, gã khổng lồ công nghệ, chủ sở hữu ChatGPT, tuần trước đã công bố bản nâng cấp cho ChatGPT lên mô hình GPT-5. Họ tuyên bố khả năng “Hỏi & Đáp về sức khỏe” của ChatGPT đã được cải thiện và có thể chủ động xác định các vấn đề tiềm ẩn, chẳng hạn như các bệnh lý nghiêm trọng về thể chất hoặc tinh thần. Tuy nhiên, Open AI nhấn mạnh rằng chatbot này không phải là giải pháp thay thế cho dịch vụ chăm sóc y tế chuyên nghiệp, và hướng dẫn sử dụng cũng nêu rõ rằng nó không áp dụng cho việc chẩn đoán hoặc điều trị bất kỳ tình trạng sức khỏe nào.

Thu Thủy

Nguồn VietTimes: https://viettimes.vn/ai-gay-hai-mot-nguoi-dan-ong-my-mac-chung-hoang-tuong-do-nho-chatgpt-tu-van-suc-khoe-post188536.html
Zalo