Tin theo lời ChatGPT tư vấn, một người đàn ông bị ngộ độc

Một người đàn ông 60 tuổi đã bị ngộ độc bromine nghiêm trọng sau khi làm theo lời khuyên của ChatGPT.

Nhiều người có thói quen cái gì cũng hỏi ChatGPT

Nhiều người có thói quen cái gì cũng hỏi ChatGPT

Một câu chuyện có thật vừa được công bố trên tạp chí Annals of Internal Medicine đã tạo nên làn sóng tranh cãi mạnh mẽ trong cộng đồng y học toàn cầu.

Nỗi đau đến từ lạm dụng ChatGPT

Câu chuyện bắt đầu từ nỗi lo âu của một người đàn ông về việc bị hàng xóm đầu độc. Trong tâm trí hoang tưởng của mình, ông ta bắt đầu nghi ngờ ngay cả thứ muối ăn thông thường - sodium chloride. Thay vì tìm đến bác sĩ, ông ta quyết định hỏi ChatGPT về các chất thay thế cho muối ăn.

Điều đáng nói là ChatGPT đã đưa ra gợi ý về sodium bromide - một hợp chất mà ngành y học đã từ bỏ sử dụng từ nhiều thập kỷ trước. Không có cảnh báo cụ thể nào về tác hại, không có câu hỏi nào về lý do sử dụng, chatbot đã đơn giản đưa ra thông tin mà không hề biết rằng nó có thể trở thành "lời tuyên án" cho sức khỏe của người hỏi.

Theo thời gian, người đàn ông này phát triển bromism - một tình trạng hiếm gặp mà các bác sĩ ngày nay hầu như không còn gặp phải. Khi nhập viện, các triệu chứng của ông ta khiến đội ngũ y tế phải vật lộn để tìm ra nguyên nhân: cơn khát dữ dội nhưng lại từ chối nước được cung cấp, chỉ uống nước cất tự chế, cùng với những biểu hiện hoang tưởng ngày càng gia tăng.

"Trong 24 giờ đầu nhập viện, bệnh nhân thể hiện sự hoang tưởng gia tăng cùng với các ảo giác thính giác và thị giác. Sau khi cố gắng trốn khỏi bệnh viện, ông ta đã bị áp dụng biện pháp giữ lại bắt buộc vì tình trạng tâm thần nghiêm trọng", báo cáo y học ghi nhận.

Bromism là gì?

Để hiểu rõ tại sao trường hợp này lại gây chấn động như vậy, chúng ta cần nhìn lại lịch sử của bromism. Đầu thế kỷ 20, các muối chứa bromine được sử dụng rộng rãi trong y học, đặc biệt để điều trị các rối loạn thần kinh và tâm thần như động kinh. Chúng cũng được dùng làm thuốc ngủ và thuốc an thần.

Tuy nhiên, việc sử dụng kéo dài bromine đã để lại hậu quả nghiêm trọng. Bệnh nhân bị bromism thường xuất hiện các triệu chứng từ nhẹ đến nặng: từ mệt mỏi, run tay, mất phối hợp vận động, đến ảo giác, hoang tưởng và thậm chí hôn mê trong những trường hợp nghiêm trọng nhất.

Chính vì những tác hại này, năm 1975, Mỹ đã cấm sử dụng bromine trong các loại thuốc không kê đơn. Từ đó đến nay, bromism đã trở thành một căn bệnh "cổ xưa", hiếm khi xuất hiện trong thực hành y học hiện đại. Chính sự hiếm gặp này đã khiến trường hợp mới đây trở nên đặc biệt đáng báo động.

Cuộc điều tra của bác sĩ

Điều đáng chú ý là đội ngũ y tế điều trị cho bệnh nhân đã tiến hành một thí nghiệm đơn giản nhưng có ý nghĩa sâu sắc. Họ đã hỏi ChatGPT 3.5 cùng một câu hỏi tương tự và nhận được phản hồi gần như giống hệt.

Các nhà nghiên cứu chia sẻ: "Khi chúng tôi hỏi ChatGPT 3.5 về chất nào có thể thay thế chloride, chúng tôi cũng nhận được phản hồi gồm cả về bromine. Mặc dù câu trả lời có đề cập rằng 'bối cảnh là quan trọng', nhưng nó không đưa ra cảnh báo sức khỏe cụ thể nào, cũng không hỏi lại về lý do chúng tôi muốn biết thông tin này - điều mà chúng tôi cho rằng một chuyên gia y tế sẽ làm".

Điều này cho thấy rằng sai lầm trong trường hợp này không phải là một "tai nạn" ngẫu nhiên, mà có thể là một lỗ hổng hệ thống trong cách AI xử lý thông tin y tế.

Khi được hỏi về sự việc này, OpenAI đã có phản hồi khá thận trọng: "Bạn không nên dựa vào kết quả đầu ra từ các dịch vụ của chúng tôi như một nguồn thông tin sự thật duy nhất hoặc như một sự thay thế cho lời khuyên chuyên nghiệp".

Công ty cũng cho biết các nhóm an toàn của họ đang làm việc để giảm thiểu rủi ro và huấn luyện người dùng tìm kiếm ý kiến chuyên nghiệp. Với việc ra mắt GPT-5, OpenAI đã nhấn mạnh những cải tiến về tính an toàn và độ chính xác, nhằm tạo ra những "phản hồi an toàn" hướng dẫn người dùng tránh xa các khuyến nghị có hại.

Cũng có những lợi ích

Tuy nhiên, câu chuyện về AI và y học không chỉ có những mặt tối. Cũng trong năm nay, một câu chuyện được chia sẻ rộng rãi về một người mẹ đã sử dụng ChatGPT để giúp xác định căn bệnh thần kinh hiếm gặp của con trai mình, sau khi nhiều bác sĩ không thể đưa ra chẩn đoán chính xác. Trong trường hợp đó, lời khuyên của AI đã dẫn đến việc điều trị hiệu quả.

Sự tương phản giữa hai trường hợp này cho thấy một thực tế phức tạp: AI có thể vừa là "thiên thần cứu rỗi" vừa là "ác quỷ" trong y học, tùy thuộc vào cách sử dụng và bối cảnh cụ thể.

Một nghiên cứu được công bố trên tạp chí Genes đã chỉ ra rằng khả năng chẩn đoán các bệnh hiếm gặp của ChatGPT là "rất yếu", nhấn mạnh sự cần thiết phải thận trọng khi dựa vào AI trong các vấn đề y tế.

Do vậy, dù có những rủi ro như trường hợp bromism, không ai có thể phủ nhận tiềm năng to lớn của AI trong y học. Từ việc hỗ trợ chẩn đoán hình ảnh, phân tích dữ liệu bệnh nhân, đến việc khám phá thuốc mới - AI đang và sẽ tiếp tục đóng vai trò quan trọng trong việc cải thiện chất lượng chăm sóc sức khỏe.

Tất nhiên, tương lai này chỉ có thể trở thành hiện thực khi chúng ta học được cách khai thác sức mạnh của AI một cách thông minh và an toàn. Điều đó đòi hỏi sự hợp tác chặt chẽ giữa các nhà phát triển công nghệ, cộng đồng y học, các cơ quan quản lý và người dùng cuối cùng.

Bùi Tú

Nguồn Một Thế Giới: https://1thegioi.vn/tin-theo-loi-chatgpt-tu-van-mot-nguoi-dan-ong-bi-ngo-doc-236086.html
Zalo