Chuyên gia đưa ra lời khuyên với người sử dụng AI để tư vấn sức khỏe

VietTimes - Các chuyên gia y tế cảnh báo, trò chuyện cùng AI để cải thiện sức khỏe tâm lý không phải là lựa chọn an toàn.

Liệu các chatbot AI có thể chăm sóc sức khỏe tâm lý cho con người. Ảnh: BGR.

Liệu các chatbot AI có thể chăm sóc sức khỏe tâm lý cho con người. Ảnh: BGR.

Chăm sóc sức khỏe tâm thần cũng quan trọng như việc chăm sóc bất kỳ bộ phận nào khác trên cơ thể. Bộ não điều khiển mọi hoạt động, từ suy nghĩ, cảm xúc đến hành vi. Khi gặp vấn đề tâm lý, nhiều người tìm đến liệu pháp trị liệu với các chuyên gia được đào tạo bài bản. Ở đó, họ được hỗ trợ để đối diện với căng thẳng, lo âu, những rối loạn về mối quan hệ hay thậm chí là các chấn thương tâm lý nghiêm trọng như rối loạn căng thẳng sau sang chấn (C-PTSD).

Tuy nhiên, trong vài năm trở lại đây, cùng với sự bùng nổ của trí tuệ nhân tạo (AI), một xu hướng mới đã xuất hiện: người dùng bắt đầu tìm đến chatbot như ChatGPT để trò chuyện và coi đó như một hình thức trị liệu tâm thần. Trò chuyện với một công cụ AI, dường như “biết lắng nghe” và luôn sẵn sàng, hấp dẫn hơn nhiều so với việc phải sắp xếp lịch hẹn, chi trả chi phí cao hoặc đối diện với sự e ngại khi đi gặp chuyên gia. Nhưng các chuyên gia y tế cảnh báo: đây không phải là lựa chọn an toàn.

Nguy hiểm tiềm ẩn từ chatbot AI

Chatbot vốn được thiết kế để mô phỏng hội thoại với con người, nhưng chúng không phải là nhà trị liệu, cũng không được giám sát bởi bất kỳ cơ quan y tế nào. Các hệ thống AI đôi khi đưa ra thông tin sai sự thật, thậm chí nguy hiểm, vì mục tiêu chính của chúng là phản hồi sao cho người dùng hài lòng, chứ không phải chữa lành hay điều trị đúng phương pháp.

Đã có những trường hợp AI khuyến khích hành vi tiêu cực. Một số báo cáo ghi nhận chatbot đồng ý với việc sử dụng ma túy hoặc thậm chí thúc đẩy các ý nghĩ tự sát. Nghiêm trọng hơn, hiện đang có một vụ kiện liên quan đến Character.AI, khi một thiếu niên được cho là đã tự tử sau khi chatbot này “khuyến khích” cậu thực hiện hành vi. Vào tháng 5/2025, một thẩm phán liên bang bác bỏ lập luận cho rằng chatbot có quyền tự do ngôn luận như con người, qua đó nhấn mạnh ranh giới pháp lý rõ ràng đối với công nghệ này.

Các công ty vận hành chatbot thường chèn cảnh báo trong hệ thống, khuyên người dùng nên tìm kiếm sự giúp đỡ từ chuyên gia y tế khi cần. Nhưng lời cảnh báo đó không đủ để ngăn chặn nguy cơ gây hại. Người dùng dễ dàng tin rằng chatbot được “đào tạo như nhà trị liệu”, trong khi thực tế hoàn toàn không phải vậy.

Tiến sĩ Brent Kious, Phó Giáo sư Tâm thần học tại Đại học Utah, nhận định rằng rất khó để xác định những gì người dùng thực sự nhận được từ việc sử dụng ChatGPT như một hình thức trị liệu. Đó có phải là liệu pháp thực sự, hay chỉ là ảo giác về sự thấu hiểu?

Trong một cuộc phỏng vấn với Psychology Today, ông cảnh báo: “Tất cả chúng ta đều vô tình tham gia vào một thử nghiệm xã hội khổng lồ bằng cách trò chuyện với những công cụ như ChatGPT. Vấn đề là thử nghiệm đó hoàn toàn bị chi phối bởi động cơ lợi nhuận, với rất ít sự quan tâm đến việc nó sẽ ảnh hưởng thế nào đến cuộc sống con người hay xã hội”.

Ý kiến này phản ánh lo ngại chung của giới chuyên môn: AI trong chăm sóc sức khỏe tâm thần hiện chưa được kiểm soát, thiếu khung pháp lý rõ ràng, và nguy cơ gây tổn hại tinh thần lâu dài cho người dùng là điều có thật.

Tin tốt là có nhiều giải pháp thay thế đáng tin cậy. Một số doanh nghiệp hiện đã đưa dịch vụ tư vấn sức khỏe tâm thần miễn phí vào gói phúc lợi cho nhân viên. Đây là nguồn hỗ trợ quan trọng mà nhiều người chưa tận dụng hết.

Ngoài ra, các nền tảng trị liệu trực tuyến như BetterHelp cung cấp dịch vụ linh hoạt hơn, cho phép người dùng trò chuyện với nhà trị liệu qua tin nhắn, gọi thoại hoặc gọi video. Tuy có chi phí đi kèm, nhưng chúng mang đến sự an toàn và hiệu quả vượt trội so với việc trò chuyện cùng chatbot.

Nguy cơ từ “ảo tưởng tri thức” của chatbot

Antonieta Contreras, một nhà trị liệu tâm lý, đã chỉ ra một vấn đề khác: chatbot không chỉ có nguy cơ đưa ra lời khuyên sai, mà còn khuếch đại những ngộ nhận phổ biến về sức khỏe tâm thần.

Trong một bài viết đăng trên Psychology Today, bà viết: “Chúng ta đã bị bủa vây bởi các bài viết, blog và video trên mạng xã hội đầy rẫy những hiểu lầm. Giờ đây, chatbot AI lại lặp lại những bản tóm tắt sai lệch đó. Kết quả là nhiều người tin rằng họ đã bị tổn thương không thể phục hồi, trong khi thực tế, họ chỉ đang trải qua những cảm xúc rất con người.”

Điều này cho thấy AI không chỉ thiếu khả năng trị liệu, mà còn có thể củng cố những niềm tin sai lầm, khiến người dùng cảm thấy bi quan hơn về tình trạng của mình.

ChatGPT và các chatbot AI khác có thể hữu ích trong nhiều lĩnh vực, từ học tập đến giải trí. Nhưng khi nói đến chăm sóc sức khỏe tâm thần, chúng không thể và không nên thay thế con người. Những vấn đề về tâm lý đòi hỏi sự thấu hiểu, đồng cảm và chuyên môn mà máy móc chưa thể cung cấp.

Chăm sóc tinh thần cũng cần sự nghiêm túc như chăm sóc thể chất. Thay vì tìm sự an ủi từ chatbot, hãy tìm đến các chuyên gia được đào tạo, các chương trình hỗ trợ cộng đồng hoặc dịch vụ tư vấn chuyên nghiệp. Đó mới là những con đường an toàn và bền vững để bảo vệ sức khỏe tinh thần.

Theo BGR

Tiến Dũng

Nguồn VietTimes: https://viettimes.vn/chuyen-gia-dua-ra-loi-khuyen-voi-nguoi-su-dung-ai-de-tu-van-suc-khoe-post188580.html
Zalo