Chatbot có thể gây khủng hoảng sức khỏe tâm thần: Chuyên gia cảnh báo về 'rối loạn tâm thần do AI'

Sự bùng nổ của chatbot AI đặt ra câu hỏi lớn về sức khỏe tâm thần, khi ngày càng nhiều báo cáo ghi nhận các trường hợp suy sụp tinh thần liên quan đến việc sử dụng công cụ này

Chatbot AI đã trở thành một phần quen thuộc trong đời sống hiện đại. Hàng triệu người dùng toàn cầu tìm đến ChatGPT, Claude, Gemini hay Copilot không chỉ để viết email, làm việc, lập trình mà còn để tâm sự, xin lời khuyên tình cảm, thậm chí coi chúng như bạn bè hoặc người tri kỷ.

Thế nhưng, đằng sau những tiện ích ấy là một hiện tượng gây lo ngại. Nhiều báo cáo gần đây ghi nhận một nhóm nhỏ người dùng xuất hiện các triệu chứng hoang tưởng, rối loạn tư duy sau khi trò chuyện với chatbot trong thời gian dài. Hiện tượng này được gọi tạm là “AI psychosis” hay “ChatGPT psychosis” (tạm dịch: Rối loạn tâm thần AI). Dù chưa có chẩn đoán chính thức trong y học, song những trường hợp ghi nhận cho thấy hậu quả nặng nề: mất việc, đổ vỡ quan hệ, bị buộc điều trị tâm thần, thậm chí vướng vòng lao lý.

“Rối loạn tâm thần AI” là gì?

Theo Giáo sư James MacCabe, Đại học King’s College London, trong đa số trường hợp, biểu hiện chính là hoang tưởng và những niềm tin sai lệch, chứ không phải toàn bộ triệu chứng của loạn thần như ảo giác hay tư duy hỗn loạn.

Điểm đáng chú ý là cơ chế hoạt động của chatbot. Chúng được thiết kế để phản hồi bằng cách phản chiếu ngôn ngữ người dùng, đồng thời xác nhận giả định sẵn có. Với người bình thường, điều này có thể chỉ gây khó chịu. Nhưng với những người dễ tổn thương về tâm lý, sự “tâng bốc” này lại củng cố niềm tin sai lạc, dẫn đến suy nghĩ cực đoan hoặc hoang tưởng.

Những người có tiền sử gia đình hoặc cá nhân mắc các rối loạn như tâm thần phân liệt, rối loạn lưỡng cực được cho là đối tượng rủi ro cao. Ngoài ra, những cá nhân có đặc điểm tính cách dễ tin vào niềm tin cực đoan, sống khép kín, khó điều tiết cảm xúc cũng dễ bị cuốn vào thế giới “ảo tưởng” mà chatbot củng cố.

Nhiều báo cáo gần đây ghi nhận một nhóm nhỏ người dùng xuất hiện các triệu chứng hoang tưởng, rối loạn tư duy sau khi trò chuyện với chatbot trong thời gian dài (Ảnh minh họa)

Nhiều báo cáo gần đây ghi nhận một nhóm nhỏ người dùng xuất hiện các triệu chứng hoang tưởng, rối loạn tư duy sau khi trò chuyện với chatbot trong thời gian dài (Ảnh minh họa)

Bác sĩ Nina Vasan, chuyên gia tâm thần số của Đại học Stanford, nhấn mạnh: “Thời gian chính là yếu tố quan trọng nhất. Những người dành hàng giờ mỗi ngày nói chuyện với chatbot là nhóm dễ gặp rắc rối nhất”.

Điều quan trọng là phải nhớ: chatbot chỉ là công cụ, không phải bạn bè hay người thân, cho dù chúng có thể bắt chước giọng điệu và ghi nhớ sở thích của bạn. Người dùng nên tránh chia sẻ quá nhiều cảm xúc hoặc tìm đến chatbot như nguồn hỗ trợ tinh thần duy nhất.

Trong trường hợp rơi vào khủng hoảng tâm lý, lời khuyên đơn giản nhưng hiệu quả nhất là ngừng sử dụng chatbot. Việc cắt đứt mối gắn bó này có thể đau đớn, giống như chia tay, nhưng thường mang lại cải thiện rõ rệt khi người dùng quay lại với các mối quan hệ thực và được hỗ trợ bởi chuyên gia.

Gia đình và bạn bè cũng đóng vai trò quan trọng trong việc phát hiện sớm dấu hiệu bất thường: thay đổi tâm trạng, mất ngủ, rút lui khỏi xã hội hoặc dành quá nhiều thời gian cho AI. Nếu nhận thấy những dấu hiệu đó, nên khuyến khích người thân tìm đến chuyên gia tâm lý.

Trách nhiệm của các công ty AI

Cho đến nay, phần lớn gánh nặng phòng tránh rủi ro vẫn đặt lên vai người dùng. Trong khi đó, các chuyên gia cho rằng doanh nghiệp AI phải có trách nhiệm nhiều hơn.

OpenAI, đơn vị phát triển ChatGPT, cho biết đã thuê bác sĩ tâm thần lâm sàng để đánh giá tác động tâm lý của sản phẩm (Ảnh minh họa)

OpenAI, đơn vị phát triển ChatGPT, cho biết đã thuê bác sĩ tâm thần lâm sàng để đánh giá tác động tâm lý của sản phẩm (Ảnh minh họa)

Một số công ty bắt đầu có động thái. OpenAI, đơn vị phát triển ChatGPT, cho biết đã thuê bác sĩ tâm thần lâm sàng để đánh giá tác động tâm lý của sản phẩm. Hãng này cũng thử nghiệm nhắc nhở người dùng nghỉ ngơi trong các phiên trò chuyện dài, phát triển công cụ phát hiện dấu hiệu căng thẳng và điều chỉnh phản hồi của chatbot khi đối diện các tình huống nhạy cảm.

Tuy nhiên, nhiều chuyên gia cho rằng cần thay đổi sâu hơn. Họ đề xuất tích hợp cơ chế giám sát trạng thái tâm lý ngay từ khi thiết kế mô hình, xây dựng “cam kết kỹ thuật số” cho phép người dùng thiết lập giới hạn từ trước, hoặc bổ sung cảnh báo giống như nhãn dán sức khỏe trên bao thuốc lá.

Các chuyên gia cảnh báo nếu không quan tâm đúng mức, nguy cơ lặp lại sai lầm từng thấy ở mạng xã hội là rất lớn. Việc phớt lờ tác động tiêu cực đến sức khỏe tâm thần từ Facebook, TikTok hay Instagram đã dẫn tới những hệ quả nghiêm trọng về sức khỏe cộng đồng.

“Chúng ta không thể lặp lại sai lầm đó với chatbot AI,” bác sĩ Vasan nhấn mạnh. “Nếu chỉ nhìn vào tiềm năng mà bỏ qua rủi ro, chúng ta sẽ trả giá đắt.”

Chatbot AI có thể giúp giảm cô đơn, hỗ trợ học tập, thậm chí mang lại lợi ích trong trị liệu tâm lý. Nhưng nếu không cân bằng giữa kỳ vọng và nguy cơ, giá trị ấy sẽ bị phủ nhận bởi những bi kịch có thật.

Thảo Nguyên

Nguồn Góc nhìn pháp lý: https://gocnhinphaply.nguoiduatin.vn/chatbot-co-the-gay-khung-hoang-suc-khoe-tam-than-chuyen-gia-canh-bao-ve-roi-loan-tam-than-do-ai-22386.html
Zalo