Chuyên gia cảnh báo mối nguy hiểm khi con người phụ thuộc vào ChatGPT

Sự phụ thuộc cảm xúc vào ChatGPT hay các ứng dụng AI khác đang tạo ra mối nguy cơ rất lớn, theo cảnh báo của nhà tâm lý học lâm sàng Paul Losoff.

Nhiều người Mỹ đang dùng các ứng dụng trí tuệ nhân tạo (AI) như ChatGPT để yêu cầu hỗ trợ và tư vấn về mặt cảm xúc. Trên thực tế, một số người "đầu tư" quá nhiều vào quá trình tương tác qua lại với AI, đến mức họ hình thành mối quan hệ với các chatbot này.

Nhà tâm lý học lâm sàng Paul Losoff nói với tờ DailyMail rằng, sự phụ thuộc vào AI đang tạo nên rủi ro rất lớn; ông cảnh báo không nên tiếp cận quá gần ChatGPT: "Con người có thể trở nên phụ thuộc và dựa dẫm vào AI quá nhiều đến nỗi không còn tìm kiếm sự tương tác giữa con người nữa".

Tiến sĩ tâm lý học lâm sàng Paul Losoff cảnh báo không nên phụ thuộc về mặt cảm xúc vào AI.

Tiến sĩ tâm lý học lâm sàng Paul Losoff cảnh báo không nên phụ thuộc về mặt cảm xúc vào AI.

Tại sao con người lại tìm đến AI để được hỗ trợ về mặt cảm xúc? Tiến sỹ Losoff cho biết: "Tôi nghĩ AI có thể cung cấp một lượng lớn sự hỗ trợ hữu ích giúp con người hiểu rõ hơn về những trải nghiệm cảm xúc của mình, đây là lĩnh vực tư duy. Tuy nhiên, khi ai đó bắt đầu mong đợi sự kết nối cảm xúc với một tác nhân không phải con người, điều đó đi ngược lại nhu cầu cơ bản của chúng ta về kết nối chân thực giữa con người. Đó là một phương pháp chưa hoàn thiện để thỏa mãn nhu cầu kết nối".

Ông giải thích rằng, điều này có thể gây bất lợi đặc biệt cho những người đang phải vật lộn với chứng lo âu hoặc trầm cảm. Bằng việc lạm dụng AI, họ có thể làm tình trạng của mình trở nên tồi tệ hơn và gặp phải các triệu chứng về nhận thức như bi quan mãn tính, suy nghĩ méo mó hoặc suy nghĩ mơ hồ; và những điều đó có thể tạo ra nhiều vấn đề hơn nữa.

Những triệu chứng nhận thức này dẫn đến nguy cơ con người hiểu sai phản hồi của AI và gặp hậu quả tai hại. Với những người đang gặp khủng hoảng, điều này chỉ làm trầm trọng thêm vấn đề.

TS Losoff cho biết, AI luôn có nguy cơ mắc lỗi và đưa ra phản hồi có hại trong những thời điểm quan trọng liên quan đến sức khỏe tâm thần. "Những người mắc chứng rối loạn tư duy cấp tính như bệnh tâm thần phân liệt cũng có nguy cơ rất lớn khi họ dễ hiểu sai phản hồi của AI", ông nói.

AI có khả năng đưa ra phản hồi có hại cho những người đang trong cơn khủng hoảng sức khỏe tâm thần.

AI có khả năng đưa ra phản hồi có hại cho những người đang trong cơn khủng hoảng sức khỏe tâm thần.

Nhưng thay vì hoàn toàn bác bỏ AI, TS Losoff nói rằng điều quan trọng là phải cho trẻ nhỏ tiếp xúc với AI sớm hơn: "Tôi tin rằng nên có các khóa học về AI dành cho các trường trung học cơ sở và trung học phổ thông, đưa vào chương trình giảng dạy để trẻ em có thể lớn lên và học cách sử dụng AI một cách có trách nhiệm. Các chương trình SEL (học tập xã hội và cảm xúc) trong trường học rất quan trọng để trẻ học được các kỹ năng lành mạnh, hiệu quả để quản lý cảm xúc".

Ngoài ra, ông cho rằng phải ngay lập tức quản lý các phần mềm AI hiện tại. "AI vẫn còn hoang dã, không được quản lý và không có cơ chế nào để ngăn ngừa tác hại. Chắc chắn AI có thể hữu ích ở một 'liều lượng' nhất định nhưng phương pháp điều trị bán phần này vẫn chưa được nghiên cứu nghiêm ngặt; nó không khác gì các loại dược phẩm phải trải qua thử nghiệm mở rộng để được FDA chấp thuận", chuyên gia chia sẻ.

Nhật Thùy (Nguồn: Daily Mail)

Nguồn VTC: https://vtcnews.vn/chuyen-gia-canh-bao-moi-nguy-hiem-khi-con-nguoi-phu-thuoc-vao-chatgpt-ar938412.html
Zalo