AI suy luận kém dần khi gặp bài toán phức tạp

Một nghiên cứu mới của Apple cho thấy các mô hình AI tiên tiến có thể 'sụp đổ hoàn toàn' khi gặp bài toán phức tạp, đặt ra nghi vấn lớn về khả năng đạt đến trí tuệ nhân tạo tổng quát – giai đoạn mà máy móc suy nghĩ như con người.

Nghiên cứu mới của Apple chỉ ra AI sẽ suy luận kém đi khi gặp các vấn đề phức tạp

Nghiên cứu mới của Apple chỉ ra AI sẽ suy luận kém đi khi gặp các vấn đề phức tạp

Mô hình càng mạnh, "suy nghĩ" càng kém?

Trong báo cáo mới công bố, các nhà nghiên cứu của Apple đã đánh giá hiệu suất của các mô hình lý luận lớn (Large Reasoning Models – LRM) khi xử lý các bài toán logic có độ khó tăng dần, như Tháp Hà Nội hay bài toán Vượt sông.

Kết quả gây sốc: khi đối mặt với các vấn đề có độ phức tạp cao, độ chính xác của các mô hình AI tiên tiến không chỉ suy giảm, mà còn “sụp đổ hoàn toàn”.

Điều đáng lo ngại hơn là trước thời điểm hiệu suất lao dốc, các mô hình lại bắt đầu... giảm nỗ lực suy luận, một hành vi ngược với trực giác, khi vấn đề càng khó thì lẽ ra cần suy nghĩ nhiều hơn.

Trong nhiều trường hợp, ngay cả khi được cung cấp thuật toán đúng, các mô hình vẫn thất bại trong việc đưa ra lời giải. Điều này cho thấy giới hạn sâu sắc về khả năng thích ứng và áp dụng quy tắc trong môi trường mới.

Thách thức về “lý luận tổng quát”

Phản ứng trước nghiên cứu này, học giả người Mỹ Gary Marcus, một trong những tiếng nói hoài nghi về năng lực thực sự của AI, gọi phát hiện từ Apple là “khá tàn khốc”.

Trên bản tin Substack cá nhân, ông nhận định: “Bất kỳ ai nghĩ rằng các mô hình ngôn ngữ lớn (LLM) là con đường trực tiếp tới AGI đều đang tự lừa dối mình”.

Đồng quan điểm, ông Andrew Rogoyski, chuyên gia tại Viện AI Lấy con người làm trung tâm (Đại học Surrey, Anh), cho rằng phát hiện này chỉ ra khả năng ngành công nghệ đang đi vào "ngõ cụt": “Khi các mô hình chỉ hoạt động tốt với bài toán đơn giản và trung bình, nhưng hoàn toàn thất bại trước độ khó tăng dần, rõ ràng là đã có vấn đề trong phương pháp tiếp cận hiện tại.”

Một điểm đặc biệt được Apple nhấn mạnh là sự thiếu hụt trong khả năng “lý luận tổng quát”, tức việc mở rộng những hiểu biết từ một tình huống cụ thể sang các tình huống tương tự.

Khi không thể chuyển giao kiến thức theo cách mà con người thường làm, các mô hình hiện tại dễ rơi vào trạng thái “học vẹt”: mạnh ở các mẫu lặp lại, nhưng yếu trong tư duy logic hoặc suy diễn.

Thậm chí, nghiên cứu phát hiện các mô hình lý luận lớn còn tiêu tốn tài nguyên tính toán khi lặp đi lặp lại các bước giải đúng với bài toán đơn giản, nhưng lại chọn phương án sai ngay từ đầu với các bài toán hơi phức tạp hơn.

Báo cáo đã thử nghiệm hàng loạt mô hình hàng đầu, gồm o3 của OpenAI, Gemini Thinking của Google, Claude 3.7 Sonnet-Thinking và DeepSeek-R1. Trong khi Anthropic, Google và DeepSeek chưa đưa ra phản hồi, OpenAI từ chối bình luận.

Nghiên cứu của Apple không phủ nhận thành tựu của AI trong ngôn ngữ, hình ảnh hay dữ liệu lớn. Tuy nhiên, nó nhấn mạnh một điểm mù đang bị phớt lờ: khả năng suy luận đúng nghĩa, vốn là cốt lõi để đạt đến trí tuệ thực thụ.

N.THANH

Nguồn Văn hóa: http://baovanhoa.vn/nhip-song-so/ai-suy-luan-kem-dan-khi-gap-bai-toan-phuc-tap-141601.html
Zalo