OpenAI o3 suy nghĩ gần bằng con người, rồi sao?

Mô hình trí tuệ nhân tạo mới của OpenAI có tên o3 đã đạt được kết quả ngang bằng con người trong một bài kiểm tra được thiết kế để đo 'trí thông minh tổng quát'.

Được giới thiệu vào tuần trước, mô hình trí tuệ nhân tạo mới của OpenAI có tên o3 đã tạo nên cột mốc mới trong ngành khi đạt 85% điểm chuẩn trong bài thi ARC-AGI.

Để so sánh, con số này cao hơn nhiều so với điểm tốt nhất trước đó của AI là 55%. Đặc biệt hơn, mô hình AI này đã đạt hiệu suất ngang bằng với điểm trung bình của con người.

Tạo ra trí tuệ nhân tạo tổng quát, hay AGI là mục tiêu được nêu ra của tất cả các phòng nghiên cứu AI lớn. Thoạt nhìn, OpenAI dường như đã thực hiện ít nhất một bước tiến đáng kể hướng tới mục tiêu này.

Bài kiểm tra IQ

Để hiểu kết quả của o3 có ý nghĩa như thế nào, chúng ta cần hiểu bài kiểm tra ARC-AGI là gì. Về mặt kỹ thuật, đây là bài kiểm tra "hiệu quả mẫu" của hệ thống AI trong việc thích ứng với điều gì đó mới. Cụ thể, hệ thống cần xem bao nhiêu ví dụ về tình huống mới lạ để tìm ra cách thức hoạt động.

Một hệ thống AI như ChatGPT, được xây dựng trên mô hình ngôn ngữ lớn (LLM) GPT-4 vốn không hiệu quả lắm về khả năng này.

Điều này xuất phát từ việc LLM được "đào tạo" trên hàng triệu ví dụ về văn bản của con người, từ đó xây dựng "quy tắc" xác suất về những tổ hợp từ nào có khả năng xảy ra nhất.

Điều này giúp chatbot làm khá tốt ở các tác vụ phổ biến. Tuy nhiên, nó lại cho kết quả tệ ở các tác vụ không phổ biến vì có ít dữ liệu về các tác vụ đó.

 Một ví dụ về bài kiểm tra ARC-AGI. Mỗi câu hỏi sẽ đưa ra 3 ví dụ để AI học hỏi. Sau đó, hệ thống AI cần tìm ra các quy tắc "tổng quát hóa" từ 3 ví dụ đã cho để giải được câu đố. Ảnh: ARC Prize.

Một ví dụ về bài kiểm tra ARC-AGI. Mỗi câu hỏi sẽ đưa ra 3 ví dụ để AI học hỏi. Sau đó, hệ thống AI cần tìm ra các quy tắc "tổng quát hóa" từ 3 ví dụ đã cho để giải được câu đố. Ảnh: ARC Prize.

Cho đến khi các hệ thống AI có thể học hỏi từ số lượng nhỏ ví dụ và thích ứng với hiệu quả mẫu cao hơn, chúng sẽ chỉ được sử dụng cho các công việc lặp đi lặp lại hay những công việc mà thỉnh thoảng việc xảy ra lỗi có thể chấp nhận được.

Khả năng giải quyết chính xác các vấn đề mới lạ hoặc chưa từng biết trước đó từ các mẫu dữ liệu hạn chế được gọi là khả năng khái quát hóa. Nó được coi rộng rãi là một yếu tố cần thiết, thậm chí là cơ bản, của trí thông minh.

Tiêu chuẩn của bài ARC-AGI là kiểm tra khả năng thích ứng hiệu quả của mẫu bằng cách sử dụng các bài toán ô lưới nhỏ. AI sẽ cần tìm ra mẫu biến ô lưới bên trái thành ô lưới bên phải.

Mỗi câu hỏi sẽ đưa ra 3 ví dụ để AI học hỏi. Sau đó, hệ thống AI cần tìm ra các quy tắc "tổng quát hóa" từ 3 ví dụ đã cho để giải được câu đố. Theo The Conversation, bài kiểm tra này tương tự với việc trắc nghiệm IQ của con người.

Dấu hỏi về bước tiến thật sự

Hiện vẫn không biết chính xác OpenAI đã làm điều đó như thế nào, nhưng kết quả cho thấy mô hình o3 có khả năng thích ứng cao. Chỉ từ một vài ví dụ, nó tìm ra các quy tắc có thể khái quát hóa.

Nhà nghiên cứu AI người Pháp Francois Chollet tin rằng o3 tìm kiếm thông qua các "chuỗi suy nghĩ" khác nhau để mô tả các bước giải quyết nhiệm vụ. Sau đó, nó sẽ chọn cách "tốt nhất" theo một số quy tắc được định nghĩa lỏng lẻo hoặc "phương pháp tìm kiếm".

 Mô hình O3 đã đạt điểm số lý luận và giải quyết vấn đề tương đương một người trung bình. Ảnh: 123RF.

Mô hình O3 đã đạt điểm số lý luận và giải quyết vấn đề tương đương một người trung bình. Ảnh: 123RF.

Điều này không khác so với cách mà AlphaGo - một chương trình máy tính do DeepMind của Google phát triển tìm kiếm qua nhiều trình tự nước đi có thể để đánh bại nhà vô địch cờ vây thế giới.

Tuy nhiên, câu hỏi đặt ra là liệu điều này có thực sự đưa con người gần hơn với AGI không? Nếu đó là cách o3 hoạt động, mô hình này về cơ bản có thể không tốt hơn nhiều so với các mô hình trước đó.

Các chuyên gia về AI tin rằng việc dạy các mô hình AI biết cách lý luận và lập kế hoạch là một bước tiến quan trọng hướng tới trí tuệ nhân tạo tổng quát (AGI). Thuật ngữ này nói về việc máy móc thể hiện khả năng nhận thức tương tự như con người.

Nếu các hệ thống AI có thể tự lý luận, nó sẽ cải thiện tính nhất quán trong các truy vấn cũng như nâng cao khả năng giải quyết nhiều vấn đề thực tiễn.

Để làm được điều này, kể từ mô hình o1, OpenAI đã sử dụng công nghệ máy học tăng cường, một phương pháp cho phép nó khám phá các chiến lược khác nhau khi trả lời truy vấn.

Mặc dù quá trình này mất nhiều thời gian và tốn kém hơn so với các mô hình GPT trước đây, AI mới lại có tính nhất quán và khả năng xử lý nhiều tác vụ phức tạp hơn.

 Việc dạy các mô hình AI biết cách lý luận và lập kế hoạch là một bước tiến quan trọng hướng tới trí tuệ nhân tạo tổng quát (AGI). Thuật ngữ này nói về việc máy móc thể hiện khả năng nhận thức tương tự như con người. Ảnh: The Conversation.

Việc dạy các mô hình AI biết cách lý luận và lập kế hoạch là một bước tiến quan trọng hướng tới trí tuệ nhân tạo tổng quát (AGI). Thuật ngữ này nói về việc máy móc thể hiện khả năng nhận thức tương tự như con người. Ảnh: The Conversation.

Để thực sự hiểu được tiềm năng của o3 sẽ cần rất nhiều công sức, bao gồm cả những đánh giá, hiểu biết về sự phân bổ năng lực, tần suất thất bại và thành công.

Điều này đồng nghĩa với việc phải đến khi o3 được phát hành chính thức, chúng ta mới thật sự có thể đánh giá liệu nó có khả năng thích nghi như một con người trung bình hay không.

Năm 2016, nhờ việc đánh bại Lee Sedol - kỳ thủ cờ vây giỏi nhất trong thế hệ của mình, AlphaGo đã giải quyết được một trong những thách thức lớn nhất của khoa học máy tính: Tự dạy mình chiến lược trừu tượng cần thiết để giành chiến thắng trong cờ vây, bàn cờ được coi phức tạp nhất của thế giới trò chơi.

Chỉ sau chưa đầy 10 năm, nếu o3 có thể làm điều tương tự, đây có thể sẽ là một bước tiến vĩ đại của AI với tác động kinh tế to lớn, mang tính cách mạng, mở ra kỷ nguyên mới của trí thông minh tự cải thiện được tăng tốc.

Anh Tuấn

Nguồn Znews: https://znews.vn/openai-o3-suy-nghi-gan-bang-con-nguoi-roi-sao-post1520499.html
Zalo