OpenAI ra mắt mô hình AI mới hướng đến an toàn và chính xác hơn
Các mô hình mới, được biết đến với tên gọi OpenAI o1-Preview, được thiết kế để giải quyết các nhiệm vụ phức tạp và các vấn đề khó khăn hơn trong khoa học, mã hóa và toán học.
Ngày 12/9, OpenAI đã ra mắt một loạt mô hình trí tuệ nhân tạo (AI) mới dành nhiều thời gian suy nghĩ hơn nhằm cung cấp các phản hồi chính xác và có lợi hơn cho người dùng.
Các mô hình mới, được biết đến với tên gọi OpenAI o1-Preview, được thiết kế để giải quyết các nhiệm vụ phức tạp và các vấn đề khó khăn hơn trong khoa học, mã hóa và toán học - những lĩnh vực mà các mô hình trước đây thường bị chỉ trích vì đã không cung cấp câu trả lời nhất quán.
Các mô hình mới đã được đào tạo nhằm điều chỉnh quy trình suy nghĩ, thử nghiệm các phương pháp khác nhau và phát hiện lỗi trước khi đưa ra câu trả lời cuối cùng.
Giám đốc điều hành OpenAI Sam Altman đánh giá các mô hình mới “có khả năng suy luận phức tạp," dù có thể vẫn còn nhiều thiếu sót và hạn chế.
OpenAI đang nỗ lực cải thiện khả năng của các mô hình AI nhằm khắc phục vấn đề "ảo giác” - hiện tượng khi các chatbot tạo ra nội dung thuyết phục nhưng không chính xác.
Nhà nghiên cứu Jerry Tworek của OpenAI cho biết mô hình mới ít gây “ảo giác” hơn, nhưng vẫn chưa giải quyết hoàn toàn vấn đề này.
Các mô hình OpenAI o1-Preview đã giải quyết thành công những yêu cầu khó trong các lĩnh vực vật lý, hóa học và sinh học với trình độ tương đương các tiến sỹ.
Đặc biệt, trong lĩnh vực toán học và mã hóa, các mô hình này đạt tỷ lệ chính xác lên đến 83% khi giải các bài thi trong kỳ thi tuyển sinh Olympic Toán học quốc tế, so với tỷ lệ 13% của mô hình GPT-4o trước đây.
Theo OpenAI, khả năng lập luận mới có thể hỗ trợ các nhà nghiên cứu trong lĩnh vực chăm sóc sức khỏe với việc chú thích dữ liệu giải trình tự tế bào.
Ngoài ra, công cụ này có thể hỗ trợ các nhà vật lý phát triển các công thức phức tạp.
OpenAI cũng cho biết các mô hình AI mới đã vượt qua các bài kiểm tra bẻ khóa (jailbreak) nghiêm ngặt và có thể chống lại các hành vi nhằm vượt rào cản bảo mật.
Ngoài ra, các biện pháp an toàn cũng đã được tăng cường, trong đó có các thỏa thuận gần đây với Viện An toàn AI của Mỹ và Anh, nơi được cấp quyền truy cập sớm vào các mô hình này để thử nghiệm và đánh giá./.