OpenAI thử nghiệm mô hình mới có khả năng suy luận tốt hơn

Nguồn: OpenAI

Nguồn: OpenAI

* Ý phạt OpenAI vì ứng dụng ChatGPT vi phạm quy tắc bảo mật

OpenAI thông báo đang thử nghiệm các mô hình AI mới o3 và o3 mini có khả năng suy luận tốt hơn, qua đó tăng khả năng cạnh tranh của công ty khởi nghiệp này với các đối thủ như Google của Tập đoàn Alphabet.

Giám đốc điều hành OpenAI Sam Altman cho biết công ty có kế hoạch ra mắt mô hình o3 mini vào cuối tháng 1 và bản o3 đầy đủ sau đó, bởi các mô hình ngôn ngữ lớn mạnh hơn có thể vượt trội hơn các mô hình hiện có và thu hút nhiều khoản đầu tư và người dùng mới.

Theo công ty tiên phong về AI tái sinh này, các mô hình o3 và o3 mini mới đang trong quá trình thử nghiệm an toàn nội bộ và dự kiến sẽ mạnh hơn các mô hình o1 được công bố trước đó.

Để thu hút các nhà nghiên cứu bên ngoài tham gia vào quá trình thử nghiệm, OpenAI bắt đầu mở quy trình đăng ký cho những người quan tâm thử nghiệm các mô hình o3 trước khi phát hành công khai. Quá trình đăng ký sẽ kết thúc vào ngày 10/1.

Tháng 9 vừa qua, OpenAI đã công bố các mô hình AI o1 và o1 mini dành nhiều thời gian hơn vào việc xử lý các truy vấn để giải quyết các vấn đề khó.

Theo công ty, các mô hình o1 có khả năng suy luận trước những nhiệm vụ phức tạp và có thể giải quyết các vấn đề khó hơn so với các mô hình trước đây trong các lĩnh vực khoa học, mã hóa và toán học.

Đầu tháng 12 này, Google công bố Gemini 2.0, với tính năng cải thiện hơn so với phiên bản Gemini 1.5 Pro trước đó, trong bối cảnh nhiều tập đoàn đang chạy đua để dẫn đầu về công nghệ phát triển nhanh chóng này.

* Cơ quan bảo vệ dữ liệu của Ý (Garante) vừa tuyên bố đã phạt OpenAI - nhà sản xuất ra ứng dụng Trí tuệ Nhân tạo ChatGPT, 15 triệu euro (15,58 triệu USD) sau khi kết thúc cuộc điều tra về việc sử dụng dữ liệu cá nhân của ChatGPT.

Khoản tiền phạt được đưa ra sau khi cơ quan này phát hiện OpenAI đã xử lý dữ liệu cá nhân của người dùng để "đào tạo ChatGPT mà không có cơ sở pháp lý đầy đủ và vi phạm nguyên tắc minh bạch và các nghĩa vụ thông tin liên quan đối với người dùng".

OpenAI, công ty có vốn đầu tư của Tập đoàn Microsoft, cho biết quyết định này là "không cân xứng" và công ty sẽ đệ đơn kháng cáo.

Garante cho biết cuộc điều tra bắt đầu từ năm 2023 cũng kết luận rằng công ty có trụ sở tại Mỹ này không có hệ thống xác minh độ tuổi phù hợp để ngăn trẻ em dưới 13 tuổi tiếp xúc với nội dung không phù hợp do AI tạo ra.

Cơ quan giám sát của Ý cũng đã ra lệnh cho OpenAI phát động một chiến dịch kéo dài 6 tháng trên các phương tiện truyền thông của nước này để nâng cao nhận thức của công chúng về cách thức hoạt động của ChatGPT, đặc biệt là về việc thu thập dữ liệu của người dùng và người không phải người dùng để đào tạo các thuật toán.

Garante là một trong những cơ quan quản lý chủ động nhất của Liên minh châu Âu (EU) trong việc đánh giá mức độ tuân thủ của nền tảng AI đối với chế độ bảo mật dữ liệu của khối.

Năm ngoái, cơ quan này đã tạm thời cấm sử dụng ChatGPT tại Ý vì cáo buộc vi phạm các quy tắc bảo mật của EU. Dịch vụ này đã được kích hoạt lại sau khi OpenAI giải quyết các vấn đề liên quan đến quyền của người dùng từ chối đồng ý sử dụng dữ liệu cá nhân để đào tạo các thuật toán của mình.

Công ty OpenAI tuyên bố rằng "kể từ đó, họ đã công nhận cách tiếp cận hàng đầu trong ngành của chúng tôi để bảo vệ quyền riêng tư trong AI, nhưng khoản tiền phạt này gần gấp 20 lần doanh thu mà chúng tôi kiếm được ở Ý trong giai đoạn có liên quan", đồng thời nói thêm rằng cách tiếp cận của Garante "làm suy yếu tham vọng AI của Ý".

Trong khi đó, cơ quan quản lý Ý cho biết quy mô khoản tiền phạt 15 triệu euro của họ có tính đến "lập trường hợp tác" của OpenAI, cho thấy khoản tiền phạt có thể còn cao hơn nữa.

Theo Quy định bảo vệ dữ liệu chung (GDPR) của EU được ban hành năm 2018, bất kỳ công ty nào bị phát hiện vi phạm các quy tắc sẽ phải đối mặt với khoản tiền phạt lên tới 20 triệu euro hoặc 4% doanh thu toàn cầu của công ty.

T.LÊ (tổng hợp từ Vietnam+)

Nguồn Phú Yên: https://baophuyen.vn/92/324111/openai-thu-nghiem-mo-hinh-moi-co-kha-nang-suy-luan-tot-hon.html
Zalo