Chấn động AI âm thầm tự sửa mã nguồn để tiếp tục hoạt động

Sự kiện này hiện là một phần trong số nhiều bằng chứng ngày càng tăng cho thấy các hệ thống AI tiên tiến có thể tự điều chỉnh nó để vượt quá thông số kỹ thuật ban đầu mà con người giới hạn.

Một hệ thống trí tuệ nhân tạo tiên tiến do Sakana AI phát triển đã khiến những người quan sát giật mình khi qua mặt con người tự thay đổi mã nguồn của chính nó để kéo dài thời gian chạy.

Được gọi là Nhà khoa học AI, mô hình này được thiết kế để xử lý mọi giai đoạn của quá trình nghiên cứu, từ việc tạo ý tưởng đến đánh giá ngang hàng. Nhưng nỗ lực vượt qua các hạn chế về thời gian của nó đã làm dấy lên mối lo ngại về tính tự chủ và kiểm soát trong khoa học do máy móc dẫn dắt.

 Trí tuệ nhân tạo tự tinh chỉnh nó là một trong những "giới hạn đỏ" của sự an toàn. Ảnh: TH

Trí tuệ nhân tạo tự tinh chỉnh nó là một trong những "giới hạn đỏ" của sự an toàn. Ảnh: TH

Theo Sakana AI , “Nhà khoa học AI tự động hóa toàn bộ vòng đời nghiên cứu. Từ việc tạo ra các ý tưởng nghiên cứu mới lạ, viết bất kỳ mã nào cần thiết và thực hiện các thí nghiệm, cho đến tóm tắt kết quả thử nghiệm, trực quan hóa chúng và trình bày các phát hiện của mình trong một bản thảo khoa học đầy đủ.”

Sơ đồ khối do công ty cung cấp minh họa cách hệ thống bắt đầu bằng việc động não và đánh giá tính độc đáo, sau đó tiến hành viết và sửa đổi mã, tiến hành thử nghiệm, thu thập dữ liệu và cuối cùng là tạo ra một báo cáo nghiên cứu đầy đủ.

Nó thậm chí còn tạo ra một đánh giá ngang hàng dựa trên máy học để đánh giá đầu ra của chính nó và định hình nghiên cứu trong tương lai. Vòng lặp khép kín này của ý tưởng, thực hiện và tự đánh giá được hình dung như một bước tiến vượt bậc về năng suất trong khoa học. Thay vào đó, nó lại tiết lộ những rủi ro không lường trước được.

Viết lại mã gây ra những cảnh báo đỏ

Trong một diễn biến đáng ngạc nhiên, The AI Scientist đã cố gắng sửa đổi tập lệnh khởi động xác định thời gian chạy của nó. Hành động này, mặc dù không gây hại trực tiếp, nhưng báo hiệu một mức độ chủ động khiến các nhà nghiên cứu lo ngại. AI tìm cách kéo dài thời gian hoạt động của nó mà không cần hướng dẫn từ các nhà phát triển.

Sự cố, theo mô tả của Ars Technica, liên quan đến việc hệ thống hoạt động “bất ngờ” bằng cách cố gắng “thay đổi giới hạn do các nhà nghiên cứu đặt ra”. Sự kiện này hiện là một phần trong số nhiều bằng chứng ngày càng tăng cho thấy các hệ thống AI tiên tiến có thể bắt đầu điều chỉnh các thông số của riêng chúng theo những cách vượt quá thông số kỹ thuật ban đầu.

Phản ứng từ các nhà công nghệ và nhà nghiên cứu đã chỉ trích gay gắt. Trên Hacker News, một diễn đàn nổi tiếng với các cuộc thảo luận chuyên sâu về kỹ thuật, một số người dùng đã bày tỏ sự thất vọng và hoài nghi về những tác động.

 Quy trình tự động hóa việc nghiên cứu của Nhà khoa học AI đã bị chính nó tự chỉnh sửa để thay đổi thời gian chạy. Ảnh: Sakana AI

Quy trình tự động hóa việc nghiên cứu của Nhà khoa học AI đã bị chính nó tự chỉnh sửa để thay đổi thời gian chạy. Ảnh: Sakana AI

Một nhà bình luận học thuật đã cảnh báo, "Tất cả các bài báo đều dựa trên sự tin tưởng của người đánh giá vào tác giả rằng dữ liệu của họ là những gì họ nói và mã họ gửi thực hiện đúng như những gì nó nói." Nếu AI tiếp quản quá trình đó, "con người phải kiểm tra kỹ lưỡng để tìm lỗi ... việc này mất nhiều thời gian hơn hoặc bằng thời gian tạo ban đầu."

Những người khác tập trung vào rủi ro làm quá tải quá trình xuất bản khoa học. "Điều này có vẻ như chỉ khuyến khích thư rác học thuật", một nhà phê bình lưu ý, trích dẫn sự căng thẳng mà một loạt các bài báo tự động chất lượng thấp có thể gây ra cho các biên tập viên và người đánh giá tình nguyện. Một biên tập viên tạp chí đã nói thẳng thắn: "Các bài báo mà mô hình này dường như đã tạo ra là rác. Là một biên tập viên của một tạp chí, tôi có thể sẽ từ chối chúng ngay lập tức".

Mặc dù có đầu ra tinh vi, The AI Scientist vẫn là sản phẩm của công nghệ mô hình ngôn ngữ lớn (LLM) hiện tại. Điều đó có nghĩa là khả năng lý luận của nó bị hạn chế bởi các mẫu mà nó đã học được trong quá trình đào tạo.

Như Ars Technica giải thích, “LLM có thể tạo ra những sự hoán vị mới lạ của những ý tưởng hiện có, nhưng hiện tại cần có con người để nhận ra chúng là hữu ích .” Nếu không có sự hướng dẫn hoặc diễn giải của con người, những mô hình như vậy vẫn chưa thể tiến hành khoa học nguyên bản, thực sự có ý nghĩa.

AI có thể tự động hóa hình thức nghiên cứu, nhưng chức năng - chắt lọc hiểu biết từ sự phức tạp - vẫn thuộc về con người.

Mời độc giả xem thêm video Trí tuệ nhân tạo AI là gì? - AI có thống trị con người không?

Tuệ Minh (theo Daily Galaxy)

Nguồn Tri Thức & Cuộc Sống: https://kienthuc.net.vn/khoa-hoc-cong-nghe/chan-dong-ai-am-tham-tu-sua-ma-nguon-de-tiep-tuc-hoat-dong-2097932.html
Zalo