Language:

Search

Cựu lãnh đạo chính sách của OpenAI chỉ trích công ty vì 'viết lại' lịch sử an toàn AI của nó

  • Share this:
Cựu lãnh đạo chính sách của OpenAI chỉ trích công ty vì 'viết lại' lịch sử an toàn AI của nó

Một nhà nghiên cứu chính sách OpenAI nổi tiếng, Miles Brundage, đã lên mạng xã hội vào thứ Tư để chỉ trích OpenAI vì “viết lại lịch sử” về cách tiếp cận triển khai của nó đối với các hệ thống AI tiềm ẩn nhiều rủi ro.

Đầu tuần này, OpenAI đã xuất bản một tài liệu phác thảo triết lý hiện tại của họ về sự an toàn và liên kết của AI, quá trình thiết kế các hệ thống AI hoạt động theo những cách mong muốn và có thể giải thích được. Trong tài liệu, OpenAI cho biết họ coi sự phát triển của AGI, được định nghĩa rộng rãi là các hệ thống AI có thể thực hiện bất kỳ nhiệm vụ nào mà con người có thể thực hiện, như một “con đường liên tục”; điều đó đòi hỏi “triển khai và học hỏi liên tục” từ công nghệ AI.

“Trong một thế giới không liên tục, bài học về an toàn đến từ việc xử lý các hệ thống ngày nay hết sức thận trọng so với sức mạnh rõ ràng của chúng, đó là cách tiếp cận mà chúng tôi đã áp dụng cho mô hình AI của chúng tôi -  GPT‑2,” OpenAI đã viết. “Bây giờ chúng tôi coi AGI đầu tiên chỉ là một điểm trong một loạt các hệ thống có tính hữu dụng ngày càng tăngTrong thế giới liên tục, cách để làm cho hệ thống tiếp theo trở nên an toàn và có lợi là học hỏi từ hệ thống hiện tại.”

Nhưng Brundage tuyên bố rằng trên thực tế, GPT-2 đã đảm bảo sự thận trọng cao độ tại thời điểm phát hành và điều này “nhất quán 100%” với chiến lược triển khai lặp đi lặp lại của OpenAI ngày nay.

Việc phát hành GPT-2 của OpenAI mà tôi tham gia đã nhất quán 100% [với và] báo trước triết lý triển khai lặp lại hiện tại của OpenAI,”” Brundage đã viết trong một bài đăng trên X. “Mô hình này được phát hành dần dần, với các bài học được chia sẻ ở mỗi bước. Nhiều chuyên gia bảo mật vào thời điểm đó đã cảm ơn chúng tôi vì sự thận trọng này.”

Brundage, người đã gia nhập OpenAI với tư cách là nhà khoa học nghiên cứu vào năm 2018, là người đứng đầu bộ phận nghiên cứu chính sách của công ty trong vài năm. Về “sự sẵn sàng AGI” của OpenAI; nhóm, anh ấy đặc biệt tập trung vào việc triển khai có trách nhiệm các hệ thống tạo ngôn ngữ như nền tảng chatbot AI của OpenAI ChatGPT.

GPT-2, được OpenAI công bố vào năm 2019, là tiền thân của các hệ thống AI hỗ trợ ChatGPT. GPT-2 có thể trả lời các câu hỏi về một chủ đề, tóm tắt bài viết và tạo văn bản ở cấp độ mà đôi khi không thể phân biệt được với con người.

 

Mặc dù ngày nay GPT-2 và các đầu ra của nó có vẻ cơ bản nhưng chúng lại rất tiên tiến vào thời điểm đó. Trích dẫn nguy cơ sử dụng có mục đích xấu, OpenAI ban đầu từ chối phát hành mã nguồn của GPT-2, thay vào đó chọn cung cấp cho một số hãng tin tức quyền truy cập hạn chế vào bản demo.

Quyết định này đã vấp phải nhiều ý kiến ​​trái chiều từ ngành AI. Nhiều chuyên gia lập luận rằng mối đe dọa do GPT-2 gây ra đã bị phóng đại và không có bất kỳ bằng chứng nào cho thấy mô hình này có thể bị lạm dụng theo cách mà OpenAI mô tả. Ấn phẩm tập trung vào AI The gradient đã đi xa đến mức xuất bản một thư ngỏ yêu cầu OpenAI phát hành mô hình, cho rằng mô hình này quá quan trọng về mặt công nghệ nên không thể giữ lại.

OpenAI cuối cùng đã phát hành một phần phiên bản GPT-2 sáu tháng sau khi mô hình này ra mắt, sau đó là toàn bộ hệ thống vài tháng sau đó. Brundage cho rằng đây là cách tiếp cận đúng đắn.

“Phần nào của [bản phát hành GPT-2] được thúc đẩy hoặc tạo tiền đề cho việc coi AGI là không liên tục? Không có gì cả,” anh ấy nói trong một bài đăng trên X. “Bằng chứng nào cho thấy sự thận trọng này là ‘không cân xứng’ trước đây? Bài đăng cũ, có lẽ vậy. sẽ ổn thôi, nhưng điều đó không có nghĩa là nó phải chịu trách nhiệm với YOLO nó [sic] đã cung cấp thông tin vào thời điểm đó.”

Brundage lo ngại rằng mục đích của OpenAI với tài liệu này là thiết lập một gánh nặng chứng minh trong đó “các mối quan ngại là đáng báo động” và “bạn cần có bằng chứng rõ ràng về những mối nguy hiểm sắp xảy ra để hành động đối phó với chúng.” Ông lập luận rằng điều này là một điều “rất nguy hiểm” tâm lý cho các hệ thống AI tiên tiến.

“Nếu tôi vẫn đang làm việc tại OpenAI, tôi sẽ hỏi tại sao [tài liệu] này lại được viết như vậy và chính xác thì OpenAI hy vọng đạt được điều gì bằng cách thận trọng xử lý phân theo cách thiếu cân nhắc như vậy,” Brundage đã thêm vào.

OpenAI trước đây bị cáo buộc ưu tiên “sản phẩm sáng bóng” gây tổn hại đến sự an toàn và đổ xô phát hành sản phẩm để đánh bại các công ty đối thủ trên thị trường. Năm ngoái, OpenAI đã giải thể nhóm sẵn sàng AGI của mình và một loạt nhà nghiên cứu chính sách và an toàn AI đã rời công ty để đến với các đối thủ.

Áp lực cạnh tranh ngày càng gia tăng. Phòng thí nghiệm AI Trung Quốc DeepSeek đã thu hút sự chú ý của thế giới nhờ R1 mô hình phù hợp với mô hình O1 'lý luận' của OpenAI’ mô hình trên một số điểm chuẩn chính. Giám đốc điều hành OpenAI Sam Altman đã thừa nhận rằng DeepSeek đã làm giảm đi vị thế dẫn đầu về công nghệ của OpenAI và đã nói rằng OpenAI sẽ "đưa ra một số bản phát hành" để cạnh tranh tốt hơn.

Có rất nhiều tiền đang chờ đợi. OpenAI mất hàng tỷ USD mỗi năm và công ty theo báo cáo dự đoán rằng khoản lỗ hàng năm của họ có thể tăng gấp ba lên 14 tỷ USD vào năm 2026. Chu kỳ phát hành sản phẩm nhanh hơn có thể mang lại lợi ích Điểm mấu chốt của OpenAI là ngắn hạn, nhưng có thể phải trả giá bằng sự an toàn lâu dài. Các chuyên gia như Brundage đặt câu hỏi liệu sự đánh đổi này có xứng đáng hay không.

Tech Crunch