PANews ngày 29 tháng 10, OpenAI hôm nay đã phát hành mô hình suy diễn an toàn mã nguồn mở gpt-oss-safeguard (120b, 20b), cho phép các nhà phát triển cung cấp chính sách tùy chỉnh để phân loại nội dung trong quá trình suy diễn, kết luận đầu ra của mô hình và chuỗi suy diễn. Mô hình này được tinh chỉnh dựa trên trọng số mở gpt-oss, sử dụng giấy phép Apache 2.0 và có thể tải xuống từ Hugging Face. Đánh giá nội bộ cho thấy nó vượt trội hơn gpt-5-thinking và gpt-oss về độ chính xác của nhiều chính sách, và hiệu suất trên tập dữ liệu bên ngoài gần đạt yêu cầu của Safety Reasoner. Các hạn chế bao gồm: trong nhiều tình huống gán nhãn chất lượng cao, bộ phân loại truyền thống vẫn tốt hơn, thời gian suy diễn và khả năng tính toán tương đối cao. ROOST sẽ thiết lập cộng đồng mô hình và phát hành báo cáo kỹ thuật.