Theo The Verge, GPT-OSS được phát hành với hai phiên bản: Bản lớn 120 tỷ tham số, có thể chạy trên một GPU Nvidia duy nhất, bản nhẹ 20 tỷ tham số, yêu cầu ít nhất 16 GB RAM.
Cả hai mô hình hiện có sẵn để tải về từ các nền tảng như Hugging Face, Databricks, Azure và AWS, đi kèm giấy phép Apache 2.0 – cho phép sử dụng, tùy chỉnh và thương mại hóa mà không bị hạn chế.
GPT-OSS: Lời đáp trả của OpenAI với làn sóng nguồn mở
Tuyên bố này cho thấy OpenAI đang điều chỉnh chiến lược trước làn sóng phát triển mạnh mẽ của các mô hình mã nguồn mở như LLaMA, Gemma, DeepSeek... Những đối thủ này đang ngày càng chiếm ưu thế trong cộng đồng lập trình viên và doanh nghiệp nhỏ nhóm người dùng ưa thích quyền kiểm soát và tính linh hoạt.

“Bạn sẽ ngạc nhiên khi biết phần lớn khách hàng của chúng tôi sử dụng mô hình mã nguồn mở” Chris Cook, nhà nghiên cứu tại OpenAI, chia sẻ tại buổi họp báo ra mắt. Ông cho biết GPT-OSS có khả năng thực hiện nhiều tác vụ phức tạp như: viết mã, suy luận logic, chạy tác nhân AI thông qua API và thậm chí duyệt web.
Hiệu suất mạnh, thiết kế an toàn, dễ kiểm soát
Dù chưa công bố toàn bộ kết quả benchmark, OpenAI khẳng định GPT-OSS có hiệu năng ngang ngửa các mô hình thương mại hiện hành trong một số bài kiểm tra lập trình, như HumanEval.

Về mặt bảo mật, công ty cho biết GPT-OSS là mô hình mã mở được kiểm duyệt chặt chẽ nhất từ trước đến nay. Toàn bộ quy trình suy luận được công khai, kết hợp với việc hợp tác cùng các tổ chức đánh giá độc lập, nhằm giảm thiểu rủi ro trong những lĩnh vực nhạy cảm như an ninh mạng, sinh học hay thao túng thông tin.
Theo OpenAI, GPT-OSS không chỉ là công cụ kỹ thuật mà còn là bước đi chiến lược nhằm hỗ trợ các doanh nghiệp vừa và nhỏ những đơn vị cần khả năng kiểm soát dữ liệu cao hơn so với khi sử dụng dịch vụ đám mây.