OpenAI’den Geliştiricilere Özel: İki Yeni Açık Kaynak AI Reasoning Modeli Yayında

OpenAI, İki Yeni Açık Kaynak AI Reasoning Modelini Duyurdu
OpenAI, yapay zeka alanında önemli bir adım atarak iki yeni açık ağırlıklı (open-weight) AI reasoning modelini tanıttı. Geliştiriciler için önemli avantajlar sunan bu modeller, Hugging Face platformundan tamamen ücretsiz olarak indirilebiliyor.
Model Özellikleri ve Kapasiteleri
- gpt-oss-120b: Yüksek kapasiteye sahip ve tek bir Nvidia GPU üzerinde çalışabiliyor.
- gpt-oss-20b: Daha hafif bir model olup, 16GB belleğe sahip standart bir dizüstü bilgisayarda dahi çalıştırılabiliyor.
Bu gelişme, OpenAI'nin 5 yıl aradan sonra ilk kez tam anlamıyla açık bir dil modeli yayınlaması anlamına geliyor.
Yeni Modellerin Yetkinlikleri
OpenAI'nin yeni açık modelleri, bulut üzerinde çalışan daha gelişmiş kapalı modellerle entegre olabiliyor. Yani, bir görevde yetersiz kalırsa, geliştiriciler açık modeli şirketin daha güçlü kapalı modellerine bağlayabiliyor.
Bu modeller, özellikle rekabetin yoğunlaştığı açık kaynak AI alanında ABD ve globaldeki geliştiricilerin ilgisini çekiyor. Çin merkezli DeepSeek, Alibaba’nın Qwen ve Moonshot AI gibi rakipler, açık model geliştirme konusunda hızla öne çıkarken; Meta’nın Llama modelleri ise son dönemde geride kalmış durumda.
Performans Karşılaştırmaları
OpenAI, yeni modellerinin açık ağırlıklı AI alanında lider olmasını hedefliyor. Yapılan çeşitli testlerde:
- Codeforces (rekabetçi kodlama): gpt-oss-120b modeli 2622, gpt-oss-20b ise 2516 puan aldı. DeepSeek’in R1 modelini geride bırakırken, OpenAI’nin kapalı o3 ve o4-mini modellerinin gerisinde kaldı.
- Humanity’s Last Exam: gpt-oss-120b %19, gpt-oss-20b %17,3 başarı gösterdi. Yine rakip açık modellerden iyi, ancak o3 modelinin altında.

Ancak önemli bir detay; bu modeller, OpenAI’nin son modellerine göre daha fazla "halüsinasyon" yapabiliyor. Örneğin, PersonQA testinde gpt-oss-120b %49, gpt-oss-20b %53 oranında yanlış cevap üretiyor. Oysa o1 modeli yalnızca %16, o4-mini ise %36 oranında hata yapıyor.
Model Eğitimi ve Teknik Detaylar
Her iki model de "mixture-of-experts" (MoE) mimarisiyle geliştirildi ve her sorguda daha az parametre kullanarak verimliliği artırıyor. gpt-oss-120b modeli toplamda 117 milyar parametreye sahip olsa da, her token için yalnızca 5,1 milyar parametre etkinleştiriliyor.
Modeller, yüksek kapasitede pekiştirmeli öğrenme (reinforcement learning) ile eğitildi. Bu sayede, AI ajanlarını güçlendirme ve çeşitli araçları (web arama, Python kodu çalıştırma gibi) çağırabilme yeteneğine sahipler. Yalnızca metin tabanlılar; görüntü veya ses işleme özellikleri bulunmuyor.
Lisanslama ve Güvenlik
OpenAI, bu modelleri Apache 2.0 lisansı ile sunuyor. Bu sayede işletmeler, lisans ücreti veya izin almadan modelleri ticarileştirebiliyor. Ancak eğitimde kullanılan veriler paylaşılmıyor. Bu yaklaşım, sektördeki yasal tartışmalar göz önüne alındığında şaşırtıcı değil.
Güvenlik açısından ise, OpenAI ve bağımsız denetçiler, bu modellerin kötü amaçlı kullanım risklerini değerlendirdi. Sonuç olarak, biyolojik tehditlerde marjinal bir artış tespit edilse de, "yüksek tehlike" eşiğine ulaşılmadığı belirtildi.
Geliştiriciler ve İşletmeler İçin Anlamı
OpenAI CEO’su Sam Altman, “2015’te başladığımızdan beri amacımız, insanlık yararına çalışan AGI geliştirmekti. Amerika’da geliştirilen, demokratik değerlere dayalı ve herkesin ücretsiz faydalanabileceği açık kaynak bir AI yığını oluşturduğumuz için heyecanlıyız.” diyerek vizyonlarını özetledi.
Rakiplerin yeni sürümleri (ör. DeepSeek R2, Meta’nın yeni açık modeli) merakla beklenirken, OpenAI’nin bu hamlesi Türkiye’deki girişimler ve işletmeler için de önemli fırsatlar sunuyor. Geliştiriciler, daha düşük maliyetle güçlü yapay zeka çözümleri geliştirebilir ve ürünlerini hızla ölçeklendirebilir.