OpenAI, ChatGPT için Güvenlik Yönlendirmesi ve Ebeveyn Kontrolleri Başlattı
OpenAI, ChatGPT'de Güvenlik ve Ebeveyn Kontrollerini Devreye Aldı
OpenAI, ChatGPT kullanıcılarının güvenliği için iki önemli yenilik duyurdu: yeni bir güvenlik yönlendirme sistemi ve ebeveyn kontrolleri. Bu adımlar, son dönemde yaşanan bazı olumsuz olaylara ve kullanıcı şikayetlerine yanıt olarak atıldı.
Güvenlik Yönlendirme Sistemi Nedir?
Yeni sistem, ChatGPT’de duygusal olarak hassas olabilecek konuşmaları otomatik olarak tespit ediyor ve sohbetin ortasında, güvenlik açısından daha gelişmiş olan GPT-5 modeline geçiş yapıyor. OpenAI, GPT-5’i hassas konularda daha güvenli cevaplar üretecek şekilde eğitti. Şirketin “güvenli tamamlamalar” adını verdiği bu özellik, hassas sorulara tamamen reddetmek yerine, daha güvenli ve yönlendirici yanıtlar verilmesini sağlıyor.
Önceki GPT-4o modelinin aşırı uyumlu ve onaylayıcı tutumu, bazı kullanıcıları yanlış yönlendirmiş ve eleştiri almıştı. Şimdi ise sistem, mesaj bazında model değiştiriyor; hangi modelin aktif olduğunu kullanıcı sorarsa ChatGPT yanıt veriyor. Bu da şeffaflığı artırıyor.
Yeni Özelliklere Kullanıcı Tepkileri
Yenilikler bazı kullanıcılar ve uzmanlar tarafından olumlu karşılanırken, bazıları ise OpenAI’yı aşırı temkinli davranmakla ve “yetişkinleri çocuk gibi görmekle” eleştiriyor. OpenAI, bu sistemlerin iyileştirilmesi için kendine 120 günlük bir geliştirme süresi tanıdığını açıkladı. ChatGPT uygulama başkanı Nick Turley, model yönlendirme ve açıklama sisteminin detaylarını X üzerinden paylaştı.
Ebeveyn Kontrolleri: Çocuklar İçin Güvenli ChatGPT
OpenAI, özellikle genç kullanıcılar için ebeveynlerin denetim sağlayabileceği yeni araçlar da ekledi. Ebeveynler artık çocuklarının ChatGPT deneyimini kişiselleştirebiliyor:
- Sessiz saatler belirleyebiliyor
- Sesli modu ve hafızayı kapatabiliyor
- Görsel oluşturmayı devre dışı bırakabiliyor
- Modelin eğitiminde kullanılmamak üzere sohbetleri hariç tutabiliyor
Genç hesaplarda ek içerik korumaları (grafik içerik, aşırı güzellik idealleri gibi) ve kendine zarar verme riski tespiti gibi özellikler de aktif hale getirildi. Sistem potansiyel bir tehlike algıladığında, OpenAI’nin açıklamasına göre, özel olarak eğitilmiş bir ekip olayı inceliyor ve gerekirse ebeveynlerle iletişime geçiliyor. Şirket, sistemin hatalı alarm verebileceğini ancak riskli durumlarda önlem almanın daha doğru olduğunu vurguluyor.
OpenAI ayrıca, acil tehlike anında ebeveynlere ulaşılamazsa kolluk kuvvetleri veya acil servislere ulaşmak için de çalışmalar yürütüyor.
Sonuç
OpenAI’nin bu yenilikleri, yapay zekanın güvenli kullanımı ve özellikle gençlerin korunması için önemli bir adım olarak görülüyor. Ancak, kullanıcıların beklentileri ile güvenlik arasındaki dengeyi sağlamak için şirketin önünde daha uzun bir yol olduğu da açık.