Anthropic, California’nın Yenilikçi AI Güvenlik Yasasına Destek Verdi

Anthropic, Kaliforniya’nın AI Güvenliği Yasası SB 53’ü Destekliyor
Yapay zeka güvenliği alanında önemli bir gelişme yaşandı: Dünyanın önde gelen yapay zeka şirketlerinden Anthropic, Kaliforniya Senatörü Scott Wiener tarafından sunulan SB 53 adlı yapay zeka güvenliği yasa tasarısını resmi olarak desteklediğini açıkladı. Bu gelişme, teknoloji devlerinin şeffaflık ve güvenlik konularında kamuya karşı daha fazla sorumluluk almasını sağlayacak tarihi bir adım olarak değerlendiriliyor.
SB 53 Nedir ve Neleri Kapsıyor?
SB 53, yapay zeka alanında faaliyet gösteren büyük ölçekli şirketlere (ör. OpenAI, Anthropic, Google, xAI) kamuya açık güvenlik ve şeffaflık raporları hazırlama zorunluluğu getiriyor. Yasa tasarısının öne çıkan maddeleri arasında şunlar bulunuyor:
- Güçlü yapay zeka modellerini yayına almadan önce güvenlik çerçevesi ve kamuya açık risk raporlarının oluşturulması
- AI modellerinin "felaket riski" oluşturacak şekilde kullanılmasının engellenmesi (ör: biyolojik silah üretimi, büyük çaplı siber saldırılar)
- Çalışanlara güvenlik endişelerini bildirdikleri için yasal koruma sağlanması
Anthropic’in Gerekçesi ve Açıklamaları
Anthropic, blog yazısında federal seviyede bir düzenlemenin ideal olduğunu ancak sektörün gelişme hızının beklemeye izin vermediğini belirtti:
“Soru, yapay zeka yönetimine ihtiyaç olup olmadığı değil, bunu bugün düşünceli bir şekilde mi yoksa yarın reaktif bir şekilde mi geliştireceğimiz.”
Şirketin kurucu ortağı Jack Clark da, X üzerinden yaptığı paylaşımda şunları söyledi:
“Uzun süredir federal bir standarttan yana olduğumuzu söylüyoruz; ancak bunun yokluğunda, bu yasa AI yönetimi için göz ardı edilemeyecek sağlam bir yol haritası sunuyor.”
SB 53’e Kimler Karşı Çıkıyor?
Yasa tasarısı, büyük teknoloji grupları ve bazı yatırımcılar tarafından eleştiriliyor. CTA ve Chamber for Progress gibi kurumlar, yasanın inovasyonun önünde engel oluşturabileceğini savunuyor. Ayrıca, Andreessen Horowitz gibi yatırımcılar, eyalet yasalarının federal ticarete müdahale riski taşıdığını iddia ediyor.
Yasanın Odak Noktası: Felaket Risklerinin Önlenmesi
SB 53, özellikle büyük ölçekli yapay zeka modellerinin "felaket riski" oluşturacak şekilde kullanılmasını önlemeye odaklanıyor. Tasarı, en az 50 kişinin ölümüne veya 1 milyar doların üzerinde maddi zarara yol açabilecek risklere karşı koruma sağlıyor. Kısa vadeli risklerden (ör. deepfake) ziyade uzun vadeli ve büyük ölçekli tehditler üzerinde duruluyor.
SB 53 Neden Önemli?
- SB 53, AI alanında yasal bir şeffaflık standardı getiriyor.
- Şirketlerin kendi inisiyatifiyle yayınladığı güvenlik raporlarını hukuki zorunluluk haline getiriyor.
- Çalışanların içerden bilgi paylaşımında bulunmasının önünü açıyor.
- Küresel AI rekabetinde Amerika’nın liderliğini korurken güvenlik standartlarını yükseltmeyi amaçlıyor.
Son Durum ve Gelecek Adımlar
SB 53, Kaliforniya Senatosu’ndan geçti ancak yasalaşması için son onay ve Vali Gavin Newsom’un imzası gerekecek. Önceki benzer tasarılar vali tarafından veto edilmişti. Bu kez, tasarının teknik gerçeklere daha uygun ve daha ölçülü olduğu belirtiliyor.
Uzman Görüşleri ve Sektörel Yansımalar
OpenAI, yasanın startupları Kaliforniya dışına itebileceğini iddia ederken, bazı eski yöneticiler bu görüşün yanıltıcı olduğunu savunuyor. Politika uzmanı Dean Ball ise SB 53’ün teknik gerçeklere saygı gösterdiğini ve yasalaşma şansının yüksek olduğunu belirtiyor (kaynak).
Sonuç
SB 53, Kaliforniya’da ve dünyada yapay zeka güvenliği konusunda örnek teşkil edebilecek yenilikçi bir düzenleme olarak öne çıkıyor. Anthropic’in desteği, bu konuda teknoloji sektöründe yeni bir dönemin başlayabileceğine işaret ediyor. Yasanın kabulü, AI geliştiren büyük şirketlerin şeffaflık ve güvenlik standartlarına yasal olarak uymalarını zorunlu kılacak. Bu, hem sektörün itibarını artıracak hem de AI teknolojilerinin toplum üzerindeki olası olumsuz etkilerini en aza indirmeye yardımcı olacak.