Anthropic CEO: Yapay Zeka Kara Kutusunu 2027'ye Kadar Açmalıyız

Anthropic CEO: Yapay Zeka Kara Kutusunu 2027'ye Kadar Açmalıyız
Image Credits: Benjamin Girette/Bloomberg / Getty Images

Anthropic CEO: Yapay Zeka Kara Kutusunu 2027'ye Kadar Açmalıyız

Yapay zeka (AI) teknolojisi hızla gelişirken, bu güçlü sistemlerin iç işleyişi hala büyük ölçüde bir sır perdesi arkasında. Anthropic CEO'su Dario Amodei, yayınladığı bir makalede [1] bu "kara kutu" sorununa dikkat çekiyor ve dünyanın önde gelen AI modellerinin nasıl çalıştığına dair anlayışımızın ne kadar sınırlı olduğunu vurguluyor. Amodei, bu önemli sorunu çözmek için iddialı bir hedef belirliyor: 2027 yılına kadar model problemlerinin çoğunu güvenilir bir şekilde tespit edebilmek.

Anlaşılmazlığın Aciliyeti

Amodei, "Anlaşılmazlığın Aciliyeti" başlıklı makalesinde, önlerindeki zorluğun farkında olduklarını belirtiyor. Anthropic'in, modellerin cevaplarına nasıl ulaştığını izleme konusunda erken başarılar elde ettiğini, ancak bu sistemler daha da güçlendikçe onları çözmek için çok daha fazla araştırmaya ihtiyaç duyulduğunu vurguluyor.

"Bu tür sistemleri, anlaşılabilirlik konusunda daha iyi bir hakimiyet olmadan konuşlandırma konusunda çok endişeliyim," diye yazıyor Amodei. "Bu sistemler ekonomi, teknoloji ve ulusal güvenlik için kesinlikle merkezi olacak ve o kadar çok özerkliğe sahip olacaklar ki, insanlığın nasıl çalıştıkları konusunda tamamen cahil olmasını temelde kabul edilemez buluyorum."

Mekanik anlaşılabilirlik, AI modellerinin kara kutusunu açmayı ve neden belirli kararlar verdiklerini anlamayı amaçlayan bir alan. Anthropic, bu alandaki öncü şirketlerden biri. Teknoloji endüstrisindeki AI modellerinin performansındaki hızlı iyileşmelere rağmen, bu sistemlerin kararlara nasıl vardığı hakkında hala nispeten az fikrimiz var.

Örneğin, OpenAI kısa süre önce bazı görevlerde daha iyi performans gösteren ancak diğer modellerinden daha fazla halüsinasyon gören yeni muhakeme AI modelleri o3 ve o4-mini'yi piyasaya sürdü [2]. Şirket, bunun neden olduğunu tam olarak bilmiyor.

Amodei makalesinde, "Üretken bir AI sistemi bir finansal belgeyi özetlemek gibi bir şey yaptığında, neden belirli kelimeleri diğerlerine tercih ettiği veya genellikle doğru olmasına rağmen neden ara sıra hata yaptığı gibi konularda spesifik veya kesin bir düzeyde hiçbir fikrimiz yok," diyor.

"İnşa Edilmekten Çok Yetiştiriliyorlar"

Anthropic kurucu ortağı Chris Olah'ın da belirttiği gibi, AI modelleri "inşa edilmekten çok yetiştiriliyor". Başka bir deyişle, AI araştırmacıları model zekasını geliştirmenin yollarını buldular, ancak bunun neden işe yaradığını tam olarak bilmiyorlar.

Amodei, bu modellerin nasıl çalıştığını anlamadan yapay genel zekaya (AGI) – ya da kendi deyimiyle "bir veri merkezindeki dahiler ülkesine" [3] – ulaşmanın tehlikeli olabileceğini söylüyor. Daha önceki bir makalesinde Amodei, teknoloji endüstrisinin bu dönüm noktasına 2026 veya 2027'ye kadar ulaşabileceğini iddia etmişti, ancak bu AI modellerini tam olarak anlamaktan çok daha uzakta olduğumuza inanıyor.

Gelecek Vizyonu ve Sektöre Çağrı

Uzun vadede Amodei, Anthropic'in son teknoloji AI modellerine adeta "beyin taramaları" veya "MR'lar" yapmak istediğini belirtiyor. Bu kontrollerin, modellerdeki yalan söyleme, güç arama eğilimleri veya diğer zayıflıklar gibi geniş bir yelpazedeki sorunları belirlemeye yardımcı olacağını söylüyor. Bunu başarmanın beş ila on yıl sürebileceğini, ancak bu önlemlerin Anthropic'in gelecekteki AI modellerini test etmek ve dağıtmak için gerekli olacağını ekliyor.

Anthropic, AI modellerinin nasıl çalıştığını daha iyi anlamak için bazı araştırma atılımları yaptı. Örneğin, şirket yakın zamanda bir AI modelinin düşünme yollarını, "devreler" olarak adlandırdıkları yapılar aracılığıyla izlemenin yollarını buldu [4]. Şirket, AI modellerinin hangi ABD şehirlerinin hangi eyaletlerde bulunduğunu anlamasına yardımcı olan bir devre belirledi. Ancak bu devrelerden sadece birkaçı bulundu ve AI modellerinde milyonlarca olduğu tahmin ediliyor.

Anthropic, anlaşılabilirlik araştırmalarına yatırım yapıyor ve yakın zamanda bu alanda çalışan bir girişime ilk yatırımını yaptı [5]. Amodei, makalesinde OpenAI ve Google DeepMind'a da bu alandaki araştırma çabalarını artırmaları çağrısında bulundu.

Hatta hükümetlere, şirketlerin güvenlik uygulamalarını açıklamalarını gerektiren şartlar gibi, anlaşılabilirlik araştırmalarını teşvik etmek için "hafif dokunuşlu" düzenlemeler getirmeleri çağrısında bulunuyor. Ayrıca, kontrolden çıkmış küresel bir AI yarışının olasılığını sınırlamak için ABD'nin Çin'e çip ihracat kontrolleri uygulaması gerektiğini savunuyor.

Güvenlik Odaklı Yaklaşım

Anthropic, güvenlik odaklı yaklaşımıyla her zaman OpenAI ve Google'dan ayrışmıştır. Diğer teknoloji şirketleri Kaliforniya'nın tartışmalı AI güvenlik yasa tasarısı SB 1047'ye karşı çıkarken, Anthropic tasarı için mütevazı destek ve önerilerde bulundu [6].

Bu son çıkışıyla Anthropic, sadece AI yeteneklerini artırmak yerine, AI modellerini daha iyi anlamak için sektör çapında bir çaba gösterilmesini teşvik ediyor gibi görünüyor.

Referanslar

Read more

Near Space Labs: Stratosferik Görüntüleme İçin 20 Milyon Dolar Yatırım

Near Space Labs: Stratosferik Görüntüleme İçin 20 Milyon Dolar Yatırım

Near Space Labs: Stratosferik Görüntüleme İçin 20 Milyon Dolar Yatırım Dünya'nın yukarıdan görüntülenmesi denince akla genellikle uydular, dronlar ve uçaklar gelir. Ancak Near Space Labs adlı bir girişim, yüksek çözünürlüklü fotoğraflar çekmek için çok farklı bir yöntem kullanıyor: stratosfere yükselen helyum balonları! Stratosferde Gezinen Robotlar: Swift Teknolojisi Near

By Cansın Cengiz
Lex Proxima Studios LTD