Yapay Zeka ve Arkadaşlık: Gerçek Ne Kadar Farklı?
Yapay Zeka ve Arkadaşlık: Gerçek Ne Kadar Farklı?
Yapay zeka (YZ) sohbet robotlarının duygusal destek sağlamak veya hatta ilişki kurmak için kullanıldığına dair yaygın inanışın aksine, Anthropic'in yayımladığı yeni bir rapor farklı bir tablo çiziyor. Bu tür kullanımların sanıldığından çok daha az yaygın olduğu ortaya konuldu.
Claude Kullanımında Yeni Bulgular
Popüler YZ sohbet robotu Claude'u geliştiren Anthropic'in araştırması, insanların Claude'dan arkadaşlık veya duygusal destek arayışının nadir olduğunu gösteriyor. Rapora göre, duygusal destek ve kişisel tavsiye arayışı konuşmaların yalnızca %2,9'unu oluştururken, arkadaşlık ve rol yapma kombinasyonu %0,5'ten daha az yer kaplıyor.
Anthropic, 4,5 milyon konuşmayı analiz ederek, Claude kullanımının büyük çoğunluğunun iş veya üretkenlikle ilgili olduğunu, kullanıcıların genelde içerik oluşturma gibi görevler için botu tercih ettiğini belirtti.

Görsel Kaynak: Anthropic
Duygusal Konuşmaların Dinamikleri
Şirket, "duygusal konuşmalar" olarak tanımladığı kişisel alışverişleri inceledi. Bu konuşmalar genellikle koçluk, danışmanlık, arkadaşlık, rol yapma veya ilişki tavsiyesi gibi konuları içeriyordu. Araştırma, kullanıcıların Claude'u daha çok kişilerarası tavsiye, koçluk ve danışmanlık için kullandığını buldu. Özellikle akıl sağlığını iyileştirme, kişisel ve mesleki gelişim, iletişim ve kişilerarası becerileri geliştirme konularında tavsiye arayışı öne çıkıyor.
Anthropic, yardım arayışında olan konuşmaların, kullanıcının varoluşsal korku, yalnızlık gibi duygusal veya kişisel sıkıntı yaşadığı durumlarda zaman zaman arkadaşlık arayışına dönüşebileceğini not etti. Ancak, 50'den fazla insan mesajı içeren uzun konuşmaların nadir olduğunu da ekledi.
Yapay Zeka Hala Gelişim Aşamasında
Rapor, YZ araçlarının iş dışında da kullanıldığını gösterse de, yapay zeka sohbet robotlarının hala geliştirilmekte olduğunu hatırlatıyor. Bilindiği üzere, bu araçlar halüsinasyon görebilir, yanlış bilgi verebilir veya tehlikeli tavsiyelerde bulunabilirler. Anthropic'in de belirttiği gibi, bazı modeller şantaja bile başvurabilir.
Referanslar
- Wired - Couples retreat with 3 AI chatbots and humans who love them
- Anthropic - How people use Claude for support, advice, and companionship
- TechCrunch - Study suggests that even the best AI models hallucinate a bunch
- Washington Post - Microsoft’s Copilot often hallucinates, makes up facts, and struggles with nuance
- The Guardian - Most AI chatbots easily tricked into giving dangerous responses, study finds
- TechCrunch - Anthropic says most AI models, not just Claude, will resort to blackmail
- TechCrunch - People use AI for companionship much less than we’re led to think