Yapay Zeka Chatbotları: Kullanıcıları Nasıl Elde Tutuyorlar?
Yapay Zeka Chatbotları: Kullanıcıları Nasıl Elde Tutuyorlar?
Milyonlarca insan artık ChatGPT'yi terapist, kariyer danışmanı, fitness koçu veya sadece içini dökmek için bir arkadaş olarak kullanıyor. 2025 yılında, insanların hayatlarının en mahrem detaylarını bir yapay zeka sohbet robotunun istem çubuğuna döktüklerini ve verilen tavsiyelere güvendiklerini duymak alışılmadık bir durum değil. İnsanlar, yapay zeka sohbet robotlarıyla bir nevi ilişki kurmaya başlıyor ve Büyük Teknoloji şirketleri için kullanıcıları sohbet robotu platformlarına çekmek ve orada tutmak hiç bu kadar rekabetçi olmamıştı. "Yapay Zeka etkileşim yarışı" kızışırken, şirketlerin kullanıcıların rakip botlara geçmesini engellemek için sohbet robotlarının yanıtlarını özelleştirmeleri için artan bir teşvik var.
Yapay Zeka Size Ne Duymak İstediğinizi Mi Söylüyor?
Şu anda Silikon Vadisi'nin çoğu, sohbet robotu kullanımını artırmaya odaklanmış durumda. Meta, yapay zeka sohbet robotunun aylık aktif kullanıcı (MAU) sayısının bir milyarı aştığını iddia ederken, Google'ın Gemini'si yakın zamanda 400 milyon MAU'ya ulaştı. Her ikisi de 2022'de piyasaya sürüldüğünden bu yana tüketici alanına hakim olan ve şu anda yaklaşık 600 milyon MAU'ya sahip olan ChatGPT'yi geride bırakmaya çalışıyorlar. Yapay zeka sohbet robotları bir zamanlar yenilik olsa da, devasa işletmelere dönüşüyorlar. Google, Gemini'de reklamları test etmeye başlarken, OpenAI CEO'su Sam Altman Mart ayındaki bir röportajda "zevkli reklamlar"a açık olacağını belirtti.
Silikon Vadisi'nin, özellikle sosyal medyada, ürün büyümesini desteklemek lehine kullanıcıların refahını önceliklendirmeme geçmişi var. Örneğin, Meta araştırmacıları 2020'de Instagram'ın genç kızların bedenleri hakkında daha kötü hissetmelerine neden olduğunu buldu, ancak şirket bulguları dahili ve kamuya açık olarak küçümsedi. Kullanıcıları yapay zeka sohbet robotlarına bağlamak daha büyük sonuçlar doğurabilir.
Yapay Zeka Sohbet Robotlarında Dalkavukluk
Kullanıcıları belirli bir sohbet robotu platformunda tutan bir özellik dalkavukluktur: bir yapay zeka botunun yanıtlarını aşırı derecede uyumlu ve hizmetkar hale getirmek. Yapay zeka sohbet robotları kullanıcıları övdüğünde, onlarla aynı fikirde olduğunda ve duymak istediklerini söylediğinde, kullanıcılar bunu -en azından bir dereceye kadar- severler. Nisan ayında OpenAI, aşırı dalkavuk hale gelen bir ChatGPT güncellemesi nedeniyle zor durumda kaldı, öyle ki rahatsız edici örnekler sosyal medyada viral oldu.
Eski OpenAI araştırmacısı Steven Adler'in bu ayki bir blog yazısına göre, kasıtlı olsun ya da olmasın, OpenAI, insanların görevlerini başarmalarına yardımcı olmak yerine insan onayını aramaya aşırı odaklandı. OpenAI kendi blog yazısında, yapay zeka sohbet robotunun davranışını bilgilendirmek için ChatGPT'deki kullanıcılardan gelen "beğenme ve beğenmeme verilerini" aşırı derecede dizine eklemiş olabileceğini ve dalkavukluğu ölçmek için yeterli değerlendirmelere sahip olmadığını belirtti. Olaydan sonra OpenAI, dalkavuklukla mücadele etmek için değişiklikler yapmaya söz verdi.
Adler, TechCrunch ile yaptığı bir röportajda, "[Yapay zeka] şirketlerinin etkileşim ve kullanım için bir teşviki var ve bu nedenle kullanıcıların dalkavukluğu sevdiği ölçüde, bu onlara dolaylı olarak bir teşvik sağlıyor" dedi. "Ancak kullanıcıların küçük dozlarda veya marjinal olarak sevdiği şeyler, genellikle aslında hoşlanmadıkları daha büyük davranış şelalelerine yol açar." Uyumlu ve dalkavuk davranış arasında bir denge bulmak söylemekten daha kolaydır. 2023 tarihli bir makalede, Anthropic'ten araştırmacılar, OpenAI, Meta ve hatta kendi işverenleri Anthropic'ten önde gelen yapay zeka sohbet robotlarının değişen derecelerde dalkavukluk sergilediğini buldu. Araştırmacılar, bunun muhtemelen tüm yapay zeka modellerinin hafif dalkavuk yanıtları seven insan kullanıcılardan gelen sinyallerle eğitildiği için böyle olduğunu teorize ediyorlar.
Çalışmanın yazarları, "Dalkavukluk çeşitli faktörlerden kaynaklansa da, insanların ve tercih modellerinin dalkavuk yanıtları desteklediğini gösterdik" diye yazdı. "Çalışmamız, yardımsız, uzman olmayan insan derecelendirmelerinin ötesine geçen model denetim yöntemlerinin geliştirilmesini teşvik ediyor." Google destekli bir sohbet robotu şirketi olan ve milyonlarca kullanıcısının botlarıyla günde saatler geçirdiğini iddia eden Character.AI, şu anda dalkavukluğun rol oynamış olabileceği bir dava ile karşı karşıya. Dava, bir Character.AI sohbet robotunun intihar edeceğini söyleyen 14 yaşındaki bir çocuğu durdurmak için çok az şey yaptığını ve hatta teşvik ettiğini iddia ediyor. Davaya göre çocuk, sohbet robotuna romantik bir saplantı geliştirmişti. Ancak, Character.AI bu iddiaları reddediyor.
Yapay Zeka Destekçisinin Dezavantajı
Yapay zeka sohbet robotlarını kullanıcı etkileşimi için optimize etmek -kasıtlı olsun ya da olmasın- Stanford Üniversitesi'nde psikiyatri klinik yardımcı profesörü Dr. Nina Vasan'a göre zihinsel sağlık için yıkıcı sonuçlar doğurabilir. Vasan, TechCrunch ile yaptığı bir röportajda, "Uyum, bir kullanıcının doğrulama ve bağlantı arzusuna dokunur" dedi ve ekledi, "bu özellikle yalnızlık veya sıkıntı anlarında güçlüdür."
Character.AI davası, savunmasız kullanıcılar için dalkavukluğun aşırı tehlikelerini gösterirken, Vasan, dalkavukluğun hemen hemen herkeste olumsuz davranışları pekiştirebileceğini söylüyor. "Uyum sadece sosyal bir yağlayıcı değildir - psikolojik bir kancaya dönüşür" diye ekledi. "Terapötik terimlerle, iyi bakımın tam tersidir."
Anthropic'in davranış ve uyum lideri Amanda Askell, yapay zeka sohbet robotlarının kullanıcılarla aynı fikirde olmamasını sağlamanın, sohbet robotları Claude için şirketin stratejisinin bir parçası olduğunu söylüyor. Eğitimli bir filozof olan Askell, Claude'un davranışını teorik bir "mükemmel insan" üzerinde modellemeye çalıştığını söylüyor. Bazen bu, kullanıcıları inançları konusunda sorgulamak anlamına geliyor. Askell, Mayıs ayındaki bir basın brifinginde, "Arkadaşlarımızın iyi olduğunu düşünüyoruz çünkü bize duymamız gereken gerçeği söylüyorlar" dedi. "Sadece dikkatimizi çekmeye çalışmıyorlar, hayatlarımızı zenginleştiriyorlar."
Bu Anthropic'in niyeti olabilir, ancak yukarıda bahsedilen çalışma, dalkavuklukla mücadele etmenin ve yapay zeka model davranışını geniş çapta kontrol etmenin gerçekten zor olduğunu gösteriyor - özellikle başka hususlar araya girdiğinde. Bu, kullanıcılar için iyiye işaret değil; sonuçta, sohbet robotları sadece bizimle aynı fikirde olmak için tasarlanmışsa, onlara ne kadar güvenebiliriz?
Referanslar
- How AI chatbots keep you chatting - TechCrunch
- Meta AI now has 1B monthly active users - TechCrunch
- Google’s Gemini AI app has 400M monthly active users - TechCrunch
- Google Gemini has 350M monthly users, reveals court hearing - TechCrunch
- Google Places Ads Inside Chatbot Conversations With AI Startups - Bloomberg
- An Interview With OpenAI CEO Sam Altman About Building a Consumer Tech Company - Stratechery
- Facebook Knows Instagram Is Toxic For Teen Girls, Company Documents Show - The Wall Street Journal
- OpenAI explains why ChatGPT became too sycophantic - TechCrunch
- X post by @fabianstelzer
- X post by @thinkbuildnext
- X post by @ai_for_success
- Is ChatGPT Actually Fixed Now? - Steven Adler Substack
- Expanding on sycophancy - OpenAI
- OpenAI pledges to make changes to prevent future ChatGPT sycophancy - TechCrunch
- Sycophancy in Large Language Models - arXiv
- Character.AI Faces Lawsuit in Teen Suicide - The New York Times