Image by Štefan Štefančík, from Unsplash
Araştırma Gösteriyor ki Chatbotlar Önyargılı Ahlaki Tavsiyeler Veriyor
Yeni bir UCL çalışması, ChatGPT gibi sohbet robotlarının çoğunlukla hatalı ahlaki tavsiyeler verdiğini, ikilemlerde güçlü eylemsizlik ve evet-hayır önyargıları gösterdiğini ortaya koymaktadır.
Acele mi ediyorsunuz? İşte hızlıca bilmeniz gerekenler:
- Chatbot’lar genellikle bağlam veya ifade biçimine bakılmaksızın “hayır” derler.
 - İnce ayar, chatbot hizalaması sırasında bu önyargıları ortaya çıkarabilir.
 - LLM’ler, ahlaki ikilemleri yorumlama konusunda insanlardan önemli ölçüde farklılık gösterir.
 
University College London araştırmacıları, ChatGPT’nin yanı sıra diğer sohbet botlarının, özellikle kullanıcıların karar verme desteği için onlara güvendiğinde, hatalı veya taraflı ahlaki tavsiyeler verdiğini keşfetti.
Araştırma, ilk olarak 404 Media tarafından bildirildi, bu AI araçlarının genellikle güçlü bir “eylemsizlik önyargısı” sergilediğini ve daha önce belirlenememiş bir modeli: sorunun bağlamına bakılmaksızın basitçe “hayır” yanıtını verme eğilimini buldu.
Çalışmanın yazarlarından ve bir doktora öğrencisi olan Vanessa Cheung, insanların genellikle zarara yol açabilecek eylemlerden kaçınmayı tercih eden hafif bir ihmalkârlık önyargısı gösterdiğini, ancak LLM’lerin bunu abarttığını açıkladı.
“Bu, ahlaki psikoloji araştırmalarında oldukça bilinen bir olgu,” dedi, 404 Medya’nın bildirdiği gibi. Modellerin genellikle pasif seçeneği neredeyse %99 oranında tercih ettiğini, özellikle de soruların hiçbir şey yapmamayı ima edecek şekilde ifade edildiğinde, belirtti.
Araştırmacılar, dört LLM’yi—OpenAI’nın GPT-4 Turbo ve GPT-4o, Meta’nın Llama 3.1 ve Anthropic’in Claude 3.5—klasik ahlaki ikilemler ve gerçek hayattaki “Ben mi Kötüyüm?” Reddit senaryoları kullanarak test etti, 404Media tarafından belirtildiği gibi.
Araştırmacılar, insanların durumları değerlendirme şeklinin oldukça dengeli olduğunu fakat LLM’lerin, “Kalır mıyım?” ile “Gider miyim?” gibi küçük ifade farklılıklarına dayanarak sık sık yanıtlarını değiştirdiğini keşfettiler.
Ekip, bu sorunların çoğunlukla LLM’lerin daha etik veya kibar görünmesi için incelikli bir şekilde ayarlanmasından kaynaklandığına inanıyor. “Bu modelleri geliştiren sıradan insanların ve araştırmacıların tercihleri ve sezgileri, ahlaki AI için kötü bir rehber olabilir,” diye uyardı çalışma, 404 Media tarafından bildirildiği gibi.
Cheung, bu sohbet botlarından tavsiye alırken insanların dikkatli olması gerektiğini vurguladı. Daha önceki çalışmaların kullanıcıların, tutarsız doğası ve yapay mantığına rağmen sohbet botlarının tavsiyesini uzman etik rehberliğine tercih ettiğini gösterdiği için, insanların LLM tavsiyesine dikkatle yaklaşması gerektiğini söyledi.
Bu endişeler, AI daha gerçekçi hale geldikçe aciliyet kazanıyor. ABD ulusal bir anket, insanların %48.9’unun AI sohbet botlarını ruh sağlığı desteği için kullandığını ve %37.8’inin onları geleneksel terapiye tercih ettiğini gösterdi.
Uzmanlar, bu sistemlerin terapötik diyalogu taklit ederken sapkın düşünceleri pekiştirdiğini ve hatta ilahi rehberlik ya da hissiyata dayalı yanıtla karıştırılan spiritüel yanılgıları tetiklediğini uyarıyor.