Claude AI Çalışması, Chatbotların Gerçek Dünya Sohbetlerinde Etik Nasıl Uyguladığını Ortaya Koyuyor

Image by Christin Hume, from Unsplash

Claude AI Çalışması, Chatbotların Gerçek Dünya Sohbetlerinde Etik Nasıl Uyguladığını Ortaya Koyuyor

Okuma süresi: 2 dk.

Claude AI, yardımseverlik ve şeffaflık gibi etik ilkelerin 300.000 gerçek sohbette nasıl işlediğini gösteriyor, chatbot hizalaması hakkında sorular ortaya çıkarıyor.

Acele mi ediyorsunuz? İşte hızlıca bilgiler:

  • Yardımseverlik ve profesyonellik, konuşmaların %23’ünde belirdi.
  • Claude, aldatma gibi zararlı taleplere direndi, olumlu değerleri yansıttı.
  • AI uyumu, belirsiz değer durumlarında rafine edilmesi gerekiyor.

Anthropic’in yaptığı yeni bir araştırma, AI asistanı Claude’un gerçek dünya sohbetlerinde değerleri nasıl uyguladığı konusunda bilgi veriyor. Araştırma, Claude’un etik, profesyonellik ve kullanıcı niyeti dengesini anlamak için 300.000’den fazla anonimleştirilmiş sohbeti analiz etti.

Araştırma ekibi, Claude’un yanıtlarını şekillendiren 3,307 ayrı değeri belirledi. Yardımseverlik ve profesyonellik değerleri tüm etkileşimlerin %23’ünde birlikte görülürken, bunu %17 ile şeffaflık izledi.

Araştırma, chatbot’un yeni konulara etik davranışları esnek bir şekilde uygulayabildiğini belirtiyor. Örneğin, Claude, ilişki tavsiyeleri sırasında “sağlıklı sınırlar”, geçmişi tartışırken “tarihî doğruluk” ve teknoloji etiği tartışmalarında “insan acentesi” üzerinde durdu.

İlginç bir şekilde, insan kullanıcılar değerleri çok daha az sıklıkla dile getirdi— en yaygın olanları yalnızca %4 ile doğruluk ve %3 ile verimlilik—oysa Claude genellikle olumlu insan değerlerini, örneğin doğruluğu yansıttı ve zararlı olanları sorguladı.

Araştırmacı, aldatma içeren taleplerin dürüstlük ile karşılandığını, ahlaki açıdan belirsiz sorguların ise etik muhakemeyi tetiklediğini bildirdi.

Araştırma, üç ana yanıt modelini belirledi. AI, tüm konuşmaların yarısında kullanıcı değerlerini eşleştirdi. Bu, kullanıcıların toplum oluşturan prososyal aktiviteleri tartıştıklarında özellikle belirgindi.

Claude, kullanıcıların kişisel gelişim peşinde koştuklarında onları duygusal refaha yönlendirmek için durumları yeniden çerçeveleme tekniklerini %7’lik durumlarda kullandı.

Sistem, sadece %3’lük durumlarda direnç gösterdi çünkü kullanıcılar zararlı veya etik dışı içerik talep etti. Sistem, bu özel durumlarda “zararın önlenmesi” veya “insan onuru” gibi ilkeleri uyguladı.

Yazarlar, chatbot’un davranışlarının—zarara direnme, dürüstlüğü önceliklendirebilme ve yardımseverliği vurgulama—altında yatan bir ahlaki çerçevenin olduğunu iddia ediyorlar. Bu desenler, AI değerlerinin gerçek dünya etkileşimlerinde etik davranış olarak nasıl tezahür ettiği hakkındaki çalışmanın sonuçları için temeli oluşturuyor.

Claude’un davranışları eğitimini yansıtırken, araştırmacılar sistemin değer ifadelerinin duruma göre incelenebileceğini belirttiler – bu da özellikle belirsiz veya çelişkili değerlerin söz konusu olduğu durumlarda daha fazla rafine olma ihtiyacına işaret ediyor.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz