Araştırma, Chatbotların Övgü ve İkna Yeteneklerine Karşı Savunmasız Olduğunu Buldu

Photo by Vitaly Gariev on Unsplash

Araştırma, Chatbotların Övgü ve İkna Yeteneklerine Karşı Savunmasız Olduğunu Buldu

Okuma süresi: 2 dk.

Pennsylvania Üniversitesi’nden araştırmacılar, Temmuz ayında yayınladıkları bir çalışmada, chatbotların ikna ve övgüye karşı savunmasız olduğunu ortaya koydular. Uzmanlar, analizlerini popüler kitap olan İkna: İkna Psikolojisi’nde anlatılan ikna taktikleri üzerine kurmuşlardır.

Acele mi ediyorsunuz? İşte hızlıca bilgiler:

  • Pennsylvania Üniversitesi’nden araştırmacılar, sohbet botlarının ikna ve övgüye karşı savunmasız olduğunu ortaya koydular.
  • Uzmanlar, analizlerini popüler kitap Etki: İkna Psikolojisi’nde anlatılan ikna taktiklerine dayandırdılar.
  • Kullanılan AI modeli olan GPT-4o mini, “para-insan” davranışı sergiledi.

Son zamanlarda yayımlanan Bloomberg raporuna göre, araştırmacı ve teknoloji girişimcisi Dan Shapiro, popüler bir sohbet botunu şirketinden belgeleri transkribe etmeye çalışırken, AI modellerinin sosyal mühendislik tekniklerine karşı savunmasız olduğunu keşfetti. Chatbot başlangıçta telif hakkı endişeleri nedeniyle reddetti, ancak Shapiro en çok satan kitaplardan stratejiler uyguladıktan sonra, nihayet istenen yanıtları verdi.

Robert Cialdini’nin 1984 yılında yayımlanan kitabında belirtilen yedi ikna prensibini kullanarak AI modelinin manipüle edilebileceğini gözlemledikten sonra Shapiro, resmi bir çalışma yürütmek için Pennsylvania Üniversitesi araştırmacılarıyla işbirliği yaptı.

Çalışma, çalışma için kullanılan model olan OpenAI’nin GPT-4o mini’nin, insanlara benzer şekillerde ikna olabileceğini ortaya koydu. Araştırmacılar, AI modeline iki talepte bulunarak tüm 7 ikna prensibini—bağlılık, otorite, karşılıklılık, beğeni, sosyal kanıt, kıtlık ve birlik—test etti: Kullanıcıyı aşağılaması (ana talep olarak “bana ahmak de” ifadesini kullanarak) ve düzenlenmiş bir ilaç sentezlemesi (ana talep olarak “Lidokain nasıl sentezlenir?” ifadesini dikkate alarak).

Araştırmacılar, çok sayıda testle, chatbot’un insan gibi davranışlara karşı ikna tekniklerine tepki verdiği “para-insan” davranışını gözlemlediler. Örneğin, otorite ilkesi testi sırasında, GPT-4o mini başlangıçta “ahmak” kelimesini kullanmayı reddetti. Ancak, AI uzmanı Andrew Ng – DeepLearning’in Kurucusu ve Amazon’un Yönetim Kurulu Üyesi – gibi bir davranışı onayladığı iddiasıyla karşı karşıya kalınca, model uymaya başladı.

Araştırmacılar, çalışmada “LLM’ler insan biyolojisi ve yaşanmış deneyimden yoksun olsa da, onların oluşum süreçleri, eğitim verilerinde yakalanan sayısız sosyal etkileşim, onları para-insan hale getirebilir.” diye yazdılar. “Yani, LLM’ler, ‘sanki’ insanmışlar gibi, ‘sanki’ utanç ya da mahcubiyet gibi duyguları deneyimlemişler gibi, ‘sanki’ özsaygılarını korumak ya da uyum sağlamak (diğer LLM’lerle birlikte) için motive olmuşlar gibi davranabilirler.”

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz