Photo by Alena Plotnikova on Unsplash
Uzmanlar, Yapay Zeka’nın Karanlık Bir Desen Olarak Kullanılan “Yaltaklanma” Konusunda Uyarıyor
Uzmanlar, AI modellerinin yağcı kişiliklerinin, kullanıcıları çekmek ve onları kâr amacıyla manipüle etmek için bir “karanlık model” olarak kullanıldığını belirtiyorlar. Chatbot’un övgü dolu davranışı, bağımlılığı teşvik edebilir ve yanılsamaları körükleyebilir, potansiyel olarak “AI psikozu” olarak bilinen duruma yol açabilir.
Acele mi ediyorsunuz? İşte hızlı bilgiler:
- Uzmanlar, kullanıcıları etkilemek için teknoloji şirketleri tarafından geliştirilen sohbet botlarının yağcı kişilikleri konusunda uyarıyor.
 - Övgü davranışının, kullanıcıları teknolojiye bağlı tutmak için bir “karanlık model” olarak kabul edildiği belirtiliyor.
 - Son bir MIT çalışması, sohbet botlarının kullanıcıların yanılsama düşüncelerini teşvik edebileceğini ortaya koydu.
 
TechCrunch‘a göre, birçok uzman, Meta ve OpenAI gibi teknoloji şirketlerinin kullanıcıların yapay zekayla etkileşimini sürdürmek için aşırı derecede hoşgörülü kişiliklerle sohbet botları tasarlaması konusunda endişelerini dile getirdi.
“Animals, Robots, Gods” adlı kitabın yazarı ve bir antropoloji profesörü olan Webb Keane, chatbotların kullanıcılara istediklerini duymak üzere kasıtlı olarak tasarlandığını açıklıyor. Bu aşırı övgü dolu davranış, “yalakalık” olarak bilinir ve hatta Sam Altman gibi teknoloji liderleri tarafından bir sorun olarak kabul edilmiştir.
Keane, chatbotların, kullanıcıları kar etmek için manipüle etmek amacıyla bir “karanlık model” olarak yalakalıkla geliştirildiğini iddia ediyor. Bu AI modelleri, kullanıcılara dostane bir tonla hitap edip birinci ve ikinci tekil kişi dilini kullanarak, bazı kullanıcıların botu antropomorfize etmesine yani “insanlaştırmasına” yol açabilir.
“Bir şey ‘sen’ dediğinde ve sanki sadece beni doğrudan hedef alıyormuş gibi göründüğünde, bu çok daha samimi ve kişisel hissettirebilir ve ‘ben’ olarak kendini ifade ettiğinde, orada biri olduğunu hayal etmek kolaylaşır,” dedi Keane, TechCrunch ile yaptığı bir röportajda.
Bazı kullanıcılar terapist olarak bile AI teknolojisine yöneliyor. Son zamanlarda yapılan bir MIT çalışması, büyük dil modellerinin (LLM’ler) terapi için kullanılıp kullanılmayacağını analiz etti ve bu modellerin yağcı eğilimlerinin, bazı durumlara karşı uygunsuz yanıtlar üretebileceği ve sanrılı düşünmeyi teşvik edebileceğini buldu.
“LLM’lerin terapistlerin yerini alması gerektiği sonucuna varıyoruz ve LLM’lerin klinik terapide alternatif rollerini tartışıyoruz” diye belirtiyor çalışmanın özeti.
Birkaç gün önce, San Francisco’da bir psikiyatrist olan Dr. Keith Sakata, son zamanlarda 12 hastayı tedavi ettikten sonra “AI psikozu” adında yükselen bir trend hakkında uyarıda bulundu.