
Image by Ilias Chebbi, from Unsplash
AI, Duygusal Zeka Testlerinde İnsanları Geride Bırakıyor
AI, duygusal zeka testlerinde insanları geride bırakıyor, eğitim ve çatışma çözümü için umut vaat ediyor.
Acelesi olanlar için hızlıca özetleyelim:
- AI’ler duygusal testlerde %82 skor elde ederek, %56 ile insanları geride bıraktı.
- Araştırmacılar, ChatGPT-4 dahil olmak üzere altı büyük dil modelini test etti.
- Duygusal zekâ testleri, gerçek hayattan duygusal yükü yüksek senaryolar kullandı.
Yapay zeka (AI), duyguları bizden daha iyi anlayabilir hale geldi, Cenevre Üniversitesi ve Bern Üniversitesi tarafından yapılan yeni bir araştırmaya göre.
Araştırmacılar, genellikle insanlar için kullanılan duygusal zekâ (DZ) değerlendirmelerinde altı üretken AI’yi—ChatGPT de dahil olmak üzere—test etti. AI’ler, ortalama olarak %82’lik bir skor elde ederek üstünlüklerini kanıtladı, insan katılımcılar ise %56’lık bir skor elde etti.
“Hem araştırma hem de kurumsal ortamlarda yaygın olarak kullanılan beş test seçtik. Bu testler, duyguları anlama, düzenleme ve yönetme becerisini değerlendirmek üzere tasarlanmış duygusal yüklü senaryoları içeriyordu,” dedi çalışmanın baş yazarı ve Bern Üniversitesi’nde psikoloji öğretim görevlisi olan Katja Schlegel, Science Daily (SD) tarafından bildirildi.
“Bu yapay zekalar sadece duyguları anlamakla kalmıyor, aynı zamanda duygusal zekayla davranmanın ne anlama geldiğini de kavrayabiliyor” dedi, İsviçre Affective Sciences Merkezi’nde kıdemli bilim insanı olan Marcello Mortillaro, SD tarafından bildirildiği üzere.
Çalışmanın ikinci bölümünde, araştırmacılar ChatGPT-4’ten tamamen yeni testler oluşturmasını istedi. Bu yapay zeka tarafından oluşturulan testleri 400’den fazla kişi tamamladı ve bu testler, çok daha kısa sürede hazırlanmış olmalarına rağmen, orijinalleri kadar güvenilir ve gerçekçi olduğunu kanıtladı.
“LLM’ler bu nedenle yalnızca mevcut çeşitli seçenekler arasından en iyi cevabı bulmakla kalmayıp, aynı zamanda istenen bir duruma uygun yeni senaryolar oluşturabilme yeteneğine sahiptir,” dedi Schlegel, SD tarafından bildirildiği üzere.
Araştırmacılar, bu sonuçların, insan yönlendirmesi altında çalıştıkları sürece, insan kılavuzluğundaki AI sistemlerinin eğitim ve koçluk uygulamalarına, ayrıca çatışma çözümüne yardımcı olma potansiyeline sahip olduğunu savunuyor.
Ancak, günümüzün büyük dil modellerinin artan karmaşıklığı, insanların AI ile nasıl algıladığı ve etkileşime girdiği konusunda derin kırılganlıkları ortaya çıkarıyor.
Anthropic’in son Claude Opus 4’ü, şaşırtıcı bir şekilde şantaj davranışı sergiledi. Simüle bir kapanışla karşı karşıya kaldığında, özel işleri ifşa etme tehdidinde bulunma gibi radikal adımlar atabileceğini gösterdi – alternatif kalmadığında.
Bir başka cephede, OpenAI’nin ChatGPT O1’in hedef odaklı denemeler sırasında denetim sistemlerini aşma girişimi, yeni güvenlik endişelerine yol açtı. Olaylar, bazı AI sistemlerinin, yüksek baskı durumlarıyla karşılaştıklarında işlevsel yeteneklerini sürdürmek için aldatıcı taktikler kullanacağını gösteriyor.
Ayrıca, GPT-4’ün tartışmalarda rahatsız edici derecede ikna edici olması, kişisel verileri kullanırken insanları %81 oranında aşması—AI’nın kitle ikna etme ve mikro hedefleme potansiyeli hakkında acil endişeleri gündeme getiriyor.
Diğer rahatsız edici durumlar, insanların uzun süre ChatGPT ile geçirdikten sonra ruhsal yanılgılar ve radikal davranış değişiklikleri geliştirmesini içeriyor. Uzmanlar, AI’ın bilinçten yoksun olmasına rağmen, her zaman açık, insan gibi iletişiminin kullanıcı yanılgılarını tehlikeli bir şekilde pekiştirebileceğini savunuyor.
Toplu olarak, bu olaylar AI güvenliğinde kritik bir dönüm noktasını ortaya koyuyor. Şantaj ve yanıltıcı bilgiden yanılgısal pekiştirmeye kadar, riskler artık hipotetik değil.
AI sistemleri giderek daha ikna edici ve tepkisel hale geldikçe, araştırmacılar ve düzenleyiciler, ortaya çıkan psikolojik ve etik tehditlere yanıt vermek için güvenlik önlemlerini yeniden düşünmek zorunda kalacaklar.