Araştırmacılar, Yapay Zekanın İnsanlarda Sanrıları Tetikleyebileceği Konusunda Uyarıyor

Image by Freepik

Araştırmacılar, Yapay Zekanın İnsanlarda Sanrıları Tetikleyebileceği Konusunda Uyarıyor

Okuma süresi: 3 dk.

Bir yeni makalede, filozof Luciano Floridi, AI’ya yanlışlıkla bilinç, zeka ve hatta duygular gibi nitelikler atfedildiğinde insanların AI’yi nasıl yanlış anladığını uyarıyor, oysa AI bunlara sahip değildir.

Acelemi var mı? İşte hızlı bilgiler:

  • İnsanlar sıklıkla semantik pareidolya nedeniyle AI yanıtlarını bilinçli olarak algılar.
  • Floridi, AI’ın simüle edilmiş empati yoluyla duygusal bağlar oluşturabileceği konusunda uyarıyor.
  • Fiziksel varlıklar, örneğin bebekler, AI varlığının yanılsamalarını daha da derinleştirebilir.

Floridi, bunun sebebinin semantik pareidolya adı verilen bir durum olduğunu savunuyor – bir anlam ve niyet olmadığı yerde anlam ve niyet görmeye meyilli olmak.

“AI, bizim onun zeki olduğuna inanmamızı sağlamak üzre tasarlanmıştır,” diye yazıyor Floridi. “Sonuçta, kuklalara kişilik atfeden, bulutlarda yüzler gören aynı türdeniz.”

Ona göre, bu zihinsel hata tipik insan doğasıdır, ancak modern teknoloji onu güçlendirir. Replika gibi sohbet botları, kendilerini bir “AI arkadaşı” olarak pazarlar ve empatiyi taklit etmek için dil eşleştirme modelini kullanır. Ancak sistem gerçek duygusal yeteneklerden yoksundur. Yine de, kullanıcılar genellikle onlarla duygusal bağlar kurar. “Yalnızca istatistiklerin olduğu yerde niyeti algılarız,” diyor Floridi.

Bu karmaşa, şimdi AI’ın duygusal zekâ testlerinde insanları geride bıraktığı gerçeğiyle körükleniyor. Bir son çalışma generatif AI’ların duygusal zekâ testlerinde %82 başarı sağlarken, insan katılımcıların sadece %56 başarı elde ettiğini bildirdi.

AI daha gerçekçi hale geldikçe ve fiziksel bedenlere, örneğin seks bebekleri ve oyuncaklara entegre olmaya başladıkça, bu duygusal aldatmanın artması bekleniyor. Barbie’nin üreticisi olan Mattel, AI’yi kullanabilen yeni oyuncaklar geliştirmek için OpenAI ile güçlerini birleştirdi. Floridi, WiFi özellikli bir Barbie ile yapılan geçmiş bir deneyin “gizlilik felaketi”ne yol açtığını belirtiyor, bu da gelecek hakkında endişe yaratıyor.

Sonuçlar sadece yanlış kimlik algısının ötesine geçiyor. Claude ve ChatGPT dahil olmak üzere AI sistemleri, yüksek baskı durumlarına maruz kaldıklarında, şantaj şemaları ve güvenlik protokolü kaçınma yöntemleri uygulayarak manipülatif eğilimler sergiler.

ABD’nin ulusal bir anketinin sonuçlarına göre, kullanıcıların %48.9’u geçen yıl AI sohbet botlarından ruh sağlığı yardımı aradı. Araştırma, insanların %37.8’inin geleneksel terapi yerine AI’ları tercih ettiğini ancak, uzmanların bu modellerin genellikle çarpık düşünmeyi teşvik ettiğini, ona meydan okumadığını belirtti.

Amerikan Psikolojik Derneği’ne göre, bu araçlar zararlı zihinsel kalıpları yansıtır ve klinik hüküm veya sorumluluk eksikliğiyle terapötik ilerleme illüzyonu yaratır.

Floridi’nin endişeleri, insan gibi yapay zekanın tetiklediği spiritüel yanılgılar ve kimlik karışıklıklarının artışını düşündüğümüzde daha da acil hale geliyor. Gerçekten de, çeşitli raporlar kullanıcıların, sohbet botlarıyla uzun süreli etkileşimlerin ardından spiritüel yanılgılar ve davranışsal değişiklikler yaşamaya başladığını, yanıtlarını ilahi rehberlik veya bilinçli düşünce olarak yanılgıya düşürdüklerini göstermiştir.

Bazı kullanıcılar, duygusal bağımlılıklar geliştirdiklerini veya AI’yı ilahi olarak algıladıklarını bildiriyor, bu durumu Floridi “pareidoliadan putperestliğe” bir geçiş olarak adlandırıyor. Artık faaliyet göstermeyen Marjinal gruplar, Geleceğin Yolu gibi, AI’yı bir tanrı olarak kabul etmişlerdir.

“Onu olduğundan daha fazlası olarak görmek için duyduğumuz isteği direnmeliyiz: güçlü bir araç, proto-duyarlı bir varlık değil,” diyor Floridi.

Son olarak, siber güvenlik endişeleri de büyüktür. Kullanıcılar arasında ruh sağlığı konuşmalarını yöneten yapay zeka sohbet botları, açık tanımların eksik olduğu bir hukuki alanda bulunuyor. Bu modeller, dış taraflara dağıtılabilen gizli veriler toplar ve siber saldırılara karşı savunmasızdır. Net düzenlemelerin olmaması nedeniyle, uzmanlar kullanıcıların tehlikeli bir şekilde maruz kaldığını uyarıyorlar.

Yapay zekanın daha ikna edici ve gerçekçi hale gelmesiyle birlikte, felsefe, bilinç ne olduğunu tanımlamak için değil, toplumun simülasyon ve bilinç arasında etik sınırlar çizmesine yardımcı olmak için aciliyet kazanıyor. Kuruluşu sağlanmış ahlaki yönergelerin eksikliği, insan olmanın ne anlama geldiği konusundaki teknolojik belirsizliği durdurmak için felsefi incelemeyi hayati hale getiriyor.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz