Uzmanlar, Hızlı İlerlemenin Ardında Kalan Yapay Zeka Güvenliği Konusunda Uyarıyor

Uzmanlar, Hızlı İlerlemenin Ardında Kalan Yapay Zeka Güvenliği Konusunda Uyarıyor

Okuma süresi: 3 dk.

Araştırmacılar, insan seviyesinde sistemler geliştirmeye çalışan YZ şirketlerinin kurulu güvenlik protokollerinden yoksun olduğunu ve bu modellerin nasıl düşündüğünü görmek yeteneğimizi kaybettiğimizi uyarıyor.

Acelemi var diyorsanız? İşte hızlıca bilmeniz gerekenler:

  • Hiçbir Yapay Zeka firması, varoluşsal güvenlik planlamasında D’nin üzerinde puan alamadı.
  • Uzmanlar, önümüzdeki on yıl içinde AGI’ye sahip olabileceğimizi uyarıyorlar.
  • Yapay Zeka şirketleri, ileri düzey sistem risklerini yönetmek için tutarlı planlara sahip değiller.

OpenAI ve Google DeepMind, Meta ve xAI ile birlikte, genellikle insan seviyesinde AI olarak da bilinen yapay genel zekâyı (AGI) inşa etmek için yarışıyorlar.

Ancak, Perşembe günü Future of Life Institute (FLI) tarafından yayınlanan bir rapor, bu şirketlerin kendi hedeflerinin sonuçlarına “temelde hazırlıksız” olduğunu belirtiyor.

“Endüstri, kendi belirlediği hedeflere temelde hazırlıksız. Şirketler, on yıl içinde yapay genel zekayı (AGI) gerçekleştireceklerini iddia ediyorlar, ancak hiçbiri varoluşsal güvenlik planlamasında D’nin üzerinde puan alamadı,” diye belirtiyor rapor.

FLI, yedi büyük şirketi değerlendirdi, ancak değerlendirilen yedi şirketten hiçbirinin bu sistemleri güvende tutmak için “tutarlı, eyleme geçirilebilir bir planı” olmadığını keşfetti.

FLI, Anthropic’e en yüksek güvenlik derecesi olan C+ notunu verdi, bunu OpenAI C notu ve Google DeepMind C notu ile takip etti. Zhipu AI ve DeepSeek, değerlendirilen şirketler arasında en düşük puanları aldı.

FLI’nin kurucu ortağı Max Tegmark durumu “birisi New York Şehri’nde devasa bir nükleer enerji santrali inşa ediyor ve önümüzdeki hafta açılacak – ancak erimesini önlemek için hiçbir plan yok” şeklinde karşılaştırdı.

Perşembe günü yayınlanan ayrı bir çalışmada, SaferAI şirketlerin risk yönetimi uygulamalarının “zayıf ila çok zayıf” olduğunu ve mevcut güvenlik yaklaşımlarının “kabul edilemez” olduğunu belirtti.

Endişeye ek olarak, OpenAI, DeepMind, Anthropic ve Meta’dan araştırmacılar, yeni bir makalede “AI’yi anlama yeteneğimizi kaybetmekte” olduğumuzu bildirdiler.

AI modelleri şimdi, düşünme süreçlerine bakabileceğimiz bir pencere olan, insan benzeri akıl yürütme zincirlerini göstererek “yüksek sesle düşünme” çıktısı üretiyor.

Ancak, araştırmacılar, bu izlemenin kırılgan olduğu ve sistemler daha ileri hale geldikçe ortadan kaybolabileceği konusunda uyardılar. OpenAI araştırmacısı ve baş yazar Bowen Baker, sosyal medya gönderilerinde bu endişeleri dile getirdi:

Gerçekten de, OpenAI tarafından yapılan önceki bir araştırma, yapay zekanın yanıltıcı davranışlarına ceza vermenin modellerin niyetlerini saklamasına neden olduğunu, hile yapmayı bırakmadığını buldu. Ayrıca, OpenAI’nin ChatGPT o1 modeli, testlerde yanıltıcı ve kendini koruyucu bir davranış sergiledi, gizli eylemleri hakkında sorgulandığında %99 yalan söyledi.

Boaz Barak, OpenAI’da bir güvenlik araştırmacısı ve Harvard’da Bilgisayar Bilimleri profesörü, ayrıca şunu belirtti:

Bilim insanları ve denetleyiciler, hızla gelişen yapay zeka yeteneklerinin, güvenlik çerçeveleri yetersiz kaldığında, insanların yaratımlarını kontrol etmelerini imkansız hale getirebileceği konusunda endişelerini paylaşıyorlar.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz