Hackerlar, AI Özetleyicileri Kullanarak Zararlı Yazılım Yayabilirler

Image by Nahel Hadi, from Unsplash

Hackerlar, AI Özetleyicileri Kullanarak Zararlı Yazılım Yayabilirler

Okuma süresi: 2 dk.

Yeni bir siber güvenlik araştırması, hackerların AI özetleyicileri kullanarak fidye yazılımı saldırıları yayma konusunda endişe verici bir yolunu ortaya çıkardı.

Acelemi var mı? İşte hızlıca öğrenmeniz gerekenler:

  • Görünmez CSS hileleri, yükleri insanlara okunamaz kılar ancak AI tarafından görünür hale getirir.
  • Aşırı istek yüklemesi, çıktıyı kontrol etmek için AI’ye tekrarlanan komutlarla doldurur.
  • Özetleyiciler farkında olmadan, bilgisiz kullanıcılara fidye yazılım adımlarını sunabilir.

CloudSek’teki araştırmacılar, bir ClickFix sosyal mühendislik saldırısı aracılığıyla, hackerların görünmez kodlama tekniklerini kullanarak belgelere zararlı talimatlar yerleştirebileceğini açıklıyorlar. Gizli metin, insan gözüne görünmez kalırken, AI özetleyiciler bunu algılayabilir ve özetler oluştururken, tehlikeli talimatları bilmeden kullanıcılara aktarabilirler.

“ClickFix sosyal mühendislik tekniğinin yeni bir roman uyarlaması tespit edildi, görünmez istem enjeksiyonunu kullanarak AI özetleme sistemlerini silahlandırıyor,” dedi araştırmacılar.

Saldırı, talimatları gizlemek için sıfır genişlikli karakterler ve beyaz-beyaz metin ve minik yazı tipleri ve ekran dışı yerleşim kullanan CSS tabanlı karartmaya bağlıdır. Özetleyici, insan gözüne görünmez kalan görünmez kodu algılar.

Saldırganlar, AI’nın çıktısında bu komutları öncelikli olarak seçmesine neden olan gizli bölümlere çok sayıda komut ekleyerek ani bir aşırı yüklemeyi uygularlar.

“Bu şekilde hazırlanmış içerikler dizine eklendiğinde, paylaşıldığında veya e-posta ile gönderildiğinde, onu işleyen herhangi bir otomatik özetleme süreci, saldırganın kontrolündeki ClickFix talimatlarını içeren özetler üretecektir,” şeklinde çalışma açıklıyor.

Test sırasında, araştırmacılar bir AI özetleyicinin, kullanıcılara tehlikeli PowerShell komutlarını çalıştırmaları için nasıl manipüle edilebileceğini gösterdiler. Test sürümü zararsız olmasına rağmen, gerçek bir saldırı kolayca fidye yazılımı başlatabilir.

Bu saldırının risk seviyesi yüksektir çünkü AI özetleyiciler, e-posta istemcilerine, tarayıcılara ve işyeri uygulamalarına entegre edilmiştir. Araştırmacılar, birçok kişinin özeti, orijinal belgeyi okumadan güvendiğini ve bu durumun saldırganların bu güveni sömürmesini kolaylaştırdığını belirtmektedirler.

Uzmanlar, içerik özetlenmeden önce gizli metnin çıkarılmasını, şüpheli istemlerin filtrelenmesini ve özetlerin adım adım talimatlar içermesi durumunda kullanıcıları uyarmayı savunma yöntemleri olarak öneriyorlar.

Bu korumalar olmadan, AI, istemeden “sosyal mühendislik zincirinde aktif bir katılımcı” haline gelebilir.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz