Yeni Zararlı Yazılım, Saldırıları Anında Oluşturmak İçin GPT-4 Kullanıyor

Image by Xavier Cee, from Unsplash

Yeni Zararlı Yazılım, Saldırıları Anında Oluşturmak İçin GPT-4 Kullanıyor

Okuma süresi: 2 dk.

Güvenlik araştırmacıları, büyük dil modellerini (LLM’ler) kullanarak zararlı eylemleri anında oluşturan kötü amaçlı yazılımların erken kanıtlarını buldular.

Acele mi ediyorsunuz? İşte hızlıca bilmeniz gerekenler:

  • Araştırmacılar, LLM’leri kullanarak çalışma zamanında kod oluşturan zararlı yazılımları buldular.
  • MalTerminal adlı zararlı yazılım, fidye yazılımı ve kabukları oluşturmak için GPT-4 kullanmış.
  • Geleneksel antivirüs araçları, çalışma zamanında oluşturulan kötü amaçlı kodları tespit etmekte zorlanıyor.

Bulgular, LABScon 2025’te “Doğada Bulunan LLM-Enabled Malware” adlı bir sunumda sunuldu.

SentinelLABS’a göre, “LLM ile etkinleştirilmiş zararlı yazılımlar, kötücül mantığın kodda gömülü olmasından ziyade çalışma zamanında oluşturulabilmesi nedeniyle, tespit ve tehdit avlaması için yeni zorluklar oluşturur.”

Bu tehditler, zararlı kodun çalışma zamanına kadar var olmayışı dolayısıyla standart antivirüs sistemlerinin tespit edemeyeceği, çalıştırma tabanlı yöntemler aracılığıyla işler.

Ekip, bu tür bir kötü amaçlı yazılımın belki de en erken örneğini belirledi ve ona ‘MalTerminal’ adını verdi. Python temelli bu sistem, OpenAI’den GPT-4 API’yi kullanarak fidye yazılımı saldırıları ve ters kabuk saldırıları oluşturur.

Araştırmacılar, saldırganların LLM’lerle nasıl deney yapabileceğini göstermek için ek saldırı araçları belgeledi. Bunlar arasında, zafiyet enjektörleri ve phishing yardımcıları bulunmaktadır.

“Görünüşe göre, kötü niyetli işlevselliğini uçtan uca kod oluşturabilen bir LLM’ye devreden zararlı yazılım, bir tespit mühendisinin kâbusu gibi görünüyor,” diye yazdı araştırmacılar.

Diğer örnekler arasında 2023’te bir AI tabanlı fidye yazılımı olarak ortaya çıkan ‘PromptLock’ ve Rus grup APT28 ile bağlantılı olan PROMPTSTEAL adlı zararlı yazılım bulunuyor. Araştırmacılar, PROMPTSTEAL’ın 284 HuggingFace API anahtarı gömülü olduğunu ve dosyaları çalmak için sistem komutları üretmek için LLM’ler kullandığını açıklıyor.

Araştırmacılar, karmaşıklıklarına rağmen, LLM ile etkinleştirilmiş zararlı yazılımların “gömülü API anahtarları ve istemler” içermesi gerektiğini ve bu durumun, savunucuların izleyebileceği izler bıraktığını buldular. “Bu, LLM ile etkinleştirilmiş zararlı yazılımı bir tür merak konusu yapar: eşsiz yeteneklere, adapte olabilirliğe sahip ve yine de kırılgan bir araç.”

Şimdilik, LLM ile etkinleştirilmiş zararlı yazılımların kullanımı nadir ve çoğunlukla deneysel görünüyor. Ancak uzmanlar, düşmanların yöntemlerini geliştirdikçe, bu araçların ciddi bir siber güvenlik tehdidi haline gelebileceği konusunda uyarıyorlar.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz