Photo by Glen Carrie on Unsplash
Anthropic, Hacker’ın Chatbot’unu Siber Saldırılar için Kullandığını Açıkladı
AI şirketi Anthropic, Çarşamba günü yeni bir siber güvenlik raporu yayınladı ve bu rapor, kötü niyetli aktörlerin karmaşık suç operasyonları için Claude adlı AI modelini kullandığını ortaya koydu. Start up şirketi, bir hacker’ın yakın zamanda “vibe hacking” olarak bilinen yeni bir teknikle yaklaşık 17 kuruluşu hedef aldığını belirtti.
Acele mi ediyorsunuz? İşte hızlıca öğrenmeniz gerekenler:
- Anthropic, hackerların karmaşık suç operasyonları için kendi AI modeli Claude’ı kullandığını ortaya çıkardı.
- Start-up, Kuzey Kore’den bir kötü niyetli kişinin, yaklaşık 17 organizasyonu hedef alan fidye yazılım saldırıları için Claude Kodunu kullandığı bir olayı paylaştı.
- Start-up, ortaya çıkan “vibe hacking” vakaları konusunda uyarıyor.
Anthropic’in duyurusuna göre, şirket teknolojinin kötüye kullanılmasını önlemek için bir dizi güvenlik önlemi uygulamıştır, ancak siber suçlular bunu istismar etmenin yollarını bulmuştur.
Bildirilen vakalardan birinde, bir startup, temel kodlama becerilerine sahip bir hacker’ın, Kuzey Kore’den kaynaklanan bir dolandırıcılık planını yürütmek için Claude Code – bir ajan kodlama aracı – kullandığı büyük bir suç operasyonunu ifşa etti.
“Artık AI modelleri, sadece nasıl gerçekleştirilecekleri konusunda tavsiye vermek yerine, sofistike siber saldırıları gerçekleştirmek için kullanılıyor,” diye belirtiyor duyuru. “Teknik becerilere sahip olmayan suçlular, daha önce yıllarca eğitim gerektiren karmaşık operasyonları, örneğin fidye yazılımı geliştirmeyi, AI ile gerçekleştiriyorlar.”
Sunulan ana durumda, hacker Claude Code’u kullanarak 17 kuruluştan, acil servisler, hükümet kurumları, sağlık hizmetleri sağlayıcıları ve dini kurumlar dahil olmak üzere veri çaldı. Kötü niyetli aktör daha sonra kurbanları tehdit etti, bazı durumlarda 500.000 dolardan fazla talep etti.
Anthropic, AI ajanının hangi verinin dışa aktarılacağına karar vermek, şantaj mesajları taslakları oluşturmak ve hatta her kurban için özel olarak belirlenen fidye miktarlarını önermek için kullanıldığını bildirdi.
“Oyuncu, inandığımız ölçüde eşi görülmemiş bir derecede AI kullandı,” diye belirtiyor duyuru. “Bu, AI destekli siber suçlarda bir evrimi temsil ediyor.”
Şirket, kötü amaçlı operasyonları tespit ettiği anda, hesapları engelledi ve gelecekte benzer durumların önlenmesi için yeni tarama ve algılama araçları geliştirdiğini belirtti. Daha fazla detay, tam raporda yer aldı.
Anthropic, ayrıca ortaya çıkan “vibe hacking” teknikleri konusunda da uyarıda bulundu. Şirket, “Yapay zeka destekli kodlamanın, siber suç için gereken teknik uzmanlığı azalttıkça bu tür saldırıların daha yaygın hale geleceğini öngörüyoruz” diye belirtti.
Son olarak, Anthropic, mevcut siber planlara AI’nin artan entegrasyonunu vurguladı, Nisan ayında bildirildiği gibi, Kuzey Koreli IT çalışanları dolandırıcılığı gibi örnekler vererek, bu dolandırıcılıkta hacker’ların Amerikalı vatandaşların kimliklerini çalarak Amerika Birleşik Devletleri’nde uzaktan işler bulmayı başardığını söyledi.