
Photo by 2H Media on Unsplash
Anthropic, AI Model Geliştirme İçin Şeffaflık Çerçevesi Öneriyor
AI şirketi Anthropic, Pazartesi günü ileri AI modelleri ve sınır AI sistemleri geliştiren şirketler için bölgesel veya uluslararası düzeyde uygulanması amaçlanan bir şeffaflık çerçevesi önerdi. Startup, AI şeffaflığını artırmak için güvenlik önlemleri, eyleme geçirilebilir adımlar ve minimum standartları belirledi.
Acele mi ediyorsunuz? İşte hızlıca almanız gereken bilgiler:
- Anthropic, ileri AI modelleri ve sınır AI sistemleri geliştiren şirketler için bir şeffaflık çerçevesi önerdi.
- Teknoloji şirketi, AI geliştirmenin hızlı ilerleyişi ve güvenli ürünler geliştirmek için güvenlik çerçevelerinde anlaşmanın aciliyetini kabul ediyor.
- Önerilen çerçeve, sektördeki büyük şirketlere yöneliktir.
Anthropic, web sitesinde yaptığı bir duyuru ile AI modellerinin geliştirilmesinin, şirketler, hükümetler veya akademi tarafından oluşturulan güvenceler ve anlaşmaların oluşturulmasından daha hızlı ilerlediğini belirtti. Teknoloji şirketi, tüm paydaşları AI ürünlerinin güvenli gelişimini sağlamak için çabalarını hızlandırmaya çağırdı ve şeffaflık çerçevesini model veya referans olarak sundu.
“Çok güçlü AI’nin güvenli, sorumlu ve şeffaf bir şekilde geliştirilmesini sağlamak için geçici adımlara ihtiyacımız var” diye belirtiyor duyuru. “Bu yüzden, federal, eyalet veya uluslararası düzeyde uygulanabilecek ve yalnızca en büyük AI sistemleri ve geliştiricileri için geçerli olacak, güvenlik uygulamaları için açık ifşa gereklilikleri belirleyen hedefe yönelik bir şeffaflık çerçevesi öneriyoruz.”
Anthropic’in yaklaşımı, esnek ve hafif olmasını sağlamak için basitleştirildi. “AI yeniliklerini engellememeli, AI’nın faydalarını gerçekleştirme yeteneğimizi yavaşlatmamalı – hayat kurtaran ilaç keşfi, kamu yararlarının hızlı teslimi ve kritik ulusal güvenlik fonksiyonları dahil” diye açıkladı şirket.
Teknoloji şirketi, teknolojinin hızla ilerlemeye devam etmesi nedeniyle katı çerçeveler ve standartların hızla eskimiş olabileceğini kabul etti.
Anthropic, AI şeffaflık gerekliliklerinin sadece büyük öncü model geliştiricilere uygulanması gerektiğini öneriyor, böylece küçük startup’ları ve düşük etkili geliştiricileri yük altında bırakmamış olur. Önerilen eşik yıllık 100 milyon dolar gelir veya yıllık 1 milyar dolarlık sermaye harcamalarıdır.
Büyük geliştiricilerin ayrıca, hatalı modellerin neden olduğu zararlar ve kimyasal, nükleer, biyolojik veya radyolojik silahların oluşturulması dahil olmak üzere riskleri nasıl azaltacaklarını içeren bir Kamu Güvenli Geliştirme Çerçevesi oluşturması gerekmektedir.
En katı önerilerden biri, muhbirleri korumayı hedefliyor. Anthropic, paylaşılan belgede “Bir laboratuvarın çerçevesine uyumu hakkında yalan söylemesini yasaya aykırı bir durum olarak açıkça belirtin,” diye yazdı. Şirket, şeffaflık standartlarının minimum bir tabanı içermesi ve konsensüs sağlamaya yardımcı olacak hafif gereksinimlerle esnek kalması gerektiğini vurguladı.
Anthropic, açıklamanın ve önerilen şeffaflık çerçevesinin, hükümetlerin yasaya alıp “sorumlu uygulama”yi teşvik etmek için bir rehber olarak hizmet etmesini bekliyor.
En son AI modeli Claude 4’ü yayınladıktan sonra, Anthropic bir güvenlik uyarısı ekledi—modeli, potansiyel risklerinden dolayı Güvenlik Seviyesi 3 olan Opus 4 olarak etiketledi.