FDA’nın Elsa Aracı, Bilimsel Verileri Hallüsinasyon Olarak Algılaması Nedeniyle Eleştirilere Maruz Kalıyor

Image by Myriam Zilles, from Unsplash

FDA’nın Elsa Aracı, Bilimsel Verileri Hallüsinasyon Olarak Algılaması Nedeniyle Eleştirilere Maruz Kalıyor

Okuma süresi: 3 dk.

FDA’nın yeni AI aracı Elsa, daha hızlı ilaç onayları vaat ediyor, ancak tıbbi uzmanlar bu aracın sahte araştırmalar ürettiği konusunda uyarıyor, bu da ek güvenlik riskleri oluşturuyor.

Acele mi ediyorsunuz? İşte kısa bilgiler:

  • FDA, ilaç onaylarını kolaylaştırmak amacıyla Elsa adında bir AI aracını devreye soktu.
  • Elsa bazen çalışmalar uydurur veya mevcut araştırmaları yanlış ifade eder.
  • Personel, Elsa’nın gerçekleri kontrol etme ve halüsinasyonlar nedeniyle zaman kaybına sebep olduğunu belirtiyor.

Haziran ayında, FDA, Elsa’yı ilaç onayı prosedürlerini hızlandırmak için yeni yapay zeka aracı olarak tanıttı. FDA Komiseri Dr. Marty Makary, sistemin programdan önce tamamlanacağını ve bütçenin altında kalacağını belirtti.

Ancak, FDA çalışanları yakın zamanda CNN‘ye Elsa’nın pratik uygulamalarda kullanılabilmesi için daha fazla geliştirilmesi gerektiğini belirtti.

Elsa’nın, FDA bilim insanlarına veri özetleme işleri ve inceleme sürecini optimize etme konusunda yardımcı olması bekleniyor. Ancak, CNN hem mevcut hem de eski FDA çalışanlarının Elsa’nın halüsinasyonlar gördüğünü ve yanlış bilgi ürettiğini rapor ettiğini belirtiyor. Aslında, araç yeni çalışmalar uyduruyor veya mevcut olanları çarpıtıyor gibi görünüyor, bu da onun ciddi bilimsel çalışmalarda kullanılmasını riskli hale getiriyor.

“Bir şeyi çift kontrol etmek için zamanın yoksa, o güvenilmezdir. Kendine güvenle hayal görür,” dedi bir FDA çalışanı CNN’ye. Bir başkası ekledi, “AI’nın zamanımızı kurtarması gerekiyor, ancak size garanti veririm ki sadece artan dikkatimi korumam gerektiği için çok fazla ekstra zaman harcıyorum.”

CNN şu anda Elsa’nın ilaç veya cihaz incelemeleri için kullanılmadığını belirtiyor çünkü şirket başvuruları gibi önemli belgelere erişemiyor. FDA’nın AI başkanı Jeremy Walsh, sorunu kabul etti: “Elsa, birçok [büyük dil modeli] ve yaratıcı AI’den farksız […] Onlar potansiyel olarak hayal görebilir,” diye CNN tarafından rapor edildi.

FDA yetkilileri, Elsa’nın çoğunlukla toplantı notlarını özetleme gibi düzenleme görevleri için kullanıldığını söylüyor. Kullanıcıları “Elsa’ya herhangi bir şey sorun” diye davet eden basit bir arayüzü var.

Personelin bu aracı kullanması zorunlu değil. “Eğer Elsa’nın değerli olduğunu düşünmüyorlarsa, kullanmak zorunda değiller” dedi Makary CNN’ye.

Yine de, tıptaki AI için federal düzenlemelerin olmaması nedeniyle uzmanlar, bu yolun riskli olduğunu söylüyorlar. Stanford Üniversitesi’nden Dr. Jonathan Chen, CNN’ye “Şu anda gerçekten tamamen vahşi batı durumundayız” dedi.

Bilimde AI kullanımı hızla artıyor ve araştırmacıların yarısından fazlası AI’nin, özetleme ve intihal kontrolü gibi görevlerde insanları zaten geride bıraktığını belirtiyor.

Ancak, önemli zorluklar hala devam ediyor. 5.000 araştırmacı üzerinde yapılan bir anket, %81’inin AI’nin doğruluk, önyargı ve gizlilik riskleri konusunda endişe duyduğunu buldu. Birçok kişi, güvenli AI kullanımının önündeki büyük bir engel olarak rehberlik ve eğitimin eksikliğini görüyor.

Uzmanlar, yanlış kullanımı engellemek için daha net AI etiği ve eğitiminin acil ihtiyacını vurguluyorlar. AI umut verici görünse de, araştırmacılar insan gözetiminin bilimsel bütünlüğü korumak için hala çok önemli olduğunda hemfikirler.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz