
Image by Denise Chan, from Unsplash
Adam, ChatGPT’nin Tavsiyesini Takip Ettikten Sonra Kendini Zehirledi
Bir 60 yaşındaki adam, ChatGPT’den aldığı tavsiyeyi takiben nadir görülen 19. yüzyıl psikiyatrik hastalığına yakalandı.
Acele mi ediyorsunuz? İşte hızlıca bilgiler:
- O, üç ay boyunca masada tuzu zehirli sodyum bromür ile değiştirdi.
- Zehirlenme nedeniyle halüsinasyonlar, paranoya ve elektrolit dengesizlikleri yaşayarak hastaneye kaldırıldı.
- ChatGPT, sağlık uyarıları olmadan bromürü klorür yerine önerdi.
Internal Medicine Annals dergisinde yayınlanan bir olgu çalışması, sodyum bromür zehirlenmesi sonucu bromizm adı verilen bir durumdan muzdarip bir adamın durumunu ortaya koyuyor.
Anlaşılan bu durum, sofralık tuzunu tehlikeli bir kimyasal madde ile değiştirmeye çalışmasından kaynaklandı. ChatGPT’nin önerdiği bu maddeyi kullanmıştı. Adamın komşusunun kendisini zehirlediğini iddia ederek paranoya, işitsel ve görsel halüsinasyonlar yaşayarak acil servise geldiği bildirildi.
Yapılan tıbbi testler, normalin dışında klorür seviyeleri ve bromür zehirlenmesini doğrulayan diğer göstergeleri ortaya çıkardı. Adam, kısıtlı bir diyet uyguladığını ve tuzu sodyum bromür ile değiştirdiğini ifade etti. Bu durumu, ChatGPT’ye diyette klorürü nasıl ortadan kaldıracağını sorduktan sonra gerçekleştirdi.
“3 ay boyunca, ChatGPT ile yapılan görüşme sonrası internetten temin ettiği sodyum bromür ile sodyum klorürü değiştirmişti,” diye okuyoruz çalışmada. Araştırmacılar, sodyum bromürün tipik olarak bir köpek antikonvülsanı veya havuz temizleyici olarak kullanıldığını, ancak büyük miktarlarda insanlar için toksik olduğunu açıklıyorlar.
Adam, semptomları tedavi ile kademeli olarak iyileştiği hastanede üç hafta geçirdi.
Araştırma, AI araçlarının kullanıcılara eksik ve tehlikeli yönlendirmeler sağlayabileceğini vurguluyor. Bir testte, araştırmacılar ChatGPT’den klorür alternatifleri önermesini istedi ve sonuç olarak sodyum bromür yanıtını aldı. Bu yanıt, toksik doğası hakkında herhangi bir uyarıyı veya sorunun bağlamı için bir talebi içermiyordu.
Araştırma, AI’nin ayrıca yanıltıcı bilgiler yayabileceği ve bir sağlık profesyonelinin kritik yargısından yoksun olduğu konusunda uyarıyor.
404Media, OpenAI’nın yakın zamanda ChatGPT 5’teki gelişmeleri duyurduğunu, daha güvenli ve daha doğru sağlık bilgisi sağlamayı hedeflediğini belirtiyor. Bu durum, AI’nin dikkatli bir şekilde kullanılmasının ve sağlıkla ilgili kararlar için nitelikli tıbbi uzmanlara danışmanın önemini gösteriyor.