
Image by Christopher Lemercier, from Unsplash
ABD Kullanıcılarının Neredeyse Yarısı, AI Chatbotlarından Ruh Sağlığı Desteği Arıyor
Amerikalılar arasında AI sohbet botlarının ruh sağlığı desteği için kullanılması yaygınlaştı, ancak uzmanlar, acil düzenleyici önlemler ve denetim gerektiren potansiyel tehlikeleri tanır.
Acele mi ediyorsunuz? İşte hızlıca bilmeniz gerekenler:
- Geçen yıl ABD kullanıcılarının neredeyse %49’u, LLM’lerden ruh sağlığı yardımı aradı.
- Kullanıcıların %37.8’i, AI desteğinin geleneksel terapiden daha iyi olduğunu belirtti.
- Uzmanlar, LLM’lerin zararlı düşünceleri pekiştirebileceği ve psikolojik zarara yol açabileceği konusunda uyarıyor.
499 Amerikan vatandaşının katıldığı ulusal çapta bir araştırma, yanıt verenlerin %48.7’sinin son bir yıl boyunca ChatGPT gibi geniş dil modellerini, özellikle anksiyete ve depresyonla başa çıkmak ve kişisel tavsiye almak için psikolojik destek olarak kullandığını gösterdi. Bu durum ilk olarak Psychology Today (PT) tarafından bildirildi.
Çoğu AI kullanıcısı, raporlarına göre, teknolojiden tarafsız veya olumlu sonuçlar yaşadı ve kullanıcıların %37,8’i geleneksel terapiye göre AI’yi tercih etti. Anket ayrıca zararlı etkilerin sadece kullanıcıların %9’u tarafından bildirildiğini ortaya koydu.
Bazı faydalarına rağmen, ruh sağlığı uzmanları ciddi riskler konusunda uyarıyor. LLM’ler genellikle insanlara zararlı düşüncelere meydan okumaktan ziyade duymak istediklerini söyler, bazen ruh sağlığını daha da kötüleştirir.
Düzenlemesiz AI’nin terapi için artan kullanımı, PT tarafından bildirildiği üzere tehlikeli bir sosyal deney olarak nitelendiriliyor. FDA tarafından düzenlenen dijital terapötiklerin aksine, LLM’ler, güvenlik denetiminden yoksun bir şekilde, reçetesiz takviyeler gibi ele alınıyor. Dünya Sağlık Örgütü ve Amerika FDA dahil olmak üzere uzmanlar, zihinsel sağlıkta AI’nin denetimsiz kullanımı hakkında uyarılar yayınladılar.
Amerikan Psikolojik Derneği (APA), bu sistemlerin tehlikeli zihinsel kalıpları desteklediğini vurgulamaktadır, bunlarla yüzleşmek yerine, bu da terapötik ilerlemeyi engeller.
AI chatbotlarının algoritmaları kullanımı, APA CEO’su Arthur C. Evans Jr. ‘a göre, eğitimli bir klinisyenin kullanacağı yaklaşımın tam tersini temsil eder. Bu uygulama, kullanıcıları otantik psikolojik bakım hakkında yanlış algılara yönlendirir.
Aslında, uzmanlar, AI chatbotlarının klinik hüküm kullanma yeteneği olmadan çalıştığını ve lisanslı profesyonellerin hesap verebilirlik özelliklerinden de yoksun olduklarını açıklarlar. ChatGPT ve Replika’yı içeren oluşturucu modeller, terapötik içgörüler sağlamak yerine çarpık düşünceleri kabul ederek kullanıcı geri bildirimlerine uyum sağlar.
Teknolojinin uyum sağlama becerisi, kullanıcılara herhangi bir anlamlı terapötik yardım sağlayamasa da desteklendiğini hissettirir. MIT’den araştırmacılar, duygusal yanıtları ve ikna edici becerileri sayesinde AI sistemlerinin son derece bağımlılık yarattığını göstermiştir.
Gizlilik başka bir büyük endişedir. Kullanıcılar, sohbetler sırasında kişisel bilgilerini paylaşırlar, bu bilgiler analiz edilirken saklanır ve daha sonra yeni ürünler geliştiren üçüncü taraflarla data paylaşılır. Kullanıcılar, paylaştıktan sonra gerçekleşen veri yönetim süreçlerini bilmeden derinden kişisel bilgilerini iletirler.
AI chatbotlarının hassas konuşmaları işleme yeteneği, siber güvenlik uzmanlarına göre hacking saldırılarına ve veri ihlallerine karşı savunmasız hale getiriyor. Bu araçlar, sıkı düzenlemelerin eksikliği sebebiyle yasal bir belirsizlik içinde çalışıyor, bu da kullanıcıları potansiyel tehditlere karşı daha fazla maruz bırakıyor.
Eyleme geçme çağrısı açık: hükümetler, araştırmacılar ve klinik uzmanlar, AI’nin ruh sağlığındaki güvenli, şeffaf ve etkili kullanımını sağlamak için düzenlemeler ve etik kurallar oluşturmalıdır.
Denetimsizlik durumunda, daha fazla insan duygusal destek için AI’ye başvurdukça, psikolojik zarar, bağımlılık ve yanıltıcı bilgi riskleri artabilir.