Image by Nik Shuliahin, from Unsplash
Hastalar Alarmda: Terapistlerin Seanslar Sırasında Gizlice ChatGPT’ye Başvurması Ürkütücü
Bazı terapistlerin, hastalarına danışmak için gizlice ChatGPT’ye başvurdukları bulunmuştur, bu durum hastaların şaşırmış ve gizlilikleri konusunda endişelenmeye başlamıştır.
Acelesi olanlar için hızlıca özetleyelim:
- Bazı terapistler, müşterinin rızası olmadan gizlice ChatGPT’yi oturumlar sırasında kullanıyorlar.
- Bir hasta, ekran paylaşımındaki bir hata sayesinde terapistinin AI kullanımını keşfetti.
- Başka bir hasta, bir mesajda istem bırakıldığında terapistinin AI kullandığını fark etti.
MIT Technology Review tarafından yayınlanan yeni bir rapor, Los Angeles’tan 31 yaşındaki Declan’ın, bir teknik arıza sonucunda terapistinin seanslarında yapay zekâ kullandığını keşfettiği durumu gösteriyor.
Bir online seans sırasında, terapisti yanlışlıkla ekranını paylaştı. “Aniden, onun ChatGPT’yi kullanırken izliyordum,” diyor Declan. “Benim söylediklerimi ChatGPT’ye giriyor ve sonra cevapları özetliyor veya seçiyordu.”
Declan oyunu kabul etti, hatta AI’ın ifade biçimini bile yankıladı. “Gelmiş geçmiş en iyi hasta olmuştum,” diyor. “Eminim bu onun hayalindeki seanstı.” Ancak bu keşif onun, “Bu yasal mı?” diye sorgulamasına neden oldu. Terapisti daha sonra çıkmaza girdiği için AI’ye başvurduğunu itiraf etti. “O seanstan hala ücret alındı,” dedi Declan.
Diğer hastalar benzer deneyimler yaşadıklarını bildirmişlerdir. Örneğin, Hope, köpeğinin kaybı hakkında terapistine bir mesaj gönderdi. Cevap teselli edici görünüyordu, ta ki üstteki AI komutunu fark edene kadar: “İşte daha insancıl, kalpten ve nazik, sohbet eder gibi bir versiyon.” Hope şöyle anımsıyor, “Sonra kendimi biraz ihanete uğramış hissetmeye başladım. … Bu kesinlikle ona olan güvenimi etkiledi.”
Uzmanlar, açıklanmamış AI kullanımının psikoterapideki otantiklik temel değerini tehdit ettiği konusunda uyarıyor. “İnsanlar, özellikle psikoterapide, otantikliği değerlendirir,” diyor UC Berkeley’de profesör olan Adrian Aguilera, MIT tarafından bildirildiği üzere. Aguilera sonra şunları sordu: “Eşime veya çocuklarıma bir ChatGPT yanıtı mı veriyorum? Bu samimi hissettirmez.”
Gizlilik, diğer büyük bir endişe kaynağıdır. “Bu, hastayla ilgili herhangi bir bilgi açığa çıkarsa, hasta gizliliği için önemli riskler yaratır,” diyor Duke Üniversitesi’nden Pardis Emami-Naeini, MIT tarafından belirtildiği gibi.
Siber güvenlik uzmanları, derin kişisel konuşmaları yürüten chatbotların, hackerlar için cazip hedefler olduğunu belirtiyorlar. Hasta bilgilerinin ihlali, sadece gizlilik ihlallerine yol açmakla kalmaz, aynı zamanda hackerların kimlik hırsızlığı yapma, duygusal manipülasyon düzenlemeleri ve fidye yazılımı saldırıları için fırsatlar yaratır.
Ayrıca, Amerikan Psikolojik Derneği, AI sohbet botlarının aslında insan terapistlerin eğitildiği şekilde zorlu düşüncelere meydan okumak yerine, zararlı düşünceleri pekiştirebileceği için, bu botların ruh sağlığı hizmetleri sunmak gibi davranmalarını incelemesi için FTC’ye başvuruda bulunmuştur.
Bazı araştırmalar AI’nın daha profesyonel görünen yanıtlar oluşturabileceğini öne sürse de, şüphe tek başına hastaların güvenini kaybetmesine neden olur. Psikolog Margaret Morris’in dediği gibi: “Belki kendinize birkaç dakika kazandırıyorsunuz. Ama neyden vazgeçiyorsunuz?”