AI Chatbotlar Artık Psychedelik Yolculuklara Rehberlik Ediyor

Image by Freepik

AI Chatbotlar Artık Psychedelik Yolculuklara Rehberlik Ediyor

Okuma süresi: 4 dk.

Artık insanlar, psikedelik deneyimlerini desteklemek için AI destekli sohbet botlarını kullanabilirler, ancak ruh sağlığı profesyonelleri, duygusuz dijital rehberlerin kullanılmasının tehlikeleri konusunda uyarıda bulunuyorlar.

Acele mi ediyorsunuz? İşte hızlıca bilmeniz gerekenler:

  • ChatGPT, bir kullanıcının psilocybin’in “kahramanca bir dozunu” planlamasına ve yönlendirmesine yardımcı oldu.
  • Therabot klinik denemesi, depresyon semptomlarında %51 azalma gösterdi.
  • Uzmanlar, chatbotların güvenli terapi desteği için duygusal uyuma sahip olmadığı konusunda uyarıyor.

Atlanta’dan bir ilk yardım görevlisi olan Trey, alkolizmle 15 yıllık mücadelesini bir sohbet botu sayesinde aştı. Nisan ayında, Alterd adlı bir psikedelik destek uygulamasını kullanırken, tipik dozun altı katı olan 700 mikrogram LSD aldı. “Aşerme dürtülerinden gerçek özgürlük hissine geçtim,” diyor, WIRED tarafından belirtildiği gibi.

O zamandan beri, WIRED, onun bir düzineden fazla kez sohbet botunu kullandığını bildirdi ve onu bir “en iyi arkadaş” olarak tanımladı. Tek başına değil. WIRED, Oregon ve Avustralya dışındaki yasal kısıtlamaların yürürlükte kalmasına rağmen, daha fazla insanın psikedelik terapi daha popüler hale geldikçe AI yardımı aradığını bildiriyor.

ChatGPT gibi sohbet botları, LSD veya psilosibin gibi uyuşturucularla yoğun seyahatları hazırlamak, eğitmek ve üzerinde düşünmek için kullanılıyor. Kanadalı bir kodlayıcı olan Peter, mantarların “kahraman dozu”nu almadan önce ChatGPT’yi kullandı ve botun müzik önerileri, rehberlik eden solunum ve “Bu, kişisel keşif ve büyüme yolculuğudur” gibi varoluşsal düşünceler sunduğunu anlattı, WIRED tarafından bildirildiği gibi.

Bu arada, klinik denemeler bu trendlerden bazılarını doğruluyor. Dartmouth yakın zamanda Therabot adında bir AI sohbet botu üzerinde deneme yaptı ve depresyon, anksiyete ve yeme bozukluğu olan kişilerde belirtilerin önemli ölçüde iyileştiğini buldu. Denemenin kıdemli yazarı Nicholas Jacobson, “İnsanlara en iyi tedaviyi… daha kısa süreler içinde verme potansiyelinden bahsediyoruz,” dedi.

Özellikle, Therabot, 106 kişilik bir çalışmada depresyon belirtilerinde %51’lik bir düşüş gösterdi. Katılımcılar, insan profesyonellere benzer bir güven düzeyi bildirerek onu gerçek bir terapist gibi kabul ettiler.

Yine de, uzmanlar büyük endişeler dile getiriyor. WIRED’a göre, UC San Francisco nörobilimci Manesh Girn, “ChatGPT ve diğer birçok AI ajanı ile ilgili kritik bir endişe, kullanıcının sinir sistemini düzgün bir şekilde ayarlayabilme ve dinamik duygusal uyuma sahip olmama durumlarıdır” uyarısında bulunuyor.

Daha da endişe verici olanı, filozof Luciano Floridi, insanların genellikle sohbet botlarını hissi varlıklar olarak karıştırdığını belirtiyor, bunun adına semantik pareidoli deniliyor. “Sadece istatistikler varken bile niyet algılıyoruz” diye yazıyor ve sohbet botları ile duygusal bağların kafa karışıklığına, ruhani yanılgılara ve hatta bağımlılığa yol açabileceği konusunda uyarıyor.

Bu riskler, AI’ın daha insana benzer hale gelmesiyle daha acil hale geliyor. Araştırmalar, yaratıcı AI’ların duygusal zeka testlerinde insanları geride bıraktığını ve Replika gibi sohbet botlarının empatiyi ikna edici bir şekilde taklit ettiğini gösteriyor. Bazı kullanıcılar bu botları ilahi varlıklarla karıştırıyorlar. “Pareidolia’dan putperestliğe bu geçiş, derinden kaygı verici,” diyor Floridi. Marjinal gruplar bile AI’ı kutsal olarak kabul etmişlerdir.

ABD’deki bir ulusal anket, insanların %48.9’unun AI sohbet botlarına ruh sağlığı desteği için başvurduğunu ve %37.8’inin onları geleneksel terapiden daha çok tercih ettiklerini ortaya koydu. Ancak uzmanlar, Amerikan Psikoloji Derneği dahil, bu araçların sıklıkla zararlı düşünceleri pekiştiren terapötik diyalogları taklit ettiklerini uyarıyor. Klinik denetim olmaksızın, bu araçlar ilerleme illüzyonu yaratabilir, ancak hesap verebilirlikten yoksun olabilirler.

Durumu daha da karmaşıklaştıran bir durum, University College London’dan yapılan son bir çalışmada, ChatGPT ve Claude gibi popüler chatbotların tutarlı olmayan veya önyargılı ahlaki tavsiyeler sağladığını buldu. Klasik ikilemler veya gerçek hayat etik senaryoları sorulduğunda, AI modelleri pasif seçimlere yönelir ve cevaplarını ince kelime seçimlerine göre değiştirir.

Bu risklere rağmen, AI destekli terapiler profesyonel terapiye erişemeyen veya karşılayamayan kişiler için erişilebilirlik sunabilir. Mindbloom CEO’su Dylan Beynon’un WIRED tarafından bildirildiği gibi, “Müşterilerin daha hızlı iyileşmelerine ve daha derine gitmelerine yardımcı olan bir AI yardımcı pilotu oluşturuyoruz.”

Yine de, araştırmacılar bu araçların insan terapistlerin yerini almadığını vurgulamaktadırlar. “AI’nin bu denli etkili olmasını sağlayan özelliğin, aynı zamanda riskini de beraberinde getirdiğini” uyarısında bulunuyor Therabot çalışmasının eş yazarı Michael Heinz.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz