
Photo by Mitchell Luo on Unsplash
Google’ın Yapay Zekası, Uydurma Deyim Anlamları Hallüsinasyonu İçin Tekrar Viral Oldu
Sosyal medya kullanıcıları, Google’ın AI Overviews özelliğinin, rastgele bir ifadenin ardından “anlam” kelimesini içerdiğinde sahte deyimler için açıklamalar ve tanımlar sağladığını fark etti. Bu AI tarafından oluşturulan yanıtların birçoğu viral hale geldi ve sosyal medya kullanıcıları arasında kahkahalara neden oldu.
Acele mi ediyorsunuz? İşte hızlıca öğrenebileceğiniz bilgiler:
- Sosyal medya kullanıcıları, Google’ın AI Overviews’un sahte deyimler için açıklamalar uydurduğunu fark etti.
- Threads, X ve Bluesky’deki birden çok kullanıcı, saçma, uydurma deyimlerin benzer hayallerini bildirdi.
- AI Overviews’un yanlış bilgi sağladığı için viral olma konusunda ilk kez değil.
Bu, AI Overviews’ın utanç verici bir ün kazandığı ilk zaman değil. Geçen yıl, Google Search’ün AI aracı yanlış yanıtlar vererek viral oldu—bunlardan bazıları güncelliğini yitirmiş Reddit gönderilerine dayanıyordu—bu durum, modelin güvenilirliğini, doğruluğunu ve kesinliğini zayıflattı.
Bu sefer, AI modeli kullanıcılara uydurma deyimlere “ciddi” yanıtlar verdi. Mashable’a göre, AI modellerinin bir cevap verme ihtiyacı, doğru bir yanıt vermek için gerekli bilgiye sahip olmasalar bile, artık “AI-splaining” olarak biliniyor.
Kahvemi püskürttüm.
Buna ben “AI-splaining” diyorum. pic.twitter.com/K9tLIwoCqC
— Lily Ray 😏 (@lilyraynyc) 20 Nisan 2025
Birçok kullanıcı, AI Özetleri ile ilgili mevcut duruma dair birkaç örneği sosyal medyada paylaştı. “Threads’deki biri, herhangi bir rastgele cümleyi Google’a yazabileceğinizi, ardından ‘anlam’ ekleyebileceğinizi ve sadece uydurduğunuz ünlü bir deyim veya ifadenin AI tarafından açıklanacağını fark etti,” diye yazan bir Bluesky kullanıcısı, testinin ekran görüntülerini ekledi.
O, “kötü bir sansarıyı iki kez yalamazsın” diye yazdı, ardından “anlam” kelimesini ekledi ve AI modeli bu sahte deyim için bir açıklama sağladı: “Birini bir kez kandırdıktan sonra bir kez daha kandırabileceğiniz anlamına gelir.” AI Overviews daha ayrıntılı bir açıklama sağlamaya devam etti ve bunu kelime kelime açıkladı.
“Bu konuya verilen yanıtlar çok komik ama, bir uyarı işareti ki Google’ın ana işlevlerinden biri olan – bir alıntıyı doğrulama, bir kaynağı teyit etme veya yarıda hatırlanan bir şeyi bulma – yetenekleri, AI gerçekliği değil, istatistiksel olasılıkları meşrulaştırmayı tercih ettiği takdirde çok daha zorlaşacak” diye ekledi kullanıcı.
Yahoo! Tech‘den bir muhabir, “Asla atınızın Pokémon oynamasına izin vermeyin” gibi sahte Pokémon deyimlerini yazarak halüsinasyonu teyit etti ve AI modeli tamamen uydurma bir açıklamayla yanıtladı: “Bu, genellikle insan aktiviteleri olarak kabul edilen video oyunları oynama veya Pokémon kart oyunu gibi aktivitelerde bulunmasına izin vermemek için büyük bir hayvan ve güçlü bir iradeye sahip bir at hakkında mizahi ve hafif bir uyarıdır.”
Son birkaç ayda daha fazla ülke ve bölgeye genişleyen Google AI Overviews, son zamanlarda ayda 1.5 milyardan fazla kullanıcıya ulaştı.