Stanford ve Berkeley Üniversiteleri araştırmacıları, henüz hakem onayına sunulmayan bir araştırma makalesinde GPT-3,5 ve GPT-4'ün "davranışlarını" önemli ölçüde değiştirdiğini iddia ediyorlar.
Bu araştırmaya göre, ChatGPT'nin yanıtlarının doğruluğu zamanla azalıyor. Makalede, GPT-4'ün Mart 2023'te asal sayıları belirleme konusunda yüzde 97,6 doğruluk payıyla başarılı olduğu, ancak Haziran sonuna gelindiğinde aynı sorulara yalnızca yüzde 2,4 oranında doğru cevap verebildiği aktarılıyor.
Araştırmacılar ayrıca, her iki sürümün de kod yazımında kötüleşme olduğunu belirtiyor. Sohbet botunun Haziran'da yazdığı kodlarda, Mart'a kıyasla daha fazla biçimlendirme hatası tespit ediliyor.
Independent Türkçe'nin haberine göre, birçok kullanıcı da bu durumdan şikayetçi. Hatta bazı kullanıcılar, sohbet botunun kasten değiştirildiğini düşünüyor.
Ancak, yapay zeka firması OpenAI bu iddiaları yalanlıyor. Ürün başkan yardımcısı Peter Welinder, "Hayır, GPT-4'ü daha aptal yapmadık" diyor ve "Tam tersine, her yeni sürümü bir öncekinden daha akıllı hale getiriyoruz" şeklinde açıklama yapıyor.
Welinder, kullanıcı deneyimindeki değişikliklerin sürekli kullanımdan kaynaklanabileceğini savunuyor. Makalede, ChatGPT'nin performans düşüklüğünün nedenleri belirtilmemiş olsa da, performans değişikliğinin var olduğu belirtiliyor. Araştırmacılar, GPT-3,5 ve GPT-4'ün performanslarının önemli ölçüde değiştiğini ve zaman içinde bazı görevlerde performanslarının kötüleştiğini tespit etmişler.