Araştırma, Yapay Zeka Sohbet Robotlarının Zaman İçinde Daha Az Güvenilir Hale Geldiğini ve Doğruluk Konusunda Endişelere Yol Açtığını Ortaya Koyuyor

Nature Scientific Journal ‘da yayınlanan yeni bir çalışma, yapay zeka sohbet robotlarının kendi kendini güçlendiren yanlışlıklar nedeniyle zaman içinde daha fazla hata yaptığını ve güvenilirlikle ilgili endişeleri artırdığını öne sürüyor. Araştırmacılar “yapay zeka halüsinasyonları” sorununa ve kullanıcıların chatbot yanıtlarını doğrulama ihtiyacının arttığına dikkat çekiyor.
Nature Scientific Journal‘da yayınlanan “Daha büyük ve daha öğretici dil modelleri daha az güvenilir hale geliyor” başlıklı yeni bir akademik makale, yeni modeller piyasaya sürüldükçe yapay zeka sohbet robotlarının daha az doğru hale gelmesi sorununa ışık tuttu. Lexin Zhou ve ekibi tarafından yürütülen araştırma, YZ sistemlerinin zaman içinde “YZ halüsinasyonları” olarak bilinen bir olgu olan yanlış bilgileri daha sık üretmeye eğilimli olduğunu ortaya koyuyor.
Online advertising service 1lx.online
Zhou’ya göre bu halüsinasyonlar, YZ modellerinin genellikle doğruluk pahasına makul yanıtlar üretmeye öncelik verecek şekilde tasarlanması nedeniyle ortaya çıkıyor. Zamanla bu eğilim, yanlış bilgilerin modelin öğrenme süreçlerine gömülü hale geldiği, kendi kendini güçlendiren bir döngüye yol açıyor. Bu sorun, yeni versiyonları eğitmek için eski modellerin kullanılması uygulamasıyla daha da kötüleşir ve sonuçta araştırmacıların “model çöküşü” olarak adlandırdıkları durumla sonuçlanır.
Tüketici Güveni Risk Altında
Yapay zeka sohbet robotları yaygınlaştıkça, tüketicilerin bu araçlara olan güveni de artıyor. Ancak çalışma, kullanıcıların yapay zeka tarafından üretilen bilgilere güvenirken dikkatli olmaları gerektiği konusunda uyarıyor. Bir editör ve yazar olan Mathieu Roy, YZ çıktılarının doğruluğunu kontrol etmenin önemini vurguladı:
“Yapay zeka çeşitli görevler için faydalı olsa da, kullanıcıların yapay zeka modellerinden aldıkları bilgileri doğrulamaları kritik önem taşıyor. Bu, özellikle doğruluk kontrolünün daha karmaşık olduğu müşteri hizmetleri sohbet robotları için önemlidir.”
Roy, chatbot kullanımının rahatsız edici bir yönünün altını çizdi: chatbotun kendisine sormak dışında bilgiyi doğrulamanın genellikle bir yolu yoktur, bu da yanlışlıkları sürekli hale getirebilir.
Yapay Zeka Halüsinasyonları: Büyüyen Bir Endişe
Modellerin görünüşte doğru ancak gerçekte yanlış cevaplar verdiği yapay zeka halüsinasyonları giderek yaygınlaşan bir sorun haline geldi. Şubat 2024’te Google’ın yapay zeka platformu, renkli insanların saldırgan tasvirleri ve tarihi figürlerin yanlış temsilleri de dahil olmak üzere tarihsel olarak yanlış görüntüler ürettiği için kamuoyunun eleştirilerine maruz kaldı.
Bu halüsinasyonları azaltmak için Nvidia CEO’su Jensen Huang gibi sektör liderleri, YZ modellerinin araştırma yapmasını ve yanıtları için kaynak sağlamasını zorunlu kılmak gibi çözümler önerdiler. Ancak bu çabalara rağmen, YZ halüsinasyonları inatçı bir sorun olmaya devam ediyor.
Yakın zamanda HyperWrite AI CEO’su Matt Shumer, yapay zekanın yanıtlarını analiz ederek ve ayarlayarak hatalarından ders çıkarmasını sağlayan bir teknik olan “Reflection-Tuning” kullanan yeni bir 70B modelini tanıttı. Bu yöntemin YZ halüsinasyonlarına uzun vadeli bir çözüm sağlayıp sağlamayacağını göreceğiz.
Yaratıcımız. Harika NFT koleksiyonları yaratın!
Yazı işleri ofisini desteklemek - Bitcoin_Man (ETH) / Bitcoin_Man (TON)
Binance Ücretsiz 100$ (özel): Bu bağlantıyı kullan kaydolmak ve ilk aylarda 100$ ücretsiz ve Binance Vadeli İşlemler komisyonundan %10 indirim almak için (Şartlar ve koşullar).
Bitget - Bu bağlantıyı kullan. Ödül Merkezini kullanın ve 5027 USDT'ye kadar kazanın!(Gözden geçirmek)
Bybit borsasında YAPTIRIM RİSKİ OLMADAN kayıt: Bu bağlantıyı kullan Komisyonlarda ve 30.030 $'a kadar bonuslarda olası tüm indirimler (dahil) Uygulama aracılığıyla kaydolursanız, kayıt sırasında bağlantı alanına girmeniz yeterlidir: WB8XZ4 - (manuel)
Kaynak – Çevrildi ve yayınlandı ✓