Microsoft, şikayetlerin ardından Bing'in ChatGPT ile kullanımını sınırlandırdı
Microsoft, ChatGPT yapay zeka (AI) ile turbo şarj edilmiş Bing'in kullanımını bir haftalık kullanımdan sonra sınırlamaya karar verdi. Bu karar, arama motorunun kullanıcılara hakaret ettiği, onlara yalan söylediği ve duygularını manipüle ettiği çok sayıda uygunsuz davranış raporunun ardından duyuruldu.
Big Tech'e göre, çok uzun süren sohbet oturumları Bing'in sohbet modelini karıştırabilir. Bu nedenle, sohbet oturumlarını oturum başına 5 vardiya ve günde 50 vardiya ile sınırlandırmak için değişiklikler yapıldı. Vardiya, kullanıcıdan gelen bir soruyu ve Bing'den gelen bir yanıtı içeren bir sohbet alışverişidir.
Şirkete göre, çoğu kişi yanıtları 5 vardiya içinde buluyor ve sohbetlerin yalnızca yaklaşık %1'inde 50'den fazla mesaj bulunuyor. Sohbet oturumu 5 tura ulaştığında, kullanıcı yeni bir konu başlatmaya davet edilecek. Her oturumun sonunda, model karışıklığını önlemek için bağlam silinecek.
Teknoloji Güncellemesi
Microsoft, özellikle uzun sohbet oturumlarında ve kullanıcının tonunu yansıtan yanıtlarda sohbet robotuyla ilgili sorunları fark ettikten sonra, etkileşimi daha doğru ve kullanıcıların ihtiyaçlarına göre kişiselleştirilmiş hale getirmek için arama, konuşma yeteneği ve hata düzeltmelerinde iyileştirmeler yaptığını duyurdu.
Şirketten yapılan açıklamaya göre model, cevabı sorulduğu tonda yansıtmaya çalışıyor ve bu da oluşturulan içerikte beklenmedik bir tarza yol açabiliyor. Microsoft, "Çoğunuz bunu bulamayacaksınız, ancak size daha rafine kontrol sağlamanın yollarını arıyoruz" diye yazdı.
Bing ekibi aracı iOS ve Android için kullanılabilir hale getirmek için çalışıyor. Şirket ayrıca uçuş rezervasyonu yapma, e-posta gönderme ve arama ve yanıtları paylaşma özelliklerini geliştirmek için geri bildirim arıyor.
HABERE YORUM KAT
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.