Microsoft, AI ürettiği metinlerde kendisinin gerçek olmayan bilgiler içerebileceğinden endişe duyuyordu. Şirket yeni geliştirdiği Correction adlı servis ile makine öğrenmesi modellerinin ürettiği metinlerin doğruluğunu kontrol etmeyi hedefliyor. Servis ilk olarak metinde gerçek dışı bilgiler olabileceğini tespit ederek, bunları teyit için kullanılan belgelere göre düzeltmeyi amaçlıyor. Microsoft bu yeni çözümün hedefinin kullanıcıların AI sistemlerine duyduğu güveni artırmak olduğunu belirtiyor.
Uzmanlar ise Correction servisinin makine öğrenmesi modellerinin ürettiği yanlış bilgilere tam olarak çözüm getirmediğini belirtiyor. Onlara göre bu tür düzeltme sistemleri kullanıcıları yanlış bir güven duygusuna sürükleyebilir. Zira modellerin hala verilerden yeterince eksik kaldığını ve bazı sorularda yanıldığını ifade eden uzmanlar, bunun sadece yanlışlanan oranın azaltılmasından ibaret olduğunu, asıl sorunun hala devam ettiğini vurguluyor.
Modellerin aslında hiçbir bilgiyi gerçek anlamda öğrenemediğini, sadece eğitim verilerinden elde edilen kalıplara göre tahmin yaptıklarını ifade eden uzmanlar, bu sebeple doğru cevap vermek yerine sadece olası cevapları sıraladıklarını belirtiyor. Bunun sonucu olarak modellerin gerçeğe oldukça mesafeli durumda olduklarını, sağlık alanında yapılan testlerde ChatGPT’nin soruların yarısında hata yaptığını gözler önüne seriyor.
Microsoft’un yeni çözümü yoğun bir baskı altında olduğu açık. Şirket AI alanındaki yatırımlarının getirisini henüz göremeden, hisse senedi analistleri uzun vadeli stratejisine kuşkuyla yaklaşıyor. Bununla birlikte Microsoft 365 ürünü Copilot’un erken kullanıcı deneyimleri de şirketin AI sistemlerine olan güveni sarsıyor. Performans ve maliyet endişeleri nedeniyle pek çok kurum sistemin kullanımını ertelemiş durumda. Dolayısıyla Microsoft’un çözümüyle riske atılan itibarı koruması büyük önem taşıyor.