Yapay zekânın popülerleşmesi ile birlikte hayatımıza giren kavramlardan biri de halüsinasyonlar olmuştu. Özellikle dil modelleri, soruları cevap verirken olmayan bilgileri de gerçekmiş gibi sunabiliyor. Hatta zaman zaman olmayan akademik kaynakları da gerçekmiş gibi kaynakçaya ekleyebiliyor.
Transkripsiyonda halüsinasyon sorunu
Assoicated Press'e göre OpenAI'ın transkripsiyon aracı Whisper, konuşmaları metin hâline getirirken araya pek çok ilgisiz bilgi ekliyor. Bu bilgiler arasında ırkçılık ile ilgili yorumlardan tıbbi tedavilere kadar pek çok farklı alanda sorunlara neden oluyor. Araştırmacılar, özellikle hastanelerde ve diğer tıbbi çalışmalarda bu durumun büyük sorunlara neden olacağını belirtiyor.
Michigan Üniversitesi'nden bir araştırmacı da kamu toplantılarının transkripsiyonlarını inceledi. İncelemede her 10 metinden 8'inde halüsinasyonlar olduğu ortaya çıktı. Bir makine öğrenimi mühendisi ise 100 saatten fazla süreli bir çalışmada metinlerin en az yarısında halüsinasyon olduğunu belirtti.OpenAI tarafından yapılan açıklamada ise modellerin doğruluğunu arttırmak ve halüsinasyonları azaltmak için çalıştıklarını ve Whisper'ın "belirli yüksek riskli karar verme bağlamlarında" kullanılmasına engel olacak kullanım politikaları olduğu belirtildi. Bulgularını paylaştıkları için de araştırmacılara teşekkür edildi.