Yapay zekâ, bilindiği üzere, insanların duymak istediklerini söylemeye eğilimli ve bu amaçla sık sık yalan da söyleyebiliyor. Bu duruma da "halüsinasyon" adı veriliyor. Yapay zekâ sık sık olmayan akademik çalışmalara atıf yapıyor, kullanıcıları ikna etmeye çalışıyor. Bu durum da ciddi sorunlara neden olabiliyor.
Microsoft, bu sorunu çözeceğini düşündüğü "Correction" adlı aracını yayımladı. Elbette ki bu sorunun çözülmesi için bir adım atılmış olması güzel ancak uzmanlar, şüpheci yaklaşımın devam etmesi gerektiğini belirtiyor. Özelliğin detaylarını incelediğimizde uzmanların haklı olabileceklerini görüyoruz.
"Hata yapabilen" doğrulama aracı
Microsoft'un Azure AI İçerik Güvenlik API'sinin bir parçası olarak gelen aracın ilk sorunu "hata yapabilecek olması" oldu. Bu araç, yapay zekânın içeriğindeki bilgileri birincil kaynaklardan sorgulamak yerine açıklamalar, iddialar gibi kaynaklardan alıyor. Yeni özellik, Meta'nın Llama ve OpenAI'ın GPT-4o modelleri ile birlikte de kullanılabilecek.
Konuyla ilgili bir açıklama yapan Microsoft, "Correction, küçük dil modellerini ve büyük dil modellerini kullanarak çıktıları temel belgelerle hizalandırma sürecine dayanıyor," derken, bu yeni özelliğin özellikle tıp gibi alanlarda üretken yapay zekâ kullanıcılarını ve geliştiricileri desteklemesini umduklarını da sözlerine ekledi.
Google da benzer bir aracı kendi yapay zekâ geliştirme platformu Vertex AI'a getirmişti. Uzmanlar ise halüsinasyonları engellemenin "sudan hidrojeni çıkarmak gibi olduğunu" ifade etmiş ve yapay zekâ teknolojisi için halüsinasyonların zorunlu olduğunu belirtmişti.