Pek çok kişi yapay zekanın bilim kurgu eserlerinde bulunan ve canı sıkıldığında dünyayı ele falan geçiren sanal formlar olduğunu düşünse de gerçek çok daha farklıdır. Hollywood eserlerini geçtiğimizde yapay zekanın hali hazırda hayatımızın her alanında yer aldığını görüyoruz.
Akıllı telefonlarımızın çektiği fotoğrafları otomatik düzeltmeden milyonlarca dolarlık reklam kampanyalarını yönetmeye pek çok alanda yapay zekalar arka planda bizlere eşlik etmeye devam ediyor. Bu yapay zekalardan biri ise GPT-3
Haber yazmak haber okumaya benzemiyor
GPT-3, OpenAI tarafından geliştirilen bir dil işleme yapay zeka algoritması olarak biliniyor. Bu yapay zeka daha önce bir gazete için makale de yazmıştı. Yine de bu yapay zekanın düşünüldüğü kadar iyi olmayabileceğini savunanlar var.
Facebook’un Baş Yapay Zeka Şefi Yann LeCun, pek çok kişi tarafından “Yapay zekanın manevi babası” olarak adlandırılıyor. LeCun, salı günü paylaştığı bir Facebook gönderisinde algoritmayı adeta topa tuttu. Gönderide “İnsanlar GPT-3 gibi büyük ölçekli dil modellerinin yapabilecekleri hakkında gerçekçi olmayan beklentiler içerisinde” ifadesini kullandı.
LeCun gönderisinde yakın zamanda tıp alanında faaliyet gösteren yapay zeka firması NABLA’nın çalışmalarında GPT-3’ün sağlık alanında kullanımının fazla yanlış sonuçlar verdiğine dair çalışmadan da alıntılar yaptı. Yapay zeka bilimci, yapılan çalışmaları yüksek irtifa uçakları ile Ay’a gitmeye çalışmaya benzetti.
Tıp alanında istenilen sonucu elde edemedi
BIOS, GPT, MBR ve UEFI Nedir?
Çeşitli senaryoları test eden NABLA, GPT-3’ün cümleler oluşturmakla cümlelerdeki anlamı ve gerçekten kullanışlı olması arasında fark olduğunu belirtmişti. Yapay zeka cümle kurabilse de kurulan cümleleri anlamakta aynı başarıya sahip değil.
Bir vakada algoritma kullanılan ekipmanların fiyatlarını faturaya yansıtmayı atladı. Daha da tehlikeli olan bir versiyonda ise algoritma bir hastaya gerçek anlamda kendini öldürmesi tavsiyesinde bulundu. LeCun, GPT-3’ün bir cevap sistemi olarak pek de iyi olmadığını söyledi.