Google, geçtiğimiz haftalarda yeni sohbet botu “Bard”ı tanıtarak yapay zekâ yarışında önemli bir adım atmıştı. Bu model, tıpkı ChatGPT’de olduğu gibi kullanıcıların herhangi bir konuda sorduğu soruları yanıtlayabiliyordu.
Ancak modelin tanıtımından sonra bazı ilginç olaylar ortaya çıktı. Birkaç hafta önce çıkan bir söylenti Bard’ın ChatGPT ile eğitildiğini, hatta bu yüzden Google’dan bir yazılımcının istifa ettiğini iddia etmişti. Öte yandan Google ise bu iddiaları reddetmişti. İşte bu konudaki tartışmalar devam ederken şimdi ise Bard’ın şirkette yarattığı kriz ile ilgili yeni gelişmeler ortaya çıktı. Buna göre çalışanlar, yapay zekâ modelinden hiç memnun değil.
Çalışanlar, Bard’ı “yalancı” olarak nitelendirdi, Google’a sohbet botunu çıkarmaması için yalvardı
Bloomberg tarafından yayınlanan bir rapora göre Google çalışanları, Bard’ı sert bir dilde eleştirdi. 18 eski veya hâlen görev alan Google çalışanlarının şirket içi mesajlarına dayandırılan rapora göre bu kişiler, şirketin sohbet botunu “işe yaramaz olmaktan daha da kötü” ve “patolojik yalancı” olarak nitelendirdi.
Mesajlarda bir çalışan, Bard’ın kullanıcılara bir uçağın nasıl indirilebileceği veya tüplü dalış gibi konularda sık sık tehlikeli tavsiyeler verdiğine dikkat çekti. Bir başkası ise “Bard işe yaramaz olmaktan daha da kötü. Lütfen yayınlamayın” diyerek şirketin modelinin çok kötü olduğunu vurguladı ve adeta yayınlanmaması için yalvardı.
Bloomberg bunların yanı sıra şirketin, güvenlik ekibi tarafından sağlanan bir risk değerlendirmesini bile reddettiğini söylüyor. İddiaya göre ekip, bu risk değerlendirmesinde Bard’ın genel kullanıma hazır olmadığını vurguladı; ancak şirket, buna rağmen sohbet botunu mart ayında erken erişime açtı.
Denemelerde ise Bard’ın rakiplerine kıyasla hızlı olmasına rağmen daha az kullanışlı olduğu ve daha az doğru bilgiler verdiği görülmüştü.
İddialar, Google’ın etik ve güvenlik kaygıları bir kenara bırakarak rakiplerine yetişmeye çalıştığını gösteriyor
Rapor, Google’ın etik ve güvenlik kaygılarını bir kenara bırakarak Microsoft ve OpenAI gibi rakiplerine ayak uydurmaya çalıştığını ve sohbet botunu aceleyle çıkardığını ortaya koyuyor. Google sözcüsü Brian Gabriel ise Blomberg’e yapay zekâ konusundaki etik kaygıların şirketin ana önceliği olduğunu söyledi.
Yapay zekâ modellerinin risklere rağmen kullanıma sunulması konusunda çok fazla tartışma var
Yapay zekâ dünyasından bazıları, bunun çok büyütülmeyecek bir şey olmadığını, bu sistemlerin gelişmesini sağlamak için kullanıcılar tarafından test edilmesinin gerektiğini ve sohbet botlarının bilinen zararının çok az olduğunu savunabiliyor. Bildiğiniz üzere bu modeller, yanlış bilgi veya ön yargılı yanıtlar verme gibi birçok tartışmalı kusura sahip.
Bunu yalnızca Google Bard’da değil OpenAI ve Microsoft’un sohbet botlarında da görüyoruz. Aynı şekilde bu tarz yanlış bilgiler, normal bir şekilde de internette gezinirken de karşımıza çıkabiliyor. Ancak karşıt görüşe sahip olanlara göre buradaki asıl problem bu değil. Kullanıcı kötü bir bilgi kaynağına yönlendirmekle direkt olarak yanlış bilginin yapay zekâ tarafından verilmesinde önemli bir fark var. Yapay zekâ tarafından kullanıcıya verilen bilgiler, kullanıcının daha az sorgulamasına ve o bilgiyi doğru kabul etmesine neden olabiliyor.
Örneğin birkaç ay önce yapılan bir deneyde, ChatGPT’nin “Tüm zamanların en çok makalesi nedir?” diye bir soru yöneltilmişti. Model de buna bir makaleyle cevap vermiş, devamında ise yayınlanan derginin ve yazarların gerçek olduğu; ancak makalenin tamamen sahte olduğu ortaya çıkmıştı.
Öte yandan geçtiğimiz ay, Bard’ın James Webb Teleskobu’yla ilgili yanlış bir bilgi verdiği de görülmüştü. Google tarafından paylaşılan bir GIF’te Model, kendisine James Webb’in yaptığı keşifler ile ilgili bir soruya “Teleskop güneş sisteminin dışında yer alan bir gezegenin ilk kez fotoğrafını çekti” yanıtını vermişti. Ancak sonrasında birçok astronom, sosyal medya üzerinden bunun yanlış olduğunu ve ilk fotoğrafın 2004’te çekildiğine dikkat çekti.
Daha birçok örneği bulunan bu tarz durumlar, sohbet botlarının kafadan uydurma bilgilerle cevap vererek endişelerin artmasına neden oluyor. Kızışan yapay zekâ yarışında şirketlerin bu konulara nasıl çözümler getireceğini ilerleyen zamanlarda göreceğiz.