Mobil işlemci yongası konusunda büyük atılımlar gerçekleştiren üreticiler, 7 nanometrelik mimariye sahip olan işlemcilerle bir zamanlar için imkansız olanı gerçekleştirdiler. Bundan 4 yıl önce çıkan en iyi yongalar bile bugünkü yongaların iki katı kadar büyüktü. Mobil yongaların içerisinde hem CPU hem GPU bulunduğunu düşünürsek, gelinen noktanın masaüstü PC’lerdeki dev işlemci devrelerinden daha ileride olduğunu anlayabiliriz. Nvidia, Intel ve AMD’nin yaptıkları işlere ayrıca girip de lafı uzatmayalım. Hepsi de son derece yüksek performansa sahip harici işlem birimleri geliştiriyor.
Bugün CPU, GPU nedir, aralarında ne fark var, en önemlisi de GPU'lar daha güçlü ise neden CPU kullanmıyoruz sorularına yanıt veriyoruz. Haydi başlayalım.
GPU nedir?
GPU’lar sadece bir alanda uzman olmak üzere tasarlandılar: Grafik verilerini hesaplamak ve işlemek. Eski GPU’ların büyük çoğunluğu, "kayan noktalar" ve "3 boyutlu nesneleri hareket ettirme" üzerine hesaplama yaparlardı. Günümüzde doku işleme, gölge ve dinamik ışık, antialiasing, filtreleme gibi onlarca farklı görsel katman işlemesi yapabiliyorlar.
Özellikle 3 boyutlu bilgisayar grafikleri, olağanüstü matematiksel hesaplama kabiliyeti gerektirir: Üç boyutlu bir uzayda yaşıyor, fiziksel olarak iki boyutlu ekranlar kullanıyoruz. GPU’lar ise bu ekranların içerisinde yeniden -var olmayan- 3 boyutlu uzaycıklar inşa ediyorlar. Tüm bu görsel dünyayı yansıtmak ve kullandığımız ekrana uyarlamak da GPU’ların işidir. Kısaca GPU’lar gerçekten zor işlerin altından kalkmak adına tasarlandıkları için işlem kapasitesi yüksek birimlerdir.
CPU nedir?
CPU’lar ise yukarıda saydığımız işlemlerde pek de iyi değillerdir. Onlar daha genel amaçlı olup, bilgisayarlar ve akıllı telefonlar başta olmak üzere neredeyse tüm elektronik cihazlarda diğer işleri hesaplamak adına tasarlanırlar. Sistemdeki parçaların koordinasyonu, hafıza cihazları, önbellek sistemleri gibi parçalar arasındaki bilgi trafiğini kontrol ederler. Sistemler CPU’lar olmadan başlatılamaz, bunun için de örneğin bilgisayarlarda BIOS önyükleme kodları, diğer cihazlarda da özgün sistemler kullanılır.
CPU, sistemin tüm kaynakları yönetir. Veri yolları üzerindeki bitler, klavyenize girdiğiniz bir harfin ekranınıza yansıyana kadar geçen tepkime süresindeki işlemleri halleder. Yani beyin CPU'dur. GPU ise bu beynin görsel algılama, algılananı işleme, yansıtma birimidir. Görsel işlemler daha yüksek boyutlarda veri girdisi, daha zor problemler içerdiği için GPU'lar daha yüksek işlem gücü ve kapasitesine sahip olur.
Peki madem öyle, neden CPU'lar yerine GPU'ları kullanmıyoruz?
GPU’ların işlem gücüne sahip CPU’lar tasarlayıp üretmeye yönelik fikirler ortalıkta uzun zamandır dolaşıyor. Öncelikle böyle bir şeyin imkansız olacağını ve bilgisayarların bütün mimarilerinin yeniden tasarlanmak zorunda olacağını bilmek lazım. Ana birimi olmayan bir anakart tasarlamaktan başlayıp, bu platformu yürütmek için yeni bir işletim sistemi yazmak zorunda kalabiliriz.
GPU ve CPU’nun temel farkını anlamak istiyorsanız şu benzetme daha da yardımcı olabilir:
GPU’lar Usain Bolt gibidirler. Kısa sürede çok sayıda işlemi gerçekleştirirler. İşleri 100 metreyi en kısa sürede koşmak, en iyi grafik işleme sonuçlarını en kısa sürede vermektir. CPU’lar ise dekatlon atletleri gibidir. Dekatlon, 10 farklı atletizm türünü içeren bir branştır, atletler bu branşların hepsinde yarışırlar. Yani uzun süreler boyunca dayanmak, farklı alanlarda uzun vadeli yüksek performans serilemek, bazı durumlarda vücutlarındaki kaynakları idareli kullanmak zorunladırlar.
CPU'ların odaklandıkları işlem türü, çalıştıkları görevler kullanıcı taleplerine göre değişir. Eğer GPU'yerine CPU kullanmak istersek, bir dekatlon ya da maraton koşucusundan 100 metrede dünya rekoru kırmasını isteriz. Bunun için de o sporcunun çocukluğuna inmek, onu bir kısa mesafe koşucusu olarak yetiştirmek gerekir. Kısaca GPU'lar, CPU'lar yerine kullanılırsa bugün yaygın durumda olan en küçüğünden en büyüğüne, en güçsüzünden en güçlüsüne bütün bilgisayarları, akıllı telefonları yeniden tasarlamak gerekir. Yeni sistemlerin tüketiciye ulaşması da eğer başarıya ulaşırsa bilgisayarlar gibi neredeyse 1 asrı bulabilir.