Avrupa Birliği Parlamentosu’nda görev yapan hukukçular, üretken yapay zekâ yazılımlarının önü alınamayan gelişmeleri sonrasında düğmeye bastı. Tarihte ilk kez bir yapay zekâ yazılımını yasaklayan İtalya’nın da dahil olduğu AB’nin endişeleri, öyle “kâr odaklı özel şirketlerin birbirlerinin önüne geçme sebebiyle yaptığı çağrılar” gibi yüzeysel değil.
AB Parlamentosu, "yapay zekâ yasasını" onayladı. Yasanın kuralları, insan merkezli ve güvenilir yapay zekanın yaygınlaşmasını teşvik etmeyi ve sağlık, güvenlik, temel haklar ve demokrasiyi zararlı etkilerinden korumayı amaçlıyor.
AB’nin Yapay Zekâ Yasası üç katmandan oluşacak:
[VIAIMAGE][IMAGE:/images/editor/default/0003/98/59ff640ebb0fedd7831ee66c668a9870d0f17688.jpeg][/IMAGE][VIA:Facebook @DragosTudarache ][/VIA][/VIAIMAGE]
- Yapay zekâ üretimindeki değer zinciri boyunca üstlenilmesi gereken sorumluluklar,
- Temel modellerin bazı koruma önlemleri alması,
- ChatGPT gibi yapay zekâlara ilişkin içerik sorunlarını ele almak,
Daha anlaşılır açıklamak gerekirse AB yetkilileri, teknoloji devlerinin rekabetçi yaklaşıma sahip çağrı ile “ChatGPT geliştirmeleri durdurulsun” çağrısına uymadıkları, bunun yerine gelişmeleri daha çok insan kontrolü altına almak istedikleri söylenebilir.
Dragos Tudarache’ın açıklamalarına göre bu yasa uyarınca şirketler, geliştirdikleri üretken yapay zekâları hangi model ve verilerle eğittiklerini kamuoyuna açık şekilde göstermek zorundalar. Modelin nasıl eğitildiğine dair şirketlerin yükleneceği hukuki sorumluluk; bu yapay zekâların çıktılarını da doğal olarak kontrol altına almayı sağlayacak. Ayrıca şirketlerin nasıl yönetildikleri, yapay zekâların nasıl test edildikleri de aynı şekilde şeffaflık ilkesine dayanarak açıklanacak gibi görünüyor.
Ancak bu şeffaflık ilkesi, üretken yapay zekâ geliştiren şirketlerin rekabetteki gücünü zayıflatıyor. Rakiplerinin ürün hakkındaki önemli aşamalara dair bilgiye sahip olmamasını isteyen şirketler, bu sayede Google gibi devlerin önüne geçerek ChatGPT gibi başarılı ürünler ortaya koyabilmişlerdi.