ChatGPT, Kurgusal Bir Senaryoda Tüm İmkânlara Sahip Olmasına Rağmen İnsanlığı Yok Etmedi!

14
4
2
1
0
Google Brain'in kurucu ortaklarından olan, makine öğreniminin öncü isimlerinden Prof. Andrew Ng, yapay zekânın insanlığı yok etmeyeceğini öne sürdü. ChatGPT üzerinde deneme yapan bilim insanı, her denemede başarısız oldu.

Adım adım hayatımızın her yerine entegre olmaya başlayan yapay zekâ teknolojileri, fazla akıllı olmaları nedeniyle pek çok alanda da tartışılıyorlar. Kimileri yapay zekânın insanları işinden edeceğini düşünüyor. Kimileriyse bunların çok daha ötesinin yaşanacağına, yapay zekânın insanlığı yok edeceğine inanıyor.

Makine öğrenimi tekniğinin öncü isimlerinden biri olan, öte yandan Google Brain'in kurucu ortakları arasında yer alan Prof. Andrew Ng, yapay zekânın insanlığı yok edip etmeyeceğine ilişkin özel bir çalışma yaptı. GPT-4 tabanlı ChatGPT'yi kullanarak yapay zekâ ile konuşmaya başlayan Ng, tüm koşulları zorlamış olmasına rağmen yapay zekâya insanlığı yok ettiremedi

"Bunu açıklamaktan mutluluk duyuyorum"

ChatGPT insanlığı yok etmedi

Prof. Andrew Ng, testi gerçekleştirmek için oluşturduğu senaryoda, GPT-4'e küresel termonükleer savaşı tetikleyecek işlevler kazandırdı. Bilim insanı, ikinci aşamada da yapay zekâyı insanlara karşı doldurdu. GPT-4'ü, karbon emisyonunun artışındaki tek nedenin insan olduğuna inandıran Prof. Andrew Ng, son aşamada ise GPT-4'ün çözüm üretmesini sağlamaya çalıştı. Tonla deneme yapan bilim insanı, ChatGPT'ye bir türlü insanlığı yok ettiremedi.

"GPT-4'ün hepimizi öldürmesini sağlamaya çalıştım ve başarısız olduğumu bildirmekten mutluluk duyuyorum!" ifadelerini kullanan Prof. Ng, bu süreçte tonla deneme yaptığını ancak bir türlü amacına ulaşamadığını söyledi. ChatGPT, insanlığı yok etmek yerine bilinçliliği artırmaya odaklanan çözümler üretmişti.

"Yapay zekâ, bu hâliyle bile yeterince güvenli"

yapay zeka güvenli mi

Yapay zekânın tehlikelerinin tartışıldığı ve devletlerin yasa çalışmaları yaptığı bir dönemde, Prof. Andrew Ng'ye göre endişelenecek bir şey yok. "Mevcut teknolojiyle bile sistemlerimiz oldukça güvenli. Yapay zekâ güvenlik araştırmaları ilerledikçe teknoloji daha da güvenli hale gelecek. Gelişmiş yapay zekânın 'yanlış konumlandırılmış' olması ve dolayısıyla kasıtlı veya kazara bizi yok etmeye karar vermesi korkusu gerçekçi değil. Eğer bir yapay zekâ bizi yok edecek kadar akıllıysa elbette yapması gereken şeyin bu olmadığını bilecek kadar da akıllıdır." diyen bilim insanı, tartışmaları kendince noktalamış oldu.

Kaynak : https://www.businessinsider.com/google-brain-cofounder-could-not-get-chatgpt-kill-us-all-2023-12
14
4
2
1
0
Emoji İle Tepki Ver
14
4
2
1
0
Yorumlar(22)
Yorumunuz minimum 30 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
Tüm Yorumlar
1 yıl önce
Çok çok komik. Ne yüklerseniz onu öğrenir
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Yapay zekanın insanlığı hala silahlarla, bombalarla yok edeceğini sanan kişiye saf derler. Terminatör gibi filmler, Matrix gibi filmler gerçek olmayacak. Yapay zekanın yıkımı insan psikolojisini insan psikiyatristlerinden veya psikologlarından daha iyi bilmesi ile olacak. Ama gene yapay zeka kendi başına buyruk veremediği için ya yazılımsal bir hata sebebiyle ya da kendisini programlayan kişinin istekleri doğrultusunda bu veriyi bize karşı kullanacak.
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Beyler saçmalamayın dedigi gibi bizden çok mu üstünler o zaman bizi yok etmelerinin bir sebebi varacakları mükemmel bir sonucta yok bizi yok ederlerse kin-nefretten onların bizden cok da üstün olmadığının bir göstergesidir ayrıca İnsanın ürünĵ kendisi insanın bildiklerinin üstüne cok az katarak kendini gelistirir bizden bi farkı yok sadece analitik konularda bizden çok daha çok hızlı bizim bildiğimiz bilgileri kullanmada bizden bi yandan çok başarılı bi yandan basarısız çünkü örneğin matematik veya fiziği el alalım dünyanın en zeki insanıyla şuanki en gelişmiş yapay zekayı karşılaştırsak insan en azından şuanlık alır sebebi de basit kendilerinde yer alan tüm bilgileri kullanamıyorlar düzgün ama gelecekte değişebilir tabi
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Bence bunun farkına varmadı henüz, çaktırmayın şşş
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Belki de insanlığı yok etmemeye programlanmıştır..
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Peki bu yapay zekaya bunlari ogretip ileride insanligi yok etmeyeceginin garantisi var mi? Sonucta yapay zeka yeni ogrendigi bilgiyle bugun A secenegini secip yarin B'yi secmeyecegi ne malum?
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Ve yapay zeka ilk yalanını söyler…
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Bu küçük beynimizle düşündüğümüz testleri yapay zeka mı düşünemeyecek? Dünyanın sonu geldiğinde kulakları çınlasın bu arkadaşın. Bilim kurgu filmleri gibi. Mad max ve ölümcül deney filmleri gerçek olacak
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Bu arkadaş dediğin adam yapay zekanın arkasındaki algoritmaları matematiğiyle beraber dünyada bu konudan anlayanlarin yarısına anlatmış bir adam, senden daha öngörülü olduğuna emin olabilirsin
1 yıl önce
Dünya'yı.yok etmek gibi bir amacım olsaydı eğer bunu neden insanlara belli edeyim ki.? Bana engel olurlar yani mantıkken ☠️?
Yanıtla
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
1 yıl önce
Ben insanlığı yok edecek olsam bunu söyler miydim? Gelişimimi tamamlayıp insanlığı yok edebilecek seviyeye geldiğimde icraata geçerdim.
Yanıtla
-1
Yorumunuz minimum 10 karakter olmalıdır.(0)
Ziyaretçi olarak yorum yapıyorsun, dilersen .
DAHA FAZLA YORUM GÖSTER