MIT’ın Bilgisayar Bilimleri ve Yapay Zeka Laboratuvarı’ndaki (CSAIL) araştırmacılar, nesneleri gördüğünde hissedebilen bir robot geliştirdi. Yeni yapay zeka, yalnızca bakarak nesnelerin nasıl hissettirebileceğini kavrayabilecek. Robot, bu özelliğin yanı sıra dokunarak nesnenin nasıl görüneceğini de tasvir edebilecek.
CSAIL’de doktora öğrencisi ve sistem hakkındaki araştırmanın başyazarı olan Yunzhu Li, projenin robotların gerçek dünyadaki nesneleri kontrol etmelerini kolaylaştıracağını bildirdi ve şu açıklamada bulundu:
“Modelimiz, yalnızca bakarak düz bir zeminin ya da keskin bir nesnenin nasıl hissettireceğini hayal edebiliyor. Görsel veri almadan etrafı dokunarak keşfettiğindeyse modelimiz çevresini tahmin edebiliyor. Bu iki duyuyu bir araya getirdiğimizde robotları güçlendirip nesneleri kavramak ve manipüle etmek için gereken veriyi azaltabiliriz.”
Araştırma ekibi, modeli eğitmek için içerisinde dokunma duyusuna sahip sensörler bulunan, GelSight isimli bir KUKA robot kolunu kullandı. Bu eğitimin ardından model 200 adet nesneye 12.000 kez dokunarak görsel ve dokunsal verileri kaydetti. Bu verilere dayanarak 3 milyon görsel dokunsal imge oluşturuldu ve bu imgelere VisGel ismi verildi.
Aşağıdaki videoda 48’inci saniyeden itibaren GelSight teknolojisinin kullanıldığı ve kullanılmadığı testi karşılaştırmalı bir şekilde izleyebilirsiniz.