Gözleriyle Duyup Kulaklarıyla Görebilen Yapay Zekâ: MIT’den Devrim Niteliğinde Model

Bilim-Teknoloji 28.05.2025 - 19:23, Güncelleme: 28.05.2025 - 19:23 3318 kez okundu.
 

Gözleriyle Duyup Kulaklarıyla Görebilen Yapay Zekâ: MIT’den Devrim Niteliğinde Model

MIT'deki bilim insanları, insan müdahalesine ihtiyaç duymadan görsel ve işitsel verileri eşleştirebilen çığır açıcı bir yapay zekâ sistemi geliştirdi.

MIT'deki bilim insanları, insan müdahalesine ihtiyaç duymadan görsel ve işitsel verileri eşleştirebilen çığır açıcı bir yapay zekâ sistemi geliştirdi. Bu gelişme, robotların gerçek dünya ile etkileşimini köklü biçimde değiştirebilecek potansiyele sahip.  Görsel-İşitsel Entegrasyon: İnsan Gibi Anlama Yetisi Yeni geliştirilen model, bir videodaki ses ve görüntü akışını senkronize şekilde analiz ederek olayları bağlamsal olarak anlamlandırabiliyor. Örneğin bir kapının kapanma sesiyle, kapının hareketini eş zamanlı tanımlayabiliyor. Üstelik bu işlemi herhangi bir insan etiketlemesine ihtiyaç duymadan yapıyor.  Nasıl Çalışıyor? Model, binlerce saatlik doğal video ve ses verisiyle eğitildi. Ardından bu veri setleri içindeki görsel ve işitsel örüntüleri otomatik olarak eşleştirmeyi öğrendi. Sistem, “kulağın gördüğünü, gözün duyduğunu” dijital düzlemde yeniden inşa ediyor. MIT araştırma ekibine göre bu teknoloji, robotların bir insan gibi çevrelerini “anlaması” ve ona göre tepki vermesi açısından büyük bir adım. Gerçek Dünya Uygulamaları Ev robotları, sesin geldiği yöne yönelip görsel veriyi analiz ederek daha verimli kararlar alabilir. Güvenlik sistemleri, bir çığlık ya da cam kırılma sesiyle ilgili sahneyi anında eşleyerek olayları hızlı yorumlayabilir. Otonom araçlar, motor sesleri veya korna gibi uyarıcıları algılayarak görsel durumlarla bağdaştırabilir.  MIT'den Açıklama: "Robotlar İnsan Gibi Duyup Anlayacak" Projenin baş araştırmacısı Prof. James Glass şöyle diyor: “İnsan beyni ses ve görüntüyü doğal şekilde birleştirerek anlam üretir. Biz de bu süreci algoritmalarla taklit ettik. Bu model, robotların çevreyle daha doğal bir etkileşim kurmasına olanak tanıyor.” Geleceğe Açılan Kapı Bu tür yapay zekâ modelleri, yalnızca robotik için değil; engelliler için geliştirilen yardımcı teknolojiler, sürücüsüz araçlar ve dijital asistanlar gibi birçok alanda kullanılabilecek. Kaynak: Massachusetts Institute of Technology (MIT) Proceedings of the National Academy of Sciences (PNAS) MIT CSAIL (Computer Science and Artificial Intelligence Laboratory)
MIT'deki bilim insanları, insan müdahalesine ihtiyaç duymadan görsel ve işitsel verileri eşleştirebilen çığır açıcı bir yapay zekâ sistemi geliştirdi.

MIT'deki bilim insanları, insan müdahalesine ihtiyaç duymadan görsel ve işitsel verileri eşleştirebilen çığır açıcı bir yapay zekâ sistemi geliştirdi. Bu gelişme, robotların gerçek dünya ile etkileşimini köklü biçimde değiştirebilecek potansiyele sahip.

 Görsel-İşitsel Entegrasyon: İnsan Gibi Anlama Yetisi
Yeni geliştirilen model, bir videodaki ses ve görüntü akışını senkronize şekilde analiz ederek olayları bağlamsal olarak anlamlandırabiliyor. Örneğin bir kapının kapanma sesiyle, kapının hareketini eş zamanlı tanımlayabiliyor. Üstelik bu işlemi herhangi bir insan etiketlemesine ihtiyaç duymadan yapıyor.

 Nasıl Çalışıyor?
Model, binlerce saatlik doğal video ve ses verisiyle eğitildi. Ardından bu veri setleri içindeki görsel ve işitsel örüntüleri otomatik olarak eşleştirmeyi öğrendi. Sistem, “kulağın gördüğünü, gözün duyduğunu” dijital düzlemde yeniden inşa ediyor.

MIT araştırma ekibine göre bu teknoloji, robotların bir insan gibi çevrelerini “anlaması” ve ona göre tepki vermesi açısından büyük bir adım.

Gerçek Dünya Uygulamaları
Ev robotları, sesin geldiği yöne yönelip görsel veriyi analiz ederek daha verimli kararlar alabilir.

Güvenlik sistemleri, bir çığlık ya da cam kırılma sesiyle ilgili sahneyi anında eşleyerek olayları hızlı yorumlayabilir.

Otonom araçlar, motor sesleri veya korna gibi uyarıcıları algılayarak görsel durumlarla bağdaştırabilir.

 MIT'den Açıklama: "Robotlar İnsan Gibi Duyup Anlayacak"
Projenin baş araştırmacısı Prof. James Glass şöyle diyor:

“İnsan beyni ses ve görüntüyü doğal şekilde birleştirerek anlam üretir. Biz de bu süreci algoritmalarla taklit ettik. Bu model, robotların çevreyle daha doğal bir etkileşim kurmasına olanak tanıyor.”

Geleceğe Açılan Kapı
Bu tür yapay zekâ modelleri, yalnızca robotik için değil; engelliler için geliştirilen yardımcı teknolojiler, sürücüsüz araçlar ve dijital asistanlar gibi birçok alanda kullanılabilecek.

Kaynak:

Massachusetts Institute of Technology (MIT)

Proceedings of the National Academy of Sciences (PNAS)

MIT CSAIL (Computer Science and Artificial Intelligence Laboratory)

Habere ifade bırak !
Habere ait etiket tanımlanmamış.
Okuyucu Yorumları (0)

Yorumunuz başarıyla alındı, inceleme ardından en kısa sürede yayına alınacaktır.

Yorum yazarak Topluluk Kuralları’nı kabul etmiş bulunuyor ve canakkaleninsesi.com sitesine yaptığınız yorumunuzla ilgili doğrudan veya dolaylı tüm sorumluluğu tek başınıza üstleniyorsunuz. Yazılan tüm yorumlardan site yönetimi hiçbir şekilde sorumlu tutulamaz.
Sitemizden en iyi şekilde faydalanabilmeniz için çerezler kullanılmaktadır, sitemizi kullanarak çerezleri kabul etmiş saylırsınız.