Twitter
Visit Us
YOUTUBE
YOUTUBE
LINKEDIN
Share

DARPA’nın (the Defense Advanced Research Agency – Savunma İleri Araştırma Projeleri Ajansı) fon ayırdığı 13 ayrı araştırma grubu yapay zekâyı daha açıklanabilir yapmak için değişik yaklaşımlar geliştiriyor.

İstihbarat servisleri ve ordu, büyük veriyi ayrıştırabilmek ve gitgide çoğalan otonom sistemleri kontrol edebilmek için makine öğrenmesine güvenmek durumda kalabilecekler. Fakat ABD ordusu, bu durumun herhangi bir algoritmaya körü körüne güvenmeye sebep olmayacağından emin olmak istiyor.

Bu amaçla, DARPA (Savunma İleri Araştırma Projeleri Ajansı) yapay zekânın kendisini açıklayabilmesi için bir takım projelere fon ayırıyor.

DARPA program müdürü David Gunning, yapay zekâdaki hızlı gelişmelerin sebebini makine öğrenmesine ve özellikle de derin öğrenmeye (deep learning) bağlıyor.  Gunning, bu modellerin, özellikle de derin öğrenmenin “kara kutu” gibi olduğunu ve yapay zekâ alanında uzman olmayan birinin bu modelleri yorumlayabilmesinin çok zor olduğunu belirtiyor. Örneğin, derin öğrenme, fotoğraftaki bir kediyi tanıdığında, bunu tam olarak neye dayanarak yapabildiği açık değil. Bu durum potansiyel bir hedefi belirlemeye çalışan bir istihbaratçı için sorun olabilir, örneğin.

Gunning, bazı kritik uygulamalarda bu tür açıklamalara ihtiyaç duyulacağını vurguluyor ve askeriyenin birçok otonom sistem geliştirdiğini ve bunların şüphesiz derin öğrenme gibi makine öğrenmesi tekniklerine dayandığını ekliyor. Öz sürüşlü araçların ve droneların gitgide daha da fazla kullanılacağını ve kabiliyetlerinin de artacağını belirtiyor. Bu tür modellerin kendilerini açıklayabilmeleri sadece kararları doğrulamak için değil, aynı zamanda yanlışların önüne geçilebilmesi için de önemli.

 

Kaynak: https://www.technologyreview.com/s/603795/the-us-military-wants-its-autonomous-machines-to-explain-themselves/