Büyük güçler, kontrolörlerden herhangi bir girdi olmadan hedefleri avlayabilen ve vurabilen gelişmiş silahları oluşturmak için milyarlarca yatırım yapıyor.
BM raporuna göre, geçen yıl Türkiye'ninde aralarında olduğu bir çok ülke bu otonom araçları üretmeye devam ettiği belirtildi.
Ancak uzmanlar, teknolojinin çok hızlı ilerlediği konusunda uyarıyor , hükümetler ve toplumlar tehlikeleri gerektiği gibi dikkate almıyorlar.
Kendi kararlarını veren makinelerin öngörülemeyen ve hızla yayılan hatalara eğilimli olduğunu söylüyorlar.
Bunlar, programcıların bile her zaman anlamadığı ve ters gitmekten vazgeçemediği algoritma adı verilen kodlardan kaynaklanır.
Gelecekte AI silahları biyolojik, kimyasal ve hatta nükleer savaş başlıklarıyla silahlandırılırsa, sonuçlar kasıtsız kıyamet olabilir.
Macalester College'dan Prof James Dawes , "Amazon ve Google gibi teknoloji devlerini bile rahatsız eden kaçınılmaz algoritmik hataların artık tüm şehirlerin ortadan kaldırılmasına yol açabileceği bir dünya" diye uyarıyor .
Yaşamın Geleceği Enstitüsü'nün kurucu ortağı olan MIT profesörü Max Tegmark, bu hafta benzer şekilde bir uyarı yayınladı.
Geçen hafta BM'nin beş yıllık Belirli Konvansiyonel Silahlar Konvansiyonu'nda sözde Ölümcül Otomatik Silah Sistemleri (LAWS) üzerinde potansiyel bir yasak tartışıldı.
Katılan 120 ülkeden bazıları - Brezilya, Güney Afrika ve Yeni Zelanda dahil - YASALAR'ın kara mayınları ve bazı ihbarlar gibi anlaşmalarla sınırlandırılması gerektiğini savundu.
Fransa ve Almanya da dahil olmak üzere büyüyen bir ülke listesi, insanları hedef alanlar da dahil olmak üzere bazı otomobil silahlarının sınırlarını desteklemektedir. Çin, dar bir dizi kısıtlamayı desteklediğini söyledi.
ABD, Rusya, Hindistan, İngiltere ve Avustralya da dahil olmak üzere diğer ülkeler, stratejik bir dezavantajdan kaçınmak için katil robotlar geliştirmeye devam etmenin şart olduğunu söyleyerek yasağa direniyor.
İsrail yapımı Harop gibi 'aylak mühimmat' savaşta yıkıcı etki için kullanılabilir.
Yaşam ve ölüm kararları
Kore'nin Askerden Arındırılmış Bölgesinde kendi kendine ateş eden makineli tüfekler de dahil olmak üzere, şimdiden korkunç bir dizi AI silahı dünya çapında konuşlandırabileceğini belirtti.
En az 14 ülkede, İsrail'in Hamas militanlarını avlamak için kullanılan harap edici Harop insansız saldırı uçağı da dahil olmak üzere intihar amaçlı AI insansız hava araçları var.
Harops, geçen yıl Azerbaycan ile olan çatışmada Ermenistan ordusunu da harap etti - ancak insan müdahalesiyle mi yoksa insan katkısı olmadan mı hareket ettikleri açıklanmadı.
Rusya'nın ölümcül robot silahları arasında, AI sistemlerini bir insan pilotla birleştiren yeni Checkmate gizli avcı uçağı yer alıyor.
Tasarımcılar, pilot gerektirmeyen gelecekteki bir versiyonun olabileceğini söylüyor.
Çin, on yıldan fazla bir süre önce düşman gemilerini otonom olarak izlemek ve yok etmek için tasarlanmış bir robot denizaltı üzerinde testlere başladı .
Ayrıca yakın zamanda bir denizaltı karşıtı drone ve kamyonla fırlatılan savaş alanı drone sürülerini tanıttı .
Çin ayrıca, Ekim ayında ortaya çıkan uydu resimlerine göre torpidolarla donanmış bir robot savaş gemisi inşa ediyor.
Uzmanlar, önde gelen orduların bu gelişmiş yeni silahların yayılmasını kontrol edebileceklerine inanırlarsa kendilerini kandırdıklarını söylüyorlar.
Haydut devletlerin ve teröristlerin kaçınılmaz olarak katliamları serbest bırakmak için onları ele geçirmeye çalışacaklarını söylüyorlar .
Ve kompakt katil robotlar Kalaşnikoflar kadar ucuz hale geldikçe, Meksika'nın kartelleri gibi çeteler onları korkunç yeni bir kan dökülmesi dalgasında kullanabilirdi.
The Sun'a konuşan Prof Tegmark, "AK-47 ile aynı fiyata mezbaha satın alabiliyorsanız, bu uyuşturucu kartelleri için daha çok tercih edilir, çünkü birini öldürdüğünüzde yakalanmayacaksınız" dedi.
"Bir yargıcın çok sayıda koruması olsa bile, onlar uyurken yatak odasının penceresinden içeri uçabilir ve onları öldürebilirsiniz."
Uzmanlar, robot silahların ateş hattında daha az asker anlamına geldiği için hükümetlerin gelecekte savaşa girme olasılığının daha yüksek olacağını söylüyor.