Be kell tiltani a mesterséges intelligencia katonai alkalmazását – követelték szakmabeliek, immár nem először. Alighanem elkéstek: a nagyhatalmak ebben is versengenek egymással, az első gyilkolórobotok már szolgálatba álltak.
Az intelligens brit Taranis. Számítógép embernek farkasa
drone wars uk
Gépeszűfegyverek:érvekésellenérvek
¬ A robotfegyverek nem vesztik el a fejüket, aligha fognak szándékosan vagy dühből háborús bűncselekményt elkövetni.
¬ Nem lesz beépítve az önvédelem elsősége, ezért valószínűleg nem érvényesül az, hogy először lő, csak utána kérdez. Így csökkenhet a halálos áldozatok száma.
¬ Az emberhez képest gyorsabb az észlelés és a döntés.
¬ A fegyveres konfliktusokban kevesebb ember veszítené életét, mivel a harcot főként a robotok vívnák meg.
¬ A harci robotok olyan környezetben is tudnak harcolni, ahol az emberek nem, például radioaktív anyagokkal szennyezett harctéren.
¬ Ha kevésbé kell aggódni a nagy emberveszteségek miatt, az országok könnyebben dönthetnek a támadás mellett.
¬ Az önállóan döntő gépek megelőző csapást indíthatnának emberi jóváhagyás nélkül is.
¬ Erkölcstelen, hogy gépeket jogosítanak fel emberek megölésére.
¬ Ami elromolhat, az el is romlik. Ha meghibásodnak az autonóm fegyverrendszerek, a működésük kiszámíthatatlanná és veszélyessé válik. (F–22-es amerikai vadászgépek teljes számítógépes rendszere leállt például, amikor átrepültek a dátumválasztó vonal fölött, de nem voltak beprogramozva a dátumváltás kezelésére.)
¬ A rendszerek meghackelhetőek, így rosszindulatú emberek vagy csoportok irányítása alá kerülhetnek.
¬ A robothadviselés esetében nehéz meghatározni, valójában ki a felelős egy-egy cselekményért.