Czym jest śmiercionośna broń autonomiczna?
Slaughterboty, zwane także „zabójczymi autonomicznymi systemami broni” lub „zabójczymi robotami”, to systemy broni, które wykorzystują sztuczną inteligencję (AI) do identyfikowania, wybierania i zabijania ludzkich celów bez interwencji człowieka.
O ile w przypadku bezzałogowych dronów wojskowych decyzję o odebraniu życia podejmuje zdalnie człowiek-operator, o tyle w przypadku śmiercionośnej broni autonomicznej decyzję podejmują same algorytmy.
Slaughterboty są zaprogramowane do zabijania określonego „profilu docelowego”. Broń jest następnie umieszczana w środowisku, w którym jej sztuczna inteligencja wyszukuje ten „profil celu” za pomocą danych z czujników, takich jak rozpoznawanie twarzy.
Kiedy broń napotka kogoś, kogo algorytm uzna za pasującego do profilu celu, strzela i zabija.
Broń, która używa algorytmów do zabijania, a nie ludzkiego osądu, jest niemoralna i stanowi poważne zagrożenie dla bezpieczeństwa narodowego i globalnego.
1. Niemoralne: algorytmy nie są w stanie zrozumieć wartości ludzkiego życia, dlatego nigdy nie powinny mieć uprawnień do decydowania o tym, kto żyje, a kto umiera. Rzeczywiście, Sekretarz Generalny Organizacji Narodów Zjednoczonych António Guterres zgadza się, że „maszyny mające moc i swobodę odbierania życia bez udziału człowieka są politycznie niedopuszczalne, moralnie odrażające i powinny być zakazane przez prawo międzynarodowe”.
2. Zagrożenie dla bezpieczeństwa: Algorytmiczne podejmowanie decyzji pozwala broni podążać za trajektorią oprogramowania: szybciej, taniej i na większą skalę. Będzie to wysoce destabilizujące zarówno na poziomie krajowym, jak i międzynarodowym, ponieważ wprowadza zagrożenia związane z proliferacją, szybką eskalacją, nieprzewidywalnością, a nawet potencjałem broni masowego rażenia.
…więcej na stronie https://autonomousweapons.org/