Maskinmördarens spöke fortsätter. Vad tror president Putin på?
Teknik

Maskinmördarens spöke fortsätter. Vad tror president Putin på?

Förespråkare för militära robotar (1) hävdar att automatiserade vapen ger större möjligheter att skydda människoliv. Maskiner kan komma närmare fienden än soldater och korrekt bedöma hotet. Och känslor förlamar ibland förmågan att fatta rätt beslut.

Många förespråkare för användningen av mördarrobotar är övertygade om att de kommer att göra krig mindre blodiga eftersom färre soldater kommer att dö. De konstaterar att robotar, även om de inte känner medlidande, är immuna mot negativa mänskliga känslor som panik, ilska och hämnd, vilket ofta leder till krigsförbrytelser.

Människorättsaktivister använder också argumentet att militären har lett till en enorm minskning av civila offer under det senaste halvseklet, och robotiseringen av armén möjliggör införandet av en mekanism för strängare upprätthållande av krigslagarna. De hävdar att maskiner kommer att bli etiska när de är utrustade med programvara som tvingar dem att följa krigets lagar.

Naturligtvis har ett stort antal människor, inklusive mycket kända, inte delat denna åsikt på flera år. I april 2013 lanserades en internationell kampanj med sloganen (2). Inom dess ram kräver icke-statliga organisationer ett fullständigt förbud mot användning av autonoma vapen. Experter från många länder satte sig först för att diskutera detta ämne vid FN:s konferens om nedrustning i Genève i maj 2014. En rapport som publicerades några månader senare av Human Rights Watch och forskare från Harvard University sa att de autonoma skulle vara för farliga – de valde sina egna mål och dödade människor. Samtidigt är det inte särskilt tydligt vem som ska ställas till svars.

2. Demonstration som en del av kampanjen "Stop Killer Robots".

Vad en svärm av små drönare kan göra

Kontroversen kring mördarrobotar (ROR) har pågått i flera år och fortsätter med oförminskad styrka. De senaste månaderna har fört med sig nya försök att stoppa militära robotar och en våg av rapporter om nya projekt av denna typ, av vilka några till och med testas under verkliga stridsförhållanden.

I november 2017, en video som visar dödliga svärmar av minidrönare ., i skrämmande handling. Tittarna såg att vi inte längre behöver tunga stridsfordon, stridsvagnar eller missiler som kastats av Predators för att döda i massor och med automatvapen. Lead director Stuart Russell, professor i artificiell intelligens vid Berkeley, säger:

-

Förra våren femtio professorer Ledande universitet runt om i världen har skrivit på en vädjan till Korea Advanced Institute of Science and Technology (KAIST) och dess partner Hanwha Systems. de meddelade att de inte skulle samarbeta med universitetet eller ta emot KAIST-gäster. Anledningen var konstruktionen av "autonoma vapen" som utfördes av båda institutionerna. KAIST förnekade mediarapporter.

Kort därefter i USA fler än 3 Google-anställda protesterade mot företagets arbete för militären. De var oroliga över att Google samarbetade med ett statligt projekt med kodnamnet Maven, som syftar till att använda AI för att känna igen föremål och ansikten i militära drönarvideor. Företagsledare säger att Mavens mål är att rädda liv och befria människor från tråkigt arbete, inte aggression. Demonstranterna var inte övertygade.

Nästa del av striden var uttalandet specialister inom området artificiell intelligens, inkl. arbetar med ett Google-projekt och Elon Musk. De lovar att inte utveckla robotar. De uppmanar också regeringar att intensifiera ansträngningarna för att reglera och begränsa dessa vapen.

Uttalandet säger i synnerhet att "beslutet att ta en persons liv aldrig bör fattas av en maskin." Även om världens arméer är utrustade med en mängd olika automatiserade enheter, ibland med en hög grad av autonomi, fruktar många experter att denna teknik i framtiden kan bli helt autonom, vilket gör att den kan döda utan inblandning av en mänsklig operatör eller befälhavare.

Experter varnar också för att autonoma mördarmaskiner kan vara ännu farligare än "kärnvapen, kemiska och biologiska vapen" eftersom de lätt kan gå utom kontroll. Totalt, i juli förra året, undertecknades ett brev i Future of Life Institutes (FLI) regi av 170 organisationer och 2464 2019 individer. Under de första månaderna av XNUMX efterlyste en grupp medicinska forskare med anknytning till FLI återigen ett nytt brev som förbjöd utvecklingen av artificiell intelligens (AI)-kontrollerade vapen.

Förra årets FN-möte i augusti i Gnevo om möjlig lagreglering av militära "mördarrobotar" slutade med framgången för... maskiner. En grupp länder, inklusive USA, Ryssland och Israel, har blockerat ytterligare ansträngningar att införa ett internationellt förbud mot dessa vapen (utkastet till konvention om vissa konventionella vapen, CCW). Det är ingen slump att det är länder som är kända för sitt arbete med avancerade autonoma och robotvapensystem.

Ryssland fokuserar på stridsrobotar

President Vladimir Putin citeras ofta för att säga om militära artificiella intelligenssystem och stridsrobotar:

-.

talar öppet om att utveckla autonoma vapen. Chefen för generalstaben för dess väpnade styrkor, general Valery Gerasimov, sa nyligen till den militära nyhetsbyrån Interfax-AVN att användningen av robotar kommer att vara en av huvuddragen i framtida krig. Han tillade att Ryssland försöker helt automatisera slagfältet. Vice premiärminister Dmitrij Rogozin och försvarsminister Sergei Shoigu gjorde liknande kommentarer. Ordförande för Federationsrådets kommitté för försvar och säkerhet Viktor Bondarev sa att Ryssland strävar efter att utvecklas Roju teknologierdetta skulle tillåta drönarnätverk att fungera som en enda enhet.

Detta är inte förvånande om vi kommer ihåg att de första teletankarna utvecklades i Sovjetunionen på 30-talet. De användes i början av andra världskriget. Idag skapar också Ryssland robottankar bli mer och mer självständig.

Putins stat skickade nyligen sin egen till Syrien Obemannad stridsfordon Uran-9 (3). enheten tappade kontakten med markkontrollpunkter, hade problem med upphängningssystemet och dess vapen fungerade inte perfekt och träffade inte rörliga mål. Det låter inte särskilt allvarligt, men många anser att den syriska torkduken är ett bra stridstest som gör att ryssarna kan förbättra maskinen.

Roscosmos har godkänt en preliminär plan för att skicka två robotar till den internationella rymdstationen i augusti i år. Fedor (4) i den obemannade unionen. Inte som en last, men... Precis som i filmen RoboCop, använder Fyodor ett vapen och visar dödlig noggrannhet under skjutövningar.

Frågan uppstår: varför skulle en robot i rymden vara beväpnad? Det finns misstankar om att det inte bara är fråga om markansökningar. Samtidigt, på jorden, visade den ryska vapentillverkaren Kalashnikov en visualisering slaven Igorekvilket, även om det väckte mycket skratt, signalerar att företaget på allvar arbetar med autonoma stridsfordon. I juli 2018 meddelade Kalashnikov att han skapade ett vapen som han skulle använda för att fatta beslut om att skjuta-inte-skjuta.

Till denna information bör läggas rapporter om att den ryske vapensmeden Digtyarev har utvecklat en liten autonom tank Nerekht som tyst kan röra sig mot sitt mål på egen hand och sedan explodera med kraftfull kraft för att förstöra andra eller hela byggnader. Och Tank T14 Armata , de ryska väpnade styrkornas stolthet, designades för möjlig fjärrkontroll och obemannad körning. Sputnik hävdar att ryska militäringenjörer arbetar för att göra T-14 till ett helt autonomt pansarfordon.

invändningsdirektivet

Den amerikanska militären har själv infört en ganska tydlig begränsning av graden av autonomi för sina vapen. 2012 utfärdade det amerikanska försvarsdepartementet direktiv 3000.09, som säger att människor ska ha rätt att invända mot beväpnade robotars agerande. (även om det kan finnas några undantag). Detta direktiv gäller fortfarande. Pentagons nuvarande policy är att den avgörande faktorn vid användning av vapen alltid måste vara individen, och att en sådan bedömning måste göras. följer krigets lagar.

Även om amerikaner har använt flygande, Predator, Reaper och många andra supermaskiner i decennier, var de inte och är inte autonoma modeller. De styrs av operatörer på distans, ibland från ett avstånd på flera tusen kilometer. En het debatt om autonomi för maskiner av denna typ började med premiären av prototypen. X-47B drönare (5), som inte bara flög självständigt, utan också kunde lyfta från ett hangarfartyg, landa på det och tanka i luften. Meningen är också att skjuta eller bomba utan mänsklig inblandning. Projektet är dock fortfarande under testning och granskning.

5. Provning av den obemannade X-47B på ett amerikanskt hangarfartyg

2003 började försvarsdepartementet experimentera med en liten stridsvagnsliknande robot. GRÖS , utrustad med ett maskingevär. 2007 skickades han till Irak. dock avslutades programmet efter att roboten började bete sig oförutsägbart och flyttade geväret oberäkneligt. Som ett resultat övergav den amerikanska militären forskningen om beväpnade markrobotar i många år.

Samtidigt ökade den amerikanska armén sina arbetsutgifter från 20 miljoner USD 2014 till 156 miljoner USD 2018. Under 2019 har denna budget redan ökat till 327 miljoner USD. Det är en ackumulerad tillväxt på 1823 XNUMX % på bara några år. Experter säger att den amerikanska militären kan ha ett slagfält redan 2025 det finns fler robotsoldater än människor.

Den senaste tiden har en hel del kontroverser orsakats och meddelats av den amerikanska armén ATLAS-projekt () - automatisk. I media ansågs detta vara ett brott mot det tidigare nämnda direktivet 3000.09. Den amerikanska militären förnekar dock och försäkrar att uteslutning av en person från beslutscykeln inte är aktuell.

AI känner igen hajar och civila

Försvarare av autonoma vapen har dock nya argument. prof. Ronald Arkin, en robotiker vid Georgia Institute of Technology, konstaterar i sina publikationer att I modern krigföring behövs smarta vapen för att undvika civila offer, eftersom maskininlärningstekniker effektivt kan hjälpa till att skilja mellan stridande och civila, såväl som mål med högt värde och lågt värde.

Ett exempel på sådana AI-färdigheter är att patrullera australiska stränder. drönare Little Ripper, utrustad med SharkSpotter-systemet utvecklat av University of Technology Sydney. Detta system skannar automatiskt vattnet efter hajar och varnar föraren när den ser något osäkert. (6) Den kan identifiera människor, delfiner, båtar, surfbrädor och föremål i vattnet för att skilja dem från hajar. Den kan upptäcka och identifiera cirka sexton olika arter med hög noggrannhet.

6. Igenkända hajar i SharkSpotter-systemet

Dessa avancerade maskininlärningstekniker förbättrar noggrannheten vid flygspaning med mer än 90 %. Som jämförelse kan en mänsklig operatör i en liknande situation noggrant känna igen 20-30% av objekten i flygfoton. Dessutom är identifieringen fortfarande verifierad av en människa innan ett larm utlöses.

På slagfältet kan operatören, som ser bilden på skärmen, ha svårt att avgöra om människorna på marken är jaktplan med AK-47 i händerna eller till exempel bönder med gäddor. Arkin noterar att människor tenderar att "se vad de vill se", särskilt i stressiga situationer. Denna effekt bidrog till att USS Vincennes oavsiktligt störtade ett iranskt flygplan 1987. Naturligtvis, enligt hans åsikt, skulle AI-kontrollerade vapen vara bättre än de nuvarande "smarta bomberna", som inte är riktigt intelligenta. I augusti förra året träffade en saudisk laserstyrd missil en buss full med skolbarn i Jemen och dödade fyrtio barn.

"Om en skolbuss är ordentligt märkt kan det vara relativt enkelt att identifiera den i ett autonomt system", säger Arkin i Popular Mechanics.

Dessa argument verkar dock inte övertyga aktivister mot automatiserade mördare. Förutom hotet från mördarrobotar finns det en annan viktig faktor att ta hänsyn till. Även ett "bra" och "omtänksamt" system kan hackas och tas över av mycket dåliga människor. Då tappar alla argument till försvar av militär utrustning kraft.

Lägg en kommentar