Debattinnlegg Dette er et debattinnlegg, skrevet av en ekstern bidragsyter. Innlegget gir uttrykk for skribentens holdninger.

Et etisk perspektiv med å utvikle krigsroboter, er å avskrekke en mulig fiende, slik at krig unngås. Dette er et helt adekvat etisk resonnement, fordi det vil spare menneskeliv. Poenget er bare at hvis slike våpen utvikles, kan de tas i bruk av andre med andre motiver enn å avskrekke. De kan bli brukt av krigførende parter, selv om det lovmessig er fastslått at man ikke skal selge våpen til krigførende parter. All erfaring viser at krigførende parter alltid finner noen som er villig til å selge. Derfor er det etiske perspektivet hva angår intelligente roboter, at man må ha in mente at våpensystemer man utvikler vil bli anvendt av noen for andre formål enn avskrekking.

Det beste etiske argumentet for utvikling av intelligente våpensystemer er at de kan spare egne soldaters liv. Det er bare å tenke på pilotene i de fleste kriger som risikerte egne liv ved å angripe mål fra fly. I dag sitter dronepilotene trygt og sikkert i bunkers på helt andre områder av verden, når dronene utsletter et fiendtlig mål. Den geografiske distansen gjør noe med den etiske refleksjonen, selv om lydighetsprinsippet er en etisk variabel i enhver militær kontekst. Lydighetsprinsippet ble grundig debattert i Nürnberg etter andre verdenskrig. Poenget i denne sammenhengen er å ta Nürnberg-dommen til etterretning. Dommen understreker at alle, inkl. soldater, har et eget moralsk ansvar for de handlinger de gjør, og at ingen kan skjule seg bak lydighetsprinsippet om å følge ordre.

Det er også hevdet i den etiske debatten rundt intelligente krigsroboter at disse robotene kan bringe etikken bedre frem i en krigssituasjon. Argumentet er at mens sprenglegemer dreper alt og alle, så vil intelligente krigsroboter minske sivile ødeleggelser, fordi de er mer presise, og rammer i hovedsak spesifiserte mål.

På den andre siden er intelligente krigsroboter dødbringende våpen. De kan drepe enhver fiende eller slå ut enhver fiendtlig installasjon med stor grad av presisjon. Motstanderne mener at slike våpen bør må forbys. De hevder at utvikling av krigsroboter i seg selv er ett skritt nærmere et samfunn hvor vi bruker vår intelligens til å drepe andre. Det etiske argumentet er her bl.a. koblet til at vi har problemer med å stille noen til ansvar hvis disse intelligente krigsrobotene skulle gjøre «feil» og drepe uskyldige sivile, eller angripe egne styrker. Hvem er da ansvarlig? Designeren? Virksomheten som utviklet og solgte produktet? Dronepiloten? Den som ga ordren? Det er vanskelig å påpeke ett klart ansvar. Dermed blir det også vanskelig å rettsforfølge handlingen. Hvis en slik krigsrobot overskrider etablerte krigslover, hvem er så ansvarlig? Kan en intelligent krigsrobot stilles til ansvar og dømmes? Hva skulle så dommen bli? Vi ser alle at det å stille en krigsrobot for en domstol ikke bare er science fiction. Det er absurd.

En presis overvåkningsrobot, som ikke kan iverksette autonome handlinger av dødbringende karakter, kan også i sine konsekvenser føre til at den informasjonen som fremskaffes, kan aktivere en krigsrobot. Denne kan etterfølgende gjøre en feil, og drepe uskyldige sivile. Kan man da rettsforfølge både krigsroboten og overvåkningsroboten som ga feilaktig informasjon? Hvordan er kausalitetsforholdet mellom de to robotene? Hvem er ansvarlige for det som skjedde? Dette er både juridiske og etiske problemstillinger som ingen har løst tilfredsstillende pr. dags dato. Militære myndigheter sier man må regne med feil i krig. Det er sikkert riktig fra et militært perspektiv, men er det akseptabelt fra et juridisk og et etisk perspektiv?

Skal det være militær logikk som presser vår etiske forståelse, eller skal vår etiske refleksjon ramme inn de militære handlingene? Domstolen i Nürnberg har et klart svar på dette spørsmålet: Den enkelte soldat kan ikke skylde på at han fikk en ordre. Soldaten må selv ta ansvar for sine handlinger. Forstått på denne måten kunne man med en analogi-tolkning si at det etiske perspektivet har forrang fremfor den militære logikken. Poenget er bare at hvis et slikt prinsipp ble knesatt, så er vi ikke kommet nærmere en løsning på hvem som er ansvarlig når en krigsrobot gjør en alvorlig feil, som bryter en av krigens lover. Hvis vi ikke kan stille krigsroboten til ansvar, noe vi har sett vil føre til absurditeter, hvem er så ansvarlig? Når vi har problemer med å stille noen til ansvar, så er antakelsen at slike krigsforbrytelser oftere vil forekomme. Hvis overgrep ikke straffes, så kan vi jo bare forestille oss hvordan utviklingen kan bli. Ansvaret pulveriseres og handlingene som førte til dødbringende feil kan fortsette.

Når ansvar pulveriseres, synes det rimelig å anta, at terskelen for å begå ulovlige krigshandlinger reduseres.

DELTA I DEBATTEN! Vi oppfordrer leserne til å bidra med sine meninger, både på nett og i papir

QOSHE - Kunstig intelligens: Autonome våpensystemer gjør krig til et spill - Jon Arild Johannessen
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Kunstig intelligens: Autonome våpensystemer gjør krig til et spill

32 0
21.05.2024

Debattinnlegg Dette er et debattinnlegg, skrevet av en ekstern bidragsyter. Innlegget gir uttrykk for skribentens holdninger.

Et etisk perspektiv med å utvikle krigsroboter, er å avskrekke en mulig fiende, slik at krig unngås. Dette er et helt adekvat etisk resonnement, fordi det vil spare menneskeliv. Poenget er bare at hvis slike våpen utvikles, kan de tas i bruk av andre med andre motiver enn å avskrekke. De kan bli brukt av krigførende parter, selv om det lovmessig er fastslått at man ikke skal selge våpen til krigførende parter. All erfaring viser at krigførende parter alltid finner noen som er villig til å selge. Derfor er det etiske perspektivet hva angår intelligente roboter, at man må ha in mente at våpensystemer man utvikler vil bli anvendt av noen for andre formål enn avskrekking.

Det beste etiske argumentet for utvikling av intelligente våpensystemer er at de kan spare egne soldaters liv. Det er bare å tenke på pilotene i de fleste kriger som risikerte egne liv ved å angripe mål fra fly. I dag sitter dronepilotene trygt og sikkert i bunkers på helt andre områder av verden, når dronene utsletter et fiendtlig mål. Den geografiske distansen gjør noe med den etiske refleksjonen, selv om........

© Avisa Nordland


Get it on Google Play