KRIGROBOTDARPA

Pension

Pensionsselskaber rådvilde om central etisk problemstilling om AI-drevne dræbervåben

Våbenvirksomheder arbejder i stor stil med udviklingen af kunstig intelligens til våbensystemer som droner, ubemandede kampkøretøjer og søbaserede droner. Men flere i den danske pensionsbranche ønsker ikke at forholde sig til, om man vil investere i virksomheder, der udvikler autonome systemer, som kan slå mennesker ihjel.

Det er nok det mest kontroversielle etiske tema, som præger de usikre oprustnings- og krigstider lige nu: brugen af kunstig intelligens til at slå mennesker ihjel med.

Men om man ønsker at investere i robotter eller våbensystemer med licens til at dræbe, har man i mange pensionsselskaber endnu ikke forholdt sig klart til, viser rundspørge, som InsideBusiness har foretaget i branchen, der ellers har holdninger til, om man vil investere i atomvåben, klyngebomber, kemiske våben eller antipersonelminer. Eller våbenvirksomheder i det hele taget.

Og det er heller ikke noget, man fra branchens fælles organ overordnet ønsker at forholde sig til. I stedet lyder meldingen fra Forsikring & Pension. ”Vi har ingen kommentarer til det med AI-droner. Det er for konkret for os. Vi er mere generelle på den overordnede politiske dagsorden.”

Ingen ved i dag med sikkerhed, om våbnene anvendes i praksis i Ukraine som egentlige dræbermaskiner, eller om der altid er et menneske inde over alle beslutninger. Men det er helt klart tid til, at pensionsbranchen ser egen politik for kontroversielle våben efter i sømmene på AI-området, hvis man vil undgå problemer og møgsager i fremtiden.

Sagen kort

InsideBusiness sætter i en artikelserie fokus på pensionsbranchens investering i våben og forsvarsvirksomheder i lyset af Europas igangværende oprustning i forbindelse med krigen i Ukraine. Vi har gennemført flere rundspørger til sektoren. Senest om våbeninvestering generelt og denne om investering i AI-dreven våbenteknologi.

”Det er helt klart et tema, som er relevant og værd at gå ind i for selskaberne. Ikke at det vil give mening at sige, at man overhovedet ikke vil investere i våbensystemer, der bygger på AI, for det kan meget vel tænkes, at disse systemer kan reducere risikoen for, at de forkerte dræbes på slagmarken. Der skal man huske, at de forskellige AI-teknologier er sat i verden for at gøre det lettere at træffe beslutninger, der ellers kræver menneskelig intelligens,” siger Iben Yde, som har forsket i AI-dreven våbenteknologi og er adjunkt ved Institut for Militær Teknologi og leder af Center for Operativ Folkeret ved Forsvarsakademiet

Omvendt er skrækscenariet til gengæld robotter, droner eller kampvognslignende køretøjer, som ved hjælp af machine learning til billedanalyse og målgenkendelse kan ’vælge’ at dræbe eller ikke at dræbe et menneske.

”Hvis der er behov for en overordnet sondring, er det, der kommer tættest på en meningsfuld generel rettesnor nok at sætte regler op mod investering i våbensystemer, der er autonome, i og med at de selv udvælger og angriber mål, efter at de er aktiveret. Grænsen kan altså eventuelt trækkes ved brugen af et såkaldt lethal autonomous weapons system (LAWS),” fortsætter Iben Yde.

Branchen bør skelne mellem dræberrobotter og hjælpesystemer

For hende giver det mere mening at skelne mellem LAWS og ikkeautonome systemer end brug af AI til genkendelse af for eksempel mål på landjorden.

”Det kan være svært at trække en juridisk grænse mellem, hvad der er etisk ansvarligt for ikke at sige lovligt at investere i, og hvad der ikke er, når det kommer til militære AI-systemer, da AI er en meget overordnet betegnelse for en række meget forskellige computervidenskabelige discipliner.”

For man kan sagtens investere i mange forskellige typer militære AI-systemer, lige fra strategic maintenance til kommandokontrolsystemer og bevæbnede autonome droner.

”At forbyde investeringer i militære AI-systemer generelt vil derfor også ramme en lang række relativt uproblematiske systemer, der ikke burde give anledning til bekymring. I stedet kan man vælge at fokusere på  at undgå den mere kontroversielle ende, eksempelvis autonome våbensystemer, der anvender AI til at automatisere valg og angreb af mål, hvor de etiske udfordringer og risikoen for fatale fejl er størst, selv om der på nuværende tidspunkt ikke findes et eksplicit forbud mod dem. Ellers kan man jo også vælge at sige, at man ikke investerer i våben overhovedet eller kun i vedligeholdelse og så videre,” fortsætter Iben Yde, der erkender, at det kan være vældig svært at klarlægge, om eksempelvis en algoritme fra en techgigant måtte ende i et AI-baseret våben på slagmarken.

InsideBusiness’ rundspørge til den danske pensionsbranche viser, at få selskaber har forholdt sig til investering i AI-dreven våbenteknologi, mens man typisk har en holdning til, om man vil investere i atomvåben, kemiske våben, klyngebomber med videre. Kun Pædagogernes Pension har en holdning til, at man ønsker at undgå våbenvirksomheder.

En af de få som rent faktisk har en holdning til AI er Sampension, lyder det fra investeringsdirektør Henrik Olejasz Larsen:

”Vi investerer ikke i selskaber, der producerer antipersonelminer og klyngebomber eller er involveret i udvikling og spredning af masseødelæggelsesvåben (kernevåben, biologiske og kemiske våben). Vi har dermed ikke udelukket investeringer i eksempelvis droneteknologi, der har eller kan have militære formål.”

Flere selskaber går ikke af vejen for AI-drevne våbeninvesteringer

Det minder om linjen fra Industriens Pension, som også går ind på området med åbne øjne.

”Vi er åbne over for investeringer i vestlige selskaber, der eksempelvis fokuserer på AI-dreven forsvarsteknologi eller producerer komponenter, der blandt andet kan indgå i vestlige atomvåben – naturligvis under forudsætning af at virksomhederne overholder alle konventioner tiltrådt af Danmark. Helt overordnet finder vi det naturligt, at vestlige forsvarsvirksomheder er en del af vores investeringsunivers,” siger Peter Lindegaard, investeringsdirektør i Industriens Pension, som dermed flugter med Jens Munch Holst, topchef for Akademikerpension:

”I forhold til droner og AI-drevet forsvarsteknologi klassificerer vi ikke disse som kontroversielle i sig selv, men brugen/programmeringen af dem er her det centrale spørgsmål, og disse indebær en risiko for at stride mod vores princip, at våben skal bruges i tråd med krigens regler og de internationale menneskeretskonventioner.”

Til sammenligning gør Lægernes Pension af gode grunde meget ud af at svare præcist på de etiske spørgsmål, men her har man ikke en egentlig stillingtagen til AI-våben:

”Lægernes Pension investerer ikke i kontroversielle våben i form af virksomheder, der er involveret i fremstilling eller salg af antipersonelminer, klyngeammunition, kemiske våben og biologiske våben og atomvåben. Lægernes Pension er desuden optaget af at våbenproducenter – på linje med andre selskaber – sikrer, at deres produkter ikke anvendes i strid med menneskerettighederne. For våbenproducenter gælder det blandt andet, at de skal sikre sig mod, at deres våben anvendes til krigsforbrydelser.”

PFA og Velliv udelukker ikke

Til sammenligning lyder meldingen fra Velliv, at man ekskluderer selskaber, der producerer kernevåben eller sanktionerede våben som klyngebomber eller antipersonelminer:

”Velliv har ikke generelle eksklusionskriterier, som omhandler AI-dreven forsvarsteknologi, men vi ønsker ikke at investere i selskaber, der ved handel med våben bryder med FN’s gældende våbensanktioner.”

Hos PFA er man derimod bevidst om, at området er problemfyldt, men man har heller ikke her en afklaring:

”Vi investerer inden for FN’s konventioner om, hvad der er konventionelle våben. Når det kommer til ansvarlighed, er investeringer i våben per definition et særlig dilemmafyldt område. Man kan godt forsøge at gøre verden sort-hvid, ond-god, men virkeligheden er meget mere nuanceret. Det forholder vi os selvfølgelig grundigt til, før vi investerer. På samme vis er det et område, som er i hastig udvikling i disse år – vi er gået fra kraftig nedrustning til kraftig oprustning – og derfor overvejer vi løbende vores investeringer og politikker,” siger Rasmus Bessing, der er chef for bæredygtige investeringer og med-investeringsdirektør i PFA.

I Danica forholder investeringsdirektør Poul Kobberup sig ikke direkte til investering i AI-våben:

“Vores politik for ansvarlige investeringer går ved de kontroversielle våben, for eksempel atomvåben og klyngebomber. Vi kan derfor godt investere i almindelig infrastruktur til forsvar som radarsystemer, træningssimulatorer og krudt og kugler.”

ATP, Nordea Pension, PKA, AP Pension og P+ har ikke forholdt sig direkte til AI-dreven våbenteknologi.

PensionDanmark, som er langt med investering i forsvarsvirksomheder, overvejer p.t. situationen på AI-området:

”PensionDanmark har en fast politik for at ekskludere selskaber, der er involveret i produktion af antipersonelminer, klyngebomber eller kemiske våben. Det er forventeligt, at udviklingen inden for avancerede våbensystemer kan give anledning til nye dilemmaer, og vi vil blandt andet følge arbejdet med fremtidige konventioner på området,” lyder det fra PensionDanmark, som allerede i dag er med til flere danske våben- og forsvarsprojekter, herunder udviklingen af nye patruljeskibe i samarbejde med blandt andre Terma.

Danwatch: Det bliver et tema

Men uanset hvad, har verden flyttet sig ganske meget med krigen mellem Rusland og Ukraine, hvor droner for alvor er blevet kampafgørende. Og det er ikke nogen nem scene for pensionsselskaberne at navigere i. Det bekræftes af de profiler, som følger de etiske agendaer tæt.

Det er blandt andre journalist med speciale i våbeneksport Charlotte Agaard, som for Danwatch er en drivkraft i at monitorere virksomhederne og finanssektorens adfærd i forhold til blandt andet investering i kontroversielle våben:

”Der er ingen tvivl om, at automatiseret krigsførelse bliver en del af fremtidens krige. Teknologien er under udvikling, og det er spørgsmålet om den allerede anvendes i dag. Selvfølgelig er det et etisk spørgsmål, om man vil anvende den form for teknologi, og det kan sagtens blive et tema for eksempelvis pensionskunderne fremover, om man ønsker at investere i virksomheder med den slags teknologi,” siger Charlotte Aagaard.

Et af de store spørgsmål er, om autonom droneteknologi allerede anvendes på slagmarken. Men selv om alles øjne i høj grad er rettet mod brug af droner og missiler i Ukraine, på Gazastriben og i forhold til konflikten i Det Røde Hav, så fremlagde en FN-rapport om en hændelse i marts 2020, at der i Libyen havde været et autonomt angreb med en såkaldt LAWS, omend det senere blev betvivlet af droneproducenten selv.

Fra Andreas Graae, der er adjunkt ved Institut for Militær Teknologi på Forsvarsakademinet og forsker i droner, kunstig intelligens og autonome våbensystemer, er det et svært spørgsmål at besvare, om AI er blevet brugt til at dræbe på slagmarken i Ukraine, selv om han følger området tæt fra et militært perspektiv.

”Det bliver brugt i nogen grad – det kommer an på, hvordan man definerer det. For der bruges software til at indsamle, filtrere og måludpege hurtigt, det er det blevet brugt til. Spørgsmålet er så, om man bruger AI direkte til at dræbe. Det har jeg ikke hørt om eksempler på,” forklarer Andreas Graae

Andreas Graae henviser til, at de forskellige dronesystemer, som også er automatiske, typisk anvender eksempelvis en gps-koordinat, omend der ikke er noget i vejen for, at de med billedkendelse kan gå efter at angribe for eksempel en kampvogn på fjendtligt territorium.

Parterne forsøger at lade mennesker trykke på aftrækkeren

Han peger på, at det fortsat ser ud til, at parterne overholder de overordnede retningslinjer for, at der skal være et menneske inde over at trykke på aftrækkeren:

”Der synes fortsat at være en holdning til, at man i de enkelte lande sætter begrænsninger for, hvor meget man vil bruge det. Der har ikke været dokumentation for, at man har brugt det direkte på slagmarken endnu, altså som systemer, der selv tager beslutningen om at angribe,” fortsætter Andreas Graae.

Det gælder også i et AI-våbenkapløb med primært droner, som p.t. er en realitet i Ukraine-Rusland-krigen:

”Det vil kunne forekomme snart tror jeg, men omvendt har man i den vestlige verden visse begrænsninger for det her, og dem følger man nok også fra ukrainsk side. Spørgsmålet er, om russerne skeler til de her ting helt på samme måde. Heldigvis har man også fra kinesisk side holdt konferencer om, at der skal være menneskelig kontrol inde over ved brugen af deres våbensystemer.”

Foto: DARPA

 

Læs mere

Pensionsselskaber rådvilde om central etisk problemstilling om AI-drevne dræbervåben

Pensionsbranchen står fortsat splittet om investering i våben

Statsminister Mette Frederiksen presser pensionsbranchen for øgede investeringer i våben og forsvar

Russiske cyberangreb udstiller virksomheders sårbarhed. Men forsikringsselskaber øjner muligheder

Kære statsminister, du er så sent ude med budskabet om oprustning, at det er pinligt

Gigantisk afkastpotentiale i forsvarsindustrien. Men vejen er vanskelig for investorer og pensionskasser

Hybridkrig rammer cyberforsikring på kritisk tidspunkt

Ukraine-krig ændrer forsikringsbilledet totalt. Pris på cyberforsikringer skyder i vejret

Risikoen for cyberangreb undervurderes – og forsikringssummerne skal op