https://frosthead.com

Kan mordere Robots lære at følge krigsreglerne?

Som mindedagen minder os om hvert år, forsvinder krig ikke.

Men det ændrer sig. Og en af ​​de mere dybtgående skift, vi ser i de kommende år, er at en militær bliver mere og mere afhængig af robotter. Droner får det meste af opmærksomheden nu, men flere og flere af forsvarsdepartementets innovationer er andre slags ubemandede maskiner, fra eksperimentelle fly til jordsoldater.

Det er let at forstå attraktionen. Det er potentielt mere effektivt, mere præcist og billigere at bruge robotter end kun at stole på mennesker i krigsførelse. Og det ville naturligvis også betyde færre menneskelige tab.

Men denne transformation medfører en kompleks udfordring: Kan militære maskiner programmeres til at træffe beslutninger? Hvilket fører til et klistret spørgsmål: Kan robotter lære moral?

Det amerikanske kontor for søforskning mener, at det nu er tid til at finde ud af. Tidligere denne måned annoncerede den en 5-årig $ 7, 5 mio. Tilskud til finansiering af forskning ved Tufts, Brown, Yale og Georgetown universiteter og Rensselaer Polytechnic Institute (RPI) om, hvorvidt maskiner en dag kan vælge ret fra forkert.

Søværnet ønsker at undgå den situation, som Googles førerløse bil nu står overfor: At have en teknologi, der er frigivet langt foran enhver klarhed om de juridiske og etiske problemer, den rejser. Inden autonome robotter går ud i marken, ønsker militæret at vide, om de rent faktisk kan lære at gøre det rigtige.

Som Selmer Bringsjord, leder af RPIs afdeling for kognitive videnskaber ser det, kunne en robots kunstige intelligens være designet til at fungere på to niveauer af moral. Den første ville være baseret på en tjekliste over klare etiske valg, såsom "hvis du støder på en såret soldat, skal du hjælpe ham eller hende." Men hvad nu hvis denne handling er i konflikt med dens primære mission, såsom at levere ammunition, der er kritisk nødvendigt ved andre soldater? På det tidspunkt, siger Bringsjord, ville roboten være nødt til at være i stand til at engagere sig i ”dybere moralsk ræsonnement” for at træffe beslutninger i situationer, som dens programmerere måske ikke har været i stand til at forudse.

Forskere er nødt til at udvikle unikke algoritmer og beregningsmekanismer, der kunne integreres i den eksisterende arkitektur af autonome robotter, en "tænkningsproces", der gør det muligt for en maskine at tilsidesætte den planlagte opførsel baseret på dens evne til at anvende moralsk ræsonnement.

Hvis dette virker ekstraordinært ambitiøst, ja, det er det. Til at begynde med er forskerne nødt til at isolere de grundlæggende elementer i den menneskelige moral - om hvilke principper er vi alle enige om? - og derefter finde ud af, hvordan de kan indarbejdes i algoritmer, der vil give robotter et vist niveau af moralsk kompetence.

Det er ingen lille virksomhed. Af den grund er det sandsynligt, at maskiner, der ikke er kontrolleret af mennesker, i en overskuelig fremtid vil være begrænset til ikke-kamp-roller, såsom overvågning, sikkerhed, søgning og redning eller medicinsk behandling. Men uundgåeligt vil militærplanlæggere have et svar på det spørgsmål, der hænger over alt dette: Skal robotter, der handler på egen hånd, nogensinde have lov til at dræbe et menneske?

Hvis en maskine er 90 procent sikker på, at alle i et køretøj, den agter at skyde, er en terrorist, er det så sikkert? Ville en robot være i stand til at skyde et våben mod et barn, hvis den bestemmer, at det er fjenden? Hvis noget går galt, og en autonom robot fejlagtigt sprænger en landsby, hvem er ansvarlig? Kommandanten, der beordrede operationen? Den person, der programmerede roboten? Eller ingen?

Hvis du mener, at dette stadig er tingene inden for science fiction, skal du overveje, at eksperter på emner, der spænder fra kunstig intelligens til menneskerettigheder tidligere i denne måned, blev afvejet af "killerrobotter" på en FN-konference i Genève. Grupper som Human Rights Watch og embedsmænd fra en håndfuld lande, herunder Pakistan, Egypten, Cuba og Vatikanet, opfordrede til et direkte forbud mod robotter med myndighed til at dræbe. Men de fleste lande, især dem med de mest avancerede robotter, er ikke klar til at gå så langt.

Se for eksempel på WildCat, der udvikles en firbenet robot til at køre i høje hastigheder på alle typer terræn.

For tiden følger det amerikanske militær et direktiv fra forsvarsdepartementet fra 2012 om, at ingen maskine med magten til at dræbe kan være fuldstændigt autonome. Et menneske skal bogstaveligt talt kalde skuddene. Men det er måske ikke tilfældet for alle steder: I marts citerede New Scientist en russisk embedsmand, der sagde, at robotvagtsteder ved fem ballistiske missilinstallationer vil være i stand til at opdage og ødelægge mål, uden at et menneske giver kløften.

Foster-Miller Talon, set nedenfor, er en af ​​de mange maskiner over hele kloden, der udvikles til kamp.

Regler for krig

En rapport om morderen robotkonference vil blive præsenteret for FNs Komité for Visse Coventional Våben i november. Men det ser ikke ud til, at et forbud snart kommer.

Blandt dem, der deltog i diskussionen i Genève, var Ronald Arkin, en kunstig intelligensekspert fra Georgia Tech, som længe har været en talsmand for at give maskiner evnen til at tage moralske beslutninger. Han mener, at hvis robotter kan lære at følge international lov, kunne de faktisk opføre sig mere etisk end mennesker i krigsførelse, fordi de ville være unødvendigt ensartede. De ville ikke være i stand til at reagere i vrede eller med panik eller fordomme. Så Arkin er imod et forbud, skønt han er åben for et moratorium for autonome våben, indtil maskiner får en chance for at se, om de kan mestre krigens regler.

En anden AI-videnskabsmand, Noel Sharkey, der drøftede Arkin i Genève, er af en meget anden sind. Han mener ikke, at robotter nogensinde bør gives myndighed til at træffe beslutninger om liv eller død.

For nylig fortalte han Defense One : ”Jeg tror ikke, de nogensinde vil ende med en moralsk eller etisk robot. Til det er vi nødt til at have et moralsk agentur. Til det er vi nødt til at forstå andre og vide, hvad det betyder at lide. "

”En robot er muligvis installeret med nogle etiske regler, men det er ligeglad, ” siger han.

Kan mordere Robots lære at følge krigsreglerne?