Hver dag fremkommer utallige overskrifter fra utallige kilder over hele kloden, der både advarer om alvorlige konsekvenser og lovende utopiske fremtider - alt takket være kunstig intelligens. AI "forvandler arbejdspladsen, " skriver Wall Street Journal, mens magasinet Fortune fortæller os, at vi står over for en "AI-revolution", der vil "ændre vores liv." Men vi forstår ikke rigtig, hvordan interaktion med AI vil være - eller hvordan det skal være.
Det viser sig imidlertid, at vi allerede har et koncept, vi kan bruge, når vi tænker på AI: Det er sådan, vi tænker på dyr. Som en tidligere dyretræner (omend kort), som nu studerer, hvordan folk bruger AI, ved jeg, at dyr og dyreuddannelse kan lære os meget om, hvordan vi bør tænke på, nærme os og interagere med kunstig intelligens, både nu og i fremtid.
Brug af dyreanalogier kan hjælpe almindelige mennesker med at forstå mange af de komplekse aspekter ved kunstig intelligens. Det kan også hjælpe os med at tænke over, hvordan vi bedst lærer disse systemer nye færdigheder og måske vigtigst af alt, hvordan vi korrekt kan forestille os deres begrænsninger, selv når vi fejrer AIs nye muligheder.
Ser på begrænsninger
Som AI-ekspert Maggie Boden forklarer, “Kunstig intelligens søger at få computere til at gøre den slags ting, som sindet kan gøre.” AI-forskere arbejder på at undervise computere til at resonnere, opfatte, planlægge, flytte og gøre foreninger. AI kan se mønstre i store datasæt, forudsige sandsynligheden for, at en begivenhed finder sted, planlægge en rute, styre en persons mødeplan og endda spille krigsspilscenarier.
Mange af disse muligheder er i sig selv ikke overraskende: Selvfølgelig kan en robot rulle rundt i et rum og ikke kollidere med noget. Men på en eller anden måde virker AI mere magisk, når computeren begynder at sætte disse færdigheder sammen for at udføre opgaver.
Tag for eksempel autonome biler. Oprindelsen af den førerløse bil er i et 1980-års æra Defense Advanced Research Project Agency-projekt kaldet det autonome landkøretøj. Projektets mål var at tilskynde til forskning i computersyn, opfattelse, planlægning og robotkontrol. I 2004 blev ALV-indsatsen den første Grand Challenge for selvkørende biler. Nu, mere end 30 år siden indsatsen begyndte, er vi på bunden af autonome eller selvkørende biler på det civile marked. I de første år troede få mennesker, at sådan en bedrift var umulig: Computere kunne ikke køre!
Men som vi har set, kan de det. Autonome bilernes kapaciteter er relativt let for os at forstå. Men vi kæmper for at forstå deres begrænsninger. Efter den fatale Tesla-nedbrud i 2015, hvor bilens autopilotfunktion ikke kunne mærke en traktor-trailer, der krydsede ind i dens bane, ser det ud til, at få stadig griber fat i alvorligheden af, hvor begrænset Teslas autopilot virkelig er. Mens virksomheden og dets software blev ryddet for uagtsomhed af National Highway Traffic Safety Administration, er det stadig uklart, om kunderne virkelig forstår, hvad bilen kan og ikke kan gøre.
Hvad hvis Tesla-ejere ikke fik at vide, at de kørte en "beta" -version af en autopilot, men snarere en semi-autonom bil med den mentale ækvivalens af en orm? Den såkaldte "intelligens", der giver "fuld selvkørsel kapacitet" er virkelig en kæmpe computer, der er temmelig god til at registrere ting og undgå dem, genkende genstande i billeder og begrænset planlægning. Det kan ændre ejernes perspektiver om, hvor meget bilen virkelig kunne gøre uden menneskelig input eller tilsyn.
Hvad er det?
Teknologer forsøger ofte at forklare AI med hensyn til, hvordan det er bygget. Tag for eksempel de fremskridt, der er gjort inden for dyb læring. Dette er en teknik, der bruger flerlagsnetværk til at lære, hvordan man udfører en opgave. Netværkene skal behandle enorme mængder information. Men på grund af omfanget af de data, de har brug for, kompleksiteten af foreninger og algoritmer i netværkene, er det ofte uklart for mennesker, hvordan de lærer, hvad de gør. Disse systemer kan blive meget gode til en bestemt opgave, men vi forstår dem ikke rigtig.
I stedet for at tænke på AI som noget overmenneskeligt eller fremmed, er det lettere at analogisere dem med dyr, intelligente nonhumans, vi har erfaring med at træne.
For eksempel, hvis jeg skulle bruge forstærkende læring til at træne en hund til at sidde, ville jeg rose hunden og give ham godbidder, når han sidder på kommando. Over tid lærte han at forbinde kommandoen med opførslen med behandlingen.
Træning af et AI-system kan være meget det samme. Som styrkelse af dyb læring oprettede menneskelige designere et system, forestiller sig, hvad de vil have det til at lære, give det information, se dets handlinger og give det feedback (såsom ros), når de ser, hvad de vil have. I det væsentlige kan vi behandle AI-systemet, ligesom vi behandler dyr, vi træner.
Analogien fungerer også på et dybere niveau. Jeg forventer ikke, at den siddende hund skal forstå komplekse begreber som "kærlighed" eller "god." Jeg forventer, at han lærer en adfærd. Ligesom vi kan få hunde til at sidde, blive og rulle over, kan vi få AI-systemer til at bevæge biler rundt på offentlige veje. Men det er for meget at forvente, at bilen "løser" de etiske problemer, der kan opstå i akutte nødsituationer.
At hjælpe forskere også
At tænke på AI som et træningsbart dyr er ikke bare nyttigt til at forklare det for offentligheden. Det er også nyttigt for forskere og ingeniører, der bygger teknologien. Hvis en AI-lærd forsøger at lære et system en ny færdighed, kan det at tænke på processen set fra et dyretræner perspektiv hjælpe med at identificere potentielle problemer eller komplikationer.
For eksempel, hvis jeg prøver at træne min hund til at sidde, og hver gang jeg siger "sidde", brummer summeren til ovnen, vil min hund begynde at forbinde at sidde ikke kun med min kommando, men også med lyden fra ovnens summer. I det væsentlige bliver summeren endnu et signal, der fortæller hunden at sidde, hvilket kaldes en "utilsigtet forstærkning." Hvis vi ser efter utilsigtede forstærkninger eller signaler i AI-systemer, der ikke fungerer korrekt, ved vi ikke kun, hvad der foregår forkert, men også hvilken specifik omskoling der vil være mest effektiv.
Dette kræver, at vi forstår, hvilke meddelelser, vi giver under AI-træning, samt hvad AI'en muligvis observerer i det omgivende miljø. Ovnens summer er et simpelt eksempel; i den virkelige verden vil det være langt mere kompliceret.
Før vi byder velkommen til vores AI-herrer og overleverer vores liv og job til robotter, burde vi sætte en pause og tænke over den slags intelligenser, vi skaber. De vil være meget gode til at udføre bestemte handlinger eller opgaver, men de kan ikke forstå begreber og ved ikke noget. Så når du overvejer at afskalde tusinder til en ny Tesla-bil, skal du huske, at dens autopilotfunktion egentlig bare er en meget hurtig og sexet orm. Vil du virkelig give en orm kontrol over dit liv og dine kære liv? Sandsynligvis ikke, så hold dine hænder på rattet og falder ikke i søvn.
Denne artikel blev oprindeligt offentliggjort på The Conversation.

Heather Roff, Senior Research Fellow, Institut for Politik & International Forhold, University of Oxford; Forskningsforsker, Global Security Initiative, Arizona State University