https://frosthead.com

Hvad sker der, når kunstig intelligens tænder os?

Kunstig intelligens er nået langt siden R2-D2. I disse dage ville de fleste årtusinder gå tabt uden smarte GPS-systemer. Robotter navigerer allerede slagmarker, og droner leverer muligvis snart Amazon-pakker til vores dørtrin.

Siri kan løse komplicerede ligninger og fortælle dig, hvordan man laver mad. Hun har endda bevist, at hun endda kan svare på spørgsmål med en sans for humor.

Men alle disse fremskridt afhænger af, at en bruger giver AI-retning. Hvad ville der ske, hvis GPS-enheder besluttede, at de ikke ville gå til renserierne, eller værre, Siri besluttede, at hun kunne blive smartere uden dig?

Vores sidste opfindelse: Kunstig intelligens og slutningen af ​​den menneskelige æra. "> Vores sidste opfindelse: Kunstig intelligens og slutningen af ​​den menneskelige æra. ">" Før vi deler planeten med superintelligente maskiner, skal vi udvikle en videnskab for at forstå dem. Ellers vil de tage kontrol, ”siger forfatter James Barrat om sin nye bog, Our Final Invention: Artificial Intelligence and the End of the Human Era . (Med tilladelse fra James Barrat)

Dette er kun den mest tamest af resultater James Barrat, en forfatter og dokumentarfilmskaber, forudsiger i sin nye bog, Our Final Invention: Artificial Intelligence and the End of the Human Era .

Inden længe, ​​siger Barrat, vil kunstig intelligens - fra Siri til droner og dataindvindingssystemer - holde op med at kigge efter mennesker efter opgraderinger og begynde at søge forbedringer på egen hånd. Og i modsætning til R2-D2'erne og HAL'erne for science fiction, vil vores fremtids AI ikke nødvendigvis være venlig, siger han: De kunne faktisk være det, der ødelægger os.

I et nøddeskal, kan du forklare din store idé?

I dette århundrede vil forskere skabe maskiner med intelligens, der er lig med og overgår vores egne. Men inden vi deler planeten med super-intelligente maskiner, skal vi udvikle en videnskab for at forstå dem. Ellers vil de tage kontrol. Og nej, dette er ikke science fiction.

Forskere har allerede oprettet maskiner, der er bedre end mennesker i skak, Jeopardy!, navigation, data mining, search, theorem proving og utallige andre opgaver. Til sidst oprettes maskiner, der er bedre end mennesker ved AI-forskning

På det tidspunkt vil de være i stand til at forbedre deres egne evner meget hurtigt. Disse selvforbedrende maskiner vil forfølge de mål, de er oprettet med, hvad enten det drejer sig om rumforskning, spille skak eller plukke lagre. For at få succes vil de søge og bruge ressourcer, det være sig energi eller penge. De vil forsøge at undgå fejltilstande, som at være slukket eller frakoblet. Kort sagt, de vil udvikle drev, herunder selvbeskyttelse og ressourcetilegnelse - drev meget som vores egne. De tøver ikke med at tigge, låne, stjæle og værre for at få det, de har brug for.

Hvordan blev du interesseret i dette emne?

Jeg er en dokumentarfilmskaber. I 2000 interviewede jeg opfinderen Ray Kurzweil, robotisten Rodney Brooks og sci-fi-legenden Arthur C. Clarke for en TLC-film om oprettelsen af ​​romanen og filmen, 2001: A Space Odyssey. Interviewene udforskede ideen om Hal 9000 og ondsindede computere. Kurzweils bøger har portrætteret AI-fremtiden som en skræmmende "singularitet", en periode, hvor teknologiske fremskridt overgår menneskers evne til at forstå dem. Alligevel forventede han kun gode ting, der kom frem fra AI, der er stærke nok til at matche og derefter overgå menneskelig intelligens. Han forudser, at vi vil være i stand til at omprogrammere cellerne i vores kroppe for at besejre sygdom og aldring. Vi udvikler super udholdenhed med nanobotter, der leverer mere ilt end røde blodlegemer. Vi overlader vores hjerner med computerimplantater, så vi bliver superintelligente. Og vi porterer vores hjerner til et mere holdbart medium end vores nuværende "vådtøj" og lever for evigt, hvis vi vil. Brooks var optimistisk og insisterede på, at AI-forbedrede robotter ville være allierede, ikke trusler.

Forskeren-vendte forfatter Clarke var på den anden side pessimistisk. Han fortalte mig, at intelligens vil vinde ud, og mennesker ville sandsynligvis konkurrere om overlevelse med super-intelligente maskiner. Han var ikke specifik om, hvad der ville ske, når vi deler planeten med super-intelligente maskiner, men han følte, at det ville være en kamp for menneskeheden, at vi ikke ville vinde.

Det stod imod alt hvad jeg havde tænkt på AI, så jeg begyndte at interviewe eksperter med kunstig intelligens.

Hvilke beviser har du for at støtte din idé?

Avanceret kunstig intelligens er en teknologi til dobbelt anvendelse, ligesom nuklear fission, der er i stand til at skabe god eller stor skade. Vi er lige begyndt at se skaden.

NSA's privatlivsskandale blev til, fordi NSA udviklede meget sofistikerede data-mining-værktøjer. Agenturet brugte sin magt til at blæse metadata på millioner af telefonopkald og hele Internettet - kritisk, al e-mail. Forført af magten ved data-mining AI misbrugte et agentur, der er overdraget til at beskytte forfatningen, i stedet. De udviklede værktøjer, der var for magtfulde til, at de kunne bruges ansvarligt.

I dag brygger en anden etisk kamp sig om at fremstille fuldstændigt autonome dræber og slagmarkrobotter drevet af avancerede AI - menneskelige dræbere uden mennesker i løkken. Det brygger mellem forsvarsdepartementet og drone- og robotproducenterne, der betales af DOD, og ​​folk, der synes, det er dumt og umoralsk at skabe intelligente drabsmaskiner. De, der går ind for autonome droner og slagmarkrobotter, hævder, at de vil være mere moralske - det vil sige mindre følelsesladede, vil målrette sig bedre og være mere disciplinerede end menneskelige operatører. Dem, der imod at tage mennesker ud af løkken, ser på dronernes elendige historie med at dræbe civile og involvering i ekstremægtsmord. Hvem bærer den moralske skyld i, når en robot dræber? Robotproducenterne, robotbrugerne eller ingen? Husk aldrig de tekniske forhindringer ved at fortælle ven fra fjende.

Som eksperter i min bog argumenterer for , vil AI, der nærmer sig menneskelig intelligens, ikke let kontrolleres på længere sigt; desværre indebærer super-intelligens ikke velvillighed. Som AI-teoretiker Eliezer Yudkowsky fra MIRI [Machine Intelligence Research Institute] udtrykker det, ”AI'en elsker ikke dig og hader den heller ikke, men du er lavet af atomer, den kan bruge til noget andet.” Hvis etik ikke kan være indbygget i en maskine, så skaber vi super-intelligente psykopater, væsener uden moralske kompasser, og vi vil ikke være deres mestre længe.

Hvad er nyt ved din tænkning?

Enkeltpersoner og grupper så forskellige som den amerikanske computerforsker Bill Joy og MIRI har længe advaret om, at vi har meget at frygte fra maskiner, hvis intelligens formørker vores egen. I vores endelige opfindelse argumenterer jeg for, at AI også vil blive misbrugt på udviklingsvejen til menneskelig intelligens. Mellem i dag og den dag, hvor videnskabsmænd skaber intelligens på menneskeligt niveau, har vi AI-relaterede fejl og kriminelle anvendelser.

Hvorfor er der ikke blevet gjort mere, eller hvad gøres for at forhindre, at AI tænder på os?

Der er ikke en grund, men mange. Nogle eksperter tror ikke, at vi er tæt nok på at skabe kunstig intelligens på menneskeligt niveau og ud over at bekymre os om dens risici. Mange AI-producenter vinder kontrakter med Defense Advanced Research Projects Agency [DARPA] og ønsker ikke at rejse spørgsmål, de betragter som politiske. Normalitetsbias er en kognitiv bias, der forhindrer folk i at reagere på katastrofer og katastrofer undervejs - det er bestemt en del af det. Men mange AI-producenter gør noget. Tjek de videnskabsmænd, der rådgiver MIRI. Og meget mere vil involveres, når farerne ved avanceret AI går ind i mainstream-dialogen.

Kan du beskrive et øjeblik, da du vidste, at dette var stort?

Vi mennesker styrer fremtiden ikke fordi vi er de hurtigste eller de stærkeste væsener på planeten, men fordi vi er de smarteste. Når vi deler planeten med skabninger, der er smartere end os selv, styrer de fremtiden. Da jeg forstod denne idé, følte jeg, at jeg skrev om det tids vigtigste spørgsmål.

Enhver stor tænker har forgængere, hvis arbejde var afgørende for hans opdagelse. Hvem gav dig grundlaget for at opbygge din idé?

Fundamenterne i AI-risikoanalyse blev udviklet af matematikeren IJ Good, science fiction-forfatter Vernor Vinge, og andre, herunder AI-udvikler Steve Omohundro. I dag er MIRI og Oxfords Institute of Humanity Institute næsten alene om at løse dette problem. Vores afsluttende opfindelse har cirka 30 sider med slutnoter, der anerkender disse tænkere.

Hvad har der været højdepunktet i at forske og udvikle din idé? Og lavpunktet?

Højdepunkterne var at skrive vores endelige opfindelse og min løbende dialog med AI-producenter og teoretikere. Mennesker, der programmerer AI, er opmærksomme på sikkerhedsspørgsmål og ønsker at hjælpe med at komme med sikkerhedsforanstaltninger. For eksempel arbejder MIRI på at skabe ”venlig” AI

Computer videnskabsmand og teoretiker Steve Omohundro har forfægtet en "stillads" tilgang, hvor beviseligt sikker AI hjælper med at bygge den næste generation af AI for at sikre, at også den er sikker. Så gør AI det samme, og så videre. Jeg tror, ​​at der skal oprettes et offentlig-privat partnerskab for at bringe AI-producenter sammen for at dele ideer om sikkerhed - noget som Det Internationale Atomenergiagentur, men i partnerskab med virksomheder. Lavpunkterne? At indse, at den bedste, mest avancerede AI-teknologi vil blive brugt til at skabe våben. Og disse våben vil efterhånden vende sig mod os.

Hvilke to eller tre personer er mest sandsynlige for at forsøge at tilbagevise dit argument? Hvorfor?

Opfinderen Ray Kurzweil er den største apolog for avancerede teknologier. I mine to interviews med ham hævdede han, at vi ville smelte sammen med AI-teknologierne gennem kognitive forbedringer. Kurzweil og mennesker, der i vid udstrækning kaldes transhumanister og singularitariere, tror AI og i sidste ende kunstig generel intelligens og videre vil udvikle sig med os. For eksempel vil computerimplantater forbedre vores hjernes hastighed og samlede kapacitet. Til sidst udvikler vi teknologien til at transportere vores intelligens og bevidsthed til computere. Derefter vil superintelligens i det mindste delvist være menneskeligt, hvilket i teorien ville sikre, at superintelligens var "sikkert."

Af mange grunde er jeg ikke tilhænger af dette synspunkt. Problemet er, at vi mennesker ikke er pålidelige, og det synes usandsynligt, at superintelligente mennesker vil være det heller. Vi har ingen idé om, hvad der sker med et menneskes etik, når deres intelligens er styrket. Vi har et biologisk grundlag for aggression, som maskiner mangler. Superintelligens kunne meget vel være en aggression multiplikator.

Hvem vil blive mest påvirket af denne idé?

Alle på planeten har meget at frygte fra den uregulerede udvikling af superintelligente maskiner. Et intelligensløb foregår lige nu. Opnåelse af AGI er job nummer et for Google, IBM og mange mindre virksomheder som Vicarious og Deep Thought, samt DARPA, NSA og regeringer og virksomheder i udlandet. Fortjeneste er den største motivation for dette løb. Forestil dig et sandsynligt mål: en virtuel menneskelig hjerne til en computers pris. Det ville være den mest lukrative vare i historien. Forestil dig banker med tusinder af hjerner fra ph.d.-kvalitet, der arbejder 24/7 med lægemiddeludvikling, kræftforskning, våbenudvikling og meget mere. Hvem vil ikke købe denne teknologi?

I mellemtiden udvikler 56 nationer slagmarken robotter, og drevet er at gøre dem og droner til autonome. De vil være maskiner, der dræber, uden opsyn af mennesker. Fattige nationer vil blive mest skadet af autonome droner og slagmarkrobotter. Til at begynde med er det kun rige lande, der har råd til autonome dræbots, så rige nationer vil udøve disse våben mod menneskelige soldater fra fattige nationer.

Hvordan kan det ændre livet, som vi kender det?

Forestil dig: om så lidt som et årti, felt et halvt dusin virksomheder og nationer computere, der konkurrerer eller overgår menneskelig intelligens. Forestil dig hvad der sker, når disse computere bliver ekspert i programmering af smarte computere. Snart deler vi planeten med maskiner tusinder eller millioner gange mere intelligente end vi er. Og hele tiden vil hver generation af denne teknologi våben. Ureguleret vil det være katastrofalt.

Hvilke spørgsmål bliver ubesvaret?

Løsninger. Den åbenlyse løsning ville være at give maskinerne en moralsk fornemmelse, der får dem til at værdsætte menneskers liv og ejendom. Men programmering af etik til en maskine viser sig at være ekstremt hårdt. Moralske normer adskiller sig fra kultur til kultur, de ændrer sig over tid, og de er kontekstuelle. Hvis vi mennesker ikke kan blive enige om, hvornår livet begynder, hvordan kan vi så fortælle en maskine om at beskytte livet? Vil vi virkelig være sikre , eller vil vi virkelig være fri ? Vi kan diskutere det hele dagen og ikke nå en enighed, så hvordan kan vi muligvis programmere det?

Som jeg nævnte tidligere har vi også brug for at samle AI-udviklere. I 1970'erne besluttede rekombinante DNA-forskere at stoppe forskningen og mødes til en konference på Asilomar i Pacific Grove, Californien. De udviklede grundlæggende sikkerhedsprotokoller som ”ikke sporer DNA'et på dine sko” af frygt for at forurene miljøet med igangværende genetiske værker. På grund af “Asilomar Guidelines” drager verden fordel af genetisk modificerede afgrøder, og genterapi ser lovende ud. Så vidt vi ved, blev ulykker undgået. Det er tid til en Asilomar-konference for AI

Hvad står der i vejen?

En enorm økonomisk vind fremmer udviklingen af ​​avanceret AI-menneskelig intelligens til en computers pris vil være den hotteste vare i historien. Google og IBM vil ikke dele deres hemmeligheder med offentligheden eller konkurrenterne. Forsvarsdepartementet ønsker ikke at åbne deres laboratorier for Kina og Israel, og omvendt. Offentlig opmærksomhed skal skubbe politik mod åbenhed og offentlig-private partnerskaber, der er designet til at sikre sikkerhed.

Hvad er det næste for dig?

Jeg er en dokumentarfilmskaber, så selvfølgelig tænker jeg på en filmversion af Our Final Invention .

Hvad sker der, når kunstig intelligens tænder os?