https://frosthead.com

Vil AI nogensinde være smartere end en fireårig?

Alle har hørt om de nye fremskridt inden for kunstig intelligens og især maskinlæring. Du har også hørt utopiske eller apokalyptiske forudsigelser om, hvad disse fremskridt betyder. De er blevet taget til forud for enten udødelighed eller verdens ende, og der er skrevet meget om begge disse muligheder. Men de mest sofistikerede AI'er er stadig langt fra i stand til at løse problemer, som menneskelige fireårige udfører med lethed. På trods af det imponerende navn består kunstig intelligens stort set af teknikker til at detektere statistiske mønstre i store datasæt. Der er meget mere ved menneskelig læring.

Hvordan kan vi muligvis vide så meget om verden omkring os? Vi lærer en enorm mængde, selv når vi er små børn; fireårige kender allerede planter og dyr og maskiner; ønsker, tro og følelser; endda dinosaurer og rumskibe.

Videnskab har udvidet vores viden om verden til det ufatteligt store og uendeligt små, til universets kant og tidens begyndelse. Og vi bruger denne viden til at lave nye klassifikationer og forudsigelser, forestille os nye muligheder og få nye ting til at ske i verden. Men alt, hvad der når nogen af ​​os fra verden, er en strøm af fotoner, der rammer vores nethinder og forstyrrelser af luft ved vores trommehinden. Hvordan lærer vi så meget om verden, når de beviser, vi har, er så begrænsede? Og hvordan gør vi alt dette med de få kilo grå goo, der sidder bag vores øjne?

Det hidtil bedste svar er, at vores hjerner udfører beregninger på de konkrete, rodede data, der ankommer til vores sanser, og disse beregninger giver nøjagtige repræsentationer af verden. Repræsentationer synes at være strukturerede, abstrakte og hierarkiske; de inkluderer opfattelsen af ​​tredimensionelle genstande, grammatikene, der ligger til grund for sproget, og mentale kapaciteter som "sindets teori", som lader os forstå, hvad andre mennesker synes. Disse repræsentationer giver os mulighed for at fremsætte en lang række nye forudsigelser og forestille os mange nye muligheder på en markant kreativ menneskelig måde.

Denne form for læring er ikke den eneste slags intelligens, men den er en særlig vigtig læring for mennesker. Og det er den slags intelligens, der er en specialitet for små børn. Selvom børn er dramatisk dårlige til planlægning og beslutningstagning, er de de bedste elever i universet. Meget af processen med at omdanne data til teorier sker inden vi er fem.

Siden Aristoteles og Platon har der været to grundlæggende måder at tackle problemet med, hvordan vi ved, hvad vi ved, og de er stadig de vigtigste tilgange i maskinlæring. Aristoteles nærmet sig problemet nedenfra og op: Start med sanser - strømmen af ​​fotoner og luftvibrationer (eller pixels eller lydprøver på et digitalt billede eller optagelse) - og se om du kan udtrække mønstre fra dem. Denne tilgang blev videreført af sådanne klassiske foreninger som filosoffer David Hume og JS Mill og senere af adfærdspsykologer som Pavlov og BF Skinner. På dette synspunkt er repræsentationernes abstraktion og hierarkiske struktur noget af en illusion eller i det mindste en epifenomen. Alt arbejde kan udføres ved tilknytning og mønsterdetektion - især hvis der er nok data.

Preview thumbnail for video 'Possible Minds: 25 Ways of Looking at AI

Mulige tanker: 25 måder at se AI på

Videnskabsverdenen John Brockman samler 25 af de vigtigste videnskabelige sind, mennesker, der har tænkt på kunstig intelligens inden for de fleste af deres karrierer, til en enestående rundbordsundersøgelse om sind, tænkning, intelligens og hvad det betyder at vær menneskelig.

Købe

I tidens løb har der været en vipps mellem denne bottom-up tilgang til læringsmysteriet og Platons alternative top-down. Måske får vi abstrakt viden fra konkrete data, fordi vi allerede ved meget, og især fordi vi allerede har en række grundlæggende abstrakte begreber takket være evolutionen. Ligesom forskere kan vi bruge disse begreber til at formulere hypoteser om verden. Derefter kan vi i stedet for at prøve at udtrække mønstre fra rådataene komme med forudsigelser om, hvordan dataene skal se ud, hvis disse hypoteser er rigtige. Sammen med Platon tog sådanne “rationalistiske” filosoffer og psykologer som Descartes og Noam Chomsky denne tilgang.

Her er et dagligdags eksempel, der illustrerer forskellen mellem de to metoder: løsning af spam-pest. Dataene består af en lang, usorteret liste over meddelelser i din indbakke. Virkeligheden er, at nogle af disse meddelelser er ægte, og andre er spam. Hvordan kan du bruge dataene til at skelne mellem dem?

Overvej først bottom-up teknikken. Du bemærker, at spam-beskederne har en tendens til at have særlige funktioner: en lang liste over adressater, oprindelse i Nigeria, referencer til millioner dollars præmier eller Viagra. Problemet er, at perfekt nyttige meddelelser muligvis også har disse funktioner. Hvis du kiggede på nok eksempler på spam og ikke-spam-e-mails, ser du muligvis ikke kun, at spam-e-mails har en tendens til at have disse funktioner, men at funktionerne har en tendens til at gå sammen på bestemte måder (Nigeria plus en million dollars stavebesvær). Faktisk kan der være nogle subtile korrelationer på højere niveau, der skelner spam-beskederne fra de nyttige - et bestemt mønster af stavefejl og IP-adresser, siger. Hvis du registrerer disse mønstre, kan du filtrere spam.

Bund-up maskinlæringsteknikker gør netop dette. Den studerende får millioner af eksempler, hver med et sæt funktioner og hver mærket som spam (eller en anden kategori) eller ej. Computeren kan udtrække mønsteret med funktioner, der adskiller de to, selvom det er ret subtilt.

Hvad med top-down fremgangsmåden? Jeg får en e-mail fra redaktøren af Journal of Clinical Biology . Det henviser til et af mine papirer og siger, at de gerne vil offentliggøre en artikel af mig. Intet Nigeria, ingen Viagra, ingen millioner dollars; e-mailen har ikke nogen af ​​spamfunktionerne. Men ved at bruge det, jeg allerede ved, og tænke abstrakt på processen, der producerer spam, kan jeg finde ud af, at denne e-mail er mistænksom:

1. Jeg ved, at spammere forsøger at hente penge fra mennesker ved at appellere til menneskelig grådighed.

2. Jeg ved også, at legitime “open access” -tidsskrifter er begyndt at dække deres omkostninger ved at opkræve forfattere i stedet for abonnenter, og at jeg ikke praktiserer noget som klinisk biologi.

Sæt alt det sammen, og jeg kan producere en god ny hypotese om, hvor den e-mail kom fra. Det er designet til at sutte akademikere til at betale for at "offentliggøre" en artikel i et falsk tidsskrift. E-mailen var et resultat af den samme tvivlsomme proces som de andre spam-e-mails, selvom den ikke lignede dem. Jeg kan drage denne konklusion fra kun ét eksempel, og jeg kan fortsætte med at teste min hypotese yderligere, ud over alt i selve e-mailen, ved at google "redaktøren".

I computertermer startede jeg med en “generativ model”, der inkluderer abstrakte begreber som grådighed og bedrag og beskriver processen, der producerer e-mail-svindel. Det giver mig mulighed for at genkende den klassiske nigerianske e-mail-spam, men det lader mig også forestille mig mange forskellige slags mulige spam. Når jeg får e-mail-e-mailen, kan jeg arbejde baglæns: ”Dette ser ud som den slags mail, der ville komme ud af en spam-genererende proces.”

Den nye begejstring ved AI kommer, fordi AI-forskere for nylig har produceret effektive og effektive versioner af begge disse læringsmetoder. Men der er ikke noget dybt nyt ved selve metoderne.

Bund-up dyb læring

I 1980'erne udtænkte computerforskere en genial måde at få computere til at opdage mønstre i data: forbindelse eller neuralt netværk, arkitektur (den "neurale" del var og er stadig metaforisk). Fremgangsmåden faldt i doldrums i 1990'erne, men er for nylig blevet genoplivet med kraftfulde "dyb læring" metoder som Googles DeepMind.

For eksempel kan du give et dybtuddannelsesprogram en masse internetbilleder mærket "kat", andre mærket "hus" og så videre. Programmet kan registrere mønstre, der skelner mellem de to sæt af billeder, og bruge disse oplysninger til at mærke nye billeder korrekt. Nogle former for maskinlæring, kaldet uovervåget læring, kan registrere mønstre i data uden mærker overhovedet; de ser simpelthen efter klynger af funktioner - hvad forskere kalder en faktoranalyse. I maskinerne med dyb læring gentages disse processer på forskellige niveauer. Nogle programmer kan endda opdage relevante funktioner fra rå data om pixels eller lyde; computeren begynder muligvis med at registrere mønstre i det rå billede, der svarer til kanter og linjer og derefter finde mønstrene i de mønstre, der svarer til ansigter, og så videre.

En anden bottom-up teknik med en lang historie er forstærkningslæring. I 1950'erne programmerede BF Skinner, der bygger på John Watsons værk, berømte programmer til duer til at udføre detaljerede handlinger - selv guiding af luft-lancerede missiler til deres mål (et foruroligende ekko af den nylige AI) ved at give dem en særlig plan for belønninger og straffe . Den væsentligste idé var, at handlinger, der blev belønnet, ville blive gentaget, og de, der blev straffet, ville ikke ske, før den ønskede opførsel blev opnået. Selv på Skinners dag kunne denne enkle proces, gentagne gange og igen, føre til kompleks opførsel. Computere er designet til at udføre enkle handlinger igen og igen i en skala, der dværger menneskets fantasi, og computersystemer kan lære bemærkelsesværdigt komplekse færdigheder på denne måde.

For eksempel brugte forskere ved Googles DeepMind en kombination af dyb læring og forstærkningslæring til at lære en computer at spille Atari-videospil. Computeren vidste intet om, hvordan spilene virkede. Det begyndte med at handle tilfældigt og fik kun information om, hvordan skærmen så ud i hvert øjeblik, og hvor godt den havde scoret. Dyb læring hjalp med til at tolke funktionerne på skærmen, og forstærkningslæring belønnet systemet for højere score. Computeren blev meget god til at spille flere af spilene, men den bombede også fuldstændigt på andre, der var lige så nemme for mennesker at mestre.

En lignende kombination af dyb læring og forstærkende læring har gjort det muligt for succes med DeepMinds AlphaZero, et program, der formåede at slå menneskelige spillere på både skak og Go, udstyret med kun en grundlæggende viden om spillereglerne og nogle planlægningskapaciteter. AlphaZero har en anden interessant funktion: Det fungerer ved at spille hundreder af millioner af spil mod sig selv. Når det gør det, beskærer det fejl, der førte til tab, og det gentager og uddyber strategier, der førte til sejre. Sådanne systemer og andre, der involverer teknikker kaldet generative adversarial netværk, genererer data såvel som at observere data.

Når du har computerkraften til at anvende disse teknikker til meget store datasæt eller millioner af e-mail-beskeder, Instagram-billeder eller stemmeoptagelser, kan du løse problemer, der syntes meget vanskelige før. Det er kilden til meget af spændingen inden for datalogi. Men det er værd at huske, at disse problemer - som at erkende, at et billede er en kat eller et talet ord er Siri - er trivielle for en menneskelig småbørn. En af de mest interessante opdagelser inden for datalogi er, at problemer, der er lette for os (som at identificere katte), er svære for computere - meget sværere end at spille skak eller Go. Computere har brug for millioner af eksempler for at kategorisere objekter, som vi kun kan kategorisere med nogle få. Disse bottom-up-systemer kan generaliseres til nye eksempler; de kan mærke et nyt billede som en kat ret nøjagtigt over alt. Men de gør det på måder, der er helt forskellige fra, hvordan mennesker generaliseres. Nogle billeder næsten identiske med et kattebillede identificeres slet ikke af os som katte. Andre, der ligner en tilfældig sløring, vil være.

Top-Down Bayesian modeller

Top-down-metoden spillede en stor rolle i den tidlige AI, og i 2000'erne oplevede den også en genoplivning i form af sandsynlige eller bayesiske, generative modeller.

De tidlige forsøg på at anvende denne tilgang stod overfor to slags problemer. For det første kan de fleste bevismønstre i princippet forklares med mange forskellige hypoteser: Det er muligt, at min journal-e-mail-besked er ægte, det virker bare ikke sandsynligt. For det andet, hvor kommer de begreber, som de generative modeller bruger, fra utgangspunktet? Platon og Chomsky sagde, at du blev født med dem. Men hvordan kan vi forklare, hvordan vi lærer de nyeste videnskabsbegreber? Eller hvordan endda små børn forstår om dinosaurer og raketskibe?

Bayesiske modeller kombinerer generative modeller og hypotesetest med sandsynlighedsteori, og de løser disse to problemer. En bayesisk model giver dig mulighed for at beregne, hvor sandsynligt det er, at en bestemt hypotese er sand, i betragtning af dataene. Og ved at lave små men systematiske justeringer til de modeller, vi allerede har, og teste dem mod dataene, kan vi undertiden lave nye koncepter og modeller fra gamle. Men disse fordele opvejes af andre problemer. De bayesiske teknikker kan hjælpe dig med at vælge, hvilken af ​​to hypoteser der er mere sandsynlige, men der er næsten altid et enormt antal mulige hypoteser, og intet system kan effektivt overveje dem alle. Hvordan bestemmer du, hvilke hypoteser der er værd at prøve i første omgang?

Brenden Lake ved NYU og kolleger har brugt denne slags top-down metoder til at løse et andet problem, der er let for folk, men ekstremt vanskeligt for computere: genkendelse af ukendte håndskrevne tegn. Se på et tegn på en japansk rulle. Selv hvis du aldrig har set det før, kan du sandsynligvis se, om det ligner eller adskiller sig fra et tegn på en anden japansk rulle. Du kan sandsynligvis tegne det og endda designe en falsk japansk karakter baseret på den, du ser - en der vil se ganske anderledes ud end en koreansk eller russisk karakter.

Den nederste op-metode til at genkende håndskrevne tegn er at give computeren tusinder af eksempler på hver enkelt og lade den trække de fremtrædende funktioner ud. I stedet for Lake et al. gav programmet en generel model for, hvordan du tegner en karakter: Et slag går enten til højre eller venstre; Når du er færdig med en, starter du en anden; og så videre. Når programmet så en bestemt karakter, kunne det udlede den rækkefølge af slagtilfælde, der mest sandsynligt havde ført til det - ligesom jeg udledte, at spamprocessen førte til min tvivlsomme e-mail. Derefter kunne den bedømme, om en ny karakter sandsynligvis ville være resultatet af denne sekvens eller fra en anden, og den kunne producere et lignende sæt slag selv. Programmet fungerede meget bedre end et dybtuddannelsesprogram, der blev anvendt til nøjagtigt de samme data, og det spejlede tæt på menneskers præstation.

Disse to tilgange til maskinlæring har komplementære styrker og svagheder. I bottom-up-metoden behøver programmet ikke meget viden til at begynde med, men det har brug for en hel del data, og det kan kun generaliseres på en begrænset måde. I top-down-metoden kan programmet lære af blot et par eksempler og foretage meget bredere og mere varierede generaliseringer, men du er nødt til at bygge meget mere ind i det til at begynde med. En række efterforskere forsøger i øjeblikket at kombinere de to tilgange ved hjælp af dyb læring til at implementere Bayesian-inferens.

Den nylige succes med AI er delvis resultatet af udvidelser af de gamle ideer. Men det har mere at gøre med det faktum, at vi takket være Internettet har meget flere data, og takket være Moore's Law har vi meget mere computerkraft til at anvende på disse data. Desuden er en ikke værdsat kendsgerning, at de data, vi gør, allerede er blevet sorteret og behandlet af mennesker. Katbillederne, der er sendt på Internettet, er kanoniske kattebilleder - billeder, som mennesker allerede har valgt som ”gode” billeder. Google Translate fungerer, fordi det drager fordel af millioner af menneskelige oversættelser og generaliserer dem til et nyt stykke tekst i stedet for virkelig at forstå selve sætningerne.

Men det virkelig bemærkelsesværdige ved menneskelige børn er, at de på en eller anden måde kombinerer de bedste træk ved hver tilgang og derefter går langt ud over dem. I løbet af de sidste femten år har udviklingsfolk undersøgt, hvordan børn lærer struktur ud fra data. Fireårige kan lære ved kun at tage et eller to eksempler på data, som et top-down system gør, og generalisere til meget forskellige koncepter. Men de kan også lære nye koncepter og modeller fra selve dataene, som et bottom-up-system gør.

I vores laboratorium giver vi for eksempel små børn en "blicket-detektor" - en ny maskine til at finde ud af, en som de aldrig har set før. Det er en kasse, der lyser og spiller musik, når du lægger visse genstande på den, men ikke andre. Vi giver børn bare et eller to eksempler på, hvordan maskinen fungerer, og viser dem, at, for eksempel, to røde blokke får det til at gå, mens en grøn og gul kombination ikke gør det. Selv atten måneder gamle finder øjeblikkeligt det generelle princip ud, at de to objekter skal være de samme for at få det til at gå, og de generaliserer dette princip til nye eksempler: For eksempel vil de vælge to objekter, der har samme form at fremstille maskinen fungerer. I andre eksperimenter har vi vist, at børn endda kan regne ud, at en eller anden skjult usynlig egenskab får maskinen til at gå, eller at maskinen fungerer efter et abstrakt, logisk princip.

Du kan også vise dette i børns daglige læring. Små børn lærer hurtigt abstrakte intuitive teorier om biologi, fysik og psykologi på meget måde, som voksne forskere gør, selv med relativt få data.

De bemærkelsesværdige maskinlæringsresultater af de nylige AI-systemer, både bottom-up og top-down, finder sted i et snævert og veldefineret rum af hypoteser og koncepter - et præcist sæt af spillebrikker og bevægelser, et forudbestemt sæt billeder . I modsætning hertil ændrer både børn og videnskabsmænd undertiden deres koncepter på radikale måder ved at udføre paradigmeskift snarere end blot at finpusse de begreber, de allerede har.

Fireårige kan straks genkende katte og forstå ord, men de kan også gøre kreative og overraskende nye konklusioner, der går langt ud over deres oplevelse. Mit eget barnebarn for nylig forklarede for eksempel, at hvis en voksen ønsker at blive et barn igen, skulle han prøve ikke at spise sunde grøntsager, da sunde grøntsager får et barn til at vokse til en voksen. Denne form for hypotese, en plausibel, som ingen voksen voksne nogensinde ville underholde, er karakteristisk for små børn. Faktisk har mine kolleger og jeg systematisk vist, at børnehaver er bedre til at komme med usandsynlige hypoteser end ældre børn og voksne. Vi har næsten ingen idé om, hvordan denne form for kreativ læring og innovation er mulig.

At se på, hvad børn gør, kan dog give programmerere nyttige tip om retninger til computerlæring. To træk ved børns læring er især slående. Børn er aktive elever; de opsamler ikke bare passivt data, som AI'er gør. Ligesom forskere eksperimenterer, er børn i sin egen motivation til at udtrække information fra verden omkring dem gennem deres uendelige leg og udforskning. Nylige undersøgelser viser, at denne udforskning er mere systematisk, end den ser ud, og er godt tilpasset til at finde overbevisende bevis til støtte for dannelse af hypotese og valg af teori. At opbygge nysgerrighed i maskiner og give dem mulighed for aktivt at interagere med verden kan være en rute til mere realistisk og vidtrækkende læring.

For det andet er børn, i modsætning til eksisterende AI'er, sociale og kulturelle lærere. Mennesker lærer ikke isoleret, men benytter sig af tidligere generations akkumulerede visdom. Nylige undersøgelser viser, at selv børnehaver lærer gennem efterligning og ved at lytte til andres vidnesbyrd. Men de adlyder ikke blot passivt deres lærere. I stedet indtager de oplysninger fra andre på en bemærkelsesværdig subtil og følsom måde, idet de foretager komplekse konklusioner om, hvor informationen kommer fra, og hvor pålidelig den er og systematisk integrerer deres egne oplevelser med det, de hører.

"Kunstig intelligens" og "maskinlæring" lyder skræmmende. Og på nogle måder er de det. Disse systemer bruges for eksempel til at kontrollere våben, og vi burde virkelig være bange for det. Stadig kan naturlig dumhed skabe langt mere ødelæggelse end kunstig intelligens; vi mennesker bliver nødt til at være meget smartere end vi tidligere har været for at regulere de nye teknologier korrekt. Men der er ikke meget grundlag for hverken den apokalyptiske eller den utopiske vision om AI'er, der erstatter mennesker. Indtil vi løser det grundlæggende paradoks for læring, vil de bedste kunstige intelligenser ikke være i stand til at konkurrere med den gennemsnitlige menneskelige fireårige.

Fra den kommende samling MULIGE MINDS: 25 måder at se på AI, redigeret af John Brockman. Udgivet efter aftale med Penguin Press, et medlem af Penguin Random House LLC. Copyright © 2019 John Brockman.

Vil AI nogensinde være smartere end en fireårig?