https://frosthead.com

Når maskiner ser

mønster genkendelse

Mønstergenkendelse af en sommerfuglvinge. Billed med tilladelse fra Li Li

Her i Washington har vi hørt om denne ting, du kalder "forhåndsplanlægning", men vi er endnu ikke klar til at omfavne den. Lidt for futuristisk.

Vi kan stadig ikke undgå at beundre langvejs fra dem, der forsøger at forudsige, hvad der kunne ske mere end en måned fra nu af. Så jeg blev imponeret for et par uger siden, da de store tænkere hos IBM forestillede sig verdenen for fem år og identificerede, hvad de mener vil være fem innovationsområder, der vil have den største indflydelse på vores daglige liv.

De har gjort dette i et par år nu, men denne gang fulgte de vandrede suser et tema - de fem menneskelige sanser. Ikke at de siger, at i 2018 vil vi alle være i stand til at se, høre og lugte bedre, men snarere at maskiner vil - at ved hjælp af hurtigt udviklende sensoriske og kognitive teknologier, vil computere fremskynde deres transformation fra dataindhentning og behandling af motorer til tænkende værktøjer.

Ser du et mønster?

I dag, lad os beskæftige os med vision. Det er et logisk spring at antage, at IBM muligvis henviser til Googles projektglas. Ingen tvivl om, at det har omdefineret rollen som briller, fra nørdigt tilbehør, der hjælper os med at se bedre til combo-smartphone / datadykningsenhed, som vi en dag vil bære på vores ansigter.

Men det er ikke det, IBM-medlemmerne taler om. De er fokuseret på maskinsyn, specifikt mønstergenkendelse, hvor computere gennem gentagen eksponering for billeder er i stand til at identificere ting.

Som det viser sig, var Google tilfældigvis involveret i et af sidste års mere bemærkelsesværdige mønstergenkendelseseksperimenter, et projekt, hvor et netværk på 1.000 computere, der bruger 16.000 processorer, efter at have undersøgt 10 millioner billeder fra YouTube-videoer, var i stand til at lære sig selv, hvad en kat lignede.

Det, der gjorde dette særligt imponerende, er, at computere var i stand til det uden nogen menneskelig vejledning om, hvad de skulle kigge efter. Al indlæring blev gjort gennem maskinerne, der arbejdede sammen for at bestemme, hvilke katteegenskaber, der fortjente deres opmærksomhed, og hvilke mønstre, der betyder noget.

Og det er modellen for, hvordan maskiner lærer syn. Sådan forklarer John Smith, en senior manager i IBMs Intelligent Information Management, det:

”Lad os sige, at vi ville lære en computer, hvordan en strand ser ud. Vi vil starte med at vise computeren mange eksempler på strandscener. Computeren ville forvandle disse billeder til forskellige funktioner, såsom farvedistribution, teksturmønstre, kantoplysninger eller bevægelsesinformation i tilfælde af video. Derefter vil computeren begynde at lære at skelne strandscener fra andre scener baseret på disse forskellige funktioner. F.eks. Vil det lære, at der for en strandscene typisk findes visse farvefordelinger sammenlignet med et bybillede i centrum. ”

Hvor smart er smart?

Godt for dem. Men indse det, at det at identificere en strand er temmelig grundlæggende ting for de fleste af os mennesker. Kunne vi blive revet med om, hvor meget tænkemaskiner, der kan gøre for os?

Gary Marcus, en psykologiprofessor ved New York University, synes det. Han skrev for nylig på New Yorkers websted og konkluderer, at selvom der er gjort store fremskridt med hvad der er blevet kendt som ”dyb læring”, har maskiner stadig en lang vej at gå, før de skal betragtes som virkelig intelligente.

”Realistisk set er dyb læring kun en del af den større udfordring ved at bygge intelligente maskiner. Sådanne teknikker mangler måder at repræsentere årsagsforhold på (f.eks. Mellem sygdomme og deres symptomer) og vil sandsynligvis stå overfor udfordringer med at få abstrakte ideer som "søskende" eller "identisk med." De har ingen åbenlyse måder at udføre logiske konklusioner på, og de er også stadig langt fra at integrere abstrakt viden, såsom information om, hvad objekter er, hvad de er til, og hvordan de typisk bruges. ”

Folk hos IBM vil uden tvivl anerkende så meget. Maskinlæring kommer i trin, ikke spring.

Men de mener, at dyb læring inden for fem år har taget tilstrækkelige fremskridt til, at computere for eksempel vil begynde at spille en meget større rolle i medicinsk diagnose, at de faktisk kunne blive bedre end læger, når det kommer til at opdage tumorer, blodpropper eller syvt væv i MR'er, røntgenstråler eller CT-scanninger.

Og det kunne gøre en stor forskel i vores liv.

At se er at tro

Her er flere måder, hvor maskinsyn påvirker vores liv:

  • At sætte din bedste arm frem: Teknologi udviklet ved University of Pittsburgh bruger mønstergenkendelse for at sætte paraplegics i stand til at kontrollere en robotarm med deres hjerner.
  • Din mund siger ja, men din hjerne siger nej: Forskere ved Stanford fandt, at brug af mønstergenkendelsesalgoritmer på MR-scanninger af hjerner kunne hjælpe dem med at afgøre, om nogen faktisk havde smerter i korsryggen, eller om de forfalskede det.
  • Når dine føflekker er klar til deres nærbilleder: Sidste år lancerede en rumænsk opstart ved navn SkinVision en iPhone-app, der giver folk mulighed for at tage et billede af mol på deres hud og derefter få SkinVisions genkendelsessoftware til at identificere eventuelle uregelmæssigheder og påpege risikoniveauet - uden tilbyder en faktisk diagnose. Det næste trin er at gøre det muligt for folk at sende billeder af deres hud direkte til deres hudlæge.
  • Har jeg fået en aftale til dig: Nu under udvikling er en marketingteknologi kaldet Facedeals. Det fungerer sådan: Når et kamera ved en butikens indgang genkender dig, sendes du tilpassede butikker i butikken på din smarte telefon. Og ja, du bliver nødt til at tilmelde dig først.
  • Jeg kunne kende det segl hvor som helst: Et edb-foto-ID-system, der bruger mønstergenkendelse, hjælper britiske forskere med at spore grå sæler, der har unikke markeringer på deres frakker.

Videobonus: Mens vi er genstand for kunstig intelligens, er her en robot-sværm, der spiller Beethoven, komplimenter af forskere ved Georgia Tech. Sats på at du ikke forventede at se det i dag.

Mere fra Smithsonian.com

En mere menneskelig kunstig hjerne

Hvordan teknologi bekæmper terrorisme

Når maskiner ser