https://frosthead.com

Robotter er smarte - men kan de forstå os?

I filmene hører du aldrig robotter sige "Huh?"

For al sin angst blev "Star Wars" 'C-3PO aldrig forvirret. Sonny, den afgørende ikke-menneskelige i "Jeg, robot" er måske blevet forvirret over, hvad han var, men syntes ikke at have nogen problemer med at forstå Will Smith.

Men i det virkelige liv kæmper maskiner stadig mægtigt med menneskeligt sprog. Sure, Siri kan svare på spørgsmål, hvis den genkender nok af ordene i en given forespørgsel. Men at bede en robot om at gøre noget, som det ikke er blevet programmeret, trin for trin, at gøre? Nå, held og lykke med det.

En del af problemet er, at vi som mennesker ikke er meget præcise i, hvordan vi taler; når vi taler med hinanden, behøver vi normalt ikke være det. Men bede en robot om at "varme noget vand", og det passende svar ville være "Hvad?" - medmindre den havde lært, hvordan man behandler den lange række spørgsmål relateret til den tilsyneladende enkle handling. Blandt dem: Hvad er vand? Hvor får du det? Hvad kan du lægge det i? Hvad betyder 'varme' op? Hvilket andet objekt skal du gøre for at gøre dette? Er kilden i dette rum?

Nu har forskere ved Cornell University imidlertid taget udfordringen med at træne en robot til at fortolke, hvad der ikke er sagt - eller tvetydigheden i det, der siges. De kalder projektet Tell Me Dave, et nikk til HAL, computeren med den beroligende stemme og paranoide tendenser i filmen "2001: A Space Odyssey."

Deres robot, der er udstyret med et 3D-kamera, er blevet programmeret til at knytte objekter til deres evner. For eksempel ved det, at en kop er noget, du kan bruge til at holde vand, til at drikke eller som en måde at hælde vand i noget andet; en komfur er noget, der kan varme ting, men også noget, som du kan placere ting på. Computervidenskabsmænd kalder grundlæggende uddannelsesteknik - hjælper robotter med at forbinde ord til genstande og handlinger i den virkelige verden.

”Ord betyder ikke noget for en robot, medmindre de er jordet til handlinger, ” forklarer Ashutosh Saxena, leder af Tell Me Dave-teamet. Projektets robot, siger han, har lært at kortlægge forskellige sætninger, som at "afhente det" eller "løfte det" til den samme handling.

Det er et stort skridt fremad inden for kommunikation mellem mennesker og robotter i betragtning af hvor mange forskellige måder vi kan beskrive en enkel opgave.

”Alle robotter, såsom dem, der er fremstillet i industriel fremstilling, selvkørende biler eller hjælpende robotter, er nødt til at interagere med mennesker og fortolke deres upræcise sprog, ” sagde han. ”At være i stand til at finde ud af betydningen af ​​ord fra deres miljømæssige kontekst ville være nyttigt for alle disse robotter øjeblikkeligt.”

En gruppeindsats

Saxena har sammen med kandidatstuderende Dipendra Misra og Jaeyong Sung også henvendt sig til crowddsourcing for at samle så mange forskellige varianter af det engelske sprog som muligt.

Besøgende på webstedet Tell Me Dave bliver bedt om at dirigere en virtuel robot for at udføre en bestemt opgave, f.eks. "Lav ramen." Fordi de fleste har en tendens til at give forskellige kommandoer, når de fører roboten gennem processen, har teamet været i stand til at indsamle et stort ordforråd relateret til det samme trin i processen.

Disse kommandoer, der er optaget i forskellige accenter, er forbundet med lagrede videosimuleringer af forskellige opgaver. Så selvom sætningerne er forskellige - “tag potten til komfuret” i modsætning til “sæt gryden på komfuret” - kan Tell Me Dave-maskinen beregne sandsynligheden for en kamp med noget, den har hørt før.

På dette tidspunkt afslutter Tell Me Dave-roboten næsten to tredjedele af tiden anmodede opgaver. Det inkluderer tilfælde, hvor genstande flyttes til forskellige steder i rummet, eller robotten arbejder helt i et andet rum. Nogle gange er roboten dog stadig uklang: Da det blev bedt om at vente til is blev blød, ”kunne det ikke finde ud af, hvad de skulle gøre, ” siger Saxena.

Det er stadig blevet meget bedre til at udfylde uspecificerede trin. For eksempel, når han fik at vide at "varme vandet i gryden", indså roboten, at den først var nødt til at transportere gryden til hanen og fylde den med vand. Den ved også, at når den får besked om at opvarme noget, kan den enten bruge komfuret eller mikrobølgeovnen, afhængigt af, hvad der er tilgængeligt.

Saxena siger, at Tell Me Dave-robotuddannelsen skal forbedres, før den kan bruges i det virkelige liv; at være i stand til at følge anvisninger 64 procent af tiden er ikke godt nok, siger han, især da mennesker forstår, hvad de får at vide 90 procent af tiden.

Saxena og hans team vil præsentere deres algoritmer til træning af robotter og vise, hvordan de har udvidet processen gennem crowddsourcing, næste uge på Robotics Science and Systems Conference på University of California, Berkeley; lignende forskning udføres på University of Washington.

Der er ingen tvivl om, at robotter vil mestre algoritmerne - det er kun et spørgsmål om, hvornår dette skaber spring fra laboratorium til markedsplads. Næste år? Ikke sandsynligt. Men inden for et årti, da store virksomheder fokuserer på at komme ind på nye markeder som selvkørende biler, er det fuldstændigt muligt, at vi kan fortælle robotter som Tell Me Dave om at komme i gang med middagen.

Hvad siger du?

Her er nyere nyheder om forskning i kommunikation med og gennem robotter:

  • Hvad er bevægelsen for “sørg for, at min sæde er varm” ?: Mercedes-Benz ønsker at være det første store bilfirma, der begynder at sælge førerløse biler, måske så snart som 2020, og dens ingeniører er begyndt at samarbejde med roboteksperter for at udvikle måder til folk til at kommunikere med deres køretøjer. En metode, der får en masse opmærksomhed, er brugen af ​​håndsignaler, som en bilsensorer kunne forstå. Eksperter siger, at du med den rigtige gestus kunne hagle din parkerede bil for at hente dig.
  • Endelig hjælperobotter til mekanik: Hos Audi sendes robothjælpere snart til virksomhedens mekanik verden over. Robotterne er udstyret med 3D-kameraer styret af en off-site specialist, der kan guide de mennesker, der faktisk arbejder på bilerne gennem vanskelige reparationer.
  • Gør Siri smartere: Ifølge en rapport i Wired er Apple begyndt at ansætte top-taleegenkendelseseksperter, da det begynder at fokusere på begrebet neurale netværk, lade maskiner lære ord ved at opbygge forbindelser og efterligne den måde, neuroner fungerer i den menneskelige hjerne.
  • Robot har brug for tur til kunstudstilling: Senere denne måned begynder en robot at løbe i hele Canada. Det kaldes HitchBOT, det er blevet beskrevet som et projekt-socialt kombination-eksperiment. Målet er at se, om HitchBOT kan nå det fra Halifax til et galleri over hele landet i British Columbia. Det kan ikke bevæge sig alene, men det vil være udstyret med en mikrofon og et kamera, der giver det mulighed for at registrere bevægelse og tale. Det vil også være i stand til at besvare spørgsmål ved hjælp af en Wikipedia-baseret database.
Robotter er smarte - men kan de forstå os?