Når brugergrænseflader går, er det en af lugtmåderne at vælge, flytte eller klikke eller på anden måde styre en computer ved at tunge et blødt, Bluetooth-aktiveret klik på størrelsen på et vattegummi. Men i visse situationer giver det faktisk meget mening. Lad os sige, at du kører på en cykel, og vil svare på et opkald på dit headset, eller kig op i rutevejledningen, men vil ikke fjerne dine hænder fra bjælkerne. Eller hvis du er lammet og har brug for at køre en elektrisk kørestol, vil en beskedent retningsbestemt pude i munden være langt mindre mærkbar end en almindelig mund- eller hakekontrolenhed, eller endda en, du trykker med skulderen.
”Hvordan kan vi gengive disse interaktioner, mens vi opretholder diskretheden i grænsefladen?” Siger Pablo Gallego, en af opfinderne af enheden, kaldet ChewIt. ”Folk kan ikke fortælle, om du interagerer med ChewIt, eller om du har tyggegummi eller en gummy inde i munden. Eller måske en karamel. ”
Gallego slog sig til grund med denne idé, fast besluttet på at forfine den og skabe en prototype i forfølgelsen af sin kandidatgrad i teknik ved New Zealands University of Auckland. Forskning viste, at mennesker kan genkende forskellige former i munden, ligesom med fingerspidserne. Og han vidste, at vi kan tolerere tyggegummi og andre fremmedlegemer. Det, der fulgte, var års arbejde med at optimere formfaktoren. Et rundt objekt vil ikke fungere; brugeren kunne ikke fortælle, hvordan det var orienteret. Den måtte være stor nok til at kontrollere, men lille nok til at trække sig væk i kinden. Sammen med forsker Denys Matthies lavede Gallego ChewIt ud af en asymmetrisk klat af polymerharpiks, der indeholdt et kredsløbskort med en knap, der kan styre og bevæge en stol.
Denne prototype af ChewIt viser polymerharpiksen og kredsløbspladen. (University of Auckland)Gallego og Matthies undfangede og byggede ChewIt ved University of Aucklands Augmented Human Lab, en forskningsgruppe ingeniørprofessor Suranga Nanayakkara samlet til at opfinde værktøjer designet til at tilpasse teknologi til menneskelig brug snarere end omvendt. Der er et misforhold, forklarede Nanayakkara, mellem hvad vores teknologi gør, og hvordan den samles med os. Vi skulle ikke være nødt til at lære det; det burde lære os.
”Kraftig teknologi, dårligt designet, får brugerne til at føle sig deaktiverede, ” siger Nanayakkara. ”Kraftig teknologi med det rigtige interface mellem mennesker og maskiner vil få folk til at føle sig bemyndiget, og det vil gøre det menneske-til-menneske-interaktion i forgrunden [og] at holde teknologien i baggrunden. Det hjælper med at udnytte teknologiens fulde potentiale. ”
Nanayakkara er gået ud af hans måde at sikre, at studerende og videnskabsfolk i hans produktionslaboratorium er i stand til at skabe baseret på deres interesser og samarbejde med hinanden om deres ideer. De forskellige teknologier, de har udviklet, er bemærkelsesværdige. Der er en velkomstmåtte, der genkender beboere baseret på deres fodaftryk, inklusive bærerens vægt og sålernes slideprofiler og låser døren op for dem. Der er en personlig hukommelsescoaching, der indgår via lyd til tider, når den genkender, at brugeren har tid og opmærksomhed til at øve. Der er en smart cricket-flagermus, der hjælper brugere med at øve deres greb og sving. Der er en trindetektor til gåhjælpemidler til ældre, fordi FitBits og smartwatch ofte forker trin, når folk bruger ruller.
Og der er GymSoles. Disse smarte indlægssåler fungerer som en vægtløftningstræner, og hjælper brugerne med at opretholde den korrekte form og holdning under squats og deadlifts. ”Disse har meget forskellige holdninger, ” siger Samitha Elvitigala, der bygger enheden som en del af sit ph.d.-kandidatur. "Der er nogle subtile bevægelser, du skal følge, ellers vil du ende med skader." Sensorer i sålerne sporer føddernes trykprofil, beregner trykcenteret og sammenligner det med det mønster, det skal være - siger, om vægtløfteren læner sig for langt tilbage eller for langt frem. Derefter giver enheden haptisk feedback i form af subtile vibrationer, der angiver, hvordan løfteren skal justere sig selv. Ved at justere hældningen og placeringen af hendes fødder og ben og hofter korrekt falder hele kroppen i den rette form. Elvitigala forbedrer stadig projektet og ser på, hvordan det kan bruges til andre applikationer, f.eks. Forbedring af balancen hos Parkinsons patienter eller slagtilfælde.
Oprindelsen af det Augmented Human Lab går helt tilbage til en oplevelse, som Nanayakkara havde på gymnasiet. Han arbejdede med studerende på en boligskole for døve, og han indså, at alle undtagen ham kommunikerede problemfrit. Det fik ham til at overveje kommunikation og evner. ”Det handler ikke altid om at løse handicap, det handler om at forbinde med mennesker, ” siger han. ”Jeg følte, at jeg havde brug for noget, der skulle forbindes med dem.” Senere bemærkede han et lignende problem i kommunikationen med computere.
Han lærte at tænke på det som et designproblem, mens han studerede ingeniørarbejde, og derefter som postdoc i datalogi Pattie Maes 'Fluid Interfaces-gruppe, en del af MIT Media Lab. Som det augmented Human Lab bygger Fluid Interfaces-gruppen enheder designet til at forbedre den kognitive evne via sømløse computergrænseflader.
”Enheder spiller en rolle i vores liv, og i øjeblikket er deres indvirkning meget negativ på vores fysiske velvære, vores sociale velvære, ” siger Maes. "Vi er nødt til at finde måder at integrere enheder bedre i vores fysiske liv, vores sociale liv, så de er mindre forstyrrende og får mindre negative effekter."
Målet, siger Maes, er ikke at få computere til at gøre alt for os. Vi har det bedre, hvis de kan lære os at gøre tingene bedre selv og hjælpe os, som vi gør. For eksempel designede hendes studerende et par briller, der sporer bærernes øjenbevægelser og EEG, og minder dem om at fokusere på et foredrag eller en læsning, når deres opmærksomhed markeres. En anden bruger augmented reality for at hjælpe brugerne med at kortlægge minder på gaderne, mens de går, en rumlig memoreringsteknik, som hukommelsesmestre omtaler som et "hukommelsespalads." Sammenlign det med Google (måske søger du "Halloween-kostumer" i stedet for at blive kreativ, siger Maes ) eller Google Maps, der stort set har erstattet vores behov for at bevare information eller forstå, hvor vi er.
”Vi glemmer ofte, at når vi bruger en eller anden service som denne, der øger os, er der altid en omkostning, ” siger hun. ”En masse af enhederne og systemerne, som vi bygger, forstærker en person med visse funktioner. Men hver gang du udvider en eller anden opgave eller evne, mister du undertiden også en lille smule af denne evne. ”
Måske Nanayakkaras mest kendte enhed, FingerReader, begyndte i sin tid på MIT. FingerReader er designet til synshandicappede og er enkel i sin grænseflade - peg det ringebårne kamera mod noget, klik, og enheden fortæller dig, hvad det er, eller læser den tekst, der findes på det, gennem et sæt hovedtelefoner.
FingerReader fulgte Nanayakkara til Singapore, hvor han først startede Augmented Human Lab ved Singapore University of Technology and Design og derefter til University of Auckland, hvor han flyttede sit team af 15 i marts 2018. * På det tidspunkt, han og hans studerende har forfinet FingerReader og lavet efterfølgende versioner. Som mange af de andre enheder er FingerReader patenteret (foreløbigt) og kunne en dag finde vej til markedet. (Nanayakkara grundlagde en opstart kaldet ZuZu Labs for at fremstille enheden og producerer et testkørsel på et par hundrede stykker.)
På nogle måder tackle udvidelsen af virtuelle assistenter som Siri, Alexa og Google Assistant lignende problemer. De tillader en mere naturlig grænseflade, mere naturlig kommunikation mellem mennesker og deres allestedsnærværende computere. Men for Nanayakkara undgår de ikke hans enheder, de tilbyder bare et nyt værktøj til at supplere dem.
”Disse aktiverende teknologier er store, de er nødt til at ske, det er, hvordan feltet skrider frem, ” siger han. ”Men nogen er nødt til at tænke over, hvordan man bedst udnytter den fulde magt. Hvordan kan jeg udnytte dette til at skabe den næste mest spændende interaktion mellem mand og maskine? ”
* Redaktørens note 15. april 2019: En tidligere version af denne artikel oplyste forkert, at Suranga Nanayakkara flyttede sit team fra Singapore University of Technology and Design til University of Auckland i maj 2018, da det faktisk var i marts 2018. Historien er redigeret for at rette op på det faktum.