Ansigtsanalyse på arbejdet. Billede med tilladelse fra Affectiva
Så meget tid, som vi bruger med vores mobiltelefoner og bærbare computere og tablets, er det stadig stort set et envejsforhold. Vi handler, de reagerer. Sikker på, du kan føre en samtale med Siri på din iPhone, og selvom hun er hurtig, kvalificerer den næppe ikke som legende bantering. Du stiller spørgsmål, hun giver svar.
Men hvad nu hvis disse enheder virkelig kunne læse vores følelser? Hvad hvis de kunne fortolke hver lille gestus, enhver ansigtsvisning, så de kan måle vores følelser såvel som - måske bedre end - vores bedste venner? Og så reagerer de ikke med information, men hvad der kan passere for empati.
Vi er ikke der endnu, men vi bevæger os hurtigt i den retning, drevet af et videnskabsområde kendt som affektiv computing. Det er bygget op omkring software, der kan måle, fortolke og reagere på menneskelige følelser. Dette kan indebære, at du fanger dit ansigt på kameraet og derefter anvender algoritmer til ethvert aspekt af dine udtryk for at prøve at give mening om hver smirk og huden gnide. Eller det kan indebære, at du læser dit niveau af irritation eller glæde ved at spore, hvor hurtigt eller med hvor meget kraft du tapper ud en tekst, eller om du bruger humørikoner. Og hvis du synes for ophidset - eller beruset - kan du få en besked, der antyder, at du måske ønsker at holde ved at trykke på sendikonet.
At se, hvor svært det er for os mennesker at give mening om andre mennesker, denne opfattelse af programmeringsmaskiner til at læse vores følelser er ingen lille udfordring. Men det øger hastigheden, da forskere skærper deres fokus på undervisningsapparaters følelsesmæssig intelligens.
Hver gang du foretager dig
Et af de bedre eksempler på, hvordan affektiv computing kan fungere, er fremgangsmåden hos et firma kaldet, passende, Affectiva. Den registrerer udtryk og derefter ved hjælp af proprietære algoritmer, undersøger ansigtsindikationer og tapper ind i en database med næsten 300 millioner rammer med elementer i menneskelige ansigter. Softwaren er blevet forbedret til det punkt, hvor det kan knytte forskellige kombinationer af disse elementer til forskellige følelser.
Da den blev udviklet på MITs Media Lab af to forskere, Rosalind Picard og Rana el Kaliouby, blev softwaren, kendt som Affdex, designet med det formål at hjælpe autistiske børn med at kommunikere bedre. Men det havde helt klart masser af potentialer i erhvervslivet, og derfor spændte MIT projektet til en privat virksomhed. Det har siden rejst 21 millioner dollars fra investorer.
Så hvordan bruges Affdex? Oftest ser det, at folk ser reklamer. det registrerer folk, når de ser annoncer på deres computere - ikke rolig, du er nødt til at tilmelde dig dette - og derefter, baseret på dens database med ansigtsbilleder, evalueres, hvordan seerne føler for det, de har set. Og softwaren giver ikke kun en samlet positiv eller negativ dom; det nedbryder seernes reaktioner sekund for sekund, hvilket gør det muligt for annoncører at identificere med mere præcision end nogensinde før, hvad der fungerer i en reklamefilm og hvad der ikke gør.
Det er også i stand til at se, at mens folk siger en ting, kan deres ansigter sige en anden. Under et interview med Huffington Post gav el Kaliouby eksemplet på svaret på en annonce for body lotion, der blev sendt i Indien. Under reklamen rører en mand legende med sin kones udsatte mave. Bagefter sagde et antal kvinder, der havde set det, at de fandt den scene stødende. Men ifølge el Kaliouby viste videoer fra seerne, at hver eneste af kvinderne reagerede på scenen med det, hun kaldte et "fornøjelsessmil."
Hun ser muligheder ud over reklamens verden. Smart TV'er kan være så meget smartere om, hvilken slags programmer vi kan lide, hvis de er i stand til at udvikle en hukommelsesbank af vores ansigtsudtryk. Og politikere ville være i stand til at få reaktioner i realtid på hver linje, de udtaler under en debat, og være i stand til at tilpasse deres budskaber på farten. Plus, siger el Kaliouby, kan der være sundhedsanvendelser. Hun siger, at det er muligt at læse en persons hjertefrekvens med et webcam ved at analysere blodstrømmen i hans eller hendes ansigt.
”Forestil dig at have et kamera på hele tiden at overvåge din hjerterytme, " fortalte hun Huffington Post, "så det kan fortælle dig, om noget er galt, hvis du har brug for at komme mere i form, eller hvis du fyrer din pande hele tid og behov for at slappe af. ”
Så hvad synes du, uhyggelig eller cool?
Sporingsenheder
Her er fem andre måder, hvor maskiner reagerer på menneskelige følelser:
- Og hvordan var min dag ?: Forskere ved University of Cambridge har udviklet en Android-mobilapp, der overvåger en persons adfærd hele dagen ved hjælp af indgående opkald og tekster, plus sociale medieindlæg til at spore deres humør. Appen, kaldet "Emotion Sense", er designet til at skabe en "opdagelsesrejse", der giver brugerne mulighed for at have en digital optegnelse over toppe og dale i deres daglige liv. Dataene kan gemmes og bruges til terapisessioner.
- Og dette er mig efter den tredje kop kaffe: Så er der Xpression, en anden humørsporingsapp oprettet af et britisk firma kaldet EI Technologies. I stedet for at stole på, at folk i terapi holder dagbøger over deres humørsvingninger, lytter appen til ændringer i en persons stemme for at afgøre, om de er i en af fem følelsesmæssige tilstande: rolig, glad, trist, vred eller ængstelig / bange. Derefter holder det en liste over en persons humør, og hvornår de ændrer sig. Og hvis personen ønsker det, kan denne post automatisk sendes til en terapeut i slutningen af hver dag.
- Hvad hvis du bare hader at skrive på en telefon? : Forskere hos Samsung arbejder på software, der måler din sindssammenhæng ved, hvordan du skriver dine tweets på din smartphone. Ved at analysere, hvor hurtigt du skriver, hvor meget telefonen ryster, hvor ofte du baggrundsfejl, og hvor mange humørikoner, du bruger, skal telefonen være i stand til at bestemme, om du er vred, overrasket, glad, trist, bange eller væmmes. Og baseret på, hvilken konklusion det drager, kan det med din tweet omfatte den passende emoticon til at tip dine tilhængere til din sindstilstand.
- Bare inviter ikke dine venner til at se på: Ved hjælp af en sensor, der er slidt på håndleddet og et smartphonekamera, der er slidt rundt om halsen, har forskere ved MIT oprettet et "livelogging" -system, der samler billeder og data designet til at vise en person, hvilke begivenheder repræsenterede deres følelsesmæssige højder og lavheder. Systemet, kaldet Inside-Out, inkluderer en biosensor i et armbånd, der sporer øgede følelser gennem elektriske ladninger i huden, mens smarttelefonen sporer personens placering og tager flere fotos i minuttet. I slutningen af dagen kan brugeren se deres oplevelser sammen med alle sensordataene.
- Din pande siger, at du har problemer: Dette var sandsynligvis uundgåeligt. Forskere ved University of Southern California har oprettet en robotterapeut, der ikke kun er programmeret til at opmuntre patienter med veludviklede "Uh-huhs", men også er ekspert ved at bruge bevægelsessensorer og stemmeanalyse til at fortolke en patients hver gestus og stemme bøjning under en terapisession.
Videobonus: Vil du se, hvor bisarr denne tendens med enheder, der læser menneskelige følelser, kan blive? Tjek denne forfremmelse af Tailly, en mekanisk hale, der henter dit spændingsniveau ved at spore din hjerterytme og derefter vække passende.
Mere fra Smithsonian.com
Denne nye robot har en følelse af berøring
Madlavning med robotter