MIT-videnskabsfolk har udviklet en algoritme, der kan lære at genkende små tik og udtryk på det menneskelige ansigt for at kvantificere, hvor meget smerte den person oplever, rapporterer Matt Reynolds for New Scientist . Algoritmen kan hjælpe med, hvad der ofte er en vanskelig opgave for læger: at måle, hvordan en person føler, og om de overdriver eller minimerer den smerte.
I øjeblikket rapporteres smerter ved at rangere skalaer ved hjælp af tal eller billeder, rapporterer Luke Dormehl til digitale trender. Alligevel kan disse "visuelle analoge skalaer" for smerte være upræcise og vanskelige at bruge for mennesker, der har problemer med at oversætte symboler eller ansigter og matche den betydning til deres egne oplevelser. En bestemt gruppe, der kæmper for at bruge disse systemer, er mennesker med autisme, rapporterede Rose Eveleth for The Atlantic i 2015. Og ingen selvrapporterede skalaer kan komme rundt om nogen, der prøver at forfalde smerter for at få en recept på narkotika.
Computere kan være et svar på disse problemer. Forskere har tidligere uddannet kunstige neurale netværk til at lære at afhente signaler, som folk ofte laver i smerter langt mere præcist end andre mennesker. Men disse programmer fungerer i en enkelt skala for alle mennesker, selvom smerter er forskellige hos forskellige mennesker og afhænger af mange faktorer, skriver Christianna Reedy og Karla Lant for Futurism .
Forskere forsøger at løse dette problem. Et nyt program, der blev beskrevet sidste måned i Journal of Machine Learning Research, bevæger sig ud over denne one-size-pas-alle-tilgang med en smertealgoritme, der kan finjusteres baseret på en persons demografi, ansigtstræk og andre faktorer, der påvirker hvordan smerter vises på deres ansigt. Programmet, kaldet DeepFaceLIFT, blev trænet ved hjælp af videoer af mennesker med skulderskader, der blev bedt om at flytte deres sårede arm, skriver Reynolds.
DeepFaceLIFT er ikke beregnet til at erstatte traditionel smerterapportering, men snarere øge den, rapporterer Reynolds. Dets skabere håber at udvikle det til en mobilapp, der kan bruges af læger med smartphones, mens de interviewer patienter. Måske i fremtiden vil lægen vide det, selvom du prøver at få et modigt ansigt.