https://frosthead.com

Protese Limb 'ser', hvad brugeren ønsker at gribe

Når du griber noget, gør din hånd det meste af arbejdet. Din hjerne siger bare, "gå, du skal ikke bekymre dig om, hvordan det sker." Men med en protese, selv den mest avancerede, kræver denne handling meget mere intentionalitet. Som et resultat aflader mange patienter deres avancerede lemmer.

Relateret indhold

  • Hvordan hacking af neurale netværk kan hjælpe amputerede fejlagtigt med at knække et æg
  • Det er nemt at få protesen, sammenlignet med at få det til at gøre, hvad du vil

Moderne protetik modtager kommandoer i form af elektriske signaler fra de muskler, de er knyttet til. Men selv de bedste proteser kan ikke gøre meget endnu. Brugere har brug for en lang træningsperiode for at vænne sig til lemmet. De kan ofte kun bevæge sig på begrænsede måder, og brugere er nødt til manuelt at skifte mellem greb for at udføre forskellige opgaver - sig for at åbne en dør kontra klemme og dreje en nøgle. Alt i alt betyder det, at hånden ikke kan arbejde problemfrit med hjernen.

Et værktøj, der muligvis kan hjælpe med at løse dette problem, er computervision. Forskere ved Newcastle University monterede et webcam på en protetisk hånd, sluttede det til et dybt lærende neuralt netværk og gav enhederne til to amputerede, hvis arme var blevet amputeret over håndleddet men under albuen. Computeren brugte kameraet til at se, hvad brugeren nåede efter og automatisk justere protesens greb.

Resultaterne har hidtil været lovende. I en artikel i Journal of Neural Engineering rapporterede teamet fra Newcastle, at brugerne havde succesrate over 80 procent til opsamling og flytning af genstande.

”Hvis vi kan forbedre det, få hundrede procent, ville det være meget mere pålideligt at bruge hånden til amputerede, ” siger Ghazal Ghazaei, en ph.d.-studerende i Newcastle og hovedforfatter af papiret. ”Hvis det vil være brugt i det virkelige liv, bør det være fejlfri. ”

Enheden i sig selv var en off-the-shelf-protese kaldet en i-lem ultra, og webcam var en lav opløsning, billig Logitech Quickcam Chat. Den virkelige innovation var, hvordan Ghazaei's team udtænkte en computerindlæringsplan for at bruge informationen fra webcam.

Softwaren genkender mønstre i form af det objekt, der skal løftes, og klassificerer dem i kategorier baseret på det greb, den har brug for effektivt at gribe dem. For at lære computeren denne teknik fodrede Ghazaei 72 billeder hver, taget i trin på 5 grader, af 500 objekter. Softwaren filtrerer objekterne efter deres funktioner og lærer gennem prøve og fejl, hvilke der falder inden for hvilke kategorier.

Når protesen derefter præsenteres for et objekt, klassificerer netværket billedet med lav opløsning, baseret på dets brede, abstrakte form. Det behøver ikke være noget, systemet har set før - den generelle form på objektet er nok til at fortælle hånden, hvilket greb der skal bruges. Ghazaei og team benyttede fire grebstyper, herunder knivspids (to fingre), stativ (tre fingerspidser), neutral palmar (som at gribe fat i en kaffekop) og udpræget palmar (hvor håndfladen vender nedad).

Computervision er blevet brugt på robothænder før, både i proteser og industrielle robotter. Men en sådan indsats har enten involveret genstande med standardstørrelse og -form, som i et fremstillingsmiljø, eller langsommere algoritmer. Systemet, der blev udviklet i Newcastle, var i stand til at gennemgå denne proces hurtigt nok til korrekt at klassificere objekterne i 450 mikrosekunder, eller omkring 1/2000 sekund. ”Den største forskel er den tid, det tager at give et greb og udføre opgaven, ” siger Ghazaei. ”For nogle af dem er det cirka fire sekunder, og nogle af dem har brug for flere snapshots. For os er det kun et øjebliksbillede, og det er meget hurtigt. ”

Virkningerne af denne teknologi går langt ud over at hente husholdningsartikler. Billedbehandlingssystemer kan hjælpe proteseben med at vide, hvor langt de er fra jorden, og tilpasse sig f.eks. Hvad begge tilfælde har til fælles, er et robotsystem, der fungerer sammen med hjernen.

”Hovedideen er at have et samspil mellem robotapparatet og det menneskelige og tilføje en vis intelligens i det robotiske system, ” siger Dario Farina, professor i neurorehabiliteringsteknologi ved Imperial College London, hvis laboratorium studerer neuromuskulære grænseflader til kroppe og hjerner og de enheder, de opretter forbindelse til.

”Det er ikke kun patienten, der styrer protesen med sin hjerne og gennem det neurale interface, men det er også patienten, der får hjælp fra en anden intelligent enhed, der er monteret på protesen, og som kan se miljøet, ” siger Farnia, der ikke var involveret i Newcastle-undersøgelsen. "Den største udfordring i dette er virkelig at være i stand til at dele kontrollen mellem det menneskelige og intelligenssystemet."

Det er en tidlig indfald i sammensmeltningen af ​​kunstig intelligens med hjernen, hvor man undersøger hvilke handlinger der fungerer bedst for hver uden at skabe konflikt. Ghazaei har fundet dette problem; hun arbejder stadig med at styre, hvor meget af den brede bevægelse, der styres af protesens computer, kontra brugerens handlinger. Lige nu peger brugeren protesen mod emnet, inducerer det til at tage et foto, og derefter vælger armen grebet og griber fat.

Det er bare en af ​​mange resterende udfordringer. Lige nu kan systemet ikke forstå lange objekter, der strækker sig ud af visningen. Det har problemer med overfyldte baggrunde. Undertiden fortolker det et længere væk objekt som et mindre, nærmere objekt. Og Ghazaei siger at øge antallet af grebstyper til 10 eller 12 er et andet mål. Men allerede, siger hun, satte de to brugere i forsøget pris på stigningen i ydelsen og den enkelhed, det giver til den grundlæggende handling med at samle noget op.

Protese Limb 'ser', hvad brugeren ønsker at gribe