https://frosthead.com

Har forskere fundet en måde at poppe filterboblen på?

Vi kan lide at tro, at hvert besøg på Google er en søgning efter viden eller i det mindste nyttig information. Jo, men det er også en narcissisme.

Hver gang vi henter søgeresultater, trækker vi et virtuelt spejl, der reflekterer, hvem vi er i webverdenen. Det er, hvad Eli Pariser passende beskrev som "filterboblen" i sin bog fra 2011, The Filter Bubble: What Internet Is Hidden For You .

Pariser lagde tankerne bag algoritmisk personalisering. Ved omhyggeligt at spore vores hvert klik, kan Google - og nu Facebook og flere og flere andre websteder - baseret på fortidens opførsel komme med ret gode gætter om, hvad vi vil vide. Dette betyder, at to personer, der gør nøjagtigt den samme søgning, kan ende med meget forskellige resultater.

Vi bliver fodret med det, vi ser ud til at have lyst til, og da vi mere tilbøjelige til at klikke på ting inden for vores komfortzone - inklusive annoncer - er Google og andre motiverede til at fortsætte med at skærpe deres målretning. Som et resultat krymper boblerne, vi lever i.

Der er en pris for al denne præcision, som Pariser påpegede i et interview med Brain Pickings 'Maria Popova:

"Personalisering er en slags privatliv, der er vendt udad: det er ikke problemet med at kontrollere, hvad verden ved om dig, det er problemet med, hvad du får at se om verden."

Det større billede

Så vi er fanget i en labyrint af vores egen produktion, ikke?

Ikke nødvendigvis takket være et team af videnskabsfolk, der siger, at de måske er kommet frem til en måde at undslippe begrænsningerne ved algoritmer. Som MIT Technology Review for nylig rapporterede, har Eduardo Graells-Garrido ved Universitat Pompeu Fabra i Barcelona og Mounia Lalmas og Daniel Quercia på Yahoo Labs udviklet det, de kalder en "anbefalingsmotor", designet til at udsætte folk for modstridende synspunkter.

En nøgle, siger forskerne, er, at disse synspunkter kommer fra mennesker, som vi har andre interesser med. Det ser ud til at gøre os mere modtagelige for meninger, som vi ellers sandsynligvis ville afvise som dårskab. Den anden er at præsentere modstridende synspunkter på en visuel måde, der får dem til at føle sig mindre fremmed.

Til det formål brugte forskerne modellen af ​​en word cloud, som gjorde det muligt for studiedeltagere både at se, hvilke emner de havde en tendens til at tweede om oftest, og også at have adgang til - på en visuelt engagerende måde - indhold fra andre, hvis egne ordskyer nævnte mange af de samme emner.

Men hvad nu hvis noget af dette indhold afspejler et meget andet politisk synspunkt? Ville folk instinktivt afvise det?

For at sætte deres teori på en ordentlig prøve forbinder forskerne mennesker på modsatte sider af et emne, der fremkalder dybt personlige følelser - abort. De fokuserede på tusinder af aktive Twitter-brugere i Chile, der havde inkluderet hashtags såsom #prolife og #prochoice i deres tweets, og skabte ordskyer til dem baseret på udtryk, de brugte hyppigst.

Derefter gav de undersøgelsesdeltagere tweets fra folk, der havde mange af de samme udtryk i deres ordskyer, men som også havde det modsatte syn på abort. Forskerne fandt, at fordi folk så ud til at føle en forbindelse til dem, der havde lignende ordskyer, var de mere interesserede i deres kommentarer. Og det havde en tendens til at udsætte dem for en meget bredere vifte af meninger og ideer, end de ellers ville have oplevet.

Kort sagt anvendte forskerne det, som folk havde til fælles for at gøre dem mere åbne for at diskutere måder, de var forskellige på. De havde, i deres papirer konkluderet, fundet "en indirekte måde at forbinde forskellige mennesker."

Så der er endnu håb.

Madness til metoden

Her er andre nyere udviklinger i den til tider bisarre verden af ​​algoritmer.

  • Intet som automatiseret "Varme personlige hilsener": Dette var sandsynligvis uundgåeligt. Google har netop modtaget et patent på software, der vil holde så tæt på din sociale mediers opførsel, at det vil være i stand til at give dig et valg af mulige reaktioner på uanset hvilke kommentarer eller forespørgsler der kommer din vej på Facebook eller Twitter. Hvis for eksempel en ven får et nyt job, foreslår softwaren et svar, formentlig noget som "Tillykke." Det er rigtigt, du behøver ikke at spilde noget af din hjernekraft. Algoritmen gør det for dig.

  • Ring det ind: Forskere ved Helsinki University har udviklet algoritmer til at bestemme, hvordan folk kommer rundt - går, kører eller tager bussen eller metroen - ved at spore accelerometer-signalerne fra deres mobiltelefoner. Det giver dem mulighed for at analysere hyppigheden af ​​deres stop og starter. Forskerne siger, at det kunne være et stærkt værktøj til at hjælpe planlæggere med at forstå, hvordan folk bevæger sig rundt i deres byer.

  • Alle de nyheder, der passer: Facebook har finjusteret sine "nyhedsfeeds" algoritmer, så mere faktiske nyheder vil begynde at dukke op der. Ideen er at give større eksponering for links til artikler fra nyhedsorganisationer på Facebook-feeds - hvilket vil hjælpe med at gøre den sociale mediagigant mere relevant for hvad der foregår i verden udover venners fødselsdage. Spekulationerne er, at dette er en indsats fra Facebook til at udfordre Twitter's dominans i at skabe brummer omkring aktuelle begivenheder.

  • Hvad har hun at sige om Chicago Cubs ?: En israelsk computerforsker har oprettet en algoritme, der kan analysere enorme mængder af elektroniske data om tidligere begivenheder fra kilder, der er så forskellige som New York Times ' arkiv til Twitter-feeds og forudsige, hvad der kan ske i fremtiden. Mest bemærkelsesværdigt har videnskabsmanden, der hedder Kira Radinsky, brugt sit system til at forudsige den første koleraepidemi i Cuba i mange årtier og protesterne frem til det arabiske forår.

Videobonus: Her er TED-samtalen, der gjorde Eli Pariser og hans koncept om filterboblen berømt.

Videobonusbonus: Der er algoritmer til alt i disse dage, og at tro Sheldon på "The" Big Bang Theory ", der inkluderer at få venner.

Mere fra Smithsonian.com

Hvordan Big Data har ændret datering

Tror du, du laver et godt job? Ikke hvis algoritmerne siger, at du ikke er det

Har forskere fundet en måde at poppe filterboblen på?