For alle deres fantastiske frekvens forbliver skoleskydninger en forvirrende rædsel.
Der er ikke kun lidt enighed om, hvordan man stopper dem - med forslag, der spænder fra at begrænse pistoladgang til bevæbende lærere - men der er endnu mindre sikkerhed for, hvorfor en studerende åbner ild mod sine klassekammerater.
Nu begynder nogle forskere at undersøge, om kunstig intelligens (AI) kunne hjælpe med at finde svar. Ideen er, at algoritmer måske kunne være i stand til bedre at analysere data relateret til skoleskydder og måske endda identificere mønstre i studerendes sprog eller adfærd, der kan skygge for vold i skolen. Forskningen er stadig i sin tidlige fase, og udsigterne til at bruge maskiner til at forudsige, hvem der kan blive skoleskytter, rejser privatlivspolitiske spørgsmål og andre etiske spørgsmål, der er forbundet med enhver form for profilering, især da processen ville involvere børn. Målet er dog at se, om den intelligente maskins analytiske kraft kan give mere klarhed til tragedier, der alt for ofte konsumeres i en hvirvel af høje følelser og politisk retorik.
Når vi tænker på teknologi
Brug af kunstig intelligens som en måde at bringe videnskabelig analyse til noget så uigennemtrængeligt som skudoptagelser appellerede meget til Shreya Nallapati. Hun er netop uddannet fra gymnasiet i Colorado, men tilbage i februar, efter 17 dødsdrejningers dødsfald i Parkland, Florida, blev hun inspireret af studieleder Emma Gonzalez til at gribe ind.
”Jeg følte, at vi ikke bare skulle placere vores tanker og medfølelse, ” siger Nallapati. ”Jeg troede, at vi som en stigende generation af årtusinder burde prøve at bruge det, vi ved bedst - teknologi.”
Så Nallapati, der har studeret kunstig intelligens i gymnasiet, nåede ud til andre unge kvinder, hun kender gennem et program kaldet Aspirations in Computing, der drives af National Center for Women & Information Technology. Aspirations in Computing opfordrer unge kvinder til at gå ind i computere og teknologiske områder.
Nallapati bad andre i gruppen om at slutte sig til hende i et nyt projekt, #NeverAgainTech. Hun håber, at samarbejdsindsatsen vil resultere i en AI-drevet samling og analyse af en lang række data relateret til skoleskydder - fra demografisk og socioøkonomisk information om tidligere skydespil, til enhver historie med narkotikamisbrug eller neurologiske lidelser, til tilgængelighed af kanoner i de stater, hvor angreb har fundet sted. Målet er at udvikle en mere omfattende opdeling af de mange komponenter i skoleskydder end noget, der i øjeblikket findes, og stille den resulterende software til rådighed for offentligheden, især skoler og retshåndhævelsesbureauer, næste år.
Vurdering af risiko
Et team af forskere ved Cincinnati Children's Hospital Medical Center tager en anden tilgang til at bruge AI til at tackle skolevold. Den offentliggjorde en nylig undersøgelse, der antydede, at maskinlæring potentielt kan hjælpe terapeuter og rådgivere med at skelne det risikoniveau, en studerende kan udvise.
Specifikt fandt forskerne, at AI var lige så præcist som et team af børn og unge psykiatere, når det kom til at vurdere risikoen for voldelig opførsel, baseret på interviews med 119 børn mellem 12 og 18 år. Mens undersøgelsen fokuserede bredt på fysisk aggression, siger hovedforsker Drew Barzman, at det også var anvendeligt til vurdering af skoleskydningsrisiko.
”Der er normalt advarselsskilte, før der er vold i skolen, ” siger han. Især kan det sprog, som en studerende bruger under et interview, hjælpe med at skelne en højrisikogeenåring fra en lavrisikosprog, ifølge tidligere undersøgelser, som Barzman instruerede. Denne undersøgelse konkluderede, at førstnævnte var mere tilbøjelige til at udtrykke negative følelser om sig selv og om andres handlinger. Han talte også mere om voldelige handlinger, der involverede sig selv og voldelige videospil eller film.
Holdet tog et andet skridt ved at have en AI-algoritmebrugsresultater fra den tidligere undersøgelse til at analysere udskrifter af studerende, der blev interviewet til den nye forskning. Baseret på sprogmønstre angav det, om en person var en høj eller lav risiko for at begå vold. Mere end 91 procent af tiden var algoritmen, der kun anvendte transciripterne, på linje med de mere omfattende vurderinger af et team af børn og unge psykiatere, der også havde adgang til information fra forældre og skoler.
De studerende i undersøgelsen blev i vid udstrækning rekrutteret fra psykiatri poliklinikker, ambulante enheder og akutte afdelinger. Nogle havde for nylig udvist store adfærdsændringer, men for andre var ændringerne mere mindre. Barzman siger, at de deltog i en lang række skoler, selvom ingen var hjemmeskole.
Ifølge Barzman fokuserede undersøgelsen på at forudsige fysisk aggression i skolen, men at det stadig ikke vides, om maskinlæring faktisk kunne forhindre vold. Fokus på dette tidspunkt er at give terapeuter og rådgivere et værktøj, der kan skærpe deres vurderinger af studerende på baggrund af interviews. Formålet, bemærker Barzman, er ikke at få maskiner til at træffe beslutninger om studerende.
"Det ville dybest set være beregnet til at hjælpe klinikeren i hans eller hendes beslutningstagning, " siger Barzman. "Vi ville give dem en struktur af, hvad vi har fundet som vigtige spørgsmål. Det kan være vanskeligt at interviewe en studerende, vælge de rigtige oplysninger og huske alt. Tanken er at give dem et værktøj, der kan hjælpe dem gennem processen og øge nøjagtigheden af deres vurderinger. "
Matty Squarzoni er en anden troende på potentialet ved kunstig intelligens til at tackle skolevold. Han er administrerende direktør for en Californiens startup kaldet Sitch AI, som planlægger at markedsføre teknologi, som han siger, kunne hjælpe skoler med at tackle sådanne trusler. Det oprindelige fokus vil være at udvikle et system af sensorer, der gør det muligt for politibetjente at opdage den nøjagtige placering af skuddskud og også spore en skydespil bevægelser gennem en skole. Men Squarzoni siger, at virksomheden også ser på måder at bruge forudsigelig analyse til at få øje på potentielle problemer, før de bliver voldelige.
Han mener, at kunstig intelligens kunne analysere en studerendes data og markere markante ændringer i hans eller hendes præstation eller opførsel. Squarzoni anerkender potentielle bekymringer omkring privatlivets fred, men siger, at virksomheden ikke ville vide de studerendes identitet.
”Vi taler ikke om at oprette profiler, ” siger han. ”Vi ser på hver person som en unik enhed. Men mennesker er væseners væsener. Når de begynder at have uregelmæssigheder, er det, når du begynder at se på dem. Du ser flag, og måske begynder flagene at blive nærmere og tættere. Det kan være psykiske problemer, eller måske falder deres karakterer.
”Vi ser ikke på at være i stand til at sige, 'Denne person bliver en skydespil.' Vi ønsker at kunne sige, 'Denne person har brug for hjælp.' "
Ikke så hurtigt?
Men andre har alvorlige bekymringer over hasten med at bruge softwarealgoritmer til at tackle komplekse samfundsmæssige problemer.
”Vi ser nu en tendens til, at AI anvendes til meget følsomme domæner i alarmerende hastigheder, og folk, der fremstiller disse algoritmer, forstår ikke nødvendigvis alle de sociale og endda politiske aspekter af de data, de bruger, ” siger Rashida Richardson, direktør for politikforskning ved AI Now Institute, et program ved New York University, der studerer de sociale implikationer af kunstig intelligens.
Et område, hvor brugen af AI er kommet under ild, er det, der er kendt som forudsigelig politiarbejde. Dette er softwareprodukter, der analyserer kriminalitetsstatistikker og derefter forudsiger, hvor forbrydelser er mere tilbøjelige til at blive begået. Men kritikere påpeger, at data såsom arrestationer kan være et resultat af menneskelig bias, som i sidste ende kan blive bagt ind i algoritmen.
Det er altid en risiko for forudsigelig analyse, og hvorfor datakilden er en nøglefaktor til at bestemme, hvor objektiv de faktisk kan være. Med AI-værktøjet, der er udviklet af forskere i Cincinnati børnehospital, er analysen imidlertid baseret på, hvad de enkelte studerende siger under et interview snarere end en bred samling af statistikker.
Alligevel mener Richardson, at det er vigtigt, at teams, der opretter denne form for software, er "tværfaglige", så for eksempel undervisere er involveret i programmer, der vurderer studerendes adfærd.
”Forskere forstår muligvis ikke meget af nuancerne i, hvad folk i uddannelses- og juridisk politik verden kalder skoleklima. Det inkluderer sikkerheds- og adfærdsspørgsmål, ”siger hun. ”Den slags skole, du er i, dikterer ofte, hvordan adfærd håndteres, og hvordan disciplin håndteres.
”For eksempel har charterskoler vist sig at have meget strengere disciplinære politikker, ” tilføjer Richardson. ”Børn i det miljø bliver behandlet meget anderledes end i en high-end privatskole og endda i forskellige offentlige skoleskoler.
”At prøve at forstå meget komplicerede problemer, der har et utal af input og anvende en teknisk løsning, der afspejler en del af det, er et problem, fordi det enten kan gentage de samme problemer, vi ser i samfundet, eller skabe en løsning på et problem, der ikke er der. ”
Richardson siger, at en anden bekymring er, at selv hvis et AI-program er udviklet med de bedste intentioner, kan det ende med at blive brugt på måder, som det ikke skabes forud for.
”Når du først har fundet på disse værktøjer, ” siger hun, ”er det ikke som om du fortsat har kontrol over, hvordan de er implementeret, eller hvordan de fortsat vil påvirke samfundet som helhed.”