Chris Hedges-rapport: Overvågningsuddannelse

Aktier
1

Allison Butler og Nolan Higdon diskuterer de "ed-tech"-systemer, der eroderer mindreåriges privatlivsrettigheder og diskriminerer farvede studerende.

By Chris Hedges
ScheerPost

Any teknologi skabt af det amerikanske militærindustrielle kompleks og vedtaget af den brede offentlighed var altid nødt til at komme med en advarsel.

For de fleste er internettet, GPS, berøringsskærm og andre allestedsnærværende teknologier almindelige værktøjer i den moderne verden. Men i virkeligheden tjener disse teknologier "dobbeltbrug",

Mens de plejer typiske mennesker, muliggør de også massetvang, overvågning og kontrol af de selvsamme mennesker i hænderne på virksomhederne og militærstaten.

Nolan Higdon og Allison Butler, forfattere af Overvågningsuddannelse: Navigering i det iøjnefaldende fravær af privatliv i skolerne, slutte sig til vært Chris Hedges i dette afsnit af Chris Hedges-rapporten. De udforsker software- og teknologisystemer, der anvendes i grundskoler og højere læreanstalter, som overvåger elever, udhuler mindreåriges privatlivsrettigheder og i processen diskriminerer farvede elever.

Brugen af ​​denne teknologi, forklarer Higdon, er baseret på at behandle mennesker som produkter gennem overvågningskapitalisme.

"Du udtrækker data og information om mennesker fra alle disse smarte teknologier, og så er du i stand til at træffe beslutninger om deres adfærd, hvordan de kan reagere på noget. Og der er mange industrier, der er interesserede i dette,” siger Higdon til Hedges.

Butler forklarer, at studerende, ofte uden valg i sagen, udsættes for brugen af ​​denne teknologi, der i sagens natur udnytter deres data. Fordi der er et underforstået samtykke til, at det skal bruges, "Den meget begrænsede mængde beskyttelse, der er for at holde mindreåriges data sikre, er væk, når først du har en teknologi, der er sat ind i deres klasseværelse," siger Butler. "Der er en passiv accept af denne teknologi."

Higdon peger på ændringer foretaget af Obama-administrationen i 2012 til Family Educational Rights and Privacy Act (FERPA) som en nøglefaktor. Disse ændringer gjorde det muligt for elevdata at blive delt med private virksomheder, der fungerer som uddannelsespartnere.

"Efektivt fik alle de data, som studenterrettighedsbevægelsen arbejdede for at sikre var private, tilladt at blive distribueret til disse virksomheder," siger Higdon.

Forfatterne understreger den dybe indvirkning, disse teknologier har på de grundlæggende læringsprocesser i klasseværelset.

"Det begrænser nysgerrigheden, hvilket er afgørende for uddannelsesprocessen," siger Higdon. "Det mentale traume og vanskeligheden ved at lukke et af de få rum, hvor de er i stand til at udforske, jeg tror, ​​det bare taler om problemet med overvågning og uddannelsesprocessen."

Host: Chris Hedges

Producer: Max Jones

Intro: Diego ramos

Mandskab: Diego Ramos, Sofia Menemenlis og Thomas Hedges

Udskrift: Diego ramos

Chris Hedges: Overvågningsværktøjer er blevet allestedsnærværende på skoler og universiteter. Teknologier, der lover større sikkerhed og forbedret akademisk præstation, har givet Gaggle, Securly, Bark og andre mulighed for at indsamle detaljerede data om studerende. Disse teknologier har dog ikke kun undladt at leve op til deres løfter, men har fjernet de studerendes privatliv. 

Dette gælder især i fattige samfund, hvor der ikke er meget kontrol med engrosovervågning. Disse data vendes ofte mod elever, især de fattige og farvede elever, hvilket fremskynder rørledningen fra skole til fængsel. Når elever og lærere ved, at de bliver overvåget og overvåget, kvæler det intellektuel debat, enhver udfordring af den dominerende fortælling og undersøgelse af magtmisbrug. 

Men mere ildevarslende giver det virksomheder og statslige organer mulighed for at stigmatisere og kriminalisere studerende. Disse digitale platforme kan målrette de unge med propaganda og bruge social engineering og trendanalyse til at forme adfærd. Sammen med mig for at diskutere masseovervågning af studerende er Nolan Higdon, forfatter, sammen med Allison Butler, fra Overvågningsuddannelse: Navigering i det iøjnefaldende fravær af privatliv i skolerne.

Så Allison, lad os begynde med dig, og som du gør i bogen, giv os et portræt af, hvor påtrængende - hvilket jeg ikke vidste, før jeg læste din bog - hvor påtrængende denne overvågning er, og hvordan den fungerer.

Allison Butler:  Sikker. Tusind tak for at have os. Jeg vil sige, at det korteste svar på det spørgsmål er, at det er utroligt, fuldstændigt, fuldstændigt påtrængende. Og for at uddybe, at vi lever i en verden lige nu med overvågningsteknologier. Der er stort set ingen steder, du og jeg kan tage hen som enkeltpersoner, hvor vi ikke i en eller anden kapacitet bliver overvåget. Meget af det er, til en vis grad, efter vores eget valg. For eksempel, hvis vi sætter os ind i vores bil og bruger vores GPS, accepterer vi disse vilkår. 

Det, der er vores bekymring, især med denne tekst, er, at vi har en overvældende mængde overvågning i vores K til 12 og videregående skoler. Specifikt for K til 12 skoler, at overvågning sker for mindreårige, for børn under 18 år, uden deres aktive samtykke. Vi har på en måde været vant til, vi er på en måde blevet plejet til overvågningsteknologier af nogle af de bløde teknologier, såsom vores GPS, såsom QR-koder, der hjælper os med at gøre det lettere at se på restaurantmenuer, som f.eks. de apps på vores telefon, der får vores liv til at føles en smule mere bekvemt. 

Omkostningerne ved det er, at når hårdere og mere påtrængende overvågningsteknologier kommer ind i vores verdener, og især af hensyn til vores bekymring, kommer ind i vores klasseværelser, har vi på en måde allerede fået grundlaget lagt, hvor vi er klar til det, og vi måske ikke nødvendigvis stille spørgsmålstegn ved disse teknologier i det omfang, de fortjener.

Chris Hedges: Nå, de teknologier, som du påpeger i bogen, markedsføres ikke som overvågningssystemer. De markedsføres som forbedringer til uddannelse, forbedringer af sikkerhed. Og giv mig bare et billede af nogle af dem, der går i gang, og disse andre digitale overvågningsværktøjer, giv mig et billede af, hvad de er, og hvordan de virker.

Nolan Higdon:  Ja. Tusind tak for at have mig, Chris. Allison og jeg er glade for at være her. Og jeg tror, ​​at den nemmeste måde at forstå det på er, ligesom resten af ​​Silicon Valley, disse uddannelsesteknologiske eller ed tech-virksomheder, at de har en tendens til at overlove og underlevere. Så mange af begrundelserne for at tilføje dem til klasseværelser er ting, folk typisk ville være enige i, ikke? Disse værktøjer vil gøre os mere sikre eller sikre. De vil forbedre læringen. De vil forberede eleverne til det 21. århundredes marked. Nogle af dem annoncerer endda sig selv som værende mere inkluderende. Det er mere DEI [diversitet, lighed og inklusion] kompatibel, fordi de fjerner den menneskelige bias, eller det menneskelige element, er, hvad de hævder. Men vi bemærker i alle disse tilfælde, at de virkelig maskerer mere, vil jeg påstå, skadelige motiver. 

Der er mange penge at tjene ved at have disse værktøjer i klasseværelset og være i stand til at indsamle data. Så det er et spørgsmål. Det andet spørgsmål er, ud over at maskere det virkelige motiv, som er at tjene penge, så lever de ikke rigtigt mange af disse løfter. Vi taler om i bogen, hvordan de, selvom de siger, at disse værktøjer er bygget til at fremme sikkerheden, ofte kommer til kort i det. Der er mangel på beviser for at sige, at de faktisk forbedrer læring, og så er der en masse gode beviser for, at de faktisk arbejder imod DEI's mål. Så i mange af disse tilfælde ser det ud til, at de grunde, der gives for at have disse ed tech-værktøjer i skoler, er meget anderledes, end hvad de faktisk gør, eller det virkelige formål ved at tilføje dem til en skole.

Chris Hedges: Allison, kan du forklare specifikt, som for eksempel Bark eller vælge et eller to af disse programmer og forklare os, hvad de selvfølgelig indsamler data, men hvad gør de inden for skolens rammer? Hvad er deres funktion?

Allison Butler: Sikker. Så et eksempel, der bruges i mange K til 12 klasseværelser, er en teknologi kaldet GoGuardian. GoGuardian sættes på computere, bærbare computere i klasseværelset. Så hvis du for argumentets skyld har et klasseværelse, hvor hver elev har tildelt en bærbar computer, kan det være deres egen opgave, at de har den pågældende i hele skoleåret, eller det kan være klasseværelses bærbare computere, og det er tilfældigvis der eleven sidder. 

GoGuardian overvåger deres skærme, den overvåger alt, hvad de laver, og så kan læreren foran i klasseværelset, eller hvor de nu er, kigge på elevernes skærme under undervisningen. Et argument, som GoGuardian siger, er, at dette hjælper lærere med at holde eleverne på sporet og derfor hjælper eleverne med at holde sig på sporet. Så det præsenteres som adfærdsmæssigt. Det præsenteres som et slags fokusværktøj, fordi lærere kan se på elevernes skærme, og så er der en slags gulerod og et pindelement i det, som en lærer kan sige, hej, du skal væk fra den hjemmeside . Det er ikke det, vi arbejder på. 

Eller [læreren] kan se direkte på en elevs arbejde og kommentere på, hvad de gør godt, eller hvad der måske skal tilpasses. Det præsenteres som denne slags fællesskabsteknologi til klasseværelser. Her er nogle af problemerne, vi finder med GoGuardian: Lærere får ofte at vide, at det er deres at anmelde, og faktisk sagde mange af de lærere, som vi interviewede til bogen, at de troede, at det var dem, der gjorde overvågningen, at de var en smule utilpas med det, men de så virkelig styrken af ​​overvågning i deres computere. Hvad de ikke får at vide eller ikke bliver gjort klart er, at det faktisk er selskabet, der laver al overvågningen. Og hvis vi især tænker på K til 12 klasseværelser, som jeg nævnte før, er dette mindreåriges data. 

Så den meget begrænsede mængde beskyttelse, der er, digitale beskyttelser, for at holde mindreåriges data sikre er væk, når først du har en teknologi, der er sat ind i deres klasseværelse, er der en passiv accept af denne teknologi. Eleverne gav ikke selv en aktiv accept af at få deres data indsamlet. Det er et underforstået samtykke. Og faktisk er det det sprog, der ofte bruges, er ved at bruge teknologien, det er underforstået samtykke, og der er ikke nødvendigvis et fravalg. Så vi har et klasseværelse med forvirring, hvor læreren tror på, at de har ansvaret, og at de træffer en bestemt etisk beslutning, mens det i virkeligheden ikke er dem, der har ansvaret. 

Når noget som GoGuardian griber elevdata og griber deres information, har det det, der er ingen form for off-knap til dette, og hvis en elev på et tidspunkt sætter deres personlige mobiltelefon i den enhed for at oplade den, GoGuardian nu har også alle disse data på grund af den digitale forbindelse af disse enheder.

En lærer, som vi interviewede blev lidt utilpas, fortalte en historie, hvor de var en smule utilpas med GoGuardian, delvist fordi eleven var hjemme syg, og læreren stadig kunne se, hvad der skete på skærmen, som selv når eleven var hjemme, uden for skolen af ​​en legitim grund, kunne læreren se, at eleven kunne lide at se YouTube-videoer. Og det var dengang, hun ligesom tænkte: Åh, det var ikke, hvad jeg troede, det var. Dette er ikke direkte forbundet med klasseværelset, vel? Jeg tror nogle gange, at bekvemmelighederne ved vores digitale teknologier inviterer os til at glemme, at vores digitale teknologier kan overvåges overalt, hvor vi er, ikke kun i vores klasseværelser. 

Jeg tror, ​​at et andet eksempel, noget der bruges både i K 12 og videregående uddannelser, ville være Turnitin. Turnitin er et program, hvor lærere kan sætte det op, så eleverne afleverer deres skriftlige arbejde via denne platform, og det sælger sig selv, det præsenterer sig selv som plagiatafsløring, hvilket jeg formoder, på et eller andet niveau, er sandt. Den anden lumske ting er, at mange af disse teknologier og disse virksomheder faktisk aldrig lyver for dig. De fortæller dig bare ikke hele sandheden, og de udelader nogle virkelig vigtige dele. Så Turnitin, ja, er et plagiat detektionssoftware. Og også, Turnitin gør mindst to ting. 

Én, det er undervisning i AI, ikke? Så de studerende, der afleverer deres papirer, giver mere og mere information til udviklingen af ​​generativ AI, og så sælger Turnitin også den information til annoncører og marketingfolk, så de unges sprog bliver analyseret og så på en måde brugt i reklamer og markedsføring. sprog og slags solgt tilbage til dem. Så vores unge arbejder til en vis grad for dette selskab. De gør meget af arbejdet, og de bliver ikke kompenseret på nogen måde. Så jeg vil sige, at det er en slags to virkelig store eksempler, der viser på en måde, hvor lumske disse teknologier er, hvor invasive de er, og hvor forvirrende de kan være for dem, der opfordres til at bruge dem.

“… unge menneskers sprog bliver analyseret og derefter brugt i reklame- og marketingsprog og solgt tilbage til dem. Så vores unge arbejder til en vis grad for dette selskab. De gør meget af arbejdet, og de bliver ikke kompenseret på nogen måde.”

Chris Hedges: Nolan, lad os tale om, hvordan disse teknologier bruges til at politistudere, især i fattige kvarterer, hvilket uforholdsmæssigt påvirker farvede elever.

Nolan Higdon: Ja, en af ​​de ting, vi bemærker med disse værktøjer, er, at de igen giver disse enorme løfter, ikke? Så de lover ting som at vi er i stand til at forudsige, om en studerende kan engagere sig i kriminalitet, eller vi er i stand til at forudsige, om en studerende har psykiske problemer, der skal løses. 

Men djævelen er i detaljerne. Hvad disse værktøjer gør, er, at de indsamler en masse data, og de koder algoritmer til at analysere disse data, for at træffe afgørelser om en persons mentale helbred eller potentielle kriminalitet. Og det er virkelig her, vi ser et stort problem med overdreven afhængighed af disse værktøjer. Disse algoritmer, der fortolker dataene, er kodet med den samme bias fra deres skabere, og vi ser igen og igen, hvordan disse algoritmer laver racistiske eller transfobiske konklusioner, og hvad jeg mener med det er, at disse algoritmer vil kategorisere elever uforholdsmæssigt. af farve som værende mere tilbøjelige til at begå en forbrydelse. Som et resultat bliver de overvåget mere af skolen, og dette normaliserer igen denne overvågning af sorte kroppe. 

Ditto med mentalsundhedsdetektorerne kategoriserer de uforholdsmæssigt ting som transbørn for mentale sundhedsproblemer, hvilket ikke betyder, at de kun gennemgår mentale sundhedsmæssige udfordringer, hvilket er en del af livet for nogle mennesker, men betyder også, at de skal holdes øje med ting som skoleskyderier eller selvmord eller selvskade. 

"... disse algoritmer vil uforholdsmæssigt kategorisere farvede elever som mere tilbøjelige til at begå en forbrydelse."  

Og så får du også over-politiet af disse personer. Og så en af ​​myterne, tror jeg, at Silicon Valley generelt har solgt, men disse ed tech-værktøjer i særdeleshed, er, at de har disse objektive algoritmer, der er fri for menneskets skævhed og dermed kan drage mere præcise konklusioner . Men forskningen siger nej, det er ikke tilfældet, hvis noget, disse værktøjer komplicerer eller forværrer faktisk mange af de problemer, vi har haft med problemer som racisme eller transfobi.

Chris Hedges: Allison, jeg vil gerne tale om, hvordan disse data først og fremmest ender i hænderne på potentielle arbejdsgivere. Det er en industri på flere milliarder dollar om året, der sælger vores personlige data, alt, hvad vi nogensinde har gjort, enhver trafikforseelse, vi nogensinde har haft, fordi det i bund og grund tillader arbejdsgivere, måske endda universiteter, der kigger på gymnasiebørn, at have oplysninger om, at det skulle være privat, og selvfølgelig kunne bruges mod disse studerende eller potentielle medarbejdere.

Allison Butler: Så jeg vil gerne skændes med ét ord, du sagde, som er salg af vores data. Jeg tror, ​​at det, som vi måske skal være mere opmærksomme på, ikke sandt, til Nolans pointe om, at djævelen er i detaljerne, og på en måde, hvad jeg sagde tidligere om, hvordan de faktisk ikke lyver for os, de gør bare' ikke nødvendigvis fortælle os alt. 

Så mange af disse teknologier i dag vil sige, at vi ikke sælger dine data, og det er sådan set en masse udråbstegn, ikke? Og det er noget, vi formodes at være ligesom, "Åh, okay, godt. Mine data er sikre." Absolut ikke. Først og fremmest er dine data ikke sikre, fordi brud sker så ofte, at det ikke engang er overskrift eller ikke engang nyheder længere. På et tidspunkt i vores forskning forsøgte vi på en måde at kategorisere eller katalogisere alle de forskellige brud, og vi var bare sådan, at det ikke ville være nyttigt at påpege dette i disse mikrodetaljer, for disse sker hele tiden. Vi er bare så vant til det. 

Men det, vi virkelig skal overveje, er, at så mange af disse virksomheder deler vores data, ikke? Så det, der sker, er, at vi har, hvad du og jeg måske tænker på som forskellige virksomheder, der ikke har en forbindelse til hinanden, og de har indgået et samarbejde. De har købt ind i hinandens forretningsmodeller. De er forbundet i en vis kapacitet. Så kalder de sig selv uddannelsesselskaber eller uddannelsespartnere. Det betyder, at de faktisk ikke behøver at sælge vores data. De kan dele vores data. Så vi kan være beroliget på et eller andet niveau. Men faktisk er det dette andet niveau, vi måske skal tænke mere grundigt over. 

Så når vi taler om arbejdsgivere, eller når vi taler om gymnasier, eller endda måske hvis vi taler om private skoler, har vi så mange uddannelsespartnere, der allerede har adgang til dataene, som allerede kan lave nogle analyser af det, at de får lov til at dele det. Jeg tror, ​​vi plejede at snakke for flere år siden om, især med K til 12 studerende, at arbejdsgivere vil se på dine sociale medier. College optagelseskontorer vil se på dine sociale medier. Vi behøver faktisk ikke længere instruere vores unge til at være bekymrede over netop disse baner. Disse folk behøver ikke at lave et væld af detektivarbejde. Det er der allerede for dem. Så om de er meget opmærksomme på det eller ej, er jeg ikke helt sikker på, men dataene er der allerede. Det er simpelthen lige foran dem.

Chris Hedges: Nolan, kan du tale om, hvordan de er proaktive, social engineering, hvordan det ikke bare er at indsamle data, men det er at bruge data til at forme og forme adfærd.

Nolan Higdon: Ja, og for at tilføje et lag til det, for også at fortsætte, hvor Allison slap. Og jeg har endda sagt det meget i dag også, det er ed tech virksomheder, men det er lidt misvisende. Mange af disse virksomheder, der driver eller ejer disse ed tech platforme, som vi talte om et par, som Gaggle, Bark, der er Canvas, andre, de er generelt ejet af aktieselskaber. Dette startede virkelig i løbet af de sidste 10 år, disse aktieselskaber købte disse ed tech-værktøjer op, tilsyneladende fordi der var en måde at komme ind i klasseværelset på. Der er en hel industri her i den videnskabelige verden, de kalder overvågningskapitalisme, der bygger på ideen om at behandle mennesker som produkter. Så du udtrækker data og information om mennesker fra alle disse smarte teknologier, og så er du i stand til at tage beslutninger om deres adfærd, hvordan de kan reagere på noget. Og der er mange industrier, der er interesserede i dette, ikke? Reklameindustrien vil gerne vide, hvordan man laver den perfekte annonce for at få dig til at købe noget. Forsikringsselskaber vil gerne vide, hvordan man sætter sine præmier, måske baseret på helbred eller dit kørselsmønster osv. Så data kan være ret lukrative for brancher for det. 

Men udover at forudsige adfærd, er der også enheder, der er interesserede i at skubbe til din adfærd. Så hvad kan jeg gøre? Hvilken situation kan jeg sætte dig i? Hvilke oplysninger kan jeg give dig, så du opfører dig sådan? Og der er en stor tro på industrien, hvis vi indsamler nok data, vi kan skubbe folks adfærd i den rigtige retning, især her er vi i et valgår, en masse kampagner, det er det, de forsøger at gøre med disse data. Hvordan kan vi bruge disse data til at få disse mennesker ud at stemme, eller måske få disse mennesker til ikke at stemme, afhængigt af sådanne ting? Så der er et stort potentiale i branchen, hvis du er i stand til at indsamle flere datapunkter, og det er derfor, skoler er så attraktive, ikke? 

De er et af de få steder, der er blevet beskyttet som et offentligt rum, og så private virksomheder har længe ønsket at komme derind, og under altruismen ved at give ed tech-værktøjer, har dette været en mulighed for dem at komme ind i klasseværelset og få adgang til de lukrative data. 

"[Skoler] er et af de få steder, der er blevet beskyttet som et offentligt rum, og så private virksomheder har længe ønsket at komme derind og …. få adgang til lukrative data." 

Og bare for at gøre en fin pointe på det, så ejer nogle af disse som store firmaer ikke kun ed tech-værktøjer, de ejer ting som Baby Connect, som fortæller forældrene at bruge disse værktøjer til at overvåge deres baby. De ejer også platforme, der ser på folks arbejdsmønstre efter endt uddannelse. Få også data fra sociale medier skolegang. Målet er at lave en, hvad de kalder psykografisk profil af individer fra vugge til grav, og skolerne er en vigtig del af den proces.

Chris Hedges: Og jeg vil gerne være tydelig, du påpeger dette i bogen, det er en massiv industri. EdTech, siger du, er 123.4 milliarder dollars global industri. Vi taler om store, store penge. Allison, jeg vil gerne tale om, vi har set hen over sommeren, mens universiteter og skoler har indført alle mulige nye restriktioner og regler for at lukke ned for protester mod folkedrabet i Palæstina, og det er blevet koordineret over hele landet, ingen flyver, nej arrangementer, borde, ingen lejre osv. I hvor høj grad hjælper værktøjer som disse universiteter og skoler med at lukke ned for dissens eller kontroverser, især omkring Palæstina?

Allison Butler: Jeg tænker i høj grad, og jeg tror, ​​det her er et sted, hvor det er et tegn på vores universiteters større frygt for, ja, nok for at være lidt flippede, vores frygt for unge mennesker, og hvad de laver med deres egne teknologier. , men frygt for tilstanden af ​​akademisk frihed, frygt for, hvad dissens betyder, for hvad ulydighed betyder. Jeg tror, ​​vi bruger så meget tid i vores klasseværelser på at prise historiske uenighedshandlinger, historiske handlinger af ulydighed, men når det konfronteres med os i nutid, er det på en eller anden måde skræmmende. 

Hvis jeg skal give dem fordelen af ​​tvivlen, er det administratorer, der leder efter en måde at holde deres campusser sikre på, for at holde studerende, fakulteter, personale, der har forskellige og modstridende synspunkter om sikkerhed. Desværre tror jeg, at ordet sikker ofte bruges som en sag mod mig, ikke sandt? Det er en eufemisme for lad være med at sagsøge mig. Så jeg tænker ud fra en dyrket følelse af frygt, at overvågningsteknologierne gør et rigtig godt stykke arbejde ved at udnytte frygten, ikke? Jeg mener at flytte det lidt, når vi tænker på starten af ​​Covid, udnyttede det frygten for, hvad vi ville være sammen, ikke? Hvor farligt det kunne være for os at være i samme rum. Og jeg tror, ​​at disse virksomheder fortsætter med at udnytte den frygt, når vi ser på uenighed og demonstration og ulydighed. Og så har du universitetsværktøjer, så har du politistatsværktøjer, ikke? At politiet kommer ind med kropskameraer, som, lad os være ærlige, kan tændes og slukkes for at skabe og ramme en meget bestemt fortælling, ikke? Dette er sagen; overvågningsteknologier og disse værktøjer skærer i alle retninger. 

Vi har vores elever selv, der filmer deres handlinger, hvilket betyder, at der er deres ansigter, ikke? Hvis de er der i fredelig uenighed, hvis de er der i civil ulydighed, er deres ansigter meget der, hvilket betyder, at hvis noget går galt, uanset hvem det går galt, ikke? Hvis det er politiets tilskyndelse eller at modsætte sig studerende, har vi allerede alle deres oplysninger. Så vi lever i et miljø, hvor jeg synes, det er, som gennem historien, vigtigt at være til stede, vigtigt at stå frem, og også at tilstedeværelse og at stå op bliver manipuleret og manøvreret på forfærdelige måder af disse overvågningsteknologier.

Chris Hedges: Og, Allison, det har en global forgrening, fordi universiteter og skoler traditionelt er steder, hvor udveksling af ideer og dissens, i et fungerende demokrati, er det et af epicentrene, et af de fysiske epicentre, hvor den slags diskussioner skal have lov til at finde sted.

Allison Butler: Absolut, og jeg tror igen, når vi ser på historien, når vi ser på historiens bue, så har vi på en eller anden måde tegnet billedet af, at det her var uenighed, hvor folk opførte sig, som om de havde en civil uenighed, og vi ikke synes ikke at have det længere. Så vores meget ucivile uenigheder, vores meget fysiske uenigheder bliver malet og præsenteret på en måde gennem disse teknologier, som vi nok ikke kunne have gjort i historien, ikke?

Jeg tror, ​​at der var meget snak denne sommer, da de nærmede sig præsidentkonventerne, sagde både RNC og DNC, at DNC ​​i særdeleshed var i Chicago, om lignende, lad os se tilbage på historien. Og det synes jeg er vigtigt. Jeg ville aldrig sige, at vi ikke skulle gøre det, men så meget er blevet ændret i den måde, vores teknologi deltager i disse konventioner eller disse uenigheder på, at vores forståelse af adfærd er totalt og fuldstændig anderledes.

Chris Hedges: Nolan, denne information, som du skriver i bogen, ender ikke kun i hænderne på virksomheder, den ender i hænderne på DHS, FBI. Tal lidt om, hvordan statens sikkerhed også bruger disse oplysninger.

Nolan Higdon: Ja, den såkaldte nationale sikkerhed, eller den nationale sikkerhedsindustri, er stærkt involveret i indsamlingen af ​​disse data. Og det er værd at minde folk om, at disse værktøjer – internet, berøringsskærm, GPS og så mange flere af funktionerne i smarte enheder i den digitale tidsalder – de kommer fra det militærindustrielle kompleks. Disse blev skabt gennem forsvarsmidler i samarbejde med universiteter og skoler i midten af ​​det 20. århundrede. Og faktisk talte vi om i bogen, da eleverne fandt ud af, hvad disse værktøjer blev skabt til at gøre, protesterede de imod dem. 

Men den dag i dag fortsætter disse værktøjer med at indsamle data, der deles med DHS og efterretningssamfundet, igen i regi af at spotte potentielle terrorister, spotte potentielle trusler. Dette er problematisk af mange årsager, men en af ​​dem, bare fra et rent uddannelsesmæssigt synspunkt, påvirker virkelig læring negativt. Vi fortæller eleverne effektivt, når de er på campus, at de er objekter, der skal overvåges og beskyttes, mod og administreres. Det er meget svært at udvikle et tillidsfuldt forhold, hvor folk føler sig trygge ved at tage risici og begå fejl, hvilket er centralt for uddannelse, når det er et miljø, hvor de altid bliver overvåget.

"Det er meget svært at udvikle et tillidsfuldt forhold, hvor folk føler sig trygge ved at tage risici og begå fejl, som er centrale for uddannelse, når det er et miljø, hvor de altid bliver overvåget."

Chris Hedges: Nå, ikke kun overvåget og overvåget, men mens vi ser med studenterprotesterne, er disse overvågningsværktøjer faktisk mere end overvågning. Det handler om at lukke ned, fordi de ved, hvem der er involveret med det samme. Jeg mener, de vidste det tilbage i Occupy. Jeg ved det, fordi jeg tilbragte meget tid i Zuccotti [Park i downtown Manhattan], og efter [New York Citys borgmester Mike] Bloomberg lukkede parken ned, var der en række politirazziaer på lofter, og de fik alle de rigtige mennesker, fordi de overvågede dem elektronisk. Allison, jeg vil have dig til at tale om især to cybersikkerhedsværktøjer. Jeg vil have dig til at tale om Augury og Pegasus.

Allison Butler: Faktisk … det er en slags Nolans babyer. Så jeg vil give ham det tilbage, hvis det er i orden.

Nolan Higdon: Ja, Pegasus er dybest set et stykke spionsoftware, der kommer fra den israelske regering. Men Pegasus blev dybest set sat ind i anden software. Så hvis du gik ind i andre computere, kunne du dybest set overvåge folk over hele kloden, som havde denne Pegasus-software derinde, og det var dybest set at skabe en global overvågningsplatform. Og Israel er næppe alene om dette. USA har været… 

Chris Hedges: Og jeg vil bare afbryde Nolan, Pegasus er en israelsk skabelse. Det kommer ud af Israel. Det blev brugt til at spore Jamal Khashoggi, tror jeg.

Nolan Higdon: Okay, ja, og USA, som jeg sagde, deltager i lignende produktion og overvågning, inklusive samarbejde med Israel på Pegasus. Men ja, det tror jeg, til Allisons pointe om historien har ændret sig, vi skal tale meget om vores forventninger eller hvad vores rettigheder og love også skal ændre.

Denne idé om ulovlige ransagninger og beslaglæggelser eller ideen om, at mit privatliv er noget, jeg ejer, de ændrer sig i den digitale æra, og loven - og det er en af ​​de ting, vi går ind for i teksten - loven skal indhente med det, fordi mange af de beskyttelser, vi havde over privatlivets fred, er smuthuller blevet afsløret af regeringer og virksomheder, som i Pegasus-eksemplet. Vi taler om ting som, dit første ændringsforslag beskytter ytringsfriheden fra regeringen, men regeringen kan arbejde sammen med teknologivirksomheder for at lukke ned for visse tale eller ideer, eller du er beskyttet i din kommunikation, som privat i dit hjem, men hvis det er e-mail , det betyder, at du har opgivet den kommunikation til et privat firma, som derefter kan give dem til regeringen. 

Så der er mange af den slags smuthuller, som de afslører i den digitale æra, og det er en af ​​de ting, vi går ind for i teksten, for vi havde endda en elevrettighedsbevægelse, der fik eleverne ret til privatliv i skolerne. Det er det, der skabte FERPA her i USA. Men omkring 2012 ændrede Obama-administrationen noget til FERPA. 

Tidligere betød FERPA, at skolen ikke kunne dele en elevs oplysninger med nogen. Hvis de var mindreårige, kunne du dele det med deres værge. Men ændringerne til FERPA i 2012 sagde: "Nej, du kan også dele deres oplysninger med uddannelsespartnere." Det er virksomheder, der har kontrakter med skolerne. Og så effektivt fik al den data, som studenterrettighedsbevægelsen arbejdede for at sikre var privat, lov til at blive distribueret til disse virksomheder. Og som vi har set, er det det, der gør, at den også kan komme ind på andre områder.

"Tidligere betød FERPA, at skolen ikke kunne dele en elevs information med nogen...Men ændringerne til FERPA i 2012 sagde, 'Nej, du kan også dele deres information med uddannelsespartnere'."

 

Chris Hedges: Og tal om Augury. Dette er udviklet af et cybersikkerhedsfirma, team... Hvad er det, Cymru, som gør enorme mængder data tilgængelige for offentlige og private kunder. Forskellige grene af militæret har samlet betalt $3.5 millioner for at få adgang til Augurys data.

Nolan Higdon: Ja, virksomheder som Augury, jeg kan godt lide at tænke på dem som en slags gigantiske datamæglere. Så de går ud og får adgang til enorme mængder data. De analyserer disse data i realtid, og som industrien beskriver det, sælger de grundlæggende produkter, der analyserer disse data for virksomheder eller regeringer.

Men Augury er et eksempel på noget, der tjener regeringers interesser, som måske ønsker at målrette folk eller forstå aktivistisk adfærd eller forstå aktivistisk kommunikation online. Augury lover at have denne enorme mængde data, som den kan analysere og give nogle svar på spørgsmål, som regeringer måtte have, som søger at overvåge, forstå, forudsige eller skubbe adfærd.

Chris Hedges: Allison du bruger et udtryk i bogen, "algoritmisk racisme." Kan du forklare det?

Allison Butler: Så hvis vi tænker på algoritmer, og vi alle er en slags, algoritmer er sådan set, jeg tror, ​​vores ilt i disse dage, ikke? Alt, hvad vi laver digitalt, er hentet fra en algoritme. Og algoritmer føles, tror jeg, for mange, især når vi taler med studerende i grundskolen og til en vis grad på videregående uddannelser, at de føler sig som denne slags mystiske ting, der på en eller anden måde i computeren... Det vi skal huske er at algoritmer er, de er programmer, de koder, de er sprog, de er spørgsmål, der er bygget af mennesker, så de er bygget med fejlbarlige menneskers racisme, sexisme, homofobi, evner osv., ikke? 

Så til vores pointe med algoritmisk racisme er, at der er racisme indbygget i disse digitale teknologier, hvilket betyder, at de fra starten vil se farvede mennesker, og i forlængelse heraf, farvede kvinder, mennesker med forskellige evner, hvem som helst der identificerer sig som LGBTQ, dybest set enhver, der er eller identificerer sig uden for det, som skaberen af ​​algoritmen ser som normen, hvilket betyder, at vi ikke nødvendigvis ser på fysisk, håndgribeligt levede oplevelser af racisme. Vi ser på racisme som en form for at lære os, hvordan man bruger digitale teknologier, for som sagt er det sådan set indbagt i det her, så problemerne kommer til os med det samme.

Derfor begynder vi at lære at styre tingene inden for den racistiske ramme, og det bliver en norm, og det bliver en slags centraliseret måde at se det på, hvilket gør det væsentligt mere farligt for farvede kroppe såvel som for dem, der er interagerer med farvekroppe for at have en forudfattet opfattelse indbygget i deres teknologier om, hvem disse kroppe er, og hvordan de forventes at opføre sig.

"Vi ser på racisme som en form for at lære os, hvordan man bruger digitale teknologier."

Chris Hedges: Nå, et eksempel på det du henter fra bogen er ansigtsgenkendelsessoftware i test-proctoring-software såsom Proctorio, det er udviklet til hvide studerende. Sorte og brune studerende er mindre sporbare og tvunget til at give flere personlige oplysninger end hvide studerende for at bekræfte deres identitet. 

I et andet eksempel på den racistiske skævhed, der er kodet ind i algoritmer, afslører forskning, at programmer, der lover nøjagtigt at forudsige elevfastholdelse og kursussucces, fejlagtigt antager, at farvede elever ikke vil lykkes. Dette skyldes, at der er brug for enorme mængder data for at træne algoritmer og AI, men de trænes ved hjælp af induktiv logik. Så hvis de programmerer til at se flere elementer, men kun vises ét resultat, vil algoritmen kommunikere en række forskellige ting som kun én ting. For eksempel, hvis algoritmen er programmeret til at genkende æbler, men kun vises røde æbler, vil koden se alt i denne gruppering som et rødt æble. Selvom dette er forkert i den virkelige verdens eksistens af æbler, er det korrekt via, hvad algoritmen blev lært.

Allison Butler: Algoritmen reagerer på menneskelige input, ikke? Jeg mener, jeg tror, ​​ligesom i 1980'erne, da vi på en måde blev fortrolige med computere, var der en lille slagord, "skrald ind, skrald ud", at hvis du programmerede, mener jeg, det var ikke bare de almindelige mennesker i vores stuer programmerer computere på det tidspunkt, ikke? Men hvis du programmerede i skrald, så fik du skrald. Og jeg tror, ​​vi ser dette med vores generative AI. Enhver af os, der snubler eller kæmper med ChatGPT, for eksempel, måske er det, vi skal se på, det, vi programmerer ind i det. Det er det sofistikerede, der sker, at det ikke er mig, der på en måde forsøger at finde ud af, om ChatGPT kan lave mig madplaner for ugen, så jeg ikke skal tænke så hårdt, når jeg går til købmanden. Dette er meget sofistikeret programmering, der så rammer og konstruerer, hvordan resten af ​​os ser verden, som vores eksempel på ansigtsgenkendelsessoftware, og vi har et meget 21. århundredes eksempel på ufortjent privilegium at være hvid. Den hvide passer meget bedre ind i modellen.

Chris Hedges: Nolan, jeg vil tale om migranter. Du skriver i bogen, at skoler, især universiteter i USA, Storbritannien og Australien, er bemyndiget og forventes af lovgivere til at identificere migrantstuderende med en omstridt eller ulovlig immigrationsstatus. Det amerikanske Department of Homeland Security opbevarer mængder af data med det formål at lokalisere og spore migranter. For eksempel sælger LexisNexis, som bruges meget i undervisningen, data til Department of Homeland Security's Immigration and Customs Enforcement, ICE. LexisNexis, et datterselskab af RELX Corporation, tilbyder dataanalyseprodukter og onlinedatabaser. Det viste sig at have givet følsomme oplysninger til ICE, som ICE formentlig brugte til at spore og arrestere personer til udvisning.

Nolan Higdon: Ja, dette kom fra kapitlet, der var motiveret af det faktum, at hver gang vi taler om dette emne, ville vi altid få dette spørgsmål, uundgåeligt fra en, der siger "Nå, hvad så? Jeg har intet at skjule. Hvem bekymrer sig om mit privatliv?” Og i kapitlet, du læser derfra, Chris, forsøgte vi at opstille en liste over forskellige sårbarheder, og især én er studerende, der har anfægtet eller såkaldt ulovlig migrantstatus. De har helt klart en grund til at ønske privatliv. Det er måske ikke engang dem, de bor måske sammen med en, der har anfægtet migrantstatus, som de også ønsker at beskytte gennem deres eget privatliv, men ved at deltage i læringsprocessen, hvor disse værktøjer er til stede, truer de selv migrantstatus. eller de mennesker de bor sammen med, det kunne bruges mod dem til udvisning, arrestation eller andet. 

Og det ser vi igen og igen. Det er derfor, vi synes, disse værktøjer er så ødelæggende, for tilbage til, hvor vi startede denne samtale, er de hentet ind til ting som sikkerhed og forbedret læring og DEI og ting, som jeg tror, ​​de fleste ville være enige i, men i praksis er de bruges mod disse foranstaltninger, kriminalisere folk, overvåge dem og derefter bruge disse oplysninger, muligvis til at deportere nogen.

"en læringsproces, hvor disse værktøjer er til stede ... kunne bruges mod dem til deportation, arrestation eller noget andet."

Chris Hedges: Du fremhæver også, fordi skoleudstedte enheder kan og gør campusser opmærksomme på studerendes websøgninger, folk, der søger efter deres seksualitet, og de har overgået elevernes seksuelle præferencer. Som et resultat heraf forsøger LGBTQ+-eleverne at søge efter information om deres seksualitet eller seksuelle nysgerrighed, herunder sundhedsrelaterede spørgsmål, de risikerer at blive udsendt til skoleembedsmænd, retshåndhævere og alle andre, der kan få adgang til deres oplysninger.

Nolan Higdon: Ja, det går tilbage til det, vi sagde, ikke? Vi mener, at uddannelse skal være en øvelse i frihed. Folk bør være i stand til at udforske, hvem de er, udforske information. Forventningen er, at de vil begå fejl i klasseværelset som studerende, kun vores lærere, men de skal føle sig godt tilpas for at kunne begå disse fejl. Når ideen er, at du konstant bliver overvåget, eller dette kan komme tilbage til dine forældre, eller dette kan blive udsendt til verden, er det mindre sandsynligt, at eleverne deler. De er mindre tilbøjelige til at søge efter den information. Det begrænser nysgerrigheden, som er afgørende for uddannelsesprocessen, og for ikke at nævne disse mennesker kæmper med kritiske spørgsmål om deres identitet, så det mentale traume og vanskeligheden ved at lukke et af de få rum, hvor de er i stand til at udforske, tror jeg det taler bare om problemet med overvågning og uddannelsesprocessen.

Chris Hedges: Allison, jeg vil gerne tale om, hvad dette gør inden for skolerne og inden for universiteterne, du skriver, at denne konstante overvågning er en måde at sikre, at fakultetet overholder den ideologiske homogenitet, som skoleledelsen søger. Det begynder med ansøgningsprocessen, når kandidater skal dele private detaljer, såsom deres tilgange til undervisning og mangfoldighedserklæringer, som bruges til at sikre ideologisk homogenitet på campus. Det fortsætter, mens elever, ofte ulovligt, registrerer, hvad lærere laver i klasseværelset. Dette kan og er blevet brugt til at presse pædagoger til at forlade deres fag, hvis de opfattes som indehavere af en ideologisk holdning, der er i modstrid med status quo. Vi har set dette gentagne gange siden 7. oktober.

Allison Butler: Jeg tror, ​​at en af ​​de ting, som disse overvågningsteknologier kan gøre, enten med vilje eller blot ved et tilfælde, er at skabe miljøer af mistillid, ikke? Som Nolan har sagt, som jeg har sagt, som vi hele tiden siger i vores klasseværelser, skolegange, så er det et sted at begå fejl. Det er et sted at snuble. Det er dette sted at være nysgerrig. Det er et sted, hvor uvidenhed skal forstås på en fantastisk måde. Jeg går ind i et klasseværelse som elev uden at vide noget. Jeg er uvidende om det. Jeg har mulighed for at lære af det. 

Når vi har et miljø, hvor vi har alle disse opdelinger sat op for os via teknologi, risikerer alt det at forsvinde, at forsvinde er for blødt af et ord, at blive trampet ud, ikke? Jeg siger ikke, at elever skal have, eller lærere skal have deres dage fyldt med frygtelig, hadefuld snak, men jeg tror, ​​vi skal lære så mange forskellige perspektiver for virkelig at kunne undervise fuldt ud og lære fuldt ud. 

Og vores digitale teknologier har evnen til at optage, det er en ting, der er vigtig, men de har også evnen til at manipulere, hvilket ændrer de historier, som lærere og elever fortæller. Det skaber klasseværelser, der i bedste fald risikerer at blive kedelige, okay, men det, vi egentlig taler om, er at kvæle læring. Vi taler om kvælende eksponering. Vi taler om at kvæle, hvordan man håndterer forskelle, ikke? Jeg tror, ​​når vi ser på vores globale konflikter i disse dage, især hvad der sker i Israel/Palæstina er, at vi bliver undervist i lektioner, der siger, at forskel er dårlig versus forskel er en måde at begynde at prøve at lære om hinanden som mennesker. 

Så når forskellighed, når diskussion, når spørgsmål, når misforståelser, ægte mangel på forståelse, kvæles af disse digitale teknologier, er vores klasseværelser ikke længere steder for nysgerrighed eller undersøgelser. De er fabrikker, bare for at give os en grad, og den grad betyder måske bare ikke så meget. Igen, jeg advokerer ikke på nogen måde, hverken form eller form, for et hadefyldt klasseværelse, bare for ligesom at bevise en pointe om, at tingene er anderledes, men mere om det faktum, at vi skal have miljøer, hvor vi kommer til at være ubehagelige , nysgerrig, nysgerrig, begejstret, alle tingene som et værktøj til læring, og at vi gør det sammen i fællesskab, ikke? 

Jeg tror, ​​at en anden stor ting med disse overvågningsteknologier, med især vores sociale medieteknologier, er, at de er utroligt isolerende. De er faktisk ret asociale. Og hvad skolen kan, hvad klasseværelser kan, hvad undervisning og læring kan, er at bygge samarbejde og opbygge fællesskab, som modvirker isolation. Det imødegår, at siloificering og overvågningsteknologierne arbejder meget hårdt på at bygge isolation og på at bygge siloer.

Chris Hedges: Nå, det lukker ned for enhver form for spørgsmålstegn ved den dominerende fortælling, ikke?

Allison Butler: Absolut, og eleverne forstår eller kender ikke nødvendigvis strukturen i den dominerende fortælling. De ved ikke nødvendigvis at stille spørgsmålstegn ved det. Vi er nødt til at begynde at tale mere om alt det her, og det betyder at være sammen i klasseværelserne, i vores verden, være sammen i klasseværelserne og fjerne, så godt vi kan, disse teknologier.

Chris Hedges: Nå, i ethvert totalitært system er pointen at nægte evnen til at stille spørgsmålene. Nolan, jeg vil gerne spørge, sagde du, der er en veldokumenteret historie med arbejdsgivere, der har brugt overvågning til at udnytte arbejdere og underminere kollektive forhandlinger. I stedet for at se EdTech-overvågning som en fordel for uddannelsesprocessen eller en sikkerhedsforanstaltning, skal undervisere erkende, at den kan bruges til data for at underminere magten som medarbejder. Tal om det.

Nolan Higdon: Ja, dette var en virkelig fascinerende del af bogen, og en som jeg ved, vi har forsøgt at bringe til fakultetets fagforeninger. Men ja, der er en lang historie med arbejdsgivere, der går århundreder tilbage, bruger fysiske spioner eller forsøger at spionere på kommunikation for at finde ud af, hvem der er en arbejdsagitator og fjerne dem og enhver, der sympatiserer med dem. Dette er en helt ny æra. Vi har disse værktøjer i klasseværelset, som kan overvåge folk, mens de arbejder i klasseværelset. Brug teoretisk ting, enten i kontekst eller uden for kontekst, for at slippe af med disse medarbejdere.

Vi talte også om Israel, Gaza, en masse ansatte, fakultetet lige nu, de har ikke beskyttelse. Vi har set den videregående uddannelses udvidelse eller efter behag. Så uanset hvordan folk har det med den konflikt, undgår de det i klasseværelset, fordi de er bange for, hvad de siger, kan blive brugt mod dem til at miste deres job, og det er ikke kun dem, der taber, det er eleverne, der mister en mulighed for at engagere sig i et kritisk verdensspørgsmål. Og så, som fakultet, forsøger disse værktøjer også at lære af, hvad vi laver, så de indsamler vores data og drager fordel af det uden at betale os.

Generelt ønsker arbejderbevægelsen at få løn for arbejdskraft. Men desuden træner de også disse værktøjer til at prøve at udføre nogle af de funktioner, fakultetet laver. Så du træner din afløser på et eller andet niveau, og jeg tænker på ting som smart karaktergivning og smart opgaveskrivning, disse nye værktøjer, der kommer ud.

Eller der er nogle, hvor du kan få et billede af dit ansigt, og du kan skrive, og billedet vil forelæse. Det er også en måde at erstatte dig som foredrag. Så mange af disse ting er på vej ned, fjerner privatlivets fred, erstatter job, og fakultetet deltager faktisk i processen ved at bruge disse værktøjer og ikke får strenge barrierer i deres kontrakter for at forhindre denne form for økonomisk udnyttelse, for ikke at nævne denne indsats for overvågning for at underminere forhandlingsprocessen.

"Uanset hvordan folk har det med den konflikt, undgår de det i klasseværelset, fordi de er bange for, hvad de siger, kan blive brugt mod dem til at miste deres job, og det er ikke kun dem, der taber, det er eleverne, der mister en mulighed for at engagere sig i et kritisk verdensspørgsmål."

Chris Hedges: Allison, hvis det ikke kontrolleres, ved jeg, at du afslutter bogen med forslag til, hvordan man kan dæmme op for denne indtrængen i vores privatliv, men hvis den ikke kontrolleres, hvilken slags pædagogisk og endda socialt og kulturelt miljø skal vi så leve i?

Allison Butler: Jeg tror, ​​at hvis det ikke kontrolleres, risikerer vi at bo på fabriksskoler, som jeg sagde før, at vi bare på en måde presser vores elever igennem på vej til at hente et stykke papir. Vi vil træne fremtidige generationer i, at det er normalt at blive overvåget, at der ikke er noget, der hedder privatliv. Vi vil have en slags udenadsuddannelse, hvor meget sikker information og en sikker måde at præsentere dem på, og vi vil, i det mindste med hensyn til et digitalt sprog, vide alt om alle, med et muligt forbehold, at de, der passer ind i racen, køn og økonomisk og fysisk formåen, citat, ikke citeret, normer, vil have det nemmere, men vi vil begynde at se alle vores kroppe, der ikke passer, alle vores mennesker, der ikke nødvendigvis passer ind i det, igen, meget generøs, citat, uncitat, norm, flyttes længere og længere til udkanten. 

Jeg tror, ​​vi kunne se, at i løbet af ret kort tid vil vores klasseværelser ikke blive opfattet som steder for nysgerrighed, nysgerrighed. De vil blive tænkt som steder, hvor man passivt accepterer meget banal, omhyggelig information.

Samtidig kommer de nok til at se ret seje ud, fordi vores overvågningsteknologier, alle vores teknologier, ser meget sofistikerede ud. De er banebrydende. De er ofte hånd-me-downs ikke? Som Nolan nævnte før, kommer så meget af det, vi bruger, til os fra det militærindustrielle kompleks - at vi kan køre på ukendte steder er GPS, en forældet militærteknologi. At vi kan tage fede billeder af lignende fester eller bryllupper eller fast ejendom er droneteknologi og forældet militærteknologi. Jeg tror, ​​at indholdet i vores klasseværelse risikerer at blive helt banalt og kedeligt. Udseendet på dem kan ende med at blive ret sejt, hvilket kan være rigtig prangende og invitere os til at glemme at tænke på indholdet.

Chris Hedges: Nå, når regeringen holder øje med dig 24 timer i døgnet, kan du ikke bruge ordet frihed, det er forholdet mellem en herre og en slave. Det var Nolan Higdon og Allison Butler på deres bog, Overvågningsuddannelse: Navigering i det iøjnefaldende fravær af privatliv i skolerne. Det var virkelig, virkelig flot arbejde, I begge gjorde. Jeg vil gerne takke Sofia [Menemenlis], Diego [Ramos] Thomas [Hedges] og Max [Jones], som producerede showet. Du kan finde mig på ChrisHedges.Substack.com.

Chris Hedges er en Pulitzer-prisvindende journalist, som var udenrigskorrespondent i 15 år for New York Times, hvor han fungerede som kontorchef i Mellemøsten og chef for avisen på Balkan. Han har tidligere arbejdet i udlandet for The Dallas Morning News, The Christian Science Monitor og NPR. Han er vært for showet "The Chris Hedges Report."

Denne artikel er fra Scheerpost

BEMÆRK TIL LÆSERE: Der er nu ingen måde tilbage for mig at fortsætte med at skrive en ugentlig klumme for ScheerPost og producere mit ugentlige tv-show uden din hjælp. Væggene lukker sig med forbløffende hurtighed ind på uafhængig journalistik, hvor eliterne, herunder det demokratiske partis eliter, råber på mere og mere censur. Venligst, hvis du kan, tilmeld dig kl chrishedges.substack.com så jeg kan fortsætte med at poste min mandagsspalte på ScheerPost og producere mit ugentlige tv-show, "The Chris Hedges Report."

Dette interview er fra Scheerpost, som Chris Hedges skriver for en almindelig kolonneKlik her for at tilmelde dig til e-mail-advarsler.

Synspunkter, der kommer til udtryk i dette interview, afspejler måske ikke synspunkter fra Konsortium nyheder.

7 kommentarer til “Chris Hedges-rapport: Overvågningsuddannelse"

  1. November 25, 2024 på 15: 31

    Denne artikel har bestemt gjort mig mere tilbageholdende med at blive ved med at bruge TurnItIn til plagiatafsløring i de bachelorkursussektioner, som jeg instruerer mig fremad, hvilket giver mig et mere håndgribeligt motiv til at se sidelæns på TurnItIn ud over mine generaliserede abstrakte neo-ludditiske følelser vedrørende de iboende panoptisk og Janus-ansigtet karakter af al informationsteknologi, når det kombineres med et menneskeligt magtbegær. I betragtning af min allestedsnærværende mistanke om diverse overvågnings- og markedsføringsteknologier, var jeg naiv til ikke at overveje de andre uudtalte anvendelser, som sådan plagiat-detekteringssoftware kunne bruges, før jeg læste transskriptionen af ​​dette interview, så jeg sætter pris på Chris Hedges og især Allison Butler for at bringe dette til min opmærksomhed.

  2. Julie
    November 24, 2024 på 09: 03

    Tak, Chris, for at gøre os opmærksomme på vigtige spørgsmål hver forbandede dag.
    Gad vide om du måske interviewer Grisham om hans seneste NF-bog.

  3. November 24, 2024 på 06: 00

    Efter min erfaring har teknologien til at observere elevernes aktivitet på en skoles computer i det mindste eksisteret siden 2007 ved hjælp af programmer som Apple Remote Desktop og Teamviewer. Jeg var chokeret over at være vidne til dette direkte på skolens tekniske supportkontor, især da mine elever var voksne, som havde adgang til deres e-mail-konti, men ingen anelse om, at deres kommunikation ikke var privat. Dengang var aflytning beregnet til at være passiv (omend potentielt klodset), udført med henblik på at yde effektiv support i tilfælde af maskinfejl. Den adfærdsmæssige "nudging", disse forfattere taler om, er heller ikke ny. I 2017 hørte vi rapporter om dataindsamling, der blev brugt til at skubbe til afstemninger i USA og Storbritannien af ​​henholdsvis Cambridge Analytica og Aggregate IQ. Siden da har tjenester som Newsguard skubbet angiveligt til sikker informationsindsamling og til gengæld adfærd. Hvad der er nyt her, er, at data fra mindreårige deles med samme hensigt, og den samme gamle skrald ind, skrald ud bias påtvunget personligheder, der endnu ikke er fuldt dannede.

  4. JohnB
    November 23, 2024 på 21: 59

    Behovet for kontekst og grundighed er kun to af Chris' gode egenskaber.

  5. Caliman
    November 23, 2024 på 13: 15

    Lad os ikke forveksle en ret til privatliv med en ikke-eksisterende ret til anonymitet på offentlige steder. Førstnævnte er en naturlig ret til privatliv i sit hjem og andre private steder og ved brug af egne redskaber og ejendele. Sidstnævnte er en forventning om ingen reaktion på at leve og agere på offentlige steder og bruge offentlige (og andre ejede) redskaber og ejendele, hvilket aldrig har eksisteret i menneskehedens historie og ikke kan forventes, og heller ikke er ønskeligt nu og i fremtiden.

    Så i forhold til artiklen har børn ret til privatliv, når de er i deres eget hjem, hvis de (1) ikke inviterer virksomheder (hej Siri) ind i deres hjem udtrykkeligt for at spionere på dem og (2) ikke bruger offentligt tilgængelige værktøjer ( skole bærbare computere) til et offentligt formål at gøre personlige ting. Hvad angår i offentlige omgivelser som selve skolelokalet eller at gå rundt på campus eller i byen generelt, kan handlinger, der udføres offentligt, observeres af alle, der er interesserede i sådanne handlinger og kan bruges til dataindsamling, markedsføring og enhver anden grund.

    som for "Jeg tror, ​​vi kunne se, at vores klasseværelser i løbet af ganske kort tid ikke vil blive opfattet som steder med nysgerrighed, nysgerrighed. De vil blive opfattet som steder, hvor man passivt accepterer meget banal, omhyggelig information." … min Gud, hvilke klasseværelser har disse mennesker besøgt? Steder med nysgerrighed og nysgerrighed? Virkelig? “Bueller … Bueller … Bueller …”

  6. Robert Havers
    November 23, 2024 på 12: 17

    Alt hvad du siger kan og vil blive brugt imod dig.

  7. Vera Gottlieb
    November 23, 2024 på 10: 27

    Er der virkelig brug for en så lang artikel??? Som om vi ikke havde andet at læse og bekymre os om! Den hvide race er endnu ikke kommet til at indse, hvor lort vi er. Men bebrejde altid en anden race … selvfølgelig.

Kommentarer er lukket.