Allison Butler og Nolan Higdon diskuterer «ed-tech»-systemene som eroderer mindreåriges personvernrettigheter og diskriminerer fargede studenter.
Any teknologi skapt av det amerikanske militærindustrielle komplekset og tatt i bruk av allmennheten var alltid bundet til å komme med et forbehold.
For de fleste er internett, GPS, berøringsskjerm og andre allestedsnærværende teknologier vanlige verktøy i den moderne verden. Men i virkeligheten tjener disse teknologiene "dobbelt bruk",
Mens de hjelper typiske mennesker, muliggjør de også massetvang, overvåking og kontroll av de samme menneskene i hendene på bedrifts- og militærstaten.
Nolan Higdon og Allison Butler, forfattere av Overvåkingsutdanning: Navigering i det iøynefallende fraværet av personvern i skolene, bli med programleder Chris Hedges på denne episoden av Chris Hedges-rapporten. De utforsker programvaren og teknologisystemene som brukes i grunnskoler og høyere utdanningsinstitusjoner som overvåker studenter, undergraver mindreåriges personvernrettigheter og i prosessen diskriminerer fargede studenter.
Bruken av denne teknologien, forklarer Higdon, er basert på å behandle mennesker som produkter gjennom overvåkingskapitalisme.
"Du trekker ut data og informasjon om mennesker fra alle disse smarte teknologiene, og så er du i stand til å ta avgjørelser om deres oppførsel, hvordan de kan reagere på noe. Og det er mange bransjer som er interessert i dette, sier Higdon til Hedges.
Butler forklarer at studenter, ofte uten valg i saken, blir utsatt for bruk av denne teknologien som iboende utnytter dataene deres. Fordi det er et underforstått samtykke for at det skal brukes, "Den svært begrensede mengden beskyttelse som det er for å holde mindreåriges data sikre, er borte når du har en teknologi som er satt inn i klasserommet deres," sier Butler. "Det er en passiv aksept av denne teknologien."
Higdon peker på endringer som Obama-administrasjonen gjorde i 2012 i Family Educational Rights and Privacy Act (FERPA) som en nøkkelfaktor. Disse endringene gjorde det mulig å dele studentdata med private selskaper som fungerer som utdanningspartnere.
"Efektivt ble all data som studentrettighetsbevegelsen jobbet for å sikre at var privat, tillatt å distribueres til disse selskapene," sier Higdon.
Forfatterne understreker den dype innvirkningen disse teknologiene har på de grunnleggende læringsprosessene i klasserommet.
"Det begrenser nysgjerrigheten, som er avgjørende for utdanningsprosessen," sier Higdon. "Det mentale traumet og vanskeligheten med å stenge et av de få områdene der de er i stand til å utforske, jeg tror det bare snakker om problemet med overvåking og utdanningsprosessen."
Vert: Chris Hedges
Produsent: Max Jones
Intro: Diego ramos
Mannskap: Diego Ramos, Sofia Menemenlis og Thomas Hedges
Transkripsjon: Diego ramos
Chris Hedges: Overvåkingsverktøy har blitt allestedsnærværende på skoler og universiteter. Teknologier, som lover større sikkerhet og forbedret akademisk ytelse, har gjort det mulig for Gaggle, Securly, Bark og andre å samle inn detaljerte data om studenter. Disse teknologiene har imidlertid ikke bare klart å holde løftene sine, men har fjernet studentenes personvern.
Dette gjelder spesielt i fattige lokalsamfunn, hvor det er lite kontroll på grossistovervåking. Disse dataene vendes ofte mot elever, spesielt de fattige og fargede elever, noe som akselererer rørledningen fra skole til fengsel. Når elever og lærere vet at de blir overvåket og overvåket, kveler det intellektuell debatt, enhver utfordrende av den dominerende fortellingen og etterforskningen av maktmisbruk.
Men mer illevarslende lar det selskaper og offentlige etater stigmatisere og kriminalisere studenter. Disse digitale plattformene kan målrette de unge med propaganda, og bruke sosial ingeniørkunst og trendanalyse for å forme atferd. Med meg for å diskutere masseovervåking av studenter er Nolan Higdon, forfatter, med Allison Butler, av Overvåkingsutdanning: Navigering i det iøynefallende fraværet av personvern i skolene.
Så Allison, la oss begynne med deg, og som du gjør i boken, gi oss et portrett av hvor påtrengende – som jeg ikke visste før jeg leste boken din – hvor påtrengende denne overvåkingen er og hvordan den fungerer.
Allison Butler: Sikker. Tusen takk for at du har oss. Jeg vil si at det korteste svaret på det spørsmålet er at det er utrolig, fullstendig, fullstendig påtrengende. Og for å utvide det vi lever i en verden akkurat nå med overvåkingsteknologi. Det er stort sett ingen steder du og jeg kan gå som enkeltpersoner hvor vi ikke er i en eller annen kapasitet under overvåking. Mye av det er, til en viss grad, etter vårt eget valg. Hvis vi for eksempel setter oss inn i bilen og bruker GPS-en vår, godtar vi disse vilkårene.
Det vi bekymrer oss for, spesielt med denne teksten, er at vi har en overveldende mengde overvåking i våre K til 12-skoler og høyere utdanning. Spesielt for K til og med 12 skoler, skjer det overvåking for mindreårige, for barn under 18 år, uten deres aktive samtykke. Vi har på en måte vært vant til, vi har blitt på en måte preparert for overvåkingsteknologier av noen av disse myke teknologiene, for eksempel GPS-en vår, for eksempel QR-koder som hjelper oss å gjøre det litt enklere å se på restaurantmenyer, for eksempel noen av appene på telefonen vår som får livene våre til å føles litt mer praktiske.
Kostnaden for det er at når hardere og mer påtrengende overvåkingsteknologier kommer inn i våre verdener, og spesielt for vår bekymring, kommer inn i klasserommene våre, har vi på en måte allerede fått grunnlaget lagt der vi er forberedt på det, og vi kan ikke nødvendigvis stille spørsmål ved disse teknologiene i den grad de fortjener.

Chris Hedges: Vel, disse teknologiene, som du påpeker i boken, markedsføres ikke som overvåkingssystemer. De markedsføres som forbedringer av utdanning, forbedringer av sikkerhet. Og bare gi meg et bilde av noen av de som går om bord og disse andre digitale overvåkingsverktøyene, gi meg et bilde av hva de er og hvordan de fungerer.
Nolan Higdon: Ja. Tusen takk for at du har meg, Chris. Allison og jeg er glade for å være her. Og jeg tror den enkleste måten å forstå det på er, omtrent som resten av Silicon Valley, disse utdanningsteknologi- eller ed tech-selskapene, at de har en tendens til å overlove og underlevere. Så mange av begrunnelsene for å legge dem til klasserommene er ting folk vanligvis er enige i, ikke sant? Disse verktøyene kommer til å gjøre oss tryggere eller tryggere. De kommer til å forbedre læringen. De skal forberede studentene på markedet i det 21. århundre. Noen av dem annonserer til og med seg selv som mer inkluderende. Det er mer kompatibelt med DEI [mangfold, rettferdighet og inkludering], fordi de tar ut den menneskelige skjevheten, eller det menneskelige elementet, er det de hevder. Men vi merker i alle disse tilfellene at de egentlig maskerer mer, vil jeg påstå, skadelige motiver.
Det er mye penger å tjene på å ha disse verktøyene i klasserommet og kunne samle inn data. Så det er ett problem. Det andre problemet er, i tillegg til å maskere det virkelige motivet, som er å tjene penger, så holder de egentlig ikke mange av disse løftene. Vi snakker om i boken hvordan, selv om de sier at disse verktøyene er bygget for å fremme sikkerhet, kommer de ofte til kort i det. Det er mangel på bevis for å si at de faktisk forbedrer læring, og så er det mye godt bevis på at de faktisk jobber mot målene til DEI. Så i mange av disse tilfellene virker det som om årsakene som gis for å ha disse ed tech-verktøyene på skolene er veldig annerledes enn hva de faktisk gjør eller den virkelige hensikten ved å legge dem til en skole.
Chris Hedges: Allison, kan du forklare spesifikt, som for eksempel Bark eller velge ett eller to av disse programmene og forklare oss hva de samler inn data, men hva gjør de innenfor skolemiljøet? Hva er deres funksjon?
Allison Butler: Sikker. Så et eksempel som brukes i mange K til 12 klasserom er en teknologi kalt GoGuardian. GoGuardian settes på datamaskiner, bærbare datamaskiner i klasserommet. Så hvis du har, for argumentets skyld, et klasserom der hver elev har tildelt en bærbar datamaskin, kan det være deres egen oppgave at de har den spesielle for hele skoleåret, eller det kan være bærbare datamaskiner i klasserommet, og det er tilfeldigvis der eleven sitter.
GoGuardian overvåker skjermene deres, den overvåker alt de gjør, og så kan læreren foran i klasserommet, eller hvor de måtte være, se på elevskjermene i timen. Et argument som GoGuardian sier er at dette hjelper lærere med å holde elevene på rett spor, og derfor hjelper elevene å holde seg på rett spor. Så det blir presentert som atferdsmessig. Det presenteres som et slags fokuseringsverktøy, fordi lærere kan se på elevskjermer, og så er det en slags gulrot og et pinneelement til det, som er en lærer kan si, hei, du må gå av den nettsiden . Det er ikke det vi jobber med.
Eller [læreren] kan se direkte på en elevs arbeid og kommentere hva de gjør bra eller hva som kanskje må tilpasses. Det presenteres som denne typen fellesskapsteknologi for klasserom. Her er noen av problemene vi finner med GoGuardian: Lærere blir ofte fortalt at det er deres å anmelde, og faktisk sa mange av lærerne som vi intervjuet for boken at de trodde at det var de som gjorde overvåkingen, at de var litt ukomfortable med det, men de så virkelig kraften til overvåking i datamaskinene deres. Det de ikke blir fortalt eller ikke blir gjort klart, er at det faktisk er selskapet som gjør all overvåkingen. Og hvis vi tenker spesielt på K til 12 klasserom, som jeg nevnte før, er dette mindreåriges data.
Så den svært begrensede mengden beskyttelse som finnes, digital beskyttelse, for å holde mindreåriges data sikker, er borte når du først har en teknologi som er satt inn i klasserommet deres, det er en passiv aksept av denne teknologien. Studentene selv ga ikke en aktiv aksept for å få dataene sine samlet. Det er et underforstått samtykke. Og faktisk er det språket som ofte brukes, er ved å bruke teknologien, det er underforstått samtykke, og det er ikke nødvendigvis et bortvalg. Så vi har et klasserom med forvirring der læreren tror at de har ansvaret og at de tar en bestemt etisk avgjørelse, mens det faktisk ikke er de som har ansvaret.
Når noe sånt som GoGuardian tar tak i studentdata og henter informasjonen deres, har det det, det er ingen slags avbryter til dette, og hvis en student samtidig kobler inn sin personlige mobiltelefon til den enheten for å lade den, GoGuardian nå har alle disse dataene også på grunn av den digitale tilkoblingen til disse enhetene.

En lærer som vi intervjuet ble litt ukomfortabel, fortalte en historie der de var litt ukomfortable med GoGuardian, delvis fordi eleven var syk hjemme og læreren fortsatt kunne se hva som skjedde på skjermen, som selv når eleven var hjemme, utenfor skolen av en legitim grunn, kunne læreren se at eleven liker å se YouTube-videoer. Og det var da hun liksom tenkte: Å, dette var ikke det jeg trodde det var. Dette er vel ikke direkte knyttet til klasserommet? Jeg tror noen ganger at bekvemmelighetene til våre digitale teknologier inviterer oss til å glemme at våre digitale teknologier kan overvåkes overalt hvor vi er, ikke bare i klasserommene våre.
Jeg tror et annet eksempel, noe som brukes både i K 12 og høyere utdanning, ville være Turnitin. Turnitin er et program der lærere kan sette det opp slik at elevene sender inn sitt skriftlige arbeid via denne plattformen, og det selger seg selv, det presenterer seg selv som plagiatoppdagelse, noe jeg antar, på et eller annet nivå, er sant. Den andre lumske tingen er at mange av disse teknologiene og disse selskapene faktisk aldri lyver for deg. De forteller deg rett og slett ikke hele sannheten, og de utelater noen virkelig viktige deler. Så Turnitin, ja, er en programvare for å oppdage plagiat. Og også, Turnitin gjør minst to ting.
En, det er å lære AI, ikke sant? Så studentene som sender inn papirene sine gir mer og mer informasjon til utviklingen av generativ AI, og så selger Turnitin også den informasjonen til annonsører og markedsførere, slik at ungdommens språk blir analysert og deretter brukt i reklame og markedsføring. språk og slags solgt tilbake til dem. Så ungdommene våre jobber til en viss grad for dette selskapet. De gjør mye av arbeidet, og de blir ikke kompensert på noen måte. Så jeg vil si at det er på en måte to virkelig store eksempler som viser både hvor lumske disse teknologiene er, hvor invasive de er, og hvor forvirrende de kan være for de som oppmuntres til å bruke dem.
«… unge menneskers språk blir analysert og deretter brukt i reklame- og markedsføringsspråk og solgt tilbake til dem. Så ungdommene våre jobber til en viss grad for dette selskapet. De gjør mye av arbeidet, og de blir ikke kompensert på noen måte.»
Chris Hedges: Nolan, la oss snakke om hvordan disse teknologiene brukes til å politistudenter, spesielt i fattige nabolag, noe som uforholdsmessig påvirker fargede studenter.
Nolan Higdon: Ja, en av tingene vi legger merke til med disse verktøyene er at de, igjen, gir disse enorme løftene, ikke sant? Så de lover ting som at vi er i stand til å forutsi om en student kan engasjere seg i kriminalitet, eller vi kan forutsi om en student har psykiske problemer som må løses.
Men djevelen sitter i detaljene. Det disse verktøyene gjør er at de samler inn mye data, og de koder algoritmer for å analysere disse dataene, for å ta avgjørelser om noens mentale helse eller potensielle kriminalitet. Og det er virkelig her vi ser et stort problem med å stole for mye på disse verktøyene. Disse algoritmene som tolker dataene, de er kodet med den samme skjevheten til skaperne deres, og vi ser om og om igjen hvordan disse algoritmene trekker rasistiske eller transfobiske konklusjoner, og det jeg mener med det er at disse algoritmene vil kategorisere studenter uforholdsmessig. av farge som mer sannsynlig å begå en forbrytelse. Som et resultat blir de overvåket mer av skolen, og dette normaliserer igjen denne overvåkingen av svarte kropper.
På samme måte med mental helsedetektorene kategoriserer de uforholdsmessig ting som transbarn for psykiske problemer, noe som ikke betyr at de bare går gjennom psykiske helseutfordringer, som er en del av livet for noen mennesker, men betyr også at de må overvåkes for ting som skoleskyting eller selvmord eller selvskading.
"... disse algoritmene vil uforholdsmessig kategorisere fargede elever som mer sannsynlige for å begå en forbrytelse."
Og slik får du over-politi av disse personene også. Og så en av mytene, tror jeg, at Silicon Valley generelt har solgt, men disse ed tech-verktøyene spesielt, er at de har disse objektive algoritmene som er fri for skjevheten til mennesker, og dermed kan trekke mer nøyaktige konklusjoner . Men forskningen sier nei, det er ikke tilfelle, om noe, disse verktøyene kompliserer eller forverrer faktisk mye av problemene vi har hatt med problemer som rasisme eller transfobi.
Chris Hedges: Allison, jeg vil snakke om hvordan disse dataene først og fremst havner i hendene på potensielle arbeidsgivere. Det er en industri på flere milliarder dollar i året som selger våre personlige data, alt vi noen gang har gjort, alle trafikkbrudd vi noen gang har hatt, fordi det i hovedsak lar arbeidsgivere, kanskje til og med universiteter, som ser på videregående skolebarn, ha informasjon om at det skal være privat, og selvfølgelig kan brukes mot disse studentene eller potensielle ansatte.
Allison Butler: Så jeg vil gjerne krangle med ett ord du sa, som er salg av dataene våre. Jeg tror det vi kanskje trenger å være mer oppmerksom på, ikke sant, til Nolans poeng om at djevelen er i detaljene, og på en måte det jeg sa tidligere om hvordan de faktisk ikke lyver til oss, de bare gjør det ikke nødvendigvis fortelle oss alt.
Så mange av disse teknologiene i dag vil si at vi ikke selger dataene dine, og det er liksom mange utropstegn, ikke sant? Og det er noe vi skal være som: "Å, ok, bra. Dataene mine er trygge." Absolutt ikke. For det første er dataene dine ikke trygge, fordi brudd skjer så ofte at det ikke engang er overskrift eller ikke engang nyheter lenger. På et tidspunkt i forskningen vår prøvde vi på en måte å kategorisere eller katalogisere alle de forskjellige bruddene, og vi var på en måte som at det ikke ville være nyttig å påpeke dette i disse mikrodetaljene, fordi disse skjer hele tiden. Vi er bare så vant til det.
Men det vi virkelig må vurdere er at så mange av disse selskapene deler dataene våre, ikke sant? Så det som skjer er at vi har det du og jeg kan tenke på som forskjellige selskaper som ikke har en forbindelse til hverandre, og de har inngått samarbeid. De har kjøpt seg inn i hverandres forretningsmodeller. De er koblet sammen på en eller annen måte. Da kaller de seg utdanningsbedrifter eller utdanningspartnere. Det betyr at de faktisk ikke trenger å selge dataene våre. De kan dele dataene våre. Så vi kan være trygge på et eller annet nivå. Men faktisk er det dette andre nivået vi kanskje må tenke mer nøye på.
Så når vi snakker om arbeidsgivere, eller når vi snakker om høyskoler, eller kanskje hvis vi snakker om private skoler, har vi så mange utdanningspartnere som allerede har tilgang til dataene, som allerede kan gjøre noen analyser av den, at de har lov til å dele den. Jeg tror vi snakket om for flere år siden, spesielt med K til 12 studenter, at arbeidsgivere kommer til å se på sosiale medier. Høyskoleopptakskontorer kommer til å se på sosiale medier. Vi trenger faktisk ikke lenger lede ungdommene våre til å være bekymret for disse banene. Disse menneskene trenger ikke å gjøre massevis av detektivarbeid. Det er allerede der for dem. Så om de følger nøye med på det eller ikke, er jeg ikke helt sikker på, men dataene er der allerede. Det er rett og slett rett foran dem.
Chris Hedges: Nolan, kan du snakke om hvordan de er proaktive, sosial engineering, hvordan det ikke bare er å samle inn data, men det er å bruke data til å forme og forme atferd.
Nolan Higdon: Ja, og for å legge et lag til det, for å fortsette der Allison slapp også. Og jeg har til og med sagt dette mye i dag også, dette er ed tech-selskaper, men det er litt misvisende. Mange av disse selskapene som driver eller eier disse ed tech-plattformene, som vi snakket om et par, som Gaggle, Bark, det er Canvas, andre, de er generelt eid av aksjeselskaper. Dette startet virkelig i løpet av de siste 10 årene, disse aksjeselskapene kjøpte opp disse ed tech-verktøyene, tilsynelatende fordi det var en måte å komme seg inn i klasserommet på. Det er en hel industri her i den vitenskapelige verden de kaller overvåkingskapitalisme, som er basert på ideen om å behandle mennesker som produkter. Så du trekker ut data og informasjon om mennesker fra alle disse smarte teknologiene, og så er du i stand til å ta avgjørelser om deres oppførsel, hvordan de kan reagere på noe. Og det er mange bransjer som er interessert i dette, ikke sant? Reklamebransjen vil gjerne vite hvordan du lager den perfekte annonsen for å få deg til å kjøpe noe. Forsikringsselskaper vil gjerne vite hvordan de skal sette premiene dine, kanskje basert på helse eller kjøremønster, osv. Så data kan være ganske lukrative for bransjer for det.
Men i tillegg til å forutsi atferd, er det også enheter som er interessert i å dytte opp atferden din. Så hva kan jeg gjøre? Hvilken situasjon kan jeg sette deg i? Hvilken informasjon kan jeg gi deg slik at du oppfører deg slik? Og det er en stor tro i bransjen hvis vi samler inn nok data, vi kan dytte folks oppførsel i riktig retning, spesielt her er vi i et valgår, mange kampanjer, det er det de prøver å gjøre med disse dataene. Hvordan kan vi bruke disse dataene til å få disse menneskene ut for å stemme, eller få disse menneskene til å ikke stemme, avhengig av slike ting? Så det er mye potensial i bransjen hvis du klarer å samle flere datapunkter, og det er derfor skoler er så attraktive, ikke sant?
De er et av de få stedene som har blitt beskyttet som et offentlig rom, og derfor har private selskaper lenge ønsket å komme inn der, og under altruismen ved å gi ed tech-verktøy, har dette vært en mulighet for dem til å komme inn i klasserom og få tilgang til de lukrative dataene.
"[Skoler] er et av de få stedene som har blitt beskyttet som et offentlig rom, og derfor har private selskaper lenge ønsket å komme inn der og .... få tilgang til lukrative data."
Og bare for å gjøre et godt poeng av det, noen av disse som store firmaer eier ikke bare ed tech-verktøy, de eier ting som Baby Connect, som forteller foreldrene å bruke disse verktøyene til å overvåke babyen deres. De eier også plattformer som ser på folks arbeidsmønster etter endt utdanning. Få også data fra skole i sosiale medier. Målet er å lage en det de kaller psykografisk profil av individer fra vugge til grav, og skolen er en viktig del av den prosessen.
Chris Hedges: Og jeg vil være tydelig, du påpeker dette i boken, dette er en massiv industri. EdTech, sier du, er 123.4 milliarder dollar global industri. Vi snakker om store, store penger. Allison, jeg vil snakke om, vi har sett over sommeren at universiteter og skoler har innført alle slags nye restriksjoner og regler for å stenge protester mot folkemordet i Palestina, og det har blitt koordinert over hele landet, ingen flying, nei arrangementer, bord, ingen leirer osv. I hvilken grad hjelper verktøy som disse universiteter og skoler med å stenge dissens eller kontroverser, spesielt rundt Palestina?
Allison Butler: Jeg tenker i stor grad, og jeg tror dette er et sted hvor det er et tegn på universitetenes større frykt for, vel, sannsynligvis å være litt flippende, frykten vår for unge mennesker og hva de gjør med sine egne teknologier. , men frykt for tilstanden til akademisk frihet, frykt for hva dissens betyr, for hva ulydighet betyr. Jeg tror vi bruker så mye tid i klasserommene våre på å prise historiske handlinger av dissens, historiske handlinger av ulydighet, men når det konfronteres med oss i nåtid, er det på en eller annen måte skremmende.
Hvis jeg skal gi dem fordelen av tvilen, er det administratorer som leter etter en måte å holde studiestedene sine trygge på, for å holde studenter, fakulteter, ansatte som har ulike og motstridende syn på sikkerhet. Dessverre tror jeg at ordet trygt ofte brukes som et vennligst ikke saksøk meg, ikke sant? Det er en eufemisme for ikke saksøk meg. Så jeg tenker ut fra en kultivert følelse av frykt at overvåkingsteknologiene gjør en veldig god jobb med å utnytte frykten, ikke sant? Jeg mener å endre det litt, når vi tenker på starten av Covid, var det å utnytte frykten for hva vi mente å være sammen, ikke sant? Hvor farlig det kan være for oss å være i samme rom. Og jeg tror disse selskapene fortsetter å kapitalisere på den frykten når vi ser på dissens og demonstrasjon og ulydighet. Og så har du universitetsverktøy, så har du politistatsverktøy, ikke sant? At politiet kommer inn med kroppskameraer, som, la oss være ærlige, kan slås på og av for å skape og ramme inn en veldig spesiell fortelling, ikke sant? Dette er tingen; overvåkingsteknologier og disse verktøyene skjærer i alle retninger.
Vi har elevene våre selv som filmer handlingene deres, noe som betyr at det er ansiktene deres, ikke sant? Hvis de er der i fredelig uenighet, hvis de er der i sivil ulydighet, er ansiktene deres veldig mye der, noe som betyr at hvis noe går galt, uansett hvem det går galt med, ikke sant? Hvis det er politiets tilskyndelse eller tilskyndelse til studenter, har vi allerede all informasjon om dem. Så vi lever i et miljø der jeg tror det er, som gjennom historien, viktig å være tilstede, viktig å stå opp, og også at tilstedeværelse og at det å stå opp blir manipulert og manøvrert på forferdelige måter av disse overvåkingsteknologiene.
Chris Hedges: Og, Allison, det har en global forgrening, fordi universiteter og skoler tradisjonelt sett er steder hvor utveksling av ideer og dissens, i et fungerende demokrati, er det et av episentrene, et av de fysiske episentrene der den slags diskusjoner bør få lov til å finne sted.
Allison Butler: Absolutt, og jeg tror igjen, når vi ser på historien, når vi ser på historiens bue, har vi på en eller annen måte dette bildet malt at dette var dissens der folk oppførte seg som om de hadde en sivil uenighet, og vi bare ikke ser ikke ut til å ha det lenger. Så våre svært usivile uenigheter, våre svært fysiske uenigheter blir malt og presentert på en måte gjennom disse teknologiene som vi sannsynligvis ikke kunne ha gjort i historien, ikke sant?
Jeg tror mye snakk i sommer, når man nærmet seg presidentkonvensjonene, sa både RNC og DNC, spesielt DNC, som er i Chicago, om lignende, la oss se tilbake på historien. Og det tror jeg er viktig. Jeg vil aldri si at vi ikke burde gjøre det, men så mye har blitt endret i måten teknologien vår deltar i disse konvensjonene eller disse dissensene på at vår forståelse av atferd er helt og fullstendig annerledes.
Chris Hedges: Nolan, denne informasjonen som du skriver i boken, ender ikke bare i hendene på selskaper, den ender opp i hendene på DHS, FBI Snakk litt om hvordan statens sikkerhet også bruker denne informasjonen.
Nolan Higdon: Ja, den såkalte nasjonale sikkerheten, eller nasjonal sikkerhetsindustrien, er sterkt involvert i innsamlingen av disse dataene. Og det er verdt å minne folk på at disse verktøyene – internett, berøringsskjerm, GPS og så mange flere av funksjonene til smarte enheter i den digitale tidsalderen – de kommer fra det militærindustrielle komplekset. Disse ble skapt gjennom forsvarsmidler, i samarbeid med universiteter og skoler på midten av 20-tallet. Og faktisk, vi snakket om i boken, da studenter fant ut hva disse verktøyene ble laget for å gjøre, protesterte de mot dem.

Men til i dag fortsetter disse verktøyene å samle inn data som deles med DHS og etterretningssamfunnet, igjen, i regi av å oppdage potensielle terrorister, oppdage potensielle trusler. Dette er problematisk av mange grunner, men en av dem, bare fra et rent utdanningssynspunkt, påvirker virkelig læring negativt. Vi forteller studenter effektivt når de er på campus, at de er objekter som skal overvåkes og beskyttes, mot og administreres. Det er veldig vanskelig å utvikle et tillitsfullt forhold der folk føler seg komfortable med å ta risiko og gjøre feil, noe som er sentralt for utdanning når det er et miljø der de alltid blir overvåket.
"Det er veldig vanskelig å utvikle et tillitsfullt forhold der folk føler seg komfortable med å ta risiko og gjøre feil, som er sentrale for utdanning, når det er et miljø der de alltid blir politi."
Chris Hedges: Vel, ikke bare politi og overvåket, men mens vi ser på studentprotestene, disse overvåkingsverktøyene, er det mer enn overvåking. Det handler om å stenge ned fordi de vet hvem som er involvert, umiddelbart. Jeg mener, de visste det tilbake i Occupy. Jeg vet det fordi jeg tilbrakte mye tid i Zuccotti [Park i sentrum av Manhattan], og etter at [New York City-ordfører Mike] Bloomberg stengte parken, var det en rekke politiraid på lofter og de fikk alle de rette folkene, fordi de overvåket dem elektronisk. Allison, jeg vil at du skal snakke om, spesielt, to cybersikkerhetsverktøy. Jeg vil at du skal snakke om Augury og Pegasus.
Allison Butler: Egentlig … det er slags Nolans babyer. Så jeg kommer til å gi det tilbake til ham, hvis det er greit.
Nolan Higdon: Ja, Pegasus er i utgangspunktet et stykke spionprogramvare som kommer fra den israelske regjeringen. Men Pegasus ble i utgangspunktet satt inn i annen programvare. Så hvis du gikk inn på andre datamaskiner, kunne du i utgangspunktet overvåke mennesker over hele verden som hadde denne Pegasus-programvaren der, og det var i utgangspunktet å lage en global overvåkingsplattform. Og Israel er neppe alene om dette. USA har vært…
Chris Hedges: Og jeg vil bare avbryte Nolan, Pegasus er en israelsk skapelse. Den kommer ut av Israel. Den ble brukt til å spore Jamal Khashoggi, tror jeg.
Nolan Higdon: Akkurat, ja, og USA, som jeg sa, deltar i lignende produksjon og overvåking, inkludert å jobbe med Israel på Pegasus. Men, ja, dette tror jeg, til Allisons poeng om historien har endret seg, vi må snakke mye om våre forventninger eller hva våre rettigheter og lover må endres også.
Denne ideen om ulovlige ransakinger og beslag eller ideen om at personvernet mitt er noe jeg eier, de endrer seg i den digitale tidsalder, og loven – og dette er en av tingene vi tar til orde for i teksten – loven må ta igjen. med det, fordi mye av beskyttelsen vi hadde over personvern, smutthull har blitt avslørt av myndigheter og selskaper, som i Pegasus-eksemplet. Vi snakker om ting som, din første endring beskytter ytringsfriheten fra myndighetene, men regjeringen kan samarbeide med teknologiselskaper for å stenge ned visse ytringer eller ideer, eller du er beskyttet i kommunikasjonen din, som privat i hjemmet ditt, men hvis det er e-post , det betyr at du har gitt opp denne kommunikasjonen til et privat selskap som deretter kan gi dem til myndighetene.
Så det er mange av denne typen smutthull som de avslører i den digitale æra, og det er en av tingene vi tar til orde for i teksten, for vi hadde til og med en elevrettighetsbevegelse som ga elevene rett til privatliv i skolen. Det var det som skapte FERPA her i USA. Men så rundt 2012 endret Obama-administrasjonen noe til FERPA.
Tidligere betydde FERPA at skolen ikke kunne dele en elevs informasjon med noen. Hvis de var mindreårige, kunne du dele det med foresatte. Men endringene til FERPA i 2012 sa: "Nei, du kan også dele informasjonen deres med utdanningspartnere." Dette er bedrifter som har kontrakter med skolene. Og så effektivt ble all denne dataen som studentrettighetsbevegelsen jobbet for å sikre at var privat, tillatt å distribueres til disse selskapene. Og som vi har sett, er det det som gjør at den kan komme inn på andre områder også.
"Tidligere betydde FERPA at skolen ikke kunne dele en elevs informasjon med noen ... Men endringene i FERPA i 2012 sa: "Nei, du kan også dele informasjonen deres med utdanningspartnere."
Chris Hedges: Og snakk om Augury. Dette er utviklet av et cybersikkerhetsfirma, team... Hva er det, Cymru, som gjør enorme mengder data tilgjengelig for offentlige og private kunder. Ulike grener av militæret har samlet betalt 3.5 millioner dollar for å få tilgang til Augurys data.
Nolan Higdon: Ja, selskaper som Augury, jeg liker å tenke på dem som en slags gigantiske datameglerlagre. Så de går ut og får tilgang til enorme mengder data. De analyserer disse dataene i sanntid og slik industrien beskriver det, selger de i utgangspunktet produkter som analyserer disse dataene for selskaper eller myndigheter.
Men Augury er et eksempel på noe som tjener interessene til regjeringer som kanskje ønsker å målrette folk eller forstå aktivistisk oppførsel eller forstå aktivistisk kommunikasjon på nettet. Augury lover å ha denne enorme mengden data som den kan analysere og gi noen svar på spørsmål som regjeringer kan ha som søker å overvåke, forstå, forutsi eller dytte opp atferd.
Chris Hedges: Allison du bruker et begrep i boken, "algoritmisk rasisme." Kan du forklare det?
Allison Butler: Så hvis vi tenker på algoritmer, og vi alle er på en måte, er algoritmer på en måte, tror jeg oksygenet vårt i disse dager, ikke sant? Alt vi gjør digitalt er hentet fra en algoritme. Og algoritmer føles, tror jeg, for mange, spesielt når vi snakker med studenter i grunnskolen og til en viss grad i høyere utdanning, at de føler seg som denne typen mystiske ting som på en eller annen måte i datamaskinen... Det vi må huske er at algoritmer er, de er programmer, de koder, de er språk, de er spørsmål som er bygget av mennesker, så de er bygget med feilbare menneskers rasisme, sexisme, homofobi, duglighet osv., ikke sant?
Så til vårt poeng av algoritmisk rasisme er det rasisme bakt inn i disse digitale teknologiene, noe som betyr at de fra starten av kommer til å se fargede mennesker, og i forlengelsen av fargede kvinner, mennesker som har forskjellige evner, hvem som helst. som identifiserer seg som LHBTQ, i utgangspunktet alle som er eller identifiserer seg utenfor det som skaperen av algoritmen ser på som normen, noe som betyr at vi ikke nødvendigvis ser på fysisk, håndgripelig levde opplevelser av rasisme. Vi ser på rasisme som en form for å lære oss hvordan vi bruker digitale teknologier, for som jeg sa, det er på en måte innbakt i dette, så problemene kommer til oss med en gang.
Derfor begynner vi å lære å håndtere ting innenfor den rasistiske rammen, og det blir en norm, og det blir en slags sentralisert måte å se det på, noe som gjør det betydelig mer farlig for fargede kropper, så vel som for de som er samhandle med fargekropper for å ha en forutinntatt forestilling innebygd i teknologiene deres om hvem disse kroppene er og hvordan de forventes å oppføre seg.
"Vi ser på rasisme som en form for å lære oss hvordan vi bruker digitale teknologier."
Chris Hedges: Vel, et eksempel på det du henter fra boken er programvare for ansiktsgjenkjenning i test-proctoring-programvare som Proctorio, den er utviklet for hvite studenter. Svarte og brune studenter er mindre synlige og tvunget til å oppgi mer personlig informasjon enn hvite studenter for å bekrefte identiteten sin.
I et annet eksempel på den rasistiske skjevheten som er kodet inn i algoritmer, avslører forskning at programmer som lover å nøyaktig forutsi studentoppbevaring og kurssuksess feilaktig antar at fargede studenter ikke vil lykkes. Dette er fordi det trengs enorme mengder data for å trene algoritmer og AI, men de trenes ved hjelp av induktiv logikk. Så hvis de programmerer til å se flere elementer, men bare vises ett resultat, vil algoritmen kommunisere en rekke forskjellige ting som bare én ting. For eksempel, hvis algoritmen er programmert til å gjenkjenne epler, men bare vises røde epler, vil koden se alt i den gruppen som et rødt eple. Selv om dette er feil i den virkelige eksistensen av epler, er det riktig via hva algoritmen ble lært.
Allison Butler: Algoritmen reagerer på menneskelig input, ikke sant? Jeg mener, jeg tror som på 1980-tallet, da vi på en måte ble kjent med datamaskiner, var det en liten slagord, "søppel inn, søppel ut" som hvis du programmerte, jeg mener, det var ikke bare de vanlige menneskene i stua våre programmerer datamaskiner på det tidspunktet, ikke sant? Men hvis du programmerte i søppel, så fikk du søppel. Og jeg tror vi ser dette med vår generative AI. Enhver av oss som snubler eller sliter med ChatGPT, for eksempel, kanskje det vi må se på er det vi programmerer inn i det. Det er raffinementet som skjer at dette ikke er jeg som på en måte prøver å finne ut om ChatGPT kan lage meg matplaner for uken, slik at jeg ikke trenger å tenke så hardt når jeg går til matbutikken. Dette er svært sofistikert programmering som deretter rammer inn og konstruerer hvordan resten av oss ser på verden, som vårt eksempel på programvare for ansiktsgjenkjenning, og vi har et veldig 21. århundres eksempel på ufortjent privilegium å være hvit. Den hvite passer mye bedre inn i modellen.
Chris Hedges: Nolan, jeg vil snakke om migranter. Du skriver i boken, skoler, spesielt universiteter i USA, Storbritannia og Australia, er bemyndiget og forventet av lovgivere til å identifisere migrantstudenter med en omstridt eller ulovlig immigrasjonsstatus. US Department of Homeland Security opprettholder mengder data for å lokalisere og spore migranter. For eksempel selger LexisNexis, som brukes mye i utdanning, data til Department of Homeland Securitys Immigration and Customs Enforcement, ICE. LexisNexis, et datterselskap av RELX Corporation, tilbyr dataanalyseprodukter og online databaser. Det ble funnet å ha gitt sensitiv informasjon til ICE, som ICE antagelig brukte for å spore og arrestere enkeltpersoner for deportasjon.
Nolan Higdon: Ja, dette kom fra kapittelet som var motivert av det faktum at hver gang vi snakket om dette emnet, ville vi alltid få dette spørsmålet, uunngåelig fra noen som sier «Vel, hva så? Jeg har ingenting å skjule. Hvem bryr seg om privatlivet mitt?» Og i kapittelet du leser derfra, Chris, prøvde vi å sette opp en liste over ulike sårbarheter, og spesielt én er studenter som har bestridt, eller såkalt, ulovlig migrantstatus. De har helt klart en grunn til å ønske privatliv. Det er kanskje ikke engang dem, de kan bo sammen med noen som har bestridt migrantstatus, som de også ønsker å beskytte gjennom sitt eget privatliv, men ved å delta i læringsprosessen der disse verktøyene er tilstede, truer de selve migrantstatusen. eller menneskene de bor sammen med, kan det brukes mot dem til deportasjon, arrestasjon eller noe annet.
Og vi ser dette om og om igjen. Det er derfor vi tror disse verktøyene er så skadelige, for tilbake til der vi startet denne samtalen, er de hentet inn for ting som sikkerhet og forbedret læring og DEI og ting jeg tror de fleste vil være enige i, men i praksis er de brukes mot disse tiltakene, kriminalisere folk, overvåke dem, og deretter bruke den informasjonen, muligens for å deportere noen.
"en læringsprosess der disse verktøyene er til stede ... kan brukes mot dem for deportasjon, arrestasjon eller noe annet."
Chris Hedges: Du fremhever også fordi skoleutstedte enheter kan varsle campus om studenters nettsøk, folk som søker om seksualitet og de har overgått studentenes seksuelle preferanser. Som et resultat prøver LHBTQ+-elevene å søke etter informasjon om deres seksualitet eller seksuelle nysgjerrighet, inkludert helserelaterte spørsmål, de risikerer å bli sendt til skoletjenestemenn, politi og alle andre som kan få tilgang til informasjonen deres.
Nolan Higdon: Ja, dette går tilbake til det vi sa, ikke sant? Vi mener utdanning skal være en øvelse i frihet. Folk bør kunne utforske hvem de er, utforske informasjon. Forventningen er at de kommer til å gjøre feil i klasserommet som elever, bare lærerne våre, men de må føle seg komfortable for å kunne gjøre disse feilene. Når ideen er at du hele tiden blir overvåket, eller dette kan komme tilbake til foreldrene dine, eller dette kan kringkastes til verden, er det mindre sannsynlig at elevene deler. Det er mindre sannsynlig at de søker etter den informasjonen. Det begrenser nysgjerrigheten, som er avgjørende for utdanningsprosessen, og for ikke å nevne disse menneskene sliter med kritiske spørsmål om identiteten sin, så det mentale traumet og vanskeligheten med å lukke et av de få områdene der de er i stand til å utforske, tror jeg det snakker bare om problemet med overvåking og utdanningsprosessen.
Chris Hedges: Allison, jeg vil snakke om hva dette gjør innenfor skolene og innenfor universitetene, du skriver at denne konstante overvåkingen er en måte å sikre at fakultetet holder seg til den ideologiske homogeniteten som skoleledelsen etterstreber. Det begynner med søknadsprosessen når kandidater er pålagt å dele private detaljer, for eksempel deres tilnærminger til undervisning og mangfoldsuttalelser, som brukes for å sikre ideologisk homogenitet på campus. Det fortsetter ettersom elever, ofte ulovlig, registrerer hva lærere gjør i klasserommet. Dette kan og har blitt brukt til å presse lærere til å forlate yrket dersom de oppfattes å ha en ideologisk posisjon som strider mot status quo. Vi har sett denne siden 7. oktober, gjentatte ganger.
Allison Butler: Jeg tror at en av tingene som disse overvåkingsteknologiene kan gjøre, enten med vilje eller bare ved en tilfeldighet, er å skape miljøer av mistillit, ikke sant? Som Nolan har sagt, som jeg har sagt, som vi sier hele tiden i klasserommene våre, skolegang klasserom, det er et sted å gjøre feil. Det er et sted å snuble. Det er dette stedet å være nysgjerrig. Det er et sted hvor uvitenhet bør forstås på en flott måte. Jeg går inn i et klasserom som student uten å vite noe. Jeg er uvitende om det. Jeg har muligheten til å lære av det.
Når vi har et miljø der vi har alle disse divisjonene satt opp for oss via teknologi, risikerer alt dette å forsvinne, å forsvinne er for mykt ord, å bli trampet ut, ikke sant? Jeg sier ikke at elever skal ha eller lærere skal ha dagene fylt med fryktelig, hatsk prat, men jeg tror vi må lære så mange forskjellige perspektiver for virkelig å kunne undervise og lære fullt ut.
Og våre digitale teknologier har evnen til å ta opp, det er en ting som er viktig, men de har også evnen til å manipulere, noe som endrer historiene som lærere og elever forteller. Det skaper klasserom som i beste fall kommer til å risikere å bli kjedelige, ok, men det vi egentlig snakker om er å kvele læringen. Vi snakker om kvelende eksponering. Vi snakker om å kvele hvordan man håndterer forskjeller, ikke sant? Jeg tror, når vi ser på våre globale konflikter i disse dager, spesielt det som skjer i Israel/Palestina er at vi blir lært leksjoner som sier at forskjell er dårlig versus forskjell er en måte å begynne å prøve å lære om hverandre som mennesker.
Så når forskjell, når diskusjon, når spørsmål, når misforståelser, ekte mangel på forståelse, blir kvalt av disse digitale teknologiene, er ikke klasserommene våre lenger steder for nysgjerrighet eller undersøkelser. De er fabrikker, bare for å gi oss en grad, og den graden betyr kanskje ikke så mye. Igjen, jeg tar ikke til orde for på noen måte, verken form eller form, for et hatfylt klasserom, bare for å bevise et poeng at ting er annerledes, men mer om det faktum at vi bør ha miljøer der vi kan være ukomfortable. , nysgjerrig, nysgjerrig, spent, alle tingene som et verktøy for læring, og at vi gjør det sammen i fellesskapet, ikke sant?
Jeg tror en annen stor ting med disse overvåkingsteknologiene, med spesielt våre sosiale medieteknologier, er at de er utrolig isolerende. De er faktisk ganske usosiale. Og det skolen kan, hva klasserom kan, hva undervisning og læring kan gjøre, er å bygge samarbeid og bygge fellesskap, som motvirker isolasjon. Det motvirker at siloifisering og overvåkingsteknologiene jobber veldig hardt for å bygge isolasjon og å bygge siloer.
Chris Hedges: Vel, det stenger ned enhver avhør av den dominerende fortellingen, ikke sant?
Allison Butler: Absolutt, og elevene forstår eller kjenner ikke nødvendigvis strukturen til den dominerende fortellingen. De vet ikke nødvendigvis å stille spørsmål ved det. Vi må begynne å snakke mer om alt dette, og det betyr å være sammen i klasserommene, i vår verden, være sammen i klasserommene og fjerne, så godt vi kan, disse teknologiene.
Chris Hedges: Vel, i ethvert totalitært system er poenget å nekte muligheten til å stille spørsmålene. Nolan, jeg vil spørre, sa du, det er en godt dokumentert historie med arbeidsgivere som bruker overvåking for å utnytte arbeidere og undergrave kollektive forhandlinger. I stedet for å se EdTech-overvåking som en fordel for utdanningsprosessen eller et sikkerhetstiltak, må lærere erkjenne at det kan brukes til data for å undergrave makten som ansatt. Snakk om det.
Nolan Higdon: Ja, dette var en veldig fascinerende del av boken, og en som jeg vet vi har forsøkt å bringe til fakultetets fagforeninger. Men ja, det er en lang historie med arbeidsgivere som går århundrer tilbake, bruker fysiske spioner eller prøver å spionere på kommunikasjon for å finne ut hvem som er en arbeidsagitator og fjerne dem og alle som sympatiserer med dem. Dette er en helt ny æra. Vi har disse verktøyene i klasserommet som kan overvåke folk mens de jobber i klasserommet. Bruk teoretisk ting, enten i kontekst eller utenfor kontekst, for å bli kvitt de ansatte.
Dessuten snakket vi om Israel, Gaza, mange ansatte, fakultetet akkurat nå, de har ikke beskyttelse. Vi har sett tillegget eller etter ønske av høyere utdanning. Så uavhengig av hvordan folk føler om den konflikten, unngår de den i klasserommet fordi de er redd alt de sier kan bli brukt mot dem for å miste jobben, og det er ikke bare de som taper, det er elevene som mister muligheten til å engasjere seg i et kritisk verdensspørsmål. Og dessuten, som fakultet, prøver disse verktøyene også å lære av hva vi gjør, så de samler inn dataene våre og tjener på det uten å betale oss.
Generelt ønsker arbeiderbevegelsen å få betalt for arbeidskraft. Men dessuten trener de også disse verktøyene for å prøve å utføre noen av funksjonene til det fakultetet gjør. Så du trener erstatteren din på et eller annet nivå, og jeg tenker på ting som smart karaktersetting og smart oppgaveskriving, disse nye verktøyene som kommer ut.
Eller det er noen der du kan ha et bilde av ansiktet ditt, og du kan skrive og bildet vil forelese. Det er en måte å erstatte deg som forelesning også. Så mange av disse tingene kommer nedover, tar bort personvernet, erstatter jobber, og fakultetet deltar faktisk i prosessen ved å bruke disse verktøyene og ikke får strenge barrierer i kontraktene for å forhindre denne typen økonomisk utnyttelse, for ikke å nevne denne innsatsen for overvåking for å undergrave forhandlingsprosessen.
«Uansett hvordan folk føler om den konflikten, unngår de den i klasserommet fordi de er redd alt de sier kan bli brukt mot dem for å miste jobben, og det er ikke bare de som taper, det er elevene som mister muligheten til å engasjere seg i et kritisk verdensspørsmål.»
Chris Hedges: Allison, hvis det ikke blir merket av, vet jeg at du avslutter boken med forslag til hvordan vi kan begrense dette inntrengningen i personvernet vårt, men hvis det ikke blir merket, hva slags pedagogisk og til og med sosialt og kulturelt miljø skal vi leve i?
Allison Butler: Jeg tror at hvis vi ikke krysser av, risikerer vi å bo på fabrikkskoler, som jeg sa før, at vi på en måte presser elevene våre gjennom på vei til å plukke opp et stykke papir. Vi vil lære fremtidige generasjoner at det å bli overvåket er normalt, at det ikke finnes noe som heter personvern. Vi vil ha en slags utenatlig utdanning der svært trygg informasjon og en sikker måte å presentere den på, og vi vil, i det minste når det gjelder et digitalt språk, vite alt om alle, med et mulig forbehold om at de som passer inn i rase, kjønn og økonomisk og fysisk evne, sitat, ikke sitat, normer, vil ha det lettere, men vi vil begynne å se alle kroppene våre som ikke passer, alle menneskene våre som ikke nødvendigvis passer inn i det, igjen, veldig sjenerøs, sitat, unquote, norm, bli flyttet lenger og lenger til utkanten.
Jeg tror vi kunne se at klasserommene våre i løpet av ganske kort tid ikke vil bli sett på som steder for nysgjerrighet, nysgjerrighet. De vil bli sett på som steder der man passivt aksepterer svært banal, forsiktig informasjon.
Samtidig kommer de sannsynligvis til å se ganske kule ut, fordi våre overvåkingsteknologier, alle våre teknologier, ser veldig sofistikerte ut. De er banebrytende. De er ofte hånd-me-downs ikke sant? Som Nolan nevnte før, så mye av det vi bruker kommer til oss fra det militære industrielle komplekset - at vi kan kjøre på ukjente steder er GPS, en utdatert militærteknologi. At vi kan ta kule bilder av som fester eller bryllup eller eiendom er droneteknologi og utdatert militærteknologi. Jeg tror innholdet i klasserommet vårt risikerer å bli helt banalt og kjedelig. Utseendet til dem kan ende opp med å bli ganske kult, noe som kan være skikkelig prangende og invitere oss til å glemme å tenke på innholdet.
Chris Hedges: Vel, når regjeringen ser på deg 24 timer i døgnet, kan du ikke bruke ordet frihet, det er forholdet mellom en herre og en slave. Det var Nolan Higdon og Allison Butler på boken deres, Overvåkingsutdanning: Navigering i det iøynefallende fraværet av personvern i skolene. Det var virkelig, virkelig flott arbeid dere gjorde begge to. Jeg vil takke Sofia [Menemenlis], Diego [Ramos] Thomas [Hedges] og Max [Jones], som produserte showet. Du finner meg på ChrisHedges.Substack.com.
Chris Hedges er en Pulitzer-prisvinnende journalist som var utenlandskorrespondent i 15 år for The New York Times, hvor han fungerte som Midtøsten-byråsjef og Balkan-byråsjef for avisen. Han har tidligere jobbet i utlandet for The Dallas Morning News, The Christian Science Monitor og NPR. Han er programleder for showet «The Chris Hedges Report».
Denne artikkelen er fra Scheerpost.
MERKNAD TIL LESERE: Det er nå ingen måte igjen for meg å fortsette å skrive en ukentlig spalte for ScheerPost og produsere mitt ukentlige TV-program uten din hjelp. Veggene nærmer seg, med oppsiktsvekkende hurtighet, uavhengig journalistikk, med elitene, inkludert elitene fra Det demokratiske partiet, som roper etter mer og mer sensur. Vær så snill, hvis du kan, meld deg på kl chrishedges.substack.com så jeg kan fortsette å legge ut mandagsspalten min på ScheerPost og produsere mitt ukentlige TV-program, "The Chris Hedges Report."
Dette intervjuet er fra Scheerpost, som Chris Hedges skriver for en vanlig kolonne. Klikk her for å registrere deg for e-postvarsler.
Synspunkter som er uttrykt i dette intervjuet kan eller ikke gjenspeile synspunktene til Nyheter fra konsortiet.

Denne artikkelen har absolutt gjort meg mer motvillig til å fortsette å bruke TurnItIn for plagiatoppdagelse i de undergraduate kursdelene som jeg instruerer videre, og gir meg et mer håndgripelig motiv til å se sidelengs på TurnItIn utover mine generaliserte abstrakte neo-luddittiske følelser angående de iboende panoptisk og Janus-ansiktet natur av all informasjonsteknologi kombinert med et menneskelig maktbegjær. Gitt min allestedsnærværende mistanke om diverse overvåkings- og markedsføringsteknologier, var jeg naiv til å ikke vurdere de andre uuttalte bruksområdene som slik plagieringsprogramvare kunne brukes før jeg leste transkripsjonen av dette intervjuet, så jeg setter pris på Chris Hedges og spesielt Allison Butler for å bringe dette til min oppmerksomhet.
Takk, Chris, for at du bringer viktige saker til vår oppmerksomhet, hver jævla dag.
Lurer også på om du kanskje intervjuer Grisham på hans siste NF-bok.
Etter min erfaring har teknologien for å observere elevenes aktivitet på skolens datamaskin eksistert siden 2007 i det minste, ved bruk av applikasjoner som Apple Remote Desktop og Teamviewer. Jeg ble sjokkert over å være vitne til dette direkte på skolens tekniske støttekontor, spesielt siden elevene mine var voksne, som hadde tilgang til e-postkontoene deres, men ikke anelse om at kommunikasjonen deres ikke var privat. Den gang var avlyttingen ment å være passiv (riktignok potensielt prurient), gjort i interessen for å gi effektiv støtte i tilfelle maskinfeil. Den atferdsmessige «nudgingen» disse forfatterne snakker om er heller ikke ny. I 2017 hørte vi rapporter om datainnsamling som ble brukt til å flytte stemmegivning i USA og Storbritannia, av henholdsvis Cambridge Analytica og Aggregate IQ. Siden den gang har tjenester som Newsguard rykket frem til sikker informasjonsinnhenting, og i sin tur atferd. Det som er nytt her er at dataene fra mindreårige deles med lignende hensikter, og den samme gamle søppel inn, søppel ut skjevhet pålagt personligheter som ennå ikke er fullstendig dannet.
Behovet for kontekst og grundighet er bare to av Chris sine gode egenskaper.
La oss ikke forveksle en rett til privatliv med en ikke-eksisterende rett til anonymitet på offentlige steder. Førstnevnte er en naturlig rett til privatliv i eget hjem og andre private steder og ved bruk av egne verktøy og eiendeler. Det siste er en forventning om ingen reaksjon på å bo og opptre på offentlige steder og bruke offentlige (og andre eide) verktøy og eiendeler, som aldri har eksistert i menneskehetens historie og ikke kan forventes, og heller ikke er ønskelig nå og i fremtiden.
Så i forhold til artikkelen har barn rett til privatliv når de er i sine egne hjem hvis de (1) ikke inviterer selskaper (hei Siri) inn i hjemmet sitt eksplisitt for å spionere på dem og (2) ikke bruker offentlig tilgjengelige verktøy ( skole bærbare datamaskiner) gitt for et offentlig formål å gjøre personlige ting. Når det gjelder i en offentlig setting som selve skolerommet eller å gå rundt på campus eller i byen generelt, kan handlinger som utføres offentlig observeres av alle som er interessert i slike handlinger og kan brukes til datainnsamling, markedsføring og andre grunner.
som for "Jeg tror vi kunne se at klasserommene våre i løpet av ganske kort tid vil ikke bli sett på som steder for nysgjerrighet, nysgjerrighet. De vil bli sett på som steder der man passivt aksepterer veldig banal, forsiktig informasjon.» … herregud, hvilke klasserom har disse folkene besøkt? Steder for nysgjerrighet og nysgjerrighet? Virkelig? “Bueller … Bueller … Bueller …”
Alt du sier kan og vil bli brukt mot deg.
Er det virkelig behov for en så lang artikkel??? Som om vi ikke hadde noe annet å lese og bekymre oss for! Den hvite rasen har ennå ikke kommet til å innse hvilken DIT FORSTYRRER vi er. Men alltid skyld på en annen rase ... selvfølgelig.