Allison Butler i Nolan Higdon raspravljaju o "ed-tech" sustavima koji narušavaju prava maloljetnika na privatnost i diskriminiraju obojene učenike.
ANova tehnologija koju je stvorio američki vojno-industrijski kompleks i prihvatila šira javnost uvijek je morala dolaziti s upozorenjem.
Za većinu su internet, GPS, ekran osjetljiv na dodir i druge sveprisutne tehnologije obični alati modernog svijeta. Ipak, u stvarnosti, ove tehnologije služe za "dvostruku namjenu",
Iako pogoduju tipičnim ljudima, oni također omogućuju masovnu prisilu, nadzor i kontrolu tih istih ljudi u rukama korporativne i vojne države.
Nolan Higdon i Allison Butler, autori Edukacija o nadzoru: prevladavanje vidljivog odsustva privatnosti u školama, pridružite se voditelju Chrisu Hedgesu u ovoj epizodi Izvješće Chrisa Hedgesa. Oni istražuju softverske i tehnološke sustave koji se koriste u K-12 školama i visokoškolskim ustanovama koji nadziru studente, narušavaju prava na privatnost maloljetnika i, u tom procesu, diskriminiraju obojene studente.
Korištenje ove tehnologije, objašnjava Higdon, temelji se na tretiranju ljudi kao proizvoda kroz kapitalizam nadzora.
“Iz svih tih pametnih tehnologija izvlačite podatke i informacije o ljudima, a zatim ste u mogućnosti odlučiti o njihovom ponašanju, kako bi mogli reagirati na nešto. I postoji mnogo industrija koje su zainteresirane za ovo,” kaže Higdon Hedgesu.
Butler objašnjava da su studenti, često bez izbora po tom pitanju, podvrgnuti korištenju ove tehnologije koja inherentno iskorištava njihove podatke. Budući da postoji implicitni pristanak da se koristi, "Vrlo ograničena količina zaštite koja postoji za zaštitu podataka maloljetnika nestala je nakon što imate tehnologiju koja je stavljena u njihovu učionicu", kaže Butler. "Postoji pasivno prihvaćanje ove tehnologije."
Higdon ističe promjene koje je Obamina administracija 2012. unijela u Zakon o pravima na obrazovanje i privatnost obitelji (FERPA) kao ključni čimbenik. Ove promjene omogućile su dijeljenje podataka o studentima s privatnim tvrtkama koje služe kao obrazovni partneri.
"U stvari, svi ti podaci za koje je pokret za studentska prava radio da bi bili sigurni da su privatni smjeli su se distribuirati tim tvrtkama", kaže Higdon.
Autori naglašavaju dubok utjecaj ovih tehnologija na temeljne procese učenja u učionici.
"Smanjuje znatiželju, koja je ključna za obrazovni proces", kaže Higdon. "Mentalna trauma i poteškoće zatvaranja jednog od rijetkih prostora gdje mogu istraživati, mislim da to samo govori o problemu s nadzorom i obrazovnim procesom."
Domaćin: Chris Hedges
Producent: Max Jones
Intro: Diego ramos
Posada: Diego Ramos, Sofia Menemenlis i Thomas Hedges
Transkript: Diego ramos
Chris Hedges: Alati za nadzor postali su sveprisutni u školama i na sveučilištima. Tehnologije, koje obećavaju veću sigurnost i poboljšane akademske rezultate, omogućile su Gaggleu, Securlyju, Barku i drugima prikupljanje detaljnih podataka o studentima. Međutim, te tehnologije ne samo da nisu uspjele ispuniti svoja obećanja, već su uništile privatnost studenata.
To je osobito istinito u siromašnim zajednicama, gdje se malo provjerava veleprodajni nadzor. Ti se podaci često okreću protiv učenika, osobito siromašnih i obojenih učenika, ubrzavajući naftovod od škole do zatvora. Kada učenici i nastavnici znaju da ih se promatra i nadzire, to guši intelektualnu raspravu, svako osporavanje dominantnog narativa i ispitivanje zlouporabe moći.
Ali što je još zlokobnije, omogućuje korporacijama i vladinim agencijama da stigmatiziraju i kriminaliziraju studente. Ove digitalne platforme mogu ciljati mlade s propagandom i koristiti društveni inženjering i analizu trendova za oblikovanje ponašanja. Pridružuje mi se u raspravi o masovnom nadzoru studenata Nolan Higdon, autor, s Allison Butler, iz Edukacija o nadzoru: prevladavanje vidljivog odsustva privatnosti u školama.
Dakle, Allison, počnimo s tobom, i kao što to radiš u knjizi, daj nam portret koliko je nametljiv - što nisam znao dok nisam pročitao tvoju knjigu - koliko je nametljiv ovaj nadzor i kako funkcionira.
Allison Butler: Naravno. Hvala vam puno što ste nas primili. Rekao bih da je najkraći odgovor na to pitanje nevjerojatno, potpuno, potpuno nametljiv. I da proširimo na to, trenutno živimo u svijetu tehnologija nadzora. Skoro da nema mjesta na koje ti i ja možemo otići kao pojedinci, a da nismo u nekom svojstvu nadzirani. Velik dio toga je, do određenog stupnja, naš vlastiti izbor. Na primjer, ako uđemo u svoj automobil i koristimo svoj GPS, pristajemo na te uvjete.
Ono što nas brine, posebno u vezi s ovim tekstom, je da imamo ogromnu količinu nadzora u našim K do 12 i višim školama. Konkretno za K kroz 12 školu, taj nadzor se događa za maloljetnike, za djecu mlađu od 18 godina, bez njihovog aktivnog pristanka. Nekako smo navikli, pripremili smo se za tehnologije nadzora pomoću nekih od tih mekih tehnologija, kao što je naš GPS, kao što su QR kodovi koji nam pomažu da malo lakše pregledamo jelovnike restorana, kao što su neki od aplikacije na našem telefonu koje čine naš život malo ugodnijim.
Cijena toga je da kada teže i nametljivije tehnologije nadzora dođu u naše svjetove, a što se tiče nas posebno, dođu u naše učionice, nekako smo već imali postavljene temelje za koje smo pripremljeni, i mi možda neće nužno propitivati te tehnologije u mjeri u kojoj zaslužuju.
Chris Hedges: Pa, te se tehnologije, kao što ističete u knjizi, ne prodaju kao sustavi nadzora. Reklamiraju se kao poboljšanja obrazovanja, poboljšanja sigurnosti. I samo mi dajte sliku nekih od onih koji se ukrcavaju i ovih drugih alata za digitalni nadzor, dajte mi sliku što su i kako rade.
Nolan Higdon: Da. Puno ti hvala što si me primio, Chris. Allison i ja smo sretni što smo ovdje. I mislim da je najlakši način da to shvatite, poput ostatka Silicijske doline, ove obrazovne ili obrazovne tehnološke tvrtke, imaju tendenciju previše obećavati, a nedovoljno ispunjavati. Dakle, većina opravdanja za njihovo dodavanje u učionice su stvari s kojima bi se ljudi obično složili, zar ne? Ovi će nas alati učiniti sigurnijima. Oni će poboljšati učenje. Oni će pripremiti studente za tržište 21. stoljeća. Neki od njih čak se reklamiraju kao inkluzivniji. To je više usklađeno s DEI-jem [raznolikost, jednakost i uključenost], jer uklanjaju ljudsku predrasudu, ili ljudski element, ono što tvrde. Ali primjećujemo da u svim tim slučajevima oni zapravo prikrivaju više, rekao bih, pogubnih motiva.
Imajući ove alate u učionici i moći prikupljati podatke, može se zaraditi mnogo novca. Dakle, to je jedno pitanje. Drugi problem je, osim što prikrivaju pravi motiv, a to je stvaranje profita, oni zapravo ne ispunjavaju mnoga od tih obećanja. U knjizi govorimo o tome kako, iako kažu da su ovi alati napravljeni za promicanje sigurnosti, često ne uspijevaju u tome. Postoji nedostatak dokaza koji govore da oni zapravo poboljšavaju učenje, a zatim postoji mnogo dobrih dokaza da oni zapravo rade protiv ciljeva DEI-ja. Dakle, u mnogim od ovih slučajeva, čini se da su razlozi koji se navode za postavljanje ovih alata za ed tech u školama vrlo različiti od onoga što oni zapravo rade ili stvarne svrhe njihovog dodavanja u školu.
Chris Hedges: Allison, možeš li objasniti konkretno, kao, na primjer, Bark ili odabrati jedan ili dva od ovih programa i objasniti nam što oni, naravno, prikupljaju podatke, ali što rade unutar školskog okruženja? Koja je njihova funkcija?
Allison Butler: Naravno. Dakle, jedan primjer koji se koristi u puno učionica od K do 12 je tehnologija koja se zove GoGuardian. GoGuardian se postavlja na računala, prijenosna računala u učionici. Dakle, ako imate, argumenta radi, učionicu u kojoj je svaki učenik dodijelio prijenosno računalo, to bi mogla biti njihova vlastita dodjela da imaju to određeno za cijelu školsku godinu ili bi to mogla biti prijenosna računala u učionici, a slučajno je gdje učenik sjedi.
GoGuardian nadzire njihove ekrane, prati sve što rade, a zatim učitelj ispred učionice, ili gdje god da se nalazi, može gledati u ekrane učenika tijekom nastave. Jedan od argumenata koji GoGuardian kaže je da to pomaže nastavnicima da zadrže učenike na pravom putu, a time i učenicima da ostanu na pravom putu. Dakle, predstavljeno je kao ponašanje. Predstavljen je kao neka vrsta alata za fokusiranje, jer učitelji mogu gledati u zaslone učenika, a tu je i element mrkve i batine, a to je da učitelj može reći, hej, moraš otići s te web stranice . To nije ono na čemu radimo.
Ili [nastavnik] može izravno pogledati učenikov rad i komentirati što radi dobro ili što bi možda trebalo prilagoditi. Predstavljena je kao ova vrsta tehnologije zajednice za učionice. Evo na koje probleme nailazimo s GoGuardianom: Učiteljima se često govori da je na njima da pregledavaju i zapravo, mnogi učitelji koje smo intervjuirali za knjigu rekli su da vjeruju da su oni ti koji vrše nadzor, da bilo im je malo neugodno zbog toga, ali stvarno su vidjeli moć nadzora u svojim računalima. Ono što im se ne govori ili im se ne daje do znanja je da je zapravo korporacija ta koja vrši nadzor. A ako posebno mislimo na K kroz 12 učionica, kao što sam prije primijetio, ovo su podaci maloljetnika.
Dakle, vrlo ograničena količina zaštite koja postoji, digitalna zaštita, za zaštitu podataka maloljetnika je nestala nakon što imate tehnologiju koja je stavljena u njihovu učionicu, postoji pasivno prihvaćanje ove tehnologije. Sami studenti nisu aktivno prihvatili da se njihovi podaci prikupljaju. To je implicitni pristanak. I zapravo, to je jezik koji se često koristi, korištenjem tehnologije, to je implicirani pristanak i ne postoji nužno odustajanje. Dakle, imamo učionicu zbunjenosti u kojoj učitelji vjeruju da su oni glavni i da donose određenu etičku odluku, dok zapravo oni nisu ti koji su glavni.
Jednom kada nešto poput GoGuardiana zgrabi podatke o studentima i zgrabi njihove informacije, ima ih, ne postoji nikakav prekidač za isključivanje ovoga, i ako u to vrijeme student možda priključi svoj osobni mobitel na taj uređaj da ga napuni, GoGuardian sada ima i sve te podatke zbog digitalne povezanosti ovih uređaja.
Jednom učitelju kojeg smo intervjuirali bilo je malo neugodno, pričao je priču u kojoj im je bio pomalo neugodan GoGuardian, djelomično zato što je učenik bio bolestan kod kuće, a učitelj je i dalje mogao vidjeti što se događa na ekranu, čak i kad je učenik bio kod kuće, izvan škole iz opravdanog razloga, učitelj je mogao vidjeti učenika kao da gleda YouTube videozapise. I tada je nekako pomislila, Oh, ovo nije ono što sam mislila da jest. Ovo nije izravno povezano s učionicom, zar ne? Mislim da nas ponekad pogodnosti naših digitalnih tehnologija pozivaju da zaboravimo da se naše digitalne tehnologije mogu nadzirati gdje god se nalazili, a ne samo u našim učionicama.
Mislim da bi drugi primjer, nešto što se koristi iu K 12 iu visokom obrazovanju, bio Turnitin. Turnitin je program u kojem ga nastavnici mogu postaviti tako da učenici predaju svoje pisane radove preko ove platforme, i on se prodaje, predstavlja se kao otkrivanje plagijata, što pretpostavljam da je, na nekoj razini, točno. Druga podmukla stvar je da vam mnoge od tih tehnologija i tih korporacija nikada zapravo ne lažu. Samo vam nekako ne govore cijelu istinu i izostavljaju neke stvarno važne dijelove. Dakle, Turnitin je, da, softver za otkrivanje plagijata. Također, Turnitin čini barem dvije stvari.
Prvo, podučava AI, zar ne? Dakle, studenti koji predaju svoje radove daju sve više i više informacija razvoju generativne umjetne inteligencije, a zatim Turnitin te informacije prodaje i oglašivačima i trgovcima, tako da se jezik mladih ljudi analizira i onda na neki način koristi u oglašavanju i marketingu jezik i nekako im se prodao natrag. Dakle, naši mladi ljudi donekle rade za ovu korporaciju. Rade puno, a nisu ni na koji način kompenzirani. Pa bih rekao da su to dva stvarno velika primjera koji pokazuju koliko su ove tehnologije podmukle, koliko su invazivne i koliko zbunjujuće mogu biti za one koji su potaknuti da ih koriste.
“…jezik mladih se analizira i onda se na neki način koristi u reklamnom i marketinškom jeziku i prodaje im se natrag. Dakle, naši mladi ljudi donekle rade za ovu korporaciju. Rade puno, a ni na koji način ne dobivaju naknadu.”
Chris Hedges: Nolane, razgovarajmo o tome kako se te tehnologije koriste za policijske studente, posebno u siromašnim četvrtima, što nesrazmjerno utječe na obojene studente.
Nolan Higdon: Da, jedna od stvari koje primjećujemo kod ovih alata je da opet daju velika obećanja, zar ne? Dakle, obećavaju stvari poput toga da možemo predvidjeti može li učenik biti uključen u kriminal, ili možemo predvidjeti ima li učenik problema s mentalnim zdravljem koje treba riješiti.
Ali vrag je u detaljima. Ono što ovi alati rade jest da prikupljaju puno podataka i kodiraju algoritme za analizu tih podataka, kako bi se utvrdilo nečije mentalno zdravlje ili potencijalni kriminal. I tu zapravo vidimo veliki problem s pretjeranim oslanjanjem na ove alate. Ovi algoritmi koji tumače podatke, oni su kodirani s istom predrasudom kao i njihovi kreatori, i mi uvijek iznova vidimo kako ti algoritmi donose rasističke ili transfobične zaključke, a pod tim mislim da će ti algoritmi neproporcionalno kategorizirati učenike boje kao vjerojatnije da će počiniti zločin. Kao rezultat toga, škola ih više nadzire, a to opet normalizira praćenje crnih tijela.
Isto kao i s detektorima mentalnog zdravlja, oni neproporcionalno kategoriziraju stvari kao što su trans djeca za probleme mentalnog zdravlja, što ne znači da samo prolaze kroz izazove mentalnog zdravlja, što je dio života za neke ljude, ali također znači da treba paziti na stvari poput pucnjave u školi ili samoubojstva ili samoozljeđivanja.
"… ovi će algoritmi neproporcionalno kategorizirati obojene studente kao one kod kojih postoji veća vjerojatnost da će počiniti zločin."
I tako dobivate i pretjeranu policiju nad tim pojedincima. I tako mislim da je jedan od mitova koji je Silicijska dolina općenito prodala, ali posebno ovi alati za ed tech, da oni imaju te objektivne algoritme koji su oslobođeni ljudskih pristranosti, i stoga mogu izvući točnije zaključke . Ali istraživanje kaže ne, to nije slučaj, ako ništa drugo, ovi alati zapravo kompliciraju ili pogoršavaju mnoge probleme koje smo imali s pitanjima kao što su rasizam ili transfobija.
Chris Hedges: Allison, želim razgovarati o tome kako ti podaci, prije svega, završe u rukama potencijalnih poslodavaca. To je industrija vrijedna više milijardi dolara godišnje koja prodaje naše osobne podatke, sve što smo ikada učinili, svaki prometni prekršaj koji smo ikada imali, jer u biti omogućuje poslodavcima, možda čak i sveučilištima, koji gledaju srednjoškolsku djecu, da imaju informacije koje bi trebale biti privatne i, naravno, mogle bi se koristiti protiv tih studenata ili potencijalnih zaposlenika.
Allison Butler: Pa bih se malo zamjerio na jednu riječ koju ste rekli, a to je prodaja naših podataka. Mislim da je stvar na koju bismo možda trebali obratiti više pozornosti, točno, na Nolanovo mišljenje o tome da je vrag u detaljima, i na nešto što sam ranije rekao o tome kako nam oni zapravo ne lažu, oni jednostavno ne t nužno nam sve reći.
Toliko će ovih današnjih tehnologija reći da ne prodajemo vaše podatke, a to je vrsta uskličnika, zar ne? I to je nešto što bismo trebali biti poput, “Oh, dobro, dobro. Moji podaci su sigurni.” Apsolutno ne. Prije svega, vaši podaci nisu sigurni, jer se provale događaju toliko često da to više nije niti naslov niti vijest. U jednom smo trenutku u našem istraživanju pokušavali na neki način kategorizirati ili katalogizirati sva različita kršenja i jednostavno smo rekli da isticanje ovoga u ovim mikrodetaljima neće biti od pomoći, jer se to stalno događa. Jednostavno smo navikli na to.
Ali ono što stvarno trebamo uzeti u obzir je da toliko mnogo tih korporacija dijeli naše podatke, zar ne? Ono što se događa je da imamo ono što bismo vi i ja mogli zamisliti kao različite korporacije koje nemaju međusobnu vezu, a udružile su se. Oni su kupili jedni druge u poslovnim modelima. Povezani su na neki način. Tada sebe nazivaju obrazovnim korporacijama ili obrazovnim partnerima. To znači da zapravo ne moraju prodavati naše podatke. Oni mogu dijeliti naše podatke. Tako da možemo biti sigurni na određenoj razini. Ali zapravo, možda bismo trebali pažljivije razmisliti o ovoj drugoj razini.
Dakle, kada govorimo o poslodavcima, ili kada govorimo o fakultetima, ili čak možda ako govorimo o privatnim školama, imamo toliko mnogo obrazovnih partnera koji već imaju pristup podacima, koji već mogu napraviti neke analize toga, da im je dopušteno dijeliti ga. Mislim da smo prije nekoliko godina govorili o tome da će poslodavci, posebno sa studentima od K do 12, gledati vaše društvene medije. Uredi za upis na fakultete pogledat će vaše društvene medije. Mi zapravo više ne trebamo usmjeravati naše mlade ljude da budu zabrinuti za ove određene staze. Ovi ljudi ne moraju raditi gomilu detektivskog posla. Za njih je već tu. Pa obraćaju li na to veliku pozornost ili ne, nisam baš siguran, ali podaci već postoje. Jednostavno je ispred njih.
Chris Hedges: Nolane, možeš li govoriti o tome kako su proaktivni, društveni inženjering, kako to nije samo prikupljanje podataka, već korištenje podataka za oblikovanje i oblikovanje ponašanja.
Nolan Higdon: Da, i dodati sloj tome, nastaviti tamo gdje je Allison također stala. Čak sam i danas ovo puno govorio, ovo su tehnološke tvrtke, ali to je na neki način pogrešno. Mnoge od ovih tvrtki koje vode ili posjeduju te platforme za ed tech, kao što smo govorili o par, kao što su Gaggle, Bark, tu je Canvas, druge, općenito su u vlasništvu dioničkih tvrtki. Ovo je zapravo počelo u zadnjih 10 godina, ove dioničke tvrtke kupile su te alate za ed tech, navodno zato što je postojao način da se uđe u učionicu. Ovdje u znanstvenom svijetu postoji cijela industrija koju nazivaju nadzornim kapitalizmom, a temelji se na ideji tretiranja ljudi kao proizvoda. Dakle, izvlačite podatke i informacije o ljudima iz svih tih pametnih tehnologija, a zatim ste u mogućnosti odlučiti o njihovom ponašanju, kako bi mogli reagirati na nešto. I postoji mnogo industrija koje su zainteresirane za ovo, zar ne? Oglašavačka industrija želi znati kako stvoriti savršenu reklamu koja će vas navesti da nešto kupite. Osiguravajuća društva željela bi znati kako odrediti vaše premije, možda na temelju zdravlja ili vaših obrazaca vožnje, itd. Dakle, podaci mogu biti prilično unosni za industrije za to.
Ali osim predviđanja ponašanja, postoje i entiteti koji su zainteresirani za poticanje vašeg ponašanja. Dakle, što mogu učiniti? U kakvu te situaciju mogu dovesti? Kakve informacije da ti dam da se ovako ponašaš? U industriji postoji veliko uvjerenje da ako prikupimo dovoljno podataka, možemo potaknuti ponašanje ljudi u pravom smjeru, posebno ovdje smo u izbornoj godini, puno kampanja, to je ono što oni pokušavaju učiniti s ovim podacima. Kako možemo upotrijebiti ove podatke da te ljude natjeramo da glasaju ili možda natjeramo te ljude da ne glasaju, ovisno o takvim stvarima? Dakle, postoji mnogo potencijala u industriji ako ste u mogućnosti prikupiti više podatkovnih točaka, i zato su škole tako atraktivne, zar ne?
Oni su jedno od rijetkih mjesta koja su zaštićena kao javni prostor, pa su privatne tvrtke dugo željele ući tamo, a pod altruizmom davanja tehničkih alata, ovo im je bila prilika da uđu u učionicu i dobiti pristup tim unosnim podacima.
“[Škole] su jedno od rijetkih mjesta koja su zaštićena kao javni prostor, pa privatne tvrtke već dugo žele ući tamo i... dobiti pristup unosnim podacima.”
I samo da naglasimo to, neke od ovih poput velikih tvrtki ne posjeduju samo alate za ed-tech, već posjeduju stvari poput Baby Connecta, koji govori roditeljima da koriste te alate za nadzor svoje bebe. Također posjeduju platforme koje promatraju obrasce rada ljudi nakon diplome. Dobijte i podatke iz školovanja na društvenim mrežama. Cilj je napraviti, kako ih zovu, psihografski profil pojedinaca od kolijevke do groba, a škole su važan dio tog procesa.
Chris Hedges: I želim biti jasan, vi to ističete u knjizi, ovo je masivna industrija. EdTech je, kažete, globalna industrija vrijedna 123.4 milijarde dolara. Govorimo o velikom, velikom novcu. Allison, želim razgovarati o tome, gledali smo tijekom ljeta kako su sveučilišta i škole nametnule razne vrste novih ograničenja i pravila kako bi ugasile prosvjede protiv genocida u Palestini, i to je koordinirano diljem zemlje, nema letenja, ne događaji, stolovi, nema logorovanja, itd. U kojoj mjeri alati poput ovih pomažu sveučilištima i školama u zatvaranju neslaganja ili kontroverzi, osobito oko Palestine?
Allison Butler: Mislim da u velikoj mjeri, i mislim da je ovo mjesto gdje je indikativno za veće strahove naših sveučilišta od, pa, vjerojatno da budemo malo neozbiljni, naših strahova od mladih ljudi i onoga što oni rade sa svojim tehnologijama , nego strahovi od stanja akademskih sloboda, strahovi od toga što znači disidentstvo, od onoga što znači neposluh. Mislim da provodimo toliko vremena u našim učionicama hvaleći povijesne činove neslaganja, povijesne činove neposluha, ali kada nam se to suoči u sadašnjem vremenu, to je nekako zastrašujuće.
Ako ću im dati pravo sumnje, to su administratori koji traže neki način da očuvaju svoje kampuse sigurnima, da zadrže studente, nastavno osoblje, osoblje koji imaju različite i sukobljene poglede na sigurnost. Nažalost, mislim da se riječ sigurno često koristi kao molim te nemoj me tužiti, zar ne? To je eufemizam za molim te nemoj me tužiti. Zbog kultiviranog osjećaja straha mislim da tehnologije nadzora stvarno dobro kapitaliziraju strah, zar ne? Mislim da to malo promijenimo, kada razmišljamo o početku Covida, to je bilo kapitaliziranje straha od onoga što smo mislili biti zajedno, zar ne? Koliko opasno može biti za nas biti u istom prostoru. I mislim da ove korporacije nastavljaju kapitalizirati taj strah kada gledamo neslaganje, demonstracije i neposlušnost. I tako imate sveučilišne alate, zatim imate alate policijske države, zar ne? Ta policija dolazi s kamerama na tijelu, koje se, budimo iskreni, mogu uključiti i isključiti kako bi se stvorio i uokvirio vrlo poseban narativ, zar ne? Ovo je stvar; tehnologije nadzora i ti alati sječu u svim smjerovima.
Imamo i same studente koji snimaju svoje radnje, što znači da postoje i njihova lica, zar ne? Ako su tamo u mirnom neslaganju, ako su tamo u građanskom neposluhu, njihova su lica itekako tu, što znači, ako nešto pođe po zlu, bez obzira kome pođe po zlu, zar ne? Ako je riječ o poticanju policije ili opozicionih studenata, već imamo sve njihove informacije. Dakle, živimo u okruženju u kojem mislim da je, kao kroz povijest, važno biti prisutan, važno ustati, a također se tom prisutnošću i tim ustajanjem manipulira i manevrira na užasne načine pomoću ovih tehnologija nadzora.
Chris Hedges: I, Allison, to ima globalne razgranate, jer su sveučilišta i škole tradicionalno mjesta gdje se razmjenjuju ideje i neslaganja, u funkcionalnoj demokraciji, to je jedan od epicentara, jedan od fizičkih epicentara gdje bi takve vrste rasprava trebale biti dopuštene održati se.
Allison Butler: Apsolutno i mislim, opet, kada gledamo povijest, kada gledamo luk povijesti, nekako imamo tu sliku da je to bilo neslaganje gdje su se ljudi ponašali kao da imaju građansko neslaganje, a mi jednostavno ne Čini se da to više nemam. Dakle, naše vrlo nekulturne nesuglasice, naše vrlo fizičke nesuglasice se slikaju i predstavljaju na način kroz ove tehnologije koji vjerojatno nismo mogli učiniti u povijesti, zar ne?
Mislim da se puno priča ovog ljeta, kada su se približavali predsjedničkim konvencijama, i RNC i DNC su govorili, posebno DNC, budući da su u Chicagu, poput, osvrnimo se na povijest. I mislim da je to važno. Nikada ne bih rekao da to ne bismo trebali učiniti, ali toliko se toga promijenilo u načinu na koji naša tehnologija sudjeluje u tim konvencijama ili tim nesuglasicama da je naše razumijevanje ponašanja potpuno i krajnje drugačije.
Chris Hedges: Nolane, ove informacije koje ste napisali u knjizi ne završavaju samo u rukama korporacija, one završavaju u rukama DHS-a, FBI-a. Pričajte malo o tome kako državna sigurnost također koristi ove informacije.
Nolan Higdon: Da, takozvana nacionalna sigurnost, ili industrija nacionalne sigurnosti, jako je uključena u prikupljanje ovih podataka. I vrijedi podsjetiti ljude da ovi alati - internet, zaslon osjetljiv na dodir, GPS i mnoge druge funkcije pametnih uređaja u digitalnom dobu - dolaze iz vojno-industrijskog kompleksa. Oni su stvoreni kroz financiranje obrane, radeći u suradnji sa sveučilištima i školama sredinom 20. stoljeća. I zapravo, govorili smo o tome u knjizi, kada su studenti saznali za što su ti alati stvoreni, prosvjedovali su protiv njih.
Ali do danas, ovi alati nastavljaju prikupljati podatke koji se dijele s DHS-om i obavještajnom zajednicom, opet, pod okriljem uočavanja potencijalnih terorista, uočavanja potencijalnih prijetnji. To je problematično iz brojnih razloga, ali jedan od njih, samo sa čisto obrazovnog stajališta, stvarno negativno utječe na učenje. Učinkovito govorimo studentima kada su na kampusu da su objekti koje treba nadzirati i štititi, od kojih treba upravljati. Vrlo je teško razviti odnos pun povjerenja u kojem se ljudi osjećaju ugodno preuzimajući rizike i čineći pogreške, što je ključno za obrazovanje kada se radi o okruženju u kojem su uvijek pod nadzorom policije.
"Vrlo je teško razviti odnos pun povjerenja u kojem se ljudi osjećaju ugodno preuzimajući rizike i čineći pogreške, što je ključno za obrazovanje, kada je to okruženje u kojem su uvijek pod nadzorom."
Chris Hedges: Pa ne samo pod policijskim i nadziranim, nego dok gledamo studentske prosvjede, ovi alati za praćenje, zapravo, više su od nadzora. Radi se o zatvaranju jer znaju tko je umiješan, odmah. Mislim, znali su to još u Occupyju. Znam jer sam proveo dosta vremena u Zuccotti [Park u centru Manhattana], i nakon što je [gradonačelnik New Yorka Mike] Bloomberg zatvorio park, došlo je do niza policijskih racija na potkrovlje i uhvatili su sve prave ljude, jer su ih elektronički pratili. Allison, želim da govoriš o, posebno, dva alata za kibernetičku sigurnost. Želim da pričaš o Auguriju i Pegazu.
Allison Butler: Zapravo… to su neke vrste Nolanove bebe. Pa ću mu to vratiti, ako je to u redu.
Nolan Higdon: Da, Pegasus je zapravo špijunski softver koji dolazi od izraelske vlade. Ali Pegasus je zapravo stavljen u drugi softver. Dakle, ako ste ušli u druga računala, u osnovi, mogli biste nadzirati ljude širom svijeta koji su tamo imali ovaj softver Pegasus, a on je u osnovi stvarao globalnu platformu za nadzor. A Izrael teško da je sam u tome. Sjedinjene Države su bile…
Chris Hedges: I samo želim prekinuti Nolana, Pegasus je izraelska kreacija. Dolazi iz Izraela. Mislim da je korišten za praćenje Jamala Khashoggija.
Nolan Higdon: Točno, da, a SAD, kao što sam rekao, sudjeluje u sličnoj proizvodnji i praćenju, uključujući rad s Izraelom na Pegazu. Ali, da, mislim da se ovo Allisonino mišljenje o povijesti promijenilo, moramo puno razgovarati o našim očekivanjima ili o tome što se naša prava i zakoni također moraju promijeniti.
Ova ideja o nezakonitim pretragama i zapljenama ili ideja da je moja privatnost nešto što posjedujem, to se mijenja u digitalnoj eri, a zakon—a to je jedna od stvari za koju se zalažemo u tekstu—zakon treba uhvatiti korak s tim, jer su mnoge zaštite koje smo imali nad privatnošću, rupe u zakonu razotkrile vlade i korporacije, kao u primjeru s Pegasusom. Razgovaramo o stvarima kao što je, vaš prvi amandman štiti slobodu govora od vlade, ali vlada može surađivati s tehnološkim tvrtkama kako bi zatvorila određeni govor ili ideje, ili ste zaštićeni u svojoj komunikaciji, kao privatno u svom domu, ali ako je to e-pošta , to znači da ste te komunikacije predali privatnoj tvrtki koja ih zatim može dati vladi.
Dakle, ima mnogo ovakvih rupa u zakonu koje razotkrivaju u digitalnoj eri, i to je jedna od stvari za koje se zalažemo u tekstu, jer smo čak imali pokret za prava učenika koji je učenicima dao pravo na privatnost u školama. To je ono što je stvorilo FERPA ovdje u Sjedinjenim Državama. Ali onda je oko 2012. Obamina administracija promijenila nešto u FERPA.
Prethodno je FERPA značila da škola ne može dijeliti podatke o učeniku ni s kim. Ako su maloljetni, možete to podijeliti s njihovim skrbnikom. Ali promjene FERPA-e 2012. rekle su: "Ne, njihove podatke možete dijeliti i s obrazovnim partnerima." To su tvrtke koje imaju ugovore sa školama. I tako je efektivno, svim tim podacima za koje je pokret za studentska prava radio da osigura da su privatni, dopušteno je distribuirati tim tvrtkama. I kao što smo vidjeli, to je ono što mu omogućuje da uđe iu druga područja.
“Prije je FERPA značila da škola ne može dijeliti učenikove podatke ni s kim... Ali promjene FERPA-e 2012. rekle su: 'Ne, njihove podatke možete dijeliti i s obrazovnim partnerima'.”
Chris Hedges: I pričaj o Auguriju. Ovo je razvila tvrtka za kibernetičku sigurnost, tim... Što je to, Cymru, što čini goleme količine podataka dostupnima državnim i privatnim korisnicima. Razni ogranci vojske zajedno su platili 3.5 milijuna dolara za pristup Auguryjevim podacima.
Nolan Higdon: Da, tvrtke kao što je Augury, volim razmišljati o njima kao o nekakvim divovskim brokerskim spremištima podataka. Stoga izlaze i dobivaju pristup golemim količinama podataka. Oni analiziraju te podatke u stvarnom vremenu i onako kako to industrija opisuje, prodaju uglavnom proizvode koji analiziraju te podatke za tvrtke ili vlade.
Ali Augury je primjer nečega što služi interesima vlada koje možda žele ciljati na ljude ili razumjeti ponašanje aktivista ili razumjeti komunikaciju aktivista na internetu. Augury obećava da će imati ovu ogromnu količinu podataka koje može analizirati i dati neke odgovore na pitanja koja bi vlade mogle imati, a koje žele nadzirati, razumjeti, predvidjeti ili potaknuti ponašanje.
Chris Hedges: Allison koristite izraz u knjizi, "algoritamski rasizam". Možete li to objasniti?
Allison Butler: Dakle, ako razmišljamo o algoritmima, a svi smo na neki način, algoritmi su vrsta, mislim da je naš kisik ovih dana, zar ne? Sve što radimo digitalno izvučeno je iz algoritma. A algoritmi se, mislim, mnogima čine, posebno kada razgovaramo sa studentima u K-12 i donekle u visokom obrazovanju, osjećaju se poput misteriozne stvari koja je nekako u računalu... Ono što moramo zapamtiti je da su algoritmi, oni su programi, oni su kodiranje, oni su jezik, to su pitanja koja su izgradili ljudi, tako da su izgrađeni s pogrešivim ljudskim rasizmom, seksizmom, homofobija, sposobnost itd., zar ne?
Dakle, što se tiče našeg algoritamskog rasizma, rasizam je ugrađen u ove digitalne tehnologije, što znači da će od samog početka vidjeti obojene ljude, a time i obojene žene, ljude koji imaju različite sposobnosti, bilo koga tko se identificira kao LGBTQ, zapravo svatko tko jest ili se identificira izvan onoga što tvorac algoritma vidi kao normu, što znači da ne gledamo nužno na fizički, opipljivi život iskustva rasizma. Gledamo na rasizam kao na oblik učenja kako koristiti digitalne tehnologije, jer, kao što sam rekao, to je na neki način ugrađeno u ovo pa nam problemi odmah dolaze.
Stoga počinjemo učiti kako upravljati stvarima unutar tog rasističkog okvira, i to postaje norma, i postaje neka vrsta centraliziranog načina gledanja na to, što ga čini znatno opasnijim za obojena tijela, kao i za one koji su u interakciji s tijelima u boji kako bi imali unaprijed stvorenu predodžbu ugrađenu u svoje tehnologije o tome tko su ta tijela i kako se od njih očekuje da se ponašaju.
“Mi gledamo na rasizam kao na oblik učenja kako koristiti digitalne tehnologije.”
Chris Hedges: Pa, primjer toga koji ste izvukli iz knjige je softver za prepoznavanje lica u softveru za nadzor testova kao što je Proctorio, razvijen je za bijele studente. Crni i smeđi studenti manje su uočljivi i prisiljeni su dati više osobnih podataka od bijelih učenika kako bi potvrdili svoj identitet.
U još jednom primjeru rasističke predrasude kodirane u algoritme, istraživanje otkriva da programi koji obećavaju da će točno predvidjeti zadržavanje učenika i uspjeh u kolegiju pogrešno pretpostavljaju da obojeni studenti neće uspjeti. To je zato što su ogromne količine podataka potrebne za treniranje algoritama i umjetne inteligencije, ali oni se treniraju pomoću induktivne logike. Dakle, ako programiraju da vide više stavki, ali im je prikazan samo jedan rezultat, algoritam će komunicirati niz različitih stvari kao samo jednu stvar. Na primjer, ako je algoritam programiran da prepozna jabuke, ali su mu prikazane samo crvene jabuke, kod će vidjeti sve u toj grupi kao crvenu jabuku. Iako je to netočno u stvarnom svijetu postojanja jabuka, točno je kroz ono što je algoritam učio.
Allison Butler: Algoritam reagira na ljudski unos, zar ne? Mislim, mislim da kao u 1980-ima, kada smo se na neki način prvi put upoznavali s računalima, postojala je mala fraza, "smeće unutra, smeće van" da ako ste programirali, mislim, to nije bilo samo obični ljudi u našim dnevnim sobama programiraju računala u tom trenutku, zar ne? Ali ako ste programirali u smeću, onda ste dobili smeće. I mislim da to vidimo s našom generativnom umjetnom inteligencijom. Svatko od nas tko se spotakne ili muči s ChatGPT-om, na primjer, možda ono što treba gledati je ono što programiramo u njega. To je sofisticiranost koja se događa da ovo nisam ja koji nekako nespretno pokušavam shvatiti može li mi ChatGPT napraviti plan obroka za tjedan kako ne bih morao toliko razmišljati kada idem u trgovinu. Ovo je visoko sofisticirano programiranje koje zatim oblikuje i konstruira način na koji mi ostali gledamo na svijet, poput našeg primjera softvera za prepoznavanje lica, a imamo primjer nezaslužene privilegije biti bijelac iz 21. stoljeća. Ta bijela puno bolje pristaje modelu.
Chris Hedges: Nolane, želim razgovarati o migrantima. U knjizi pišete da su škole, posebice sveučilišta u SAD-u, UK-u i Australiji, ovlaštene i od zakonodavaca očekuju da identificiraju učenike migrante s osporenim ili ilegalnim imigracijskim statusom. Ministarstvo domovinske sigurnosti SAD-a održava količine podataka u svrhu lociranja i praćenja migranata. Na primjer, LexisNexis, koji se široko koristi u obrazovanju, prodaje podatke Uredu za imigraciju i carinu Ministarstva domovinske sigurnosti, ICE. LexisNexis, podružnica korporacije RELX, nudi proizvode za analizu podataka i online baze podataka. Utvrđeno je da je dao osjetljive informacije ICE-u, koje je ICE vjerojatno koristio za praćenje i uhićenje pojedinaca radi deportacije.
Nolan Higdon: Da, ovo je došlo iz poglavlja koje je bilo motivirano činjenicom da svaki put kada govorimo o ovoj temi, uvijek bismo dobili ovo pitanje, neizbježno od nekoga tko kaže “Pa, pa što? Nemam što skrivati. Koga briga za moju privatnost?” I u poglavlju koje čitaš od tamo, Chrise, pokušali smo postaviti popis različitih ranjivosti, a jedna posebno su studenti koji su osporili, ili takozvani status ilegalnog migranta. Oni očito imaju razloga da žele privatnost. Možda čak i nisu oni, možda žive s nekim tko ima osporeni migrantski status, koga žele zaštititi i kroz svoju privatnost, ali sudjelovanjem u procesu učenja gdje su ovi alati prisutni, sami sebi ugrožavaju taj status migranta. ili ljudi s kojima žive, moglo bi se koristiti protiv njih za deportaciju, uhićenje ili bilo što drugo.
I to vidimo uvijek iznova. Zato mislimo da su ovi alati toliko pogubni, jer tamo gdje smo započeli ovaj razgovor, uvedeni su zbog stvari kao što su sigurnost i poboljšano učenje i DEI i stvari s kojima bi se većina ljudi složila, ali u praksi, oni su koristi protiv tih mjera, kriminalizirajući ljude, nadzirući ih, a zatim koristeći te informacije, moguće da nekoga deportiraju.
"proces učenja u kojem su ti alati prisutni...može se koristiti protiv njih za deportaciju, uhićenje ili bilo što drugo."
Chris Hedges: Također naglašavate jer uređaji koje izdaju škole mogu i upozoravaju kampuse na studentska web pretraživanja, ljude koji pretražuju o svojoj seksualnosti i oni su otkrili seksualne preferencije učenika. Kao rezultat toga, LGBTQ+ učenici pokušavaju potražiti informacije o svojoj seksualnosti ili seksualnoj znatiželji, uključujući pitanja vezana uz zdravlje, riskiraju da budu izneseni pred školske službenike, policiju i bilo koga drugoga tko ima pristup njihovim podacima.
Nolan Higdon: Da, ovo se vraća na ono što smo govorili, zar ne? Vjerujemo da obrazovanje treba biti vježba slobode. Ljudi bi trebali moći istražiti tko su, istražiti informacije. Očekuje se da će griješiti u učionici kao učenici, samo naši učitelji, ali moraju se osjećati ugodno da bi mogli činiti te greške. Kada je ideja da te stalno nadziru, ili bi se ovo moglo vratiti tvojim roditeljima, ili bi se to moglo emitirati u svijet, manja je vjerojatnost da će učenici to podijeliti. Manje je vjerojatno da će tražiti te informacije. Smanjuje znatiželju, koja je ključna za obrazovni proces, a da ne spominjem da se ti ljudi bore s kritičnim pitanjima o svom identitetu, tako da mentalna trauma i teškoća zatvaranja jednog od rijetkih prostora gdje mogu istraživati, mislim to samo govori o problemu s nadzorom i obrazovnim procesom.
Chris Hedges: Allison, želim razgovarati o tome što ovo čini u školama i na sveučilištima, pišete da je ovaj stalni nadzor način da se osigura da se fakultet pridržava ideološke homogenosti koju želi vodstvo škole. Započinje postupkom prijave kada se od kandidata traži da podijele privatne pojedinosti, kao što su njihovi pristupi podučavanju i izjave o raznolikosti, koje se koriste kako bi se osigurala ideološka homogenost na kampusu. Nastavlja se dok učenici, često ilegalno, bilježe što učitelji rade u učionici. To se može koristiti i bilo je korišteno za pritisak na nastavnike da napuste svoju profesiju ako se smatra da imaju ideološki stav koji je u suprotnosti sa statusom quo. Gledali smo ovo više puta od 7. listopada.
Allison Butler: Mislim da je jedna od stvari koju ove tehnologije nadzora mogu učiniti, bilo namjerno ili slučajno, poticanje okruženja nepovjerenja, zar ne? Kao što je Nolan rekao, kao što sam rekao, kao što mi stalno govorimo u našim učionicama, školskim učionicama, to je mjesto gdje se mogu pogriješiti. To je mjesto za spoticanje. Ovo je mjesto za znatiželju. To je mjesto gdje neznanje treba shvatiti na sjajan način. Ulazim u učionicu kao učenik koji nešto ne zna. Ne znam za to. Imam priliku učiti iz toga.
Kada imamo okruženje u kojem imamo sve te podjele postavljene za nas putem tehnologije, sve to nosi rizik da nestane, nestanak je preblaga riječ, da budemo zgaženi, zar ne? Ne kažem da bi studenti ili učitelji trebali imati dane ispunjene užasnim govorom punim mržnje, ali mislim da moramo naučiti toliko različitih perspektiva kako bismo doista u potpunosti poučavali i učili.
A naše digitalne tehnologije imaju sposobnost snimanja, to je važna stvar, ali imaju i sposobnost manipulacije, što mijenja priče koje pričaju nastavnici i učenici. Stvara učionice koje će, u najboljem slučaju, biti izložene riziku da budu dosadne, u redu, ali ono o čemu zapravo govorimo je gušenje učenja. Govorimo o prigušivanju izlaganja. Govorimo o gušenju kako upravljati razlikama, zar ne? Mislim da, dok gledamo naše globalne sukobe ovih dana, posebno ono što se događa u Izraelu/Palestini, učimo lekcije koje govore da je razlika loša, a da je razlika način na koji pokušavamo učiti jedni o drugima kao ljudskim bićima.
Dakle, kada je razlika, kada je rasprava, kada je pitanje, kada je nesporazum, pravi nedostatak razumijevanja, ugušen ovim digitalnim tehnologijama, naše učionice više nisu mjesta znatiželje ili ispitivanja. To su tvornice, samo da nam daju diplomu, a ta diploma možda ne znači toliko. Opet, ne zagovaram ni na koji način, oblik ili formu, za učionicu punu mržnje, samo da nekako dokažem da su stvari drugačije, nego više o činjenici da bismo trebali imati okruženja u kojima nam je neugodno , znatiželjni, radoznali, uzbuđeni, sve stvari kao alat učenja, i to radimo zajedno u zajednici, zar ne?
Mislim da je još jedna velika stvar s ovim tehnologijama nadzora, posebno s našim tehnologijama društvenih medija, ta da su nevjerojatno izolirane. Oni su, zapravo, prilično asocijalni. A ono što škola može učiniti, što učionice mogu učiniti, što poučavanje i učenje mogu učiniti je izgraditi suradnju i izgraditi zajednicu, što se suprotstavlja izolaciji. Suprotstavlja se činjenici da silosifikacija i tehnologije nadzora jako naporno rade na izgradnji izolacije i silosa.
Chris Hedges: Pa, to isključuje svako propitivanje dominantnog narativa, zar ne?
Allison Butler: Apsolutno, a učenici ne moraju nužno razumjeti niti poznavati strukturu dominantnog narativa. Oni to nužno ne znaju preispitivati. Moramo početi više razgovarati o svim ovim stvarima, a to znači biti zajedno u učionicama, u našem svijetu, biti zajedno u učionicama i uklanjati, najbolje što možemo, ove tehnologije.
Chris Hedges: Pa, u svakom totalitarnom sustavu, poanta je uskratiti mogućnost postavljanja pitanja. Nolane, želim pitati, rekao si, postoji dobro dokumentirana povijest poslodavaca koji koriste nadzor za iskorištavanje radnika i potkopavanje kolektivnog pregovaranja. Umjesto da na EdTech nadzor gledaju kao na dobrobit obrazovnog procesa ili kao sigurnosnu mjeru, edukatori moraju shvatiti da se on može koristiti za podatke kako bi potkopali moć zaposlenika. Pričaj o tome.
Nolan Higdon: Da, ovo je bio stvarno fascinantan dio knjige, i znam da smo ga pokušavali približiti fakultetskim sindikatima. Ali da, postoji duga povijest poslodavaca koja se vraća stoljećima unatrag, koristeći fizičke špijune ili pokušavajući špijunirati komunikaciju kako bi otkrili tko je radnički agitator i uklonili njih i bilo koga tko im simpatizira. Ovo je potpuno novo doba. Imamo te alate u učionici koji mogu nadzirati ljude dok rade u učionici. Teoretski upotrijebite stvari, bilo u kontekstu ili izvan konteksta, da biste se riješili tih zaposlenika.
Također, razgovarali smo o Izraelu, Gazi, puno zaposlenika, nastavnog osoblja trenutno, nemaju zaštitu. Vidjeli smo dodatak ili po volji visokog obrazovanja. Dakle, bez obzira na to što ljudi misle o tom sukobu, oni ga izbjegavaju u učionici jer se boje da bi se što god oni rekli moglo upotrijebiti protiv njih da izgube posao, a time ne gube samo oni, već i učenici gube priliku baviti se kritičnim svjetskim pitanjem. I još više, kao nastavno osoblje, ovi alati također pokušavaju naučiti ono što radimo, pa prikupljaju naše podatke i profitiraju od toga, a da nam ne plaćaju.
Radnički pokret općenito želi biti plaćen za rad. Ali nadalje, oni također obučavaju ove alate da pokušaju obavljati neke od funkcija onoga što fakultet radi. Dakle, obučavate svoju zamjenu na određenoj razini, a ja mislim na stvari poput pametnog ocjenjivanja i pametnog pisanja zadaća, ovih novih alata koji izlaze.
Ili postoje neke gdje možete imati sliku svog lica, možete tipkati i slika će vam predavati. To je način da te zamijenim i kao predavača. Dakle, mnoge od ovih stvari padaju na pamet, oduzimaju privatnost, zamjenjuju poslove, a fakulteti zapravo sudjeluju u procesu koristeći te alate i ne dobivaju stroge prepreke u svojim ugovorima kako bi spriječili ovu vrstu ekonomskog iskorištavanja, da ne spominjemo ovo nastojanje nadzora da potkopa pregovarački proces.
„Bez obzira na to što ljudi misle o tom sukobu, oni ga izbjegavaju u učionici jer se boje da bi se sve što kažu moglo upotrijebiti protiv njih da izgube posao, a time ne gube samo oni, već i učenici gube priliku angažirati oko kritičnog svjetskog pitanja.”
Chris Hedges: Allison, ako se ne kontrolira, znam da završavaš knjigu s prijedlozima o tome kako obuzdati ovo uplitanje u našu privatnost, ali ako se ne kontrolira, u kakvom obrazovnom, pa čak i društvenom i kulturnom okruženju ćemo živjeti?
Allison Butler: Mislim da, ako se ne kontrolira, riskiramo život u tvorničkim školama, kao što sam već rekao, da samo nekako guramo svoje učenike na putu da pokupe komad papira. Obučavat ćemo buduće generacije da je nadgledanje normalno, da privatnost ne postoji. Imat ćemo neku vrstu obrazovanja napamet gdje će biti vrlo sigurne informacije i siguran način prezentiranja i mi ćemo, barem u smislu digitalnog jezika, znati sve o svima, uz moguću napomenu da oni koji se uklapaju u rasu, spol, ekonomske i fizičke sposobnosti, navodnici, nenavodnici, norme, bit će lakše, ali počet ćemo vidjeti sva naša tijela koja se ne uklapaju, sve naše ljude koji se ne uklapaju nužno u da se, opet, vrlo velikodušno, citat, nenavodnik, norma, pomiče sve dalje na rubove.
Mislim da bismo mogli vidjeti da se u prilično kratkom vremenu naše učionice neće smatrati mjestima radoznalosti, radoznalosti. O njima će se razmišljati kao o mjestima pasivnog prihvaćanja vrlo banalnih, opreznih informacija.
U isto vrijeme, vjerojatno će izgledati prilično cool, jer su naše tehnologije nadzora, sve naše tehnologije, vrlo sofisticiranog izgleda. Oni su vrhunski. Oni su često ručni, zar ne? Kao što je Nolan prije spomenuo, toliko toga što koristimo dolazi nam iz vojno-industrijskog kompleksa - da možemo voziti na nepoznatim mjestima je GPS, zastarjela je vojna tehnologija. Ono što možemo snimiti cool fotografije kao što su zabave ili vjenčanja ili nekretnine je tehnologija dronova i zastarjela vojna tehnologija. Mislim da sadržaj naše učionice može biti krajnje banalan i dosadan. Njihov izgled mogao bi na kraju ispasti prilično cool, što bi moglo biti jako upadljivo i pozvati nas da zaboravimo razmišljati o sadržaju.
Chris Hedges: Pa kad vas vlast gleda 24 sata na dan, ne možete koristiti riječ sloboda, to je odnos gospodara i roba. To su bili Nolan Higdon i Allison Butler u njihovoj knjizi, Edukacija o nadzoru: prevladavanje vidljivog odsustva privatnosti u školama. To je bio stvarno, stvarno sjajan posao koji ste oboje obavili. Želim zahvaliti Sofiji [Menemenlis], Diegu [Ramos] Thomasu [Hedges] i Maxu [Jonesu], koji su producirali emisiju. Možete me pronaći na ChrisHedges.Substack.com.
Chris Hedges novinar je dobitnik Pulitzerove nagrade koji je 15 godina bio strani dopisnik za The New York Times, gdje je služio kao šef ureda za Bliski istok i šef ureda za Balkan. Prethodno je radio u inozemstvu za The Dallas Morning News, The Christian Science Monitor i NPR. Voditelj je emisije “The Chris Hedges Report”.
Ovaj je članak iz Scheerpost.
NAPOMENA ČITATELJIMA: Sada više nema načina da nastavim pisati tjednu kolumnu za ScheerPost i proizvoditi svoju tjednu televizijsku emisiju bez vaše pomoći. Zidovi se zatvaraju, zapanjujućom brzinom, pred nezavisnim novinarstvom, s elitama, uključujući elite Demokratske stranke, koje traže sve veću cenzuru. Molimo, ako možete, prijavite se na chrishedges.substack.com tako da mogu nastaviti objavljivati svoju kolumnu od ponedjeljka na ScheerPost i producirati svoju tjednu televizijsku emisiju, "Izvještaj Chrisa Hedgesa".
Ovaj intervju je iz Scheerpost, za koju piše Chris Hedges redovita kolona. Kliknite ovdje da se prijavite za upozorenja e-poštom.
Stavovi izraženi u ovom intervjuu mogu, ali i ne moraju odražavati stavove Vijesti o konzorciju.
Ovaj me je članak zasigurno učinio još nevoljnijima da ustrajem u korištenju TurnItIn-a za otkrivanje plagijata u odjeljcima dodiplomskog studija koje predajem, dajući mi opipljiviji motiv da postrance pogledam TurnItIn izvan svojih generaliziranih apstraktnih neo-ludijskih osjećaja u vezi s intrinzično panoptička i Janusova priroda sve informacijske tehnologije u kombinaciji s ljudskom žudnjom za moći. S obzirom na moju sveprisutnu sumnju u razne tehnologije nadzora i marketinga, bio sam naivan da nisam razmotrio druge neizgovorene upotrebe za koje bi se takav softver za otkrivanje plagijata mogao koristiti prije nego što sam pročitao transkript ovog intervjua, stoga cijenim Chrisa Hedgesa i posebno Allison Butler što su ovo donijeli na moju pozornost.
Hvala ti, Chris, što nam skrećeš pažnju na ključne stvari, svaki prokleti dan.
Također se pitam intervjuirate li Grishama o njegovoj posljednjoj NF knjizi.
Po mom iskustvu, tehnologija za promatranje aktivnosti učenika na školskom računalu postoji barem od 2007. godine, koristeći aplikacije poput Apple Remote Desktop i Teamviewer. Bio sam šokiran kada sam svjedočio ovome izravno u školskom uredu za tehničku podršku, posebno zato što su moji učenici bili odrasli, koji su imali pristup svojim računima e-pošte, ali nisam znao da njihova komunikacija nije privatna. Tada je prisluškivanje trebalo biti pasivno (iako potencijalno korisno), u interesu pružanja učinkovite podrške u slučaju kvara stroja. Bihevioralno "gurkanje" o kojem govore ovi autori također nije novo. U 2017. smo čuli izvješća o prikupljanju podataka koji se koriste za poticanje glasanja u SAD-u i UK-u, od strane Cambridge Analytice i Aggregate IQ-a. Od tada, usluge poput Newsguarda potiču navodno sigurno prikupljanje informacija, a time i ponašanje. Ono što je ovdje novo je da se podaci maloljetnika dijele sa sličnom namjerom, te s istom starom pristranošću za izbacivanje smeća koja je nametnuta osobnostima koje još nisu u potpunosti formirane.
Potreba za kontekstom i temeljitost samo su dvije Chrisove dobre osobine.
Nemojmo brkati pravo na privatnost s nepostojećim pravom na anonimnost na javnim mjestima. Prvo je prirodno pravo na privatnost u vlastitom domu i drugim privatnim mjestima te korištenje vlastitih alata i stvari. Potonje je očekivanje odsustva reakcije na život i djelovanje na javnim mjestima te korištenje javnih (i tuđih) alata i stvari, što nikada u ljudskoj povijesti nije postojalo i ne može se očekivati, niti je poželjno sada i u budućnosti.
Dakle, u vezi sa člankom, djeca imaju pravo na privatnost kada su u svojim domovima ako (1) ne pozovu korporacije (bok Siri) u svoj dom izričito da ih špijuniraju i (2) ne koriste javno dostupne alate ( školska prijenosna računala) predviđena u javnu svrhu za obavljanje osobnih stvari. Što se tiče javnog okruženja kao što je sama školska učionica ili šetnja kampusom ili gradom općenito, radnje poduzete u javnosti mogu vidjeti svi zainteresirani za takve radnje i mogu se koristiti za prikupljanje podataka, marketing i bilo koji drugi razlog.
što se tiče “Mislim da bismo mogli vidjeti da se u prilično kratkom vremenu naše učionice neće smatrati mjestima radoznalosti, radoznalosti. O njima će se razmišljati kao o mjestima pasivnog prihvaćanja vrlo banalnih, opreznih informacija.” … moj Bože, koje su učionice ovi ljudi posjećivali? Mjesta radoznalosti i radoznalosti? Stvarno? "Bueller ... Bueller ... Bueller ..."
Sve što kažete može i bit će upotrijebljeno protiv vas.
Ima li stvarno potrebe za ovako dugim člankom??? Kao da nemamo što drugo čitati i brinuti se! Bijela rasa tek treba shvatiti kakav smo GOVEN UZNEMIVAČ. Ali uvijek krivite drugu rasu…naravno.