Rapport van Chris Hedges: Surveillance-onderwijs

Allison Butler en Nolan Higdon bespreken de 'ed-tech'-systemen die de privacyrechten van minderjarigen ondermijnen en discrimineren tegen gekleurde studenten.

By Chris Hedges
ScheerPost

AElke technologie die door het Amerikaanse militair-industriële complex werd ontwikkeld en door het grote publiek werd overgenomen, kende altijd een aantal voorbehoud.

Voor de meesten zijn internet, GPS, touchscreen en andere alomtegenwoordige technologieën gewone hulpmiddelen van de moderne wereld. Maar in werkelijkheid dienen deze technologieën een “dubbel gebruik”,

Hoewel ze de doorsnee burger tegemoetkomen, maken ze ook massale dwang, bewaking en controle van diezelfde mensen door de bedrijfs- en militaire staat mogelijk.

Nolan Higdon en Allison Butler, auteurs van Surveillance-onderwijs: navigeren door het opvallende gebrek aan privacy op scholen, sluit je aan bij gastheer Chris Hedges in deze aflevering van Het Chris Hedges-rapportZe onderzoeken de software en technologische systemen die worden gebruikt in K-12 scholen en instellingen voor hoger onderwijs, die studenten in de gaten houden, de privacyrechten van minderjarigen ondermijnen en in het proces discrimineren tegen studenten van kleur.

Het gebruik van deze technologie, legt Higdon uit, is gebaseerd op de behandeling van mensen als producten door middel van surveillancekapitalisme.

"Je haalt data en informatie over mensen uit al deze slimme technologieën, en dan kun je vaststellingen doen over hun gedrag, hoe ze op iets zouden kunnen reageren. En er zijn veel industrieën die hierin geïnteresseerd zijn," vertelt Higdon aan Hedges.

Butler legt uit dat studenten, vaak zonder enige keuze, worden blootgesteld aan het gebruik van deze technologie die inherent hun gegevens exploiteert. Omdat er een impliciete toestemming is om het te gebruiken, "is de zeer beperkte hoeveelheid bescherming die er is om de gegevens van minderjarigen veilig te houden verdwenen zodra je een technologie hebt die in hun klaslokaal wordt geplaatst," zegt Butler. "Er is een passieve acceptatie van deze technologie."

Higdon wijst op de wijzigingen die de regering-Obama in 2012 aanbracht in de Family Educational Rights and Privacy Act (FERPA) als een belangrijke factor. Deze wijzigingen zorgden ervoor dat studentengegevens konden worden gedeeld met particuliere bedrijven die als educatieve partners fungeren.

“Effectief gezien mochten alle gegevens die de studentenrechtenbeweging privé wilde houden, aan deze bedrijven worden verstrekt”, aldus Higdon.

De auteurs benadrukken de grote impact die deze technologieën hebben op de fundamentele leerprocessen in de klas.

"Het beperkt nieuwsgierigheid, wat essentieel is voor het onderwijsproces," zegt Higdon. "Het mentale trauma en de moeilijkheid om een ​​van de weinige ruimtes te sluiten waar ze kunnen verkennen, ik denk dat het gewoon het probleem met toezicht en het onderwijsproces aankaart."

host: Chris Hedges

Producer: Max Jones

Intro: Diego ramos

Bemanning: Diego Ramos, Sofia Menemenlis en Thomas Hedges

Transcript: Diego ramos

Chris Hagen: Surveillancetools zijn alomtegenwoordig geworden op scholen en universiteiten. Technologieën die meer veiligheid en betere academische prestaties beloven, hebben Gaggle, Securly, Bark en anderen in staat gesteld om gedetailleerde gegevens over studenten te verzamelen. Deze technologieën hebben echter niet alleen gefaald om hun beloften waar te maken, maar hebben ook de privacy van studenten uitgehold. 

Dit geldt met name voor arme gemeenschappen, waar er weinig controle is op grootschalige surveillance. Deze gegevens worden vaak tegen studenten gebruikt, met name de armen en gekleurde studenten, waardoor de school-naar-gevangenis-pijplijn wordt versneld. Wanneer studenten en leraren weten dat ze worden bekeken en gemonitord, smoort dit het intellectuele debat, elke uitdaging van het dominante verhaal en onderzoek naar machtsmisbruik. 

Maar nog onheilspellender is dat het bedrijven en overheidsinstanties in staat stelt om studenten te stigmatiseren en te criminaliseren. Deze digitale platforms kunnen jongeren targeten met propaganda en social engineering en trendanalyse gebruiken om gedrag te beïnvloeden. Nolan Higdon, auteur, met Allison Butler, van Surveillance-onderwijs: navigeren door het opvallende gebrek aan privacy op scholen.

Allison, laten we met jou beginnen. Geef ons, zoals je in je boek doet, een beeld van hoe indringend deze bewaking is en hoe deze werkt. Dat wist ik niet totdat ik jouw boek las.

Allison Butler:  Zeker. Heel erg bedankt dat u ons heeft uitgenodigd. Ik zou zeggen dat het kortste antwoord op die vraag is dat het ongelooflijk, volledig, volledig opdringerig is. En om daar verder op in te gaan: we leven nu in een wereld van bewakingstechnologieën. Er is vrijwel geen plek waar u en ik als individu naartoe kunnen gaan waar we niet op de een of andere manier worden gesurveilleerd. Veel daarvan is, tot op zekere hoogte, onze eigen keuze. Als we bijvoorbeeld in onze auto stappen en onze GPS gebruiken, gaan we akkoord met die voorwaarden. 

Wat ons zorgen baart, met name met deze tekst, is dat we een overweldigende hoeveelheid toezicht hebben op onze scholen voor basisonderwijs tot en met voortgezet onderwijs en hoger onderwijs. Specifiek voor scholen voor basisonderwijs tot en met voortgezet onderwijs, dat toezicht gebeurt op minderjarigen, op kinderen onder de 12 jaar, zonder hun actieve toestemming. We zijn er een beetje aan gewend geraakt, we zijn een beetje klaargestoomd voor toezichttechnologieën door een aantal van die zachte technologieën, zoals onze GPS, zoals QR-codes die ons helpen om het bekijken van restaurantmenu's een beetje makkelijker te maken, zoals een aantal apps op onze telefoon die ons leven een beetje gemakkelijker maken. 

De keerzijde daarvan is dat wanneer er strengere en meer indringende bewakingstechnologieën in onze wereld worden geïntroduceerd, en wat ons betreft met name in onze klaslokalen, we al een basis hebben gelegd die ons daarop voorbereidt. We zullen die technologieën dan niet per se in de mate ter discussie stellen die ze verdienen.

Chris Hagen: Nou, die technologieën, zoals u in het boek aangeeft, worden niet op de markt gebracht als bewakingssystemen. Ze worden op de markt gebracht als verbeteringen aan het onderwijs, verbeteringen aan de beveiliging. En geef me gewoon een beeld van een aantal van die technologieën die aan boord gaan en deze andere digitale bewakingstools, geef me een beeld van wat ze zijn en hoe ze werken.

Nolan Higdon:  Ja. Heel erg bedankt dat je me hebt uitgenodigd, Chris. Allison en ik zijn blij dat we hier zijn. En ik denk dat de makkelijkste manier om het te begrijpen is, net als de rest van Silicon Valley, deze educatieve technologie of ed tech bedrijven, ze hebben de neiging om te veel te beloven en te weinig te leveren. Dus veel van de rechtvaardigingen om ze toe te voegen aan klaslokalen zijn dingen waar mensen het doorgaans mee eens zouden zijn, toch? Deze tools gaan ons veiliger maken. Ze gaan het leren verbeteren. Ze gaan studenten voorbereiden op de markt van de 21e eeuw. Sommigen van hen adverteren zelfs als inclusiever. Dat is meer DEI [diversiteit, gelijkheid en inclusie]-conform, omdat ze de menselijke vooringenomenheid, of het menselijke element, wegnemen, is wat ze beweren. Maar we merken in al deze gevallen dat ze eigenlijk meer, zou ik zeggen, schadelijke motieven maskeren. 

Er valt veel geld te verdienen door deze tools in de klas te hebben en gegevens te kunnen verzamelen. Dat is dus één probleem. Het andere probleem is dat ze, naast het maskeren van het echte motief, namelijk winst maken, niet echt veel van deze beloften waarmaken. We hebben het in het boek over hoe, hoewel ze zeggen dat deze tools zijn gebouwd om de veiligheid te bevorderen, ze daarin vaak tekortschieten. Er is een gebrek aan bewijs dat zegt dat ze het leren daadwerkelijk verbeteren en dan is er veel goed bewijs dat ze in feite tegen de doelen van DEI in werken. Dus in veel van deze gevallen lijkt het erop dat de redenen die worden gegeven voor het hebben van deze edtech-tools op scholen heel anders zijn dan wat ze daadwerkelijk doen of het echte doel om ze aan een school toe te voegen.

Chris Hagen: Allison, kun je het specifiek uitleggen, zoals bijvoorbeeld Bark of kies een of twee van deze programma's en leg ons uit wat ze, natuurlijk verzamelen ze data, maar wat doen ze binnen de schoolomgeving? Wat is hun functie?

Allison Butler: Zeker. Dus een voorbeeld dat in veel klassen van K tot en met 12 wordt gebruikt, is een technologie genaamd GoGuardian. GoGuardian wordt op computers, klaslokaallaptops, geplaatst. Dus als je, om het argument te gebruiken, een klaslokaal hebt waar elke leerling een toegewezen laptop heeft, kan het hun eigen toewijzing zijn dat ze die specifieke laptop voor het hele schooljaar hebben of het kunnen klaslokaallaptops zijn, en het is gewoon toevallig waar de leerling zit. 

GoGuardian houdt hun schermen in de gaten, het houdt alles in de gaten wat ze doen, en dan kan de leraar vooraan in de klas, of waar ze ook zijn, tijdens de les naar de schermen van de leerlingen kijken. Een argument dat GoGuardian aanvoert, is dat dit leraren helpt om leerlingen op het goede spoor te houden, en daarom helpt het leerlingen om op het goede spoor te blijven. Dus het wordt gepresenteerd als gedragsmatig. Het wordt gepresenteerd als een soort hulpmiddel om te focussen, omdat leraren naar de schermen van leerlingen kunnen kijken, en dan is er een soort wortel-en-stok-element aan verbonden, wat betekent dat een leraar kan zeggen, hé, je moet van die website af. Dat is niet waar we aan werken. 

Of [de leraar] kan direct naar het werk van een student kijken en commentaar geven op wat ze goed doen of wat er misschien aangepast moet worden. Het wordt gepresenteerd als een soort communitytechnologie voor klaslokalen. Dit zijn enkele problemen die we tegenkomen bij GoGuardian: Leraren krijgen vaak te horen dat het hun taak is om te beoordelen en in feite zeiden veel van de leraren die we voor het boek hebben geïnterviewd dat ze geloofden dat zij degenen waren die de surveillance uitvoerden, dat ze zich daar een beetje ongemakkelijk bij voelden, maar ze zagen echt de kracht van surveillance in hun computers. Wat ze niet wordt verteld of niet duidelijk wordt gemaakt, is dat het eigenlijk het bedrijf is dat al het surveillance uitvoert. En als we het met name hebben over klassen van K tot en met 12, zoals ik eerder al zei, zijn dit de gegevens van minderjarigen. 

Dus de zeer beperkte hoeveelheid bescherming die er is, digitale bescherming, om de gegevens van minderjarigen veilig te houden, is verdwenen zodra je een technologie hebt die in hun klaslokaal wordt geplaatst, is er een passieve acceptatie van deze technologie. De studenten zelf hebben niet actief geaccepteerd dat hun gegevens worden verzameld. Het is een impliciete toestemming. En in feite is dat de taal die vaak wordt gebruikt, door de technologie te gebruiken, is het impliciete toestemming, en er is niet per se een opt-out. Dus we hebben een klaslokaal vol verwarring waarin de leraar gelooft dat hij de leiding heeft en dat hij een bepaalde ethische beslissing neemt, terwijl hij in feite niet de leiding heeft. 

Zodra iets als GoGuardian de gegevens van studenten verzamelt en hun informatie vastlegt, heeft het die. Er is geen enkele manier om dit uit te zetten. En als een student bijvoorbeeld zijn mobiele telefoon in het apparaat stopt om deze op te laden, heeft GoGuardian nu ook al die gegevens dankzij de digitale verbinding van deze apparaten.

Een leraar die we interviewden, voelde zich een beetje ongemakkelijk, vertelde een verhaal waarin ze zich een beetje ongemakkelijk voelde met GoGuardian, deels omdat de leerling ziek thuis was en de leraar nog steeds kon zien wat er op het scherm gebeurde, zelfs toen de leerling thuis was, om een ​​legitieme reden niet op school was, kon de leraar de leerling zien, zoals het kijken naar YouTube-video's. En toen dacht ze zoiets van: Oh, dit is niet wat ik dacht dat het was. Dit is niet direct verbonden met het klaslokaal, toch? Ik denk dat de gemakken van onze digitale technologieën ons soms uitnodigen om te vergeten dat onze digitale technologieën overal waar we zijn kunnen worden gemonitord, niet alleen in onze klaslokalen. 

Ik denk dat een ander voorbeeld, iets dat zowel in K 12 als in het hoger onderwijs wordt gebruikt, Turnitin zou zijn. Turnitin is een programma waarmee docenten het zo kunnen instellen dat studenten hun schriftelijke werk via dit platform inleveren, en het verkoopt zichzelf, het presenteert zichzelf als plagiaatdetectie, wat ik denk dat op een bepaald niveau waar is. Het andere verraderlijke is dat veel van deze technologieën en deze bedrijven je nooit echt voorliegen. Ze vertellen je gewoon niet de hele waarheid en ze laten een aantal echt belangrijke delen weg. Dus Turnitin is ja, een plagiaatdetectiesoftware. En Turnitin doet ook minstens twee dingen. 

Ten eerste is het lesgeven in AI, toch? Dus de studenten die hun papers inleveren, geven steeds meer informatie aan de ontwikkeling van generatieve AI, en Turnitin verkoopt die informatie ook aan adverteerders en marketeers, zodat de taal van jongeren wordt geanalyseerd en vervolgens wordt gebruikt in reclame- en marketingtaal en op een bepaalde manier aan hen wordt terugverkocht. Dus onze jongeren werken in zekere zin voor dit bedrijf. Ze doen een groot deel van het werk en ze worden op geen enkele manier gecompenseerd. Dus ik zou zeggen dat dit twee hele grote voorbeelden zijn die laten zien hoe verraderlijk deze technologieën zijn, hoe invasief ze zijn en hoe verwarrend ze kunnen zijn voor degenen die worden aangemoedigd ze te gebruiken.

“… de taal van jongeren wordt geanalyseerd en vervolgens gebruikt in reclame- en marketingtaal en aan hen terugverkocht. Dus onze jongeren werken in zekere zin voor dit bedrijf. Ze doen een groot deel van het werk en ze worden op geen enkele manier gecompenseerd.”

Chris Hagen: Nolan, laten we het erover hebben hoe deze technologieën worden gebruikt om scholieren te controleren, vooral in arme buurten. Dit treft vooral gekleurde scholieren.

Nolan Higdon: Ja, een van de dingen die we opmerken met deze tools is dat ze, nogmaals, deze enorme beloftes maken, toch? Dus ze beloven dingen zoals dat we kunnen voorspellen of een student zich schuldig kan maken aan criminaliteit, of dat we kunnen voorspellen of een student mentale gezondheidsproblemen heeft die aangepakt moeten worden. 

Maar de duivel zit in de details. Wat deze tools doen is dat ze veel data verzamelen en algoritmes coderen om die data te analyseren, om vaststellingen te doen over iemands mentale gezondheid of potentiële criminaliteit. En dit is echt waar we een groot probleem zien met het te veel vertrouwen op deze tools. Deze algoritmes die de data interpreteren, zijn gecodeerd met dezelfde vooringenomenheid als hun makers, en we zien keer op keer hoe deze algoritmes racistische of transfobische conclusies trekken, en wat ik daarmee bedoel is dat deze algoritmes studenten van kleur onevenredig categoriseren als leerlingen die eerder geneigd zijn een misdaad te plegen. Als gevolg daarvan worden ze meer gecontroleerd door de school, en dit normaliseert opnieuw deze controle van zwarte lichamen. 

Hetzelfde geldt voor de detectoren van geestelijke gezondheidsproblemen. Zij categoriseren transgenderkinderen onevenredig vaak op basis van psychische problemen. Dat betekent niet dat ze alleen maar met psychische problemen kampen, wat voor sommige mensen een vast onderdeel van hun leven is, maar ook dat ze in de gaten moeten worden gehouden voor zaken als schietpartijen op scholen, zelfmoord of zelfbeschadiging. 

“… deze algoritmen zullen studenten van kleur onevenredig categoriseren als studenten die meer kans hebben om een ​​misdaad te plegen.”  

En zo krijg je ook de overmatige controle op deze individuen. En dus is een van de mythes, denk ik, die Silicon Valley in het algemeen heeft verkocht, maar deze edtech-tools in het bijzonder, dat ze deze objectieve algoritmes hebben die vrij zijn van menselijke vooroordelen, en dus nauwkeurigere conclusies kunnen trekken. Maar het onderzoek zegt nee, dat is niet het geval, als er al iets is, dan compliceren of verergeren deze tools juist veel van de problemen die we hebben gehad met kwesties zoals racisme of transfobie.

Chris Hagen: Allison, ik wil het hebben over hoe deze data, allereerst, in de handen van potentiële werkgevers terechtkomt. Het is een miljardenindustrie die onze persoonlijke data verkoopt, alles wat we ooit hebben gedaan, elke verkeersovertreding die we ooit hebben gehad, omdat het werkgevers, misschien zelfs universiteiten, die naar middelbare scholieren kijken, in feite informatie geeft die privé zou moeten zijn en natuurlijk tegen die studenten of potentiële werknemers gebruikt zou kunnen worden.

Allison Butler: Dus ik zou een beetje willen muggenziften over één woord dat je zei, namelijk de verkoop van onze data. Ik denk dat we misschien meer aandacht moeten besteden aan Nolans punt over de duivel die in de details zit, en aan wat ik eerder zei over hoe ze ons niet echt voorliegen, ze vertellen ons gewoon niet per se alles. 

Zoveel van deze technologieën zullen vandaag de dag zeggen dat we uw gegevens niet verkopen, en dat zijn een hoop uitroeptekens, toch? En dat is iets waarvan we zouden moeten zeggen: "Oh, oké, goed. Mijn gegevens zijn veilig." Absoluut niet. Ten eerste zijn uw gegevens niet veilig, omdat inbreuken zo vaak voorkomen dat ze niet eens meer in de krantenkoppen staan ​​of zelfs niet meer in het nieuws zijn. Op een gegeven moment in ons onderzoek probeerden we alle verschillende inbreuken te categoriseren of te catalogiseren, en we dachten gewoon dat het niet handig zou zijn om dit in deze microdetails aan te wijzen, omdat dit de hele tijd gebeurt. We zijn er gewoon zo aan gewend. 

Maar wat we echt moeten overwegen is dat zoveel van deze bedrijven onze data delen, toch? Wat er dus gebeurt is dat we hebben wat jij en ik zouden kunnen zien als verschillende bedrijven die geen connectie met elkaar hebben, en ze zijn een partnerschap aangegaan. Ze hebben in elkaars bedrijfsmodellen geïnvesteerd. Ze zijn op een bepaalde manier met elkaar verbonden. Dan noemen ze zichzelf onderwijsbedrijven of onderwijspartners. Dat betekent dat ze onze data niet echt hoeven te verkopen. Ze kunnen onze data delen. Dus we kunnen op een bepaald niveau gerustgesteld worden. Maar in feite is het dit andere niveau waar we misschien zorgvuldiger over na moeten denken. 

Dus als we het hebben over werkgevers, of als we het hebben over hogescholen, of zelfs als we het hebben over privéscholen, hebben we zoveel educatieve partners die al toegang hebben tot de data, die er al een analyse van kunnen maken, dat ze het mogen delen. Ik denk dat we het een paar jaar geleden hadden over, met name bij leerlingen van groep 12 tot en met XNUMX, dat werkgevers naar je sociale media gaan kijken. De toelatingskantoren van hogescholen gaan naar je sociale media kijken. We hoeven onze jongeren eigenlijk niet meer te vertellen dat ze zich zorgen moeten maken over deze specifieke banen. Deze mensen hoeven niet veel speurwerk te doen. Het is er al voor ze. Dus of ze er nu veel aandacht aan besteden of niet, ik weet het niet precies, maar de data is er al. Het ligt gewoon recht voor hun neus.

Chris Hagen: Nolan, kun je vertellen hoe proactief ze zijn, hoe ze aan social engineering doen? Het gaat niet alleen om het verzamelen van gegevens, maar om het gebruiken van gegevens om gedrag vorm te geven en te kneden.

Nolan Higdon: Ja, en om daar een laagje aan toe te voegen, om verder te gaan waar Allison ook was gebleven. En ik heb dit vandaag ook al vaak gezegd, dit zijn edtechbedrijven, maar dat is een beetje misleidend. Veel van deze bedrijven die deze edtechplatforms runnen of bezitten, zoals we er een paar noemden, zoals Gaggle, Bark, Canvas, anderen, zijn over het algemeen eigendom van equityfirma's. Dit begon echt de afgelopen 10 jaar, deze equityfirma's kochten deze edtechtools op, ogenschijnlijk omdat er een manier was om in de klas te komen. Er is een hele industrie hier in de academische wereld die ze surveillancekapitalisme noemen, die is gebaseerd op het idee om mensen als producten te behandelen. Dus je haalt data en informatie over mensen uit al deze slimme technologieën, en dan ben je in staat om vaststellingen te doen over hun gedrag, hoe zouden ze op iets kunnen reageren. En er zijn veel industrieën die hierin geïnteresseerd zijn, toch? Reclame-industrieën willen graag weten hoe ze de perfecte advertentie kunnen maken om je ertoe aan te zetten iets te kopen. Verzekeringsmaatschappijen willen graag weten hoe ze uw premies moeten vaststellen, bijvoorbeeld op basis van uw gezondheid of rijgedrag. Gegevens kunnen voor de sector dus heel lucratief zijn. 

Maar naast het voorspellen van gedrag zijn er ook entiteiten die geïnteresseerd zijn in het aansturen van je gedrag. Dus wat kan ik doen? In welke situatie kan ik je plaatsen? Welke informatie kan ik je geven zodat je je zo gedraagt? En er is een groot geloof in de industrie dat als we genoeg data verzamelen, we het gedrag van mensen in de juiste richting kunnen sturen, vooral hier in een verkiezingsjaar, veel campagnes, dat is wat ze proberen te doen met deze data. Hoe kunnen we deze data gebruiken om deze mensen te laten stemmen, of misschien deze mensen te laten niet stemmen, afhankelijk van dit soort dingen? Er is dus veel potentieel in de industrie als je in staat bent om meerdere datapunten te verzamelen, en dat is waarom scholen zo aantrekkelijk zijn, toch? 

Het is een van de weinige plekken die als openbare ruimte beschermd is. Daarom wilden particuliere bedrijven er al lang een plek veroveren. En dankzij het altruïsme van het verstrekken van educatieve technologie, was dit een kans voor hen om de klas binnen te dringen en toegang te krijgen tot die lucratieve gegevens. 

“[Scholen] zijn een van de weinige plekken die beschermd zijn als openbare ruimte, en daarom willen particuliere bedrijven daar al lang binnendringen en … toegang krijgen tot lucratieve data.” 

En om dat nog even duidelijk te maken, sommige van deze grote bedrijven bezitten niet alleen edtech-tools, ze bezitten dingen als Baby Connect, die ouders vertelt deze tools te gebruiken om hun baby te monitoren. Ze bezitten ook platforms die kijken naar de werkpatronen van mensen na hun afstuderen. Ze krijgen ook gegevens van social media-onderwijs. Het doel is om een ​​zogenaamd psychografisch profiel te maken van individuen van de wieg tot het graf, en scholen zijn een belangrijk onderdeel van dat proces.

Chris Hagen: En ik wil duidelijk zijn, je wijst hierop in het boek, dit is een enorme industrie. EdTech, zeg je, is een wereldwijde industrie van $ 123.4 miljard. We hebben het over heel veel geld. Allison, ik wil het erover hebben, we hebben de zomer gezien hoe universiteiten en scholen allerlei nieuwe beperkingen en regels hebben opgelegd om protesten tegen de genocide in Palestina te stoppen, en het is gecoördineerd door het hele land, geen flyers, geen evenementen, tafels, geen kampementen, enzovoort. In hoeverre helpen dit soort hulpmiddelen universiteiten en scholen bij het stoppen van onenigheid of controverse, met name rond Palestina?

Allison Butler: Ik denk dat het in grote mate, en ik denk dat dit een plek is waar het een indicatie is van de grotere angsten van onze universiteiten voor, nou ja, om het een beetje luchtig te zeggen, onze angsten voor jongeren en wat ze doen met hun eigen technologieën, maar angsten voor de staat van de academische vrijheid, angsten voor wat afwijkende meningen betekenen, voor wat ongehoorzaamheid betekent. Ik denk dat we zoveel tijd in onze klaslokalen besteden aan het prijzen van historische daden van afwijkende meningen, historische daden van ongehoorzaamheid, maar wanneer het ons in de tegenwoordige tijd confronteert, is het op de een of andere manier angstaanjagend. 

Als ik ze het voordeel van de twijfel moet geven, zijn het beheerders die op zoek zijn naar een manier om hun campussen veilig te houden, om studenten, faculteiten en personeel te beschermen die verschillende en tegenstrijdige visies op veiligheid hebben. Helaas denk ik dat het woord veilig vaak wordt gebruikt als een alsjeblieft klaag me niet aan, toch? Het is een eufemisme voor alsjeblieft klaag me niet aan. Dus ik denk dat de bewakingstechnologieën vanuit een gekweekt gevoel van angst heel goed werk leveren door te profiteren van angst, toch? Ik bedoel om het een beetje te verschuiven, als we denken aan het begin van Covid, dan profiteerden we van de angst voor wat we samen hadden moeten zijn, toch? Hoe gevaarlijk het voor ons zou kunnen zijn om in dezelfde ruimte te zijn. En ik denk dat deze bedrijven blijven profiteren van die angst als we kijken naar afwijkende meningen en demonstraties en ongehoorzaamheid. En dus heb je universiteitstools, dan heb je politiestaattools, toch? Dat de politie met bodycams komt, die, laten we eerlijk zijn, aan en uit gezet kunnen worden om een ​​heel specifiek verhaal te creëren en in te kaderen, toch? Dat is het ding; bewakingstechnologieën en deze tools snijden alle kanten op. 

We hebben onze studenten zelf die hun acties filmen, wat betekent dat hun gezichten er zijn, toch? Als ze daar zijn in vreedzaam protest, als ze daar zijn in burgerlijke ongehoorzaamheid, dan zijn hun gezichten er zeker, wat betekent dat als er iets misgaat, het maakt niet uit door wie het misgaat, toch? Als het de politie is die het aanzet of de studenten die het tegenwerken, dan hebben we al hun informatie al. Dus we leven in een omgeving waarin ik denk dat het, zoals door de geschiedenis heen, belangrijk is om aanwezig te zijn, belangrijk om op te staan, en ook die aanwezigheid en dat opstaan ​​worden op vreselijke manieren gemanipuleerd en gemanoeuvreerd door deze bewakingstechnologieën.

Chris Hagen: En Allison, het heeft wereldwijde gevolgen, want universiteiten en scholen zijn traditioneel plekken waar ideeën en afwijkende meningen worden uitgewisseld. In een goed functionerende democratie is het een van de epicentra, een van de fysieke epicentra waar dit soort discussies mogen plaatsvinden.

Allison Butler: Absoluut en ik denk, nogmaals, als we naar de geschiedenis kijken, als we naar de boog van de geschiedenis kijken, dat we op de een of andere manier dit beeld hebben geschilderd dat dit een dissidentie was waarbij mensen zich gedroegen alsof ze een beschaafd meningsverschil hadden, en dat lijken we gewoon niet meer te hebben. Dus onze zeer onbeschaafde meningsverschillen, onze zeer fysieke meningsverschillen worden geschilderd en gepresenteerd op een manier via deze technologieën die we waarschijnlijk niet in de geschiedenis hadden kunnen doen, toch?

Ik denk dat er deze zomer veel is gesproken, toen de presidentiële conventies naderden, zowel de RNC als de DNC zeiden, met name de DNC, in Chicago, van, laten we terugkijken naar de geschiedenis. En ik denk dat dat belangrijk is. Ik zou nooit zeggen dat we dat niet zouden moeten doen, maar er is zoveel veranderd in de manier waarop onze technologie deelneemt aan deze conventies of deze meningsverschillen dat ons begrip van gedrag totaal en volkomen anders is.

Chris Hagen: Nolan, zoals je in je boek schrijft, komt deze informatie niet alleen in handen van bedrijven terecht, maar ook van DHS en de FBI. Vertel eens hoe de staatsveiligheid deze informatie ook gebruikt.

Nolan Higdon: Ja, de zogenaamde nationale veiligheid, of nationale veiligheidsindustrie, is nauw betrokken bij het verzamelen van deze gegevens. En het is de moeite waard om mensen eraan te herinneren dat deze tools — internet, touchscreen, GPS en nog veel meer functies van slimme apparaten in het digitale tijdperk — afkomstig zijn van het militair-industriële complex. Deze zijn gecreëerd door middel van defensiefinanciering, in samenwerking met universiteiten en scholen in het midden van de 20e eeuw. En in feite, zoals we in het boek hebben besproken, protesteerden studenten ertegen toen ze erachter kwamen waarvoor deze tools werden gecreëerd. 

Maar tot op de dag van vandaag blijven deze tools gegevens verzamelen die worden gedeeld met DHS en de inlichtingendienst, wederom onder auspiciën van het spotten van potentiële terroristen, het spotten van potentiële bedreigingen. Dit is om verschillende redenen problematisch, maar een daarvan, puur vanuit een onderwijskundig standpunt, is dat het echt een negatieve impact heeft op het leren. We vertellen studenten op een effectieve manier dat ze op de campus objecten zijn die in de gaten moeten worden gehouden en beschermd, en waartegen ze beheerd moeten worden. Het is erg moeilijk om een ​​vertrouwensrelatie te ontwikkelen waarin mensen zich op hun gemak voelen om risico's te nemen en fouten te maken, wat centraal staat in het onderwijs als het een omgeving is waar ze altijd gecontroleerd worden.

“Het is heel moeilijk om een ​​vertrouwensrelatie op te bouwen waarin mensen zich op hun gemak voelen bij het nemen van risico's en het maken van fouten, wat essentieel is in het onderwijs, als het een omgeving is waarin ze altijd gecontroleerd worden.”

Chris Hagen: Nou, niet alleen gecontroleerd en gemonitord, maar zoals we zien bij de studentenprotesten, deze monitoringtools, is het in feite meer dan alleen bewaking. Het gaat om het afsluiten omdat ze direct weten wie erbij betrokken is. Ik bedoel, dat wisten ze al bij Occupy. Ik weet het omdat ik veel tijd heb doorgebracht in Zuccotti [Park in het centrum van Manhattan], en nadat [burgemeester Mike] Bloomberg van New York City het park had gesloten, waren er een reeks politieacties op lofts en ze pakten alle juiste mensen, omdat ze ze elektronisch in de gaten hielden. Allison, ik wil dat je het hebt over, in het bijzonder, twee cyberbeveiligingstools. Ik wil dat je het hebt over Augury en Pegasus.

Allison Butler: Eigenlijk... zijn dat een soort Nolans baby's. Dus ik ga dat teruggeven aan hem, als dat goed is.

Nolan Higdon: Ja, Pegasus is in principe een stukje spionagesoftware dat afkomstig is van de Israëlische overheid. Maar Pegasus werd in principe in andere software gestopt. Dus als je in andere computers stapte, kon je in principe mensen over de hele wereld monitoren die deze Pegasus-software erop hadden staan, en het creëerde in principe een wereldwijd surveillanceplatform. En Israël is hierin niet de enige. De Verenigde Staten zijn... 

Chris Hagen: En ik wil Nolan even onderbreken, Pegasus is een Israëlische creatie. Het komt uit Israël. Het werd gebruikt om Jamal Khashoggi op te sporen, denk ik.

Nolan Higdon: Juist, ja, en de VS, zoals ik al zei, neemt deel aan soortgelijke productie en monitoring, inclusief het samenwerken met Israël aan Pegasus. Maar ja, dit, denk ik, om Allisons punt over de geschiedenis te volgen, is veranderd. We moeten veel praten over onze verwachtingen of wat onze rechten en wetten ook moeten veranderen.

Dit idee van illegale doorzoekingen en inbeslagnames of het idee dat mijn privacy iets is dat ik bezit, dat verandert in het digitale tijdperk, en de wet - en dit is een van de dingen waar we in de tekst voor pleiten - de wet moet daarop inspelen, omdat veel van de beschermingen die we hadden op het gebied van privacy, mazen in de wet, zijn blootgelegd door overheden en bedrijven, zoals in het Pegasus-voorbeeld. We hebben het over dingen als, uw Eerste Amendement beschermt de vrijheid van meningsuiting van de overheid, maar de overheid kan samenwerken met technologiebedrijven om bepaalde uitingen of ideeën te blokkeren, of u bent beschermd in uw communicatie, zoals privé in uw huis, maar als het e-mail is, betekent dit dat u die communicatie hebt overgedragen aan een privébedrijf dat ze vervolgens aan de overheid kan geven. 

Er zijn dus veel van dit soort mazen in de wet die ze blootleggen in het digitale tijdperk, en dat is een van de dingen waar we voor pleiten in de tekst, omdat we zelfs een studentenrechtenbeweging hadden die studenten het recht op privacy op scholen gaf. Dat is wat FERPA heeft gecreëerd. hier in de Verenigde Staten. Maar toen, rond 2012, veranderde de regering van Obama iets in FERPA. 

Voorheen betekende FERPA dat de school de informatie van een student met niemand mocht delen. Als ze minderjarig waren, kon je het delen met hun voogd. Maar de wijzigingen in FERPA in 2012 zeiden: "Nee, je mag hun informatie ook delen met educatieve partners." Dit zijn bedrijven die contracten hebben met de scholen. En dus mochten alle gegevens die de studentenrechtenbeweging ervoor zorgde dat ze privé waren, in feite worden verspreid naar deze bedrijven. En zoals we hebben gezien, is dat wat het ook in andere gebieden mogelijk maakt.

“Vroeger betekende FERPA dat de school de informatie van een leerling met niemand mocht delen… Maar de wijzigingen in FERPA in 2012 zeiden: 'Nee, je mag hun informatie ook delen met onderwijspartners.'”

 

Chris Hagen: En praat over Augury. Dit is ontwikkeld door een cybersecuritybedrijf, team… Wat is het, Cymru, dat enorme hoeveelheden data beschikbaar stelt voor overheids- en particuliere klanten. Verschillende takken van het leger hebben gezamenlijk $ 3.5 miljoen betaald om toegang te krijgen tot de data van Augury.

Nolan Higdon: Ja, bedrijven zoals Augury, ik zie ze graag als een soort gigantische databroker-repositories. Ze gaan eropuit en krijgen toegang tot enorme hoeveelheden data. Ze analyseren deze data in realtime en zoals de industrie het beschrijft, verkopen ze in principe producten die deze data analyseren voor bedrijven of overheden.

Maar Augury is een voorbeeld van iets dat de belangen dient van overheden die misschien mensen willen targeten of activistisch gedrag of activistische communicatie online willen begrijpen. Augury belooft een enorme hoeveelheid data te hebben die het kan analyseren en antwoorden kan geven op vragen die overheden kunnen hebben die gedrag willen bewaken, begrijpen, voorspellen of aansturen.

Chris Hagen: Allison, je gebruikt een term in het boek: “algoritmisch racisme.” Kun je dat uitleggen?

Allison Butler: Dus als we nadenken over algoritmen, en we zijn allemaal een soort van, algoritmen zijn een soort van, ik denk dat onze zuurstof tegenwoordig, toch? Alles wat we digitaal doen, wordt aangetrokken door een algoritme. En algoritmen voelen, denk ik, voor velen, met name als we praten met studenten in het basisonderwijs en in zekere mate in het hoger onderwijs, als een soort mysterieus iets dat op de een of andere manier in de computer... Wat we moeten onthouden is dat algoritmen zijn, het zijn programma's, het is codering, het is taal, het zijn vragen die door mensen zijn gemaakt, dus ze zijn gemaakt met feilbare menselijke racisme, seksisme, homofobie, validisme, etc., toch? 

Dus wat betreft ons punt van algoritmisch racisme, is dat racisme in deze digitale technologieën is ingebakken, wat betekent dat ze vanaf het begin mensen van kleur zullen zien, en bij uitbreiding vrouwen van kleur, mensen met verschillende capaciteiten, iedereen die zich identificeert als LGBTQ, in principe iedereen die zich identificeert buiten wat de maker van het algoritme als de norm ziet, wat betekent dat we niet per se kijken naar fysieke, tastbare, geleefde ervaringen van racisme. We kijken naar racisme als een vorm van leren hoe we digitale technologieën moeten gebruiken, omdat het, zoals ik al zei, er als het ware in is ingebakken, dus de problemen komen meteen naar ons toe.

Daarom beginnen we te leren hoe we binnen dat racistische kader moeten omgaan, en dat wordt de norm en een soort gecentraliseerde manier om ernaar te kijken. Dat maakt het aanzienlijk gevaarlijker voor gekleurde mensen, en ook voor mensen die met gekleurde mensen omgaan, om een ​​vooropgezet idee te hebben in hun technologieën over wie deze mensen zijn en hoe ze zich moeten gedragen.

“Wij zien racisme als een manier om ons te leren hoe we digitale technologieën kunnen gebruiken.”

Chris Hagen: Nou, een voorbeeld dat je uit het boek haalt is gezichtsherkenningssoftware in test-proctoring software zoals Proctorio, het is ontwikkeld voor blanke studenten. Zwarte en bruine studenten zijn minder detecteerbaar en gedwongen om meer persoonlijke informatie te verstrekken dan blanke studenten om hun identiteit te bevestigen. 

In een ander voorbeeld van de racistische vooringenomenheid die in algoritmen is gecodeerd, onthult onderzoek dat programma's die beloven de retentie van studenten en het succes van de cursus nauwkeurig te voorspellen, ten onrechte aannemen dat studenten van kleur niet zullen slagen. Dit komt omdat er enorme hoeveelheden data nodig zijn om algoritmen en AI te trainen, maar ze worden getraind met behulp van inductieve logica. Dus als ze programmeren om meerdere items te zien, maar slechts één resultaat te zien krijgen, zal het algoritme verschillende dingen als slechts één ding communiceren. Als het algoritme bijvoorbeeld is geprogrammeerd om appels te herkennen, maar alleen rode appels te zien krijgt, zal de code alles in die groepering zien als een rode appel. Hoewel dit onjuist is in het echte bestaan ​​van appels, is het correct via wat het algoritme is geleerd.

Allison Butler: Het algoritme reageert op menselijke input, toch? Ik bedoel, ik denk dat in de jaren 1980, toen we voor het eerst bekend raakten met computers, er een kleine slogan was, "garbage in, garbage out" dat als je programmeerde, ik bedoel, het waren niet alleen de gewone mensen in onze huiskamers die computers programmeerden op dat moment, toch? Maar als je in garbage programmeerde, dan kreeg je garbage. En ik denk dat we dit zien met onze generatieve AI. Iedereen van ons die struikelt of worstelt met ChatGPT, bijvoorbeeld, misschien moeten we kijken naar wat we erin programmeren. Het is de verfijning die plaatsvindt, dat dit niet ik ben die op een onhandige manier probeer uit te vinden of ChatGPT me maaltijdplannen voor de week kan maken, zodat ik niet zo hard hoef na te denken als ik naar de supermarkt ga. Dit is zeer geavanceerde programmering die vervolgens vormgeeft en construeert hoe de rest van ons de wereld ziet, zoals ons voorbeeld van gezichtsherkenningssoftware, en we hebben een heel 21e-eeuws voorbeeld van onverdiend privilege om blank te zijn. Dat blanke past veel beter in het model.

Chris Hagen: Nolan, ik wil het over migranten hebben. Je schrijft in het boek dat scholen, met name universiteiten in de VS, het VK en Australië, door wetgevers gemachtigd en verwacht worden om migrantenstudenten met een omstreden of illegale immigratiestatus te identificeren. Het Amerikaanse ministerie van Binnenlandse Veiligheid beheert grote hoeveelheden gegevens om migranten te lokaliseren en te volgen. LexisNexis, dat veel wordt gebruikt in het onderwijs, verkoopt bijvoorbeeld gegevens aan de Immigration and Customs Enforcement van het ministerie van Binnenlandse Veiligheid, ICE. LexisNexis, een dochteronderneming van RELX Corporation, biedt data-analyseproducten en online databases. Er werd vastgesteld dat het gevoelige informatie aan ICE had verstrekt, die ICE vermoedelijk gebruikte om personen te volgen en te arresteren voor deportatie.

Nolan Higdon: Ja, dit kwam uit het hoofdstuk dat werd gemotiveerd door het feit dat elke keer dat we over dit onderwerp praten, we altijd deze vraag zouden krijgen, onvermijdelijk van iemand die zegt: "Nou, en dan? Ik heb niets te verbergen. Wie geeft er om mijn privacy?" En in het hoofdstuk dat je daar leest, Chris, probeerden we een lijst met verschillende kwetsbaarheden op te stellen, en een daarvan in het bijzonder zijn studenten die de status van illegale migrant hebben aangevochten, of zogenaamd, hebben aangevochten. Ze hebben duidelijk een reden om privacy te willen. Het kan zelfs zijzelf niet zijn, ze kunnen samenwonen met iemand die de status van migrant heeft aangevochten, die ze ook willen beschermen door middel van hun eigen privacy, maar door deel te nemen aan het leerproces waar deze tools aanwezig zijn, bedreigen ze die migrantstatus van zichzelf of de mensen met wie ze samenwonen, het zou tegen hen kunnen worden gebruikt voor deportatie, arrestatie of iets anders. 

En we zien dit steeds weer. Daarom vinden we deze tools zo schadelijk, want terug naar waar we dit gesprek begonnen, ze worden ingezet voor zaken als veiligheid en verbeterd leren en DEI en dingen waar de meeste mensen het mee eens zouden zijn, maar in de praktijk worden ze gebruikt tegen die maatregelen, door mensen te criminaliseren, ze te monitoren en die informatie vervolgens te gebruiken om iemand mogelijk te deporteren.

“een leerproces waarbij deze hulpmiddelen aanwezig zijn… en die tegen hen gebruikt kunnen worden voor deportatie, arrestatie of iets anders.”

Chris Hagen: U benadrukt ook dat door scholen uitgegeven apparaten campussen kunnen waarschuwen voor webzoekopdrachten van studenten, mensen die zoeken naar hun seksualiteit en die de seksuele voorkeur van studenten hebben onthuld. Als gevolg hiervan proberen LGBTQ+-studenten informatie te zoeken over hun seksualiteit of seksuele nieuwsgierigheid, inclusief gezondheidsgerelateerde vragen, en lopen ze het risico dat ze worden onthuld aan schoolfunctionarissen, wetshandhavers en iedereen die toegang heeft tot hun informatie.

Nolan Higdon: Ja, dit gaat terug naar wat we zeiden, toch? Wij geloven dat onderwijs een oefening in vrijheid moet zijn. Mensen moeten in staat zijn om te ontdekken wie ze zijn, om informatie te ontdekken. De verwachting is dat ze fouten maken in de klas als studenten, net als onze leraren, maar ze moeten zich op hun gemak voelen om die fouten te kunnen maken. Als het idee is dat je constant wordt gemonitord, of dat dit terug kan komen bij je ouders, of dat dit naar de wereld kan worden uitgezonden, is de kans kleiner dat studenten delen. Ze zijn minder geneigd om die informatie op te zoeken. Het beperkt nieuwsgierigheid, wat essentieel is voor het onderwijsproces, en om nog maar te zwijgen van het feit dat deze mensen worstelen met kritische vragen over hun identiteit, dus het mentale trauma en de moeilijkheid om een ​​van de weinige ruimtes te sluiten waar ze kunnen ontdekken, ik denk dat het gewoon spreekt over het probleem met toezicht en het onderwijsproces.

Chris Hagen: Allison, ik wil het hebben over wat dit doet binnen de scholen en binnen de universiteiten. Je schrijft dat deze constante bewaking een manier is om ervoor te zorgen dat docenten zich houden aan de ideologische homogeniteit die de schoolleiding nastreeft. Het begint met het sollicitatieproces, wanneer kandidaten verplicht worden om privégegevens te delen, zoals hun aanpak van lesgeven en diversiteitsverklaringen, die worden gebruikt om ideologische homogeniteit op de campus te waarborgen. Het gaat door als studenten, vaak illegaal, vastleggen wat leraren in de klas doen. Dit kan en is gebruikt om docenten onder druk te zetten om hun beroep te verlaten als ze worden gezien als een ideologisch standpunt dat in strijd is met de status quo. We hebben dit sinds 7 oktober herhaaldelijk gezien.

Allison Butler: Ik denk dat een van de dingen die deze bewakingstechnologieën kunnen doen, opzettelijk of toevallig, is het aanwakkeren van omgevingen van wantrouwen, toch? Zoals Nolan heeft gezegd, zoals ik heb gezegd, zoals we altijd zeggen in onze klaslokalen, schoolklassen, dat is een plek om fouten te maken. Het is een plek om te struikelen. Het is deze plek om nieuwsgierig te zijn. Het is een plek waar onwetendheid op een geweldige manier begrepen moet worden. Ik loop een klaslokaal binnen als een student die iets niet weet. Ik ben er onwetend van. Ik heb de mogelijkheid om ervan te leren. 

Als we een omgeving hebben waarin we al deze afdelingen voor ons hebben opgezet via technologie, dan loopt dat allemaal het risico te verdwijnen, verdwijnen is een te zacht woord, dat het wordt weggetrapt, toch? Ik zeg niet dat studenten of leraren hun dagen moeten vullen met vreselijke, haatdragende praat, maar ik denk dat we zoveel verschillende perspectieven moeten leren om echt volledig te kunnen onderwijzen en volledig te kunnen leren. 

En onze digitale technologieën hebben de mogelijkheid om op te nemen, dat is belangrijk, maar ze hebben ook de mogelijkheid om te manipuleren, wat de verhalen verandert die leraren en studenten vertellen. Het creëert klaslokalen die, op zijn best, het risico lopen saai te zijn, oké, maar waar we het echt over hebben is het onderdrukken van leren. We hebben het over het onderdrukken van blootstelling. We hebben het over het onderdrukken van hoe om te gaan met verschillen, toch? Ik denk dat, als we kijken naar onze wereldwijde conflicten dezer dagen, met name wat er gebeurt in Israël/Palestina, dat we lessen krijgen die zeggen dat verschillen slecht zijn, terwijl verschillen een manier zijn om te proberen elkaar als mensen te leren kennen. 

Dus wanneer verschillen, discussies, vragen, misverstanden, echt gebrek aan begrip, worden onderdrukt door deze digitale technologieën, zijn onze klaslokalen niet langer plekken van nieuwsgierigheid of onderzoek. Het zijn fabrieken, alleen om ons een diploma te geven, en dat diploma betekent misschien gewoon niet zoveel. Nogmaals, ik pleit op geen enkele manier, vorm of gedaante voor een klaslokaal vol haat, alleen om een ​​punt te bewijzen dat dingen anders zijn, maar meer over het feit dat we omgevingen moeten hebben waarin we ons ongemakkelijk, nieuwsgierig, onderzoekend, opgewonden kunnen voelen, al die dingen als hulpmiddel om te leren, en dat we dat samen doen in een gemeenschap, toch? 

Ik denk dat een ander groot ding met deze bewakingstechnologieën, met name onze sociale mediatechnologieën, is dat ze ongelooflijk isolerend zijn. Ze zijn in feite behoorlijk antisociaal. En wat scholen kunnen doen, wat klaslokalen kunnen doen, wat lesgeven en leren kunnen doen, is samenwerking opbouwen en een gemeenschap opbouwen, wat isolatie tegengaat. Het gaat die silo-ificatie tegen en de bewakingstechnologieën werken heel hard om isolatie en silo's te bouwen.

Chris Hagen: Nou, het sluit elke vorm van twijfel aan het dominante verhaal uit, toch?

Allison Butler: Absoluut, en studenten begrijpen of kennen niet per se de structuur van het dominante verhaal. Ze weten niet per se dat ze het in twijfel moeten trekken. We moeten meer over al deze dingen gaan praten, en dat betekent dat we samen in klaslokalen moeten zijn, in onze wereld, samen in klaslokalen moeten zijn en deze technologieën zo goed mogelijk moeten verwijderen.

Chris Hagen: Nou, in elk totalitair systeem is het punt om de mogelijkheid om vragen te stellen te ontkennen. Nolan, ik wil vragen, je zei, er is een goed gedocumenteerde geschiedenis van werkgevers die surveillance gebruiken om werknemers uit te buiten en collectieve onderhandelingen te ondermijnen. In plaats van EdTech-surveillance te zien als een voordeel voor het onderwijsproces of een veiligheidsmaatregel, moeten docenten erkennen dat het kan worden gebruikt om data te gebruiken om de macht van een werknemer te ondermijnen. Praat daarover.

Nolan Higdon: Ja, dit was een heel fascinerend deel van het boek, en een waarvan ik weet dat we het proberen over te brengen naar faculteitsvakbonden. Maar ja, er is een lange geschiedenis van werkgevers die eeuwen teruggaan, die fysieke spionnen gebruiken of proberen te spioneren op communicatie om erachter te komen wie een arbeidsagitator is en hen en iedereen die sympathie voor hen heeft te verwijderen. Dit is een heel nieuw tijdperk. We hebben deze hulpmiddelen in de klas waarmee we mensen kunnen bespioneren terwijl ze in de klas werken. Theoretisch gezien gebruiken we dingen, in context of buiten de context, om van die werknemers af te komen.

We hebben het ook gehad over Israël, Gaza, veel werknemers, docenten op dit moment, ze hebben geen bescherming. We hebben de adjunctificatie of de willekeur van het hoger onderwijs gezien. Dus ongeacht hoe mensen over dat conflict denken, vermijden ze het in de klas omdat ze bang zijn dat wat ze ook zeggen tegen hen gebruikt kan worden om hun baan te verliezen, en dat is niet alleen dat zij eronder lijden, dat is dat de studenten een kans missen om zich bezig te houden met een cruciaal wereldprobleem. En dan nog meer, als docenten proberen deze tools ook te leren van wat we doen, dus verzamelen ze onze gegevens en profiteren ervan zonder ons te betalen.

Over het algemeen wil de arbeidersbeweging betaald worden voor arbeid. Maar daarnaast trainen ze deze tools ook om te proberen een aantal functies uit te voeren die de faculteit doet. Dus je traint je vervanger op een bepaald niveau, en ik denk aan dingen als slimme beoordeling en slimme opdrachten schrijven, deze nieuwe tools die uitkomen.

Of er is een plek waar je een afbeelding van je gezicht kunt hebben, en je kunt typen en de afbeelding zal een lezing geven. Dat is ook een manier om jou als lezing te vervangen. Dus veel van dit soort dingen komen eraan, nemen privacy weg, vervangen banen, en docenten nemen daadwerkelijk deel aan het proces door deze tools te gebruiken en geen strikte barrières in hun contracten te krijgen om dit soort economische uitbuiting te voorkomen, om nog maar te zwijgen van deze poging tot toezicht om het onderhandelingsproces te ondermijnen.

“ongeacht hoe mensen over dat conflict denken, vermijden ze het in de klas omdat ze bang zijn dat wat ze ook zeggen tegen hen gebruikt kan worden en dat ze hun baan kunnen verliezen. En dat is niet alleen dat zij eronder lijden, maar dat de studenten ook een kans missen om zich bezig te houden met een cruciaal wereldprobleem.”

Chris Hagen: Allison, als we hier niets aan doen, weet ik dat je je boek afsluit met suggesties over hoe we deze inbreuk op onze privacy kunnen beteugelen. Maar als we hier niets aan doen, in wat voor educatieve en zelfs sociale en culturele omgeving leven we dan?

Allison Butler: Ik denk dat als we het niet in de gaten houden, we het risico lopen om in fabrieksscholen te leven, zoals ik al eerder zei, dat we onze studenten er gewoon doorheen duwen op weg naar het oppakken van een stuk papier. We zullen toekomstige generaties trainen dat het normaal is om gecontroleerd te worden, dat er zoiets niet bestaat als privacy. We zullen een soort routinematige vorm van onderwijs hebben waar zeer veilige informatie en een veilige manier om het te presenteren, en we zullen, in ieder geval in termen van een digitale taal, alles over iedereen weten, met een mogelijke kanttekening dat degenen die passen in ras, geslacht en economische en fysieke mogelijkheden, tussen aanhalingstekens, normen, het gemakkelijker zullen hebben, maar we zullen al onze lichamen die er niet in passen, al onze mensen die niet per se passen in die, nogmaals, zeer genereuze, tussen aanhalingstekens, norm, steeds verder naar de randen worden verplaatst. 

Ik denk dat we kunnen zien dat onze klaslokalen binnen een vrij korte tijd niet langer worden gezien als plekken van nieuwsgierigheid, van leergierigheid. Ze zullen worden gezien als plekken waar passief heel banale, zorgvuldige informatie wordt geaccepteerd.

Tegelijkertijd zullen ze er waarschijnlijk behoorlijk cool uitzien, omdat onze bewakingstechnologieën, al onze technologieën, er erg geavanceerd uitzien. Ze zijn geavanceerd. Ze zijn vaak tweedehands, toch? Zoals Nolan al eerder zei, komt zoveel van wat we gebruiken van het militair-industriële complex — dat we op onbekende plekken kunnen rijden is GPS, is een verouderde militaire technologie. Dat we coole foto's kunnen maken van bijvoorbeeld feesten of bruiloften of onroerend goed is dronetechnologie en verouderde militaire technologie. Ik denk dat de inhoud van ons klaslokaal het risico loopt volkomen banaal en saai te zijn. Het uiterlijk ervan zou uiteindelijk behoorlijk cool kunnen zijn, wat heel opzichtig zou kunnen zijn en ons zou kunnen uitnodigen om te vergeten na te denken over de inhoud.

Chris Hagen: Nou, als de overheid je 24 uur per dag in de gaten houdt, kun je het woord vrijheid niet gebruiken, dat is de relatie tussen een meester en een slaaf. Dat waren Nolan Higdon en Allison Butler in hun boek, Surveillance-onderwijs: navigeren door het opvallende gebrek aan privacy op scholen. Dat was echt heel erg goed werk dat jullie beiden hebben gedaan. Ik wil Sofia [Menemenlis], Diego [Ramos] Thomas [Hedges] en Max [Jones] bedanken, die de show produceerden. Je kunt me vinden op ChrisHedges.Substack.com.

Chris Hedges is een journalist die de Pulitzerprijs heeft gewonnen en vijftien jaar lang buitenlandcorrespondent was voor The New York Times, waar hij hoofd van het Midden-Oostenbureau en hoofd van het Balkanbureau voor de krant was. Hij werkte eerder in het buitenland voor The Dallas Morning News, The Christian Science Monitor en NPR. Hij is de presentator van de show ‘The Chris Hedges Report’.

Dit artikel is van Scheerpost

OPMERKING VOOR DE LEZERS: Er is nu geen mogelijkheid meer om zonder uw hulp een wekelijkse column voor ScheerPost te schrijven en mijn wekelijkse televisieprogramma te produceren. De muren komen met een schrikbarende snelheid dichterbij de onafhankelijke journalistiek, waarbij de elites, inclusief de elites van de Democratische Partij, schreeuwen om steeds meer censuur. Als je kunt, meld je dan aan via chishedges.substack.com zodat ik mijn column op maandag op ScheerPost kan blijven plaatsen en mijn wekelijkse televisieprogramma 'The Chris Hedges Report' kan produceren.

Dit interview is van Scheerpost, waarvoor Chris Hedges schrijft een gewone columnKlik hier om je aan te melden voor e-mailwaarschuwingen.

De standpunten die in dit interview naar voren worden gebracht, kunnen al dan niet een weerspiegeling zijn van die van Consortium Nieuws.

7 reacties voor “Rapport van Chris Hedges: Surveillance-onderwijs"

  1. November 25, 2024 op 15: 31

    Dit artikel heeft me zeker terughoudender gemaakt om TurnItIn te blijven gebruiken voor plagiaatdetectie in de bachelorcursussen die ik in de toekomst geef, waardoor ik een tastbaarder motief heb om TurnItIn op een andere manier te bekijken dan mijn algemene abstracte neo-Luddite-gevoelens over de intrinsiek panoptische en Janus-achtige aard van alle informatietechnologie in combinatie met een menselijke machtswellust. Gezien mijn alomtegenwoordige wantrouwen tegenover diverse bewakings- en marketingtechnologieën was ik naïef om niet te overwegen welke andere onuitgesproken toepassingen dergelijke plagiaatdetectiesoftware zou kunnen hebben voordat ik het transcript van dit interview las, dus ik waardeer Chris Hedges en vooral Allison Butler dat ze dit onder mijn aandacht hebben gebracht.

  2. Julie
    November 24, 2024 op 09: 03

    Bedankt, Chris, dat je elke dag weer onze aandacht vestigt op belangrijke zaken.
    Ik vroeg me ook af of je Grisham gaat interviewen over zijn nieuwste NF-boek.

  3. November 24, 2024 op 06: 00

    In mijn ervaring bestaat de technologie om de activiteiten van studenten op de computer van een school te observeren al sinds 2007, met behulp van applicaties als Apple Remote Desktop en Teamviewer. Ik was geschokt toen ik dit rechtstreeks zag op het kantoor van de technische ondersteuning van de school, vooral omdat mijn studenten volwassenen waren, die toegang hadden tot hun e-mailaccounts, maar geen idee hadden dat hun communicatie niet privé was. Destijds was het afluisteren bedoeld om passief te zijn (hoewel mogelijk onfatsoenlijk), gedaan in het belang van het bieden van efficiënte ondersteuning in het geval van een machinestoring. De gedragsmatige "nudging" waar deze auteurs het over hebben, is ook niet nieuw. In 2017 hoorden we berichten over het verzamelen van gegevens om stemmen in de VS en het VK te nudgen, respectievelijk door Cambridge Analytica en Aggregate IQ. Sindsdien duwen diensten zoals Newsguard zogenaamd veilige informatieverzameling en op hun beurt gedrag. Wat hier nieuw is, is dat de gegevens van minderjarigen met een vergelijkbare intentie worden gedeeld, en dezelfde oude garbage in, garbage out-bias wordt opgelegd aan persoonlijkheden die nog niet volledig zijn gevormd.

  4. JohnB
    November 23, 2024 op 21: 59

    De behoefte aan context en grondigheid zijn slechts twee van Chris' goede eigenschappen.

  5. Caliman
    November 23, 2024 op 13: 15

    Laten we het recht op privacy niet verwarren met een niet-bestaand recht op anonimiteit op openbare plaatsen. Het eerste is een natuurlijk recht op privacy in iemands huis en andere privé-plaatsen en het gebruik van iemands eigen gereedschap en bezittingen. Het laatste is een verwachting van geen reactie op het leven en handelen op openbare plaatsen en het gebruik van openbare (en andermans) gereedschappen en bezittingen, wat nooit heeft bestaan ​​in de menselijke geschiedenis en niet kan worden verwacht, noch wenselijk is, nu en in de toekomst.

    Dus in relatie tot het artikel, hebben kinderen recht op privacy wanneer ze in hun eigen huis zijn als ze (1) geen bedrijven (hoi Siri) in hun huis uitnodigen om hen expliciet te bespioneren en (2) geen openbare hulpmiddelen (schoollaptops) gebruiken die voor een openbaar doel zijn verstrekt om persoonlijke dingen te doen. Wat betreft in een openbare omgeving zoals het klaslokaal zelf of rondlopen op de campus of de stad in het algemeen, zijn acties die in het openbaar worden ondernomen, zichtbaar voor iedereen die geïnteresseerd is in dergelijke acties en kunnen worden gebruikt voor gegevensverzameling, marketing en elke andere reden.

    wat betreft "Ik denk dat we kunnen zien dat onze klaslokalen binnen een vrij korte tijd niet meer worden gezien als plekken van nieuwsgierigheid, van nieuwsgierigheid. Ze zullen worden gezien als plekken van passief accepteren van heel banale, zorgvuldige informatie." ... mijn God, welke klaslokalen hebben deze mensen bezocht? Plekken van nieuwsgierigheid en nieuwsgierigheid? Echt waar? "Bueller ... Bueller ... Bueller ..."

  6. Robert Havers
    November 23, 2024 op 12: 17

    Alles wat u zegt, kan en zal tegen u gebruikt worden.

  7. Vera Gottlieb
    November 23, 2024 op 10: 27

    Is er echt behoefte aan zo'n lang artikel??? Alsof we niets anders te lezen en ons zorgen over te maken hebben! Het blanke ras moet nog beseffen wat een SHIT DISTURBER we zijn. Maar geef altijd een ander ras de schuld...natuurlijk.

Reacties zijn gesloten.