Allison Butler e Nolan Higdon discutono dei sistemi "ed-tech" che erodono il diritto alla privacy dei minori e discriminano gli studenti di colore.
AOgni tecnologia creata dal complesso militare-industriale degli Stati Uniti e adottata dal grande pubblico era inevitabilmente accompagnata da una clausola.
Per la maggior parte delle persone, Internet, GPS, touch screen e altre tecnologie onnipresenti sono strumenti ordinari del mondo moderno. Eppure, in realtà, queste tecnologie servono a "duplici usi",
Sebbene siano utili alla gente comune, consentono anche la coercizione di massa, la sorveglianza e il controllo di quelle stesse persone da parte di stati aziendali e militari.
Nolan Higdon e Allison Butler, autori di Educazione alla sorveglianza: come affrontare la vistosa assenza di privacy nelle scuole, unisciti al presentatore Chris Hedges in questo episodio di Il rapporto di Chris HedgesEsplorano i sistemi software e tecnologici impiegati nelle scuole K-12 e negli istituti di istruzione superiore che sorvegliano gli studenti, erodono i diritti alla privacy dei minori e, nel processo, discriminano gli studenti di colore.
L'uso di questa tecnologia, spiega Higdon, si basa sul trattamento degli esseri umani come prodotti attraverso il capitalismo della sorveglianza.
"Si estraggono dati e informazioni sugli esseri umani da tutte queste tecnologie intelligenti, e poi si è in grado di fare delle determinazioni sul loro comportamento, su come potrebbero reagire a qualcosa. E ci sono molti settori interessati a questo", dice Higdon a Hedges.
Butler spiega che gli studenti, spesso senza scelta in merito, sono sottoposti all'uso di questa tecnologia che sfrutta intrinsecamente i loro dati. Poiché esiste un consenso implicito per il suo utilizzo, "La quantità molto limitata di protezioni che ci sono per mantenere al sicuro i dati dei minori svanisce una volta che hai una tecnologia che viene inserita nella loro classe", afferma Butler. "C'è un'accettazione passiva di questa tecnologia".
Higdon indica come fattore chiave le modifiche apportate dall'amministrazione Obama nel 2012 al Family Educational Rights and Privacy Act (FERPA). Tali modifiche hanno consentito la condivisione dei dati degli studenti con aziende private che fungono da partner educativi.
"Di fatto, tutti quei dati che il movimento per i diritti degli studenti ha cercato di garantire fossero privati hanno potuto essere distribuiti a queste aziende", afferma Higdon.
Gli autori sottolineano il profondo impatto che queste tecnologie hanno sui processi fondamentali dell'apprendimento in classe.
"Limita la curiosità, che è essenziale per il processo educativo", afferma Higdon. "Il trauma mentale e la difficoltà di chiudere uno dei pochi spazi in cui sono in grado di esplorare, penso che parlino semplicemente del problema con la sorveglianza e il processo educativo".
host: Chris Hedges
Produttore: Massimo Jones
Intro: Diego Ramos
Equipaggio: Diego Ramos, Sofia Menemenlis e Thomas Hedges
Trascrizione: Diego Ramos
Chris Hedges: Gli strumenti di sorveglianza sono diventati onnipresenti nelle scuole e nelle università. Le tecnologie, che promettono maggiore sicurezza e migliori prestazioni accademiche, hanno permesso a Gaggle, Securly, Bark e altri di raccogliere dati dettagliati sugli studenti. Queste tecnologie, tuttavia, non solo non sono riuscite a mantenere le promesse, ma hanno anche eviscerato la privacy degli studenti.
Ciò è particolarmente vero nelle comunità povere, dove c'è poco controllo sulla sorveglianza all'ingrosso. Questi dati vengono spesso usati contro gli studenti, in particolare poveri e di colore, accelerando il passaggio dalla scuola alla prigione. Quando studenti e insegnanti sanno di essere osservati e monitorati, questo soffoca il dibattito intellettuale, qualsiasi sfida alla narrazione dominante e ogni indagine sugli abusi di potere.
Ma, cosa ancora più sinistra, consente alle aziende e alle agenzie governative di stigmatizzare e criminalizzare gli studenti. Queste piattaforme digitali possono prendere di mira i giovani con la propaganda e usare l'ingegneria sociale e l'analisi delle tendenze per modellare il comportamento. Con me per discutere della sorveglianza di massa degli studenti c'è Nolan Higdon, autore, con Allison Butler, di Educazione alla sorveglianza: come affrontare la vistosa assenza di privacy nelle scuole.
Allora, Allison, cominciamo da te e, come fai nel libro, raccontaci quanto sia invasiva (cosa che non sapevo finché non ho letto il tuo libro) questa sorveglianza e come funziona.
Allison Butler: Certo. Grazie mille per averci ospitati. Direi che la risposta più breve a questa domanda è che è incredibilmente, totalmente, totalmente intrusivo. E per approfondire, viviamo in un mondo in cui le tecnologie di sorveglianza sono ormai inesistenti. Non c'è praticamente nessun posto in cui io e te possiamo andare come individui in cui non siamo in qualche modo sorvegliati. Gran parte di ciò avviene, in una certa misura, per nostra scelta. Ad esempio, se saliamo in macchina e usiamo il nostro GPS, accettiamo quei termini.
Ciò che ci preoccupa, in particolare con questo testo, è che abbiamo un'enorme quantità di sorveglianza nelle nostre scuole dalla materna alle superiori e nelle scuole superiori. In particolare per le scuole dalla materna alle superiori, questa sorveglianza avviene per i minori, per i bambini di età inferiore ai 12 anni, senza il loro consenso attivo. Siamo stati in un certo senso abituati, siamo stati in un certo senso preparati per le tecnologie di sorveglianza da alcune di quelle tecnologie soft, come il nostro GPS, come i codici QR che ci aiutano a rendere un po' più semplice la consultazione dei menu dei ristoranti, come alcune delle app sul nostro telefono che rendono la nostra vita un po' più comoda.
Il costo è che quando tecnologie di sorveglianza più dure e invasive entrano nel nostro mondo e, per quanto ci riguarda in particolare, entrano nelle nostre aule, in un certo senso abbiamo già gettato le basi per essere preparati e potremmo non necessariamente mettere in discussione tali tecnologie nella misura in cui meritano.
Chris Hedges: Bene, quelle tecnologie, come sottolinei nel libro, non sono commercializzate come sistemi di sorveglianza. Sono commercializzate come miglioramenti all'istruzione, miglioramenti alla sicurezza. E dammi un'immagine di alcuni di quelli che si imbarcano e di questi altri strumenti di sorveglianza digitale, dammi un'immagine di cosa sono e di come funzionano.
Nolan Higdon: Sì. Grazie mille per avermi ospitato, Chris. Allison e io siamo felici di essere qui. E penso che il modo più semplice per capirlo è che, come il resto della Silicon Valley, queste aziende di tecnologia educativa o di tecnologia educativa, tendono a promettere troppo e a mantenere poco. Quindi molte delle giustificazioni per aggiungerle alle aule sono cose con cui le persone sarebbero in genere d'accordo, giusto? Questi strumenti ci renderanno più sicuri o protetti. Miglioreranno l'apprendimento. Prepareranno gli studenti per il mercato del 21° secolo. Alcuni di loro si pubblicizzano persino come più inclusivi. Questo è più conforme a DEI [diversità, equità e inclusione], perché eliminano il pregiudizio umano, o l'elemento umano, è ciò che affermano. Ma notiamo in tutti questi casi che in realtà mascherano più, direi, motivazioni perniciose.
Si possono fare un sacco di soldi avendo questi strumenti in classe e potendo raccogliere dati. Quindi questo è un problema. L'altro problema è che, oltre a mascherare il vero motivo, che è fare profitto, non mantengono davvero molte di queste promesse. Nel libro parliamo di come, anche se dicono che questi strumenti sono costruiti per promuovere la sicurezza, spesso non ci riescono. Ci sono poche prove per dire che migliorano effettivamente l'apprendimento e poi ci sono molte buone prove che in realtà vanno contro gli obiettivi di DEI. Quindi in molti di questi casi, sembra che le ragioni addotte per avere questi strumenti di tecnologia educativa nelle scuole siano molto diverse da ciò che fanno realmente o dal vero scopo per cui vengono aggiunti a una scuola.
Chris Hedges: Allison, puoi spiegare in modo specifico, ad esempio, Bark o scegliere uno o due di questi programmi e spiegarci cosa, ovviamente raccolgono dati, ma cosa fanno nell'ambiente scolastico? Qual è la loro funzione?
Allison Butler: Certo. Quindi un esempio che viene utilizzato in molte classi dalla materna alla dodicesima è una tecnologia chiamata GoGuardian. GoGuardian è installato sui computer, i portatili delle classi. Quindi se hai, per amore di discussione, una classe in cui a ogni studente è assegnato un portatile, potrebbe essere la loro assegnazione di avere quello specifico per l'intero anno scolastico o potrebbero essere i portatili delle classi, e capita semplicemente che sia dove è seduto lo studente.
GoGuardian monitora i loro schermi, monitora tutto ciò che stanno facendo, e poi l'insegnante davanti alla classe, o dovunque si trovi, può guardare gli schermi degli studenti durante la lezione. Un argomento che GoGuardian sostiene è che questo aiuta gli insegnanti a tenere gli studenti sulla buona strada, e quindi aiuta gli studenti a rimanere sulla buona strada. Quindi è presentato come comportamentale. È presentato come una sorta di strumento di concentrazione, perché gli insegnanti possono guardare gli schermi degli studenti, e poi c'è una specie di elemento carota e bastone, ovvero un insegnante può dire, ehi, devi uscire da quel sito web. Non è quello su cui stiamo lavorando.
Oppure [l'insegnante] può guardare direttamente il lavoro di uno studente e commentare cosa sta facendo bene o cosa potrebbe essere adattato. Viene presentato come questo tipo di tecnologia comunitaria per le classi. Ecco alcuni dei problemi che riscontriamo con GoGuardian: agli insegnanti viene spesso detto che spetta a loro revisionare e, in effetti, molti degli insegnanti che abbiamo intervistato per il libro hanno detto di credere di essere loro a sorvegliare, che si sentivano un po' a disagio, ma che vedevano davvero il potere della sorveglianza nei loro computer. Ciò che non viene detto loro o non viene chiarito è che in realtà è l'azienda a sorvegliare tutto. E se pensiamo in particolare alle classi dalla materna alle superiori, come ho notato prima, questi sono dati di minorenni.
Quindi la quantità molto limitata di protezioni che ci sono, protezioni digitali, per mantenere al sicuro i dati dei minori sparisce una volta che hai una tecnologia che viene messa nella loro classe, c'è un'accettazione passiva di questa tecnologia. Gli studenti stessi non hanno dato un'accettazione attiva della raccolta dei loro dati. È un consenso implicito. E in effetti, questo è il linguaggio che viene spesso usato, ovvero usando la tecnologia, è un consenso implicito, e non c'è necessariamente un'esclusione. Quindi abbiamo una classe di confusione in cui l'insegnante crede di essere responsabile e di prendere una particolare decisione etica, quando in realtà non è lui il responsabile.
Una volta che un sistema come GoGuardian cattura i dati degli studenti e cattura le loro informazioni, li possiede, non c'è modo di disattivarli e, se in un momento uno studente collega il proprio cellulare personale a quel dispositivo per caricarlo, GoGuardian ora ha anche tutti quei dati grazie alla connessione digitale di questi dispositivi.
Un'insegnante che abbiamo intervistato si è sentita un po' a disagio, raccontava una storia in cui si sentiva un po' a disagio con GoGuardian, in parte perché lo studente era malato a casa e l'insegnante riusciva comunque a vedere cosa stava succedendo sullo schermo, come se anche quando lo studente era a casa, fuori da scuola per un motivo legittimo, l'insegnante riusciva a vedere lo studente come se guardasse video su YouTube. Ed è stato allora che ha pensato, Oh, non è quello che pensavo. Non è direttamente collegato alla classe, giusto? Penso che a volte le comodità delle nostre tecnologie digitali ci invitino a dimenticare che le nostre tecnologie digitali possono essere monitorate ovunque ci troviamo, non solo nelle nostre classi.
Penso che un altro esempio, qualcosa che viene utilizzato sia nella scuola primaria che in quella superiore, sia Turnitin. Turnitin è un programma che gli insegnanti possono impostare in modo che gli studenti inviino i loro elaborati scritti tramite questa piattaforma, e si vende da solo, si presenta come un rilevatore di plagio, il che suppongo, in un certo senso, sia vero. L'altra cosa insidiosa è che molte di queste tecnologie e queste aziende non ti mentono mai. Semplicemente non ti dicono tutta la verità e tralasciano alcune parti davvero importanti. Quindi Turnitin, sì, è un software di rilevamento del plagio. E inoltre, Turnitin fa almeno due cose.
Uno, insegna l'intelligenza artificiale, giusto? Quindi gli studenti che inviano i loro elaborati forniscono sempre più informazioni per lo sviluppo dell'intelligenza artificiale generativa, e poi Turnitin vende anche queste informazioni a inserzionisti e addetti al marketing, così che il linguaggio dei giovani venga analizzato e poi in un certo senso utilizzato nel linguaggio pubblicitario e di marketing e in un certo senso rivenduto a loro. Quindi i nostri giovani, in una certa misura, lavorano per questa azienda. Stanno facendo gran parte del lavoro e non vengono compensati in alcun modo. Quindi direi che questi sono due esempi molto grandi che mostrano in un certo senso quanto siano insidiose queste tecnologie, quanto siano invasive e quanto possano essere confuse per coloro che sono incoraggiati a usarle.
“… il linguaggio dei giovani viene analizzato e poi in un certo senso utilizzato nel linguaggio pubblicitario e di marketing e rivenduto a loro. Quindi i nostri giovani, in una certa misura, lavorano per questa azienda. Stanno facendo un sacco di lavoro e non vengono compensati in alcun modo.”
Chris Hedges: Nolan, parliamo di come queste tecnologie vengono utilizzate per controllare gli studenti, soprattutto nei quartieri poveri, cosa che colpisce in modo sproporzionato gli studenti di colore.
Nolan Higdon: Sì, una delle cose che notiamo con questi strumenti è che, di nuovo, fanno queste grandi promesse, giusto? Quindi promettono cose come la possibilità di prevedere se uno studente può impegnarsi in attività criminali, o la possibilità di prevedere se uno studente ha problemi di salute mentale che devono essere affrontati.
Ma il diavolo è nei dettagli. Ciò che fanno questi strumenti è raccogliere un sacco di dati e codificare algoritmi per analizzare quei dati, per prendere decisioni sulla salute mentale o sulla potenziale criminalità di qualcuno. Ed è qui che vediamo un grosso problema nell'affidarsi eccessivamente a questi strumenti. Questi algoritmi che interpretano i dati, sono codificati con lo stesso pregiudizio dei loro creatori, e vediamo ripetutamente come questi algoritmi traggano conclusioni razziste o transfobiche, e ciò che intendo dire è che questi algoritmi categorizzeranno in modo sproporzionato gli studenti di colore come più propensi a commettere un crimine. Di conseguenza, vengono monitorati di più dalla scuola, e questo, di nuovo, normalizza questo monitoraggio dei corpi neri.
Lo stesso vale per i rilevatori di salute mentale: categorizzano in modo sproporzionato cose come i bambini transgender per problemi di salute mentale, il che non significa che stiano solo attraversando problemi di salute mentale, che fanno parte della vita di alcune persone, ma significa anche che devono essere tenuti sotto controllo per cose come sparatorie a scuola, suicidio o autolesionismo.
“… questi algoritmi categorizzeranno in modo sproporzionato gli studenti di colore come quelli più inclini a commettere un crimine.”
E così si ottiene anche un'eccessiva sorveglianza di questi individui. E quindi uno dei miti, credo, che la Silicon Valley in generale, ha venduto ma questi strumenti di tecnologia educativa in particolare, è che hanno questi algoritmi oggettivi che sono liberi dai pregiudizi degli umani, e quindi possono trarre conclusioni più accurate. Ma la ricerca dice di no, non è così, se non altro, questi strumenti in realtà complicano o peggiorano molti dei problemi che abbiamo avuto con questioni come il razzismo o la transfobia.
Chris Hedges: Allison, vorrei parlare di come questi dati, prima di tutto, finiscono nelle mani di potenziali datori di lavoro. È un'industria da miliardi di dollari all'anno che vende i nostri dati personali, tutto ciò che abbiamo mai fatto, ogni violazione del codice della strada che abbiamo mai avuto, perché sostanzialmente consente ai datori di lavoro, forse anche alle università, che stanno prendendo in considerazione studenti delle scuole superiori, di avere informazioni che dovrebbero essere private e, naturalmente, potrebbero essere utilizzate contro quegli studenti o potenziali dipendenti.
Allison Butler: Quindi vorrei in un certo senso cavillare su una parola che hai detto, ovvero la vendita dei nostri dati. Penso che la cosa a cui dovremmo prestare più attenzione, giusto, al punto di Nolan sul fatto che il diavolo si nasconde nei dettagli, e a quello che ho detto prima su come in realtà non ci mentono, semplicemente non ci dicono necessariamente tutto.
Molte di queste tecnologie oggi diranno che non vendiamo i tuoi dati, e sono un sacco di punti esclamativi, giusto? E questo è qualcosa che dovremmo dire, "Oh, okay, bene. I miei dati sono al sicuro". Assolutamente no. Prima di tutto, i tuoi dati non sono al sicuro, perché le violazioni avvengono così spesso che non sono nemmeno più titoli o notizie. A un certo punto della nostra ricerca, stavamo cercando di categorizzare o catalogare tutte le diverse violazioni, e ci siamo detti che evidenziare questo in questi microdettagli non sarebbe stato utile, perché accadono di continuo. Ci siamo semplicemente abituati.
Ma ciò che dobbiamo davvero considerare è che molte di queste aziende condividono i nostri dati, giusto? Quindi ciò che accade è che abbiamo quello che tu e io potremmo pensare come aziende diverse che non hanno una connessione tra loro, e hanno stretto una partnership. Hanno acquistato i rispettivi modelli di business. Sono collegate in qualche modo. Quindi si definiscono aziende educative o partner educativi. Ciò significa che in realtà non devono vendere i nostri dati. Possono condividere i nostri dati. Quindi possiamo essere rassicurati a un certo livello. Ma in realtà, è quest'altro livello a cui potremmo dover pensare più attentamente.
Quindi quando parliamo di datori di lavoro, o quando parliamo di college, o forse anche se parliamo di scuole private, abbiamo così tanti partner educativi che hanno già accesso ai dati, che possono già fare delle analisi, che sono autorizzati a condividerli. Penso che fossimo soliti parlare diversi anni fa, in particolare con gli studenti dalla materna alle superiori, che i datori di lavoro avrebbero esaminato i tuoi social media. Gli uffici di ammissione al college avrebbero esaminato i tuoi social media. In realtà non abbiamo più bisogno di dire ai nostri giovani di preoccuparsi di queste corsie particolari. Queste persone non devono fare un sacco di lavoro investigativo. Sono già lì per loro. Quindi, che ci prestino molta attenzione o meno, non ne sono esattamente sicuro, ma i dati sono già lì. Sono semplicemente proprio di fronte a loro.
Chris Hedges: Nolan, puoi parlarci di come sono proattivi, di come si occupano di ingegneria sociale, di come non si limitano a raccogliere dati, ma li usano per modellare e plasmare il comportamento?
Nolan Higdon: Sì, e per aggiungere un livello a ciò, per riprendere da dove Allison si era fermata. E l'ho anche detto molto oggi, queste sono aziende di tecnologia educativa, ma è un po' fuorviante. Molte di queste aziende che gestiscono o possiedono queste piattaforme di tecnologia educativa, come abbiamo parlato di un paio, come Gaggle, Bark, c'è Canvas, altre, sono generalmente di proprietà di società di capitali. Questo è iniziato davvero negli ultimi 10 anni, queste società di capitali hanno acquistato questi strumenti di tecnologia educativa, apparentemente perché c'era un modo per entrare in classe. C'è un'intera industria qui nel mondo accademico che chiamano capitalismo della sorveglianza, che si basa sull'idea di trattare gli esseri umani come prodotti. Quindi estrai dati e informazioni sugli esseri umani da tutte queste tecnologie intelligenti, e poi sei in grado di prendere decisioni sul loro comportamento, come potrebbero reagire a qualcosa. E ci sono molte industrie che sono interessate a questo, giusto? Le industrie pubblicitarie vorrebbero sapere come creare la pubblicità perfetta per convincerti ad acquistare qualcosa. Le compagnie assicurative vorrebbero sapere come stabilire i premi, magari in base allo stato di salute o alle abitudini di guida, ecc. Quindi i dati possono essere molto redditizi per le industrie in questo ambito.
Ma oltre a prevedere il comportamento, ci sono anche entità interessate a spingere il tuo comportamento. Quindi cosa posso fare? In quale situazione posso metterti? Quali informazioni posso darti affinché tu ti comporti in questo modo? E c'è una grande convinzione nel settore che se raccogliamo dati sufficienti, possiamo spingere il comportamento delle persone nella giusta direzione, in particolare qui siamo in un anno elettorale, un sacco di campagne, questo è ciò che stanno cercando di fare con questi dati. Come possiamo usare questi dati per convincere queste persone a votare, o forse convincere queste persone a non votare, a seconda di cose del genere? Quindi c'è molto potenziale nel settore se sei in grado di raccogliere più punti dati, ed è per questo che le scuole sono così attraenti, giusto?
Sono uno dei pochi luoghi ad essere stati protetti come spazio pubblico, e quindi le aziende private da tempo volevano entrarci e, grazie all'altruismo di fornire strumenti di tecnologia educativa, questa è stata per loro un'opportunità di entrare in classe e avere accesso a quei dati redditizi.
“[Le scuole] sono uno dei pochi luoghi che sono stati protetti come spazio pubblico, e quindi le aziende private hanno a lungo voluto entrarci e …. ottenere l’accesso a dati redditizi”.
E giusto per fare un appunto, alcune di queste grandi aziende non possiedono solo strumenti di tecnologia educativa, possiedono cose come Baby Connect, che dice ai genitori di usare questi strumenti per monitorare il loro bambino. Possiedono anche piattaforme che esaminano i modelli di lavoro delle persone dopo la laurea. Ottengono anche dati dalla scuola sui social media. L'obiettivo è creare quello che chiamano profilo psicografico degli individui dalla culla alla tomba, e le scuole sono una parte importante di quel processo.
Chris Hedges: E voglio essere chiaro, lo sottolinei nel libro, questa è un'industria enorme. L'EdTech, dici, è un'industria globale da 123.4 miliardi di dollari. Stiamo parlando di grandi, grandi soldi. Allison, voglio parlare di, abbiamo visto durante l'estate come università e scuole hanno imposto ogni sorta di nuove restrizioni e regole per zittire le proteste contro il genocidio in Palestina, ed è stato coordinato in tutto il paese, niente volantini, niente eventi, tavoli, niente accampamenti, et cetera. In che misura strumenti come questi aiutano università e scuole a zittire il dissenso o le controversie, in particolare in Palestina?
Allison Butler: Penso che in larga misura, e penso che questo sia un luogo in cui è indicativo delle paure più ampie delle nostre università, beh, probabilmente per essere un po' superficiali, le nostre paure dei giovani e di ciò che stanno facendo con le loro tecnologie, ma paure dello stato della libertà accademica, paure di cosa significhi dissenso, di cosa significhi disobbedienza. Penso che passiamo così tanto tempo nelle nostre aule a lodare atti storici di dissenso, atti storici di disobbedienza, ma quando ci vengono confrontati al presente, è in qualche modo terrificante.
Se devo concedere loro il beneficio del dubbio, si tratta di amministratori che cercano un modo per mantenere i loro campus sicuri, per mantenere studenti, docenti, personale che hanno opinioni diverse e contrastanti sulla sicurezza. Sfortunatamente, penso che la parola sicuro sia spesso usata come un per favore non fatemi causa, giusto? È un eufemismo per per favore non fatemi causa. Quindi penso che, per un senso coltivato di paura, le tecnologie di sorveglianza facciano un ottimo lavoro capitalizzando la paura, giusto? Voglio dire, per cambiare un po', quando pensiamo all'inizio del Covid, stava capitalizzando la paura di ciò che intendevamo stare insieme, giusto? Quanto potrebbe essere pericoloso per noi essere nello stesso spazio. E penso che queste aziende continuino a capitalizzare quella paura quando osserviamo dissenso, dimostrazione e disobbedienza. E quindi hai gli strumenti universitari, poi hai gli strumenti dello stato di polizia, giusto? Quella polizia sta arrivando con le bodycam, che, siamo onesti, possono essere accese e spente per creare e inquadrare una narrazione molto particolare, giusto? Il punto è questo: le tecnologie di sorveglianza e questi strumenti agiscono in tutte le direzioni.
Abbiamo i nostri studenti stessi che filmano le loro azioni, il che significa che ci sono i loro volti, giusto? Se sono lì per un pacifico dissenso, se sono lì per la disobbedienza civile, i loro volti sono molto presenti, il che significa che se qualcosa va storto, non importa da chi va storto, giusto? Che si tratti dell'istigazione della polizia o dell'istigazione degli studenti contrari, abbiamo già tutte le loro informazioni. Quindi viviamo in un ambiente in cui penso che sia, come nella storia, importante essere presenti, importante alzarsi in piedi, e anche quella presenza e quell'alzarsi in piedi vengono manipolate e manovrate in modi terribili da queste tecnologie di sorveglianza.
Chris Hedges: E, Allison, ha una ramificazione globale, perché le università e le scuole sono tradizionalmente luoghi in cui avviene lo scambio di idee e dissenso; in una democrazia funzionante, sono uno degli epicentri, uno degli epicentri fisici in cui questo genere di discussioni dovrebbe poter aver luogo.
Allison Butler: Assolutamente e penso, di nuovo, quando guardiamo alla storia, quando guardiamo all'arco della storia, in qualche modo abbiamo dipinto questo quadro che questo era dissenso in cui le persone si comportavano come se avessero un disaccordo civile, e sembra che non lo abbiamo più. Quindi i nostri disaccordi molto incivili, i nostri disaccordi molto fisici vengono dipinti e presentati in un modo attraverso queste tecnologie che probabilmente non avremmo potuto fare nella storia, giusto?
Penso che molto si sia parlato quest'estate, quando ci si è avvicinati alle convention presidenziali, sia il RNC che il DNC, dicendo, in particolare il DNC, essendo a Chicago, di tipo, diamo un'occhiata alla storia. E penso che sia importante. Non direi mai che non dovremmo farlo, ma così tanto è cambiato nel modo in cui la nostra tecnologia partecipa a queste convention o a questi dissensi che la nostra comprensione del comportamento è totalmente e totalmente diversa.
Chris Hedges: Nolan, queste informazioni, come scrivi nel libro, non finiscono solo nelle mani delle aziende, finiscono anche nelle mani del DHS e dell'FBI. Parlaci un po' di come anche la sicurezza dello Stato utilizza queste informazioni.
Nolan Higdon: Sì, la cosiddetta sicurezza nazionale, o industria della sicurezza nazionale, è fortemente coinvolta nella raccolta di questi dati. E vale la pena ricordare alla gente che questi strumenti (internet, touch screen, GPS e tante altre funzioni dei dispositivi intelligenti nell'era digitale) provengono dal complesso militare-industriale. Sono stati creati tramite finanziamenti per la difesa, lavorando in collaborazione con università e scuole a metà del XX secolo. E in effetti, ne abbiamo parlato nel libro, quando gli studenti hanno scoperto a cosa servivano questi strumenti, hanno protestato contro di loro.
Ma fino ad oggi, questi strumenti continuano a raccogliere dati che vengono condivisi con il DHS e la comunità dell'intelligence, ancora una volta, sotto gli auspici dell'individuazione di potenziali terroristi, dell'individuazione di potenziali minacce. Ciò è problematico per numerose ragioni, ma una di queste, solo da un punto di vista puramente educativo, ha un impatto davvero negativo sull'apprendimento. Stiamo dicendo agli studenti in modo efficace quando sono nel campus, sono oggetti da monitorare e da proteggere, contro cui e da gestire. È molto difficile sviluppare una relazione di fiducia in cui le persone si sentano a proprio agio nel correre rischi e commettere errori, che sono fondamentali per l'istruzione quando si tratta di un ambiente in cui sono sempre sorvegliati.
"È molto difficile sviluppare un rapporto di fiducia in cui le persone si sentano a loro agio nel correre rischi e commettere errori, che sono fondamentali nell'istruzione, quando si è in un ambiente in cui sono sempre sotto controllo".
Chris Hedges: Beh, non solo sorvegliati e sorvegliati, ma come stiamo osservando con le proteste studentesche, questi strumenti di monitoraggio, in effetti, sono più di una sorveglianza. Si tratta di chiudere perché sanno chi è coinvolto, all'istante. Voglio dire, lo sapevano già ai tempi di Occupy. Lo so perché ho trascorso molto tempo a Zuccotti [Park nel centro di Manhattan], e dopo che [il sindaco di New York City Mike] Bloomberg ha chiuso il parco, ci sono state una serie di retate della polizia nei loft e hanno preso tutte le persone giuste, perché li stavano monitorando elettronicamente. Allison, voglio che tu parli, in particolare, di due strumenti di sicurezza informatica. Voglio che tu parli di Augury e Pegasus.
Allison Butler: In realtà... sono un po' i bambini di Nolan. Quindi glielo rimetto, se per te va bene.
Nolan Higdon: Sì, Pegasus è fondamentalmente un software spia che proviene dal governo israeliano. Ma Pegasus è stato fondamentalmente inserito in altri software. Quindi se si entrava in altri computer, fondamentalmente, si potevano monitorare le persone in tutto il mondo che avevano questo software Pegasus lì, e fondamentalmente si stava creando una piattaforma di sorveglianza globale. E Israele non è certo il solo in questo. Gli Stati Uniti sono stati...
Chris Hedges: E voglio solo interrompere Nolan, Pegasus è una creazione israeliana. Viene da Israele. È stato usato per tracciare Jamal Khashoggi, credo.
Nolan Higdon: Giusto, sì, e gli USA, come ho detto, stanno prendendo parte a una produzione e a un monitoraggio simili, incluso il lavoro con Israele su Pegasus. Ma, sì, questo, penso, per quanto riguarda il punto di Allison sulla storia che è cambiata, dobbiamo parlare molto delle nostre aspettative o di ciò che i nostri diritti e le nostre leggi devono cambiare.
Questa idea di perquisizioni e sequestri illegali o l'idea che la mia privacy sia qualcosa di mio, stanno cambiando nell'era digitale e la legge, e questa è una delle cose che sosteniamo nel testo, la legge deve adeguarsi, perché molte delle protezioni che avevamo sulla privacy, le scappatoie sono state esposte da governi e aziende, come nell'esempio di Pegasus. Parliamo di cose come, il tuo Primo Emendamento protegge la libertà di parola dal governo, ma il governo può lavorare con le aziende tecnologiche per bloccare determinati discorsi o idee, o sei protetto nelle tue comunicazioni, come in privato a casa tua, ma se si tratta di e-mail, significa che hai ceduto quelle comunicazioni a un'azienda privata che può quindi darle al governo.
Quindi ci sono un sacco di questo tipo di scappatoie che stanno esponendo nell'era digitale, e questa è una delle cose che sosteniamo nel testo, perché abbiamo persino avuto un movimento per i diritti degli studenti che ha ottenuto il diritto alla privacy nelle scuole. Ecco cosa ha creato il FERPA qui negli Stati Uniti. Ma poi, intorno al 2012, l'amministrazione Obama ha cambiato qualcosa al FERPA.
In precedenza, il FERPA significava che la scuola non poteva condividere le informazioni di uno studente con nessuno. Se era minorenne, potevi condividerle con il suo tutore. Ma le modifiche al FERPA del 2012 dicevano: "No, puoi anche condividere le sue informazioni con partner educativi". Queste sono aziende che hanno contratti con le scuole. E così, in effetti, tutti quei dati che il movimento per i diritti degli studenti ha lavorato per assicurarsi fossero privati, potevano essere distribuiti a queste aziende. E come abbiamo visto, questo è ciò che gli consente di entrare anche in altre aree.
"In precedenza, il FERPA significava che la scuola non poteva condividere le informazioni di uno studente con nessuno... Ma le modifiche al FERPA del 2012 hanno affermato: 'No, puoi anche condividere le loro informazioni con i partner educativi'".
Chris Hedges: E parliamo di Augury. È sviluppato da un'azienda di sicurezza informatica, un team... Cos'è, Cymru, che rende disponibili enormi quantità di dati per clienti governativi e privati. Vari rami dell'esercito hanno pagato collettivamente 3.5 milioni di dollari per accedere ai dati di Augury.
Nolan Higdon: Sì, aziende come Augury, mi piace pensare a loro come a una specie di giganteschi repository di broker di dati. Quindi escono e ottengono l'accesso a enormi quantità di dati. Analizzano questi dati in tempo reale e il modo in cui il settore lo descrive, vendono fondamentalmente prodotti che analizzano questi dati per aziende o governi.
Ma Augury è un esempio di qualcosa che serve gli interessi dei governi che forse vogliono prendere di mira le persone o comprendere il comportamento degli attivisti o comprendere la comunicazione degli attivisti online. Augury promette di avere questa enorme quantità di dati che può analizzare e fornire alcune risposte alle domande che i governi potrebbero avere che cercano di sorvegliare, comprendere, prevedere o spingere il comportamento.
Chris Hedges: Allison, nel tuo libro usi un termine, “razzismo algoritmico”. Puoi spiegarlo?
Allison Butler: Quindi se pensiamo agli algoritmi, e tutti noi siamo un po', gli algoritmi sono un po', penso che il nostro ossigeno oggigiorno, giusto? Tutto ciò che facciamo digitalmente è tratto da un algoritmo. E gli algoritmi sembrano, penso, a molti, in particolare quando parliamo con studenti dalla scuola materna alle superiori e in una certa misura nell'istruzione superiore, sembrano questo tipo di cosa misteriosa che in qualche modo nel computer... Ciò che dobbiamo ricordare è che gli algoritmi sono, sono programmi, sono codifica, sono linguaggio, sono domande che sono costruite da esseri umani, quindi sono costruite con il razzismo, il sessismo, l'omofobia, l'abilismo, ecc. degli esseri umani fallibili, giusto?
Quindi, per quanto riguarda il nostro punto di razzismo algoritmico, c'è del razzismo insito in queste tecnologie digitali, il che significa che, fin dall'inizio, vedranno persone di colore e, per estensione, donne di colore, persone con abilità diverse, chiunque si identifichi come LGBTQ, fondamentalmente chiunque sia o si identifichi al di fuori di ciò che il creatore dell'algoritmo vede come la norma, il che significa che non stiamo necessariamente guardando a esperienze fisiche e tangibili vissute di razzismo. Stiamo guardando al razzismo come a una forma di insegnamento su come usare le tecnologie digitali, perché, come ho detto, è in un certo senso insito in questo, quindi i problemi ci arrivano subito.
Perciò iniziamo a imparare come gestire le cose all'interno di quella cornice razzista, e questa diventa una norma, e diventa una sorta di modo centralizzato di vedere le cose, il che rende significativamente più pericoloso per i corpi di colore, così come per coloro che interagiscono con corpi di colore, avere un'idea preconcetta integrata nelle loro tecnologie di chi sono questi corpi e di come ci si aspetta che si comportino.
"Consideriamo il razzismo un modo per insegnarci come usare le tecnologie digitali".
Chris Hedges: Bene, un esempio di ciò che hai tratto dal libro è il software di riconoscimento facciale nel software di controllo dei test come Proctorio, sviluppato per studenti bianchi. Gli studenti neri e ispanici sono meno rilevabili e costretti a fornire più informazioni personali rispetto agli studenti bianchi per confermare la loro identità.
In un altro esempio del pregiudizio razzista codificato negli algoritmi, la ricerca rivela che i programmi che promettono di prevedere con precisione la permanenza degli studenti e il successo nei corsi presumono erroneamente che gli studenti di colore non avranno successo. Questo perché sono necessarie enormi quantità di dati per addestrare algoritmi e IA, ma vengono addestrati utilizzando la logica induttiva. Quindi, se stanno programmando per vedere più elementi ma viene mostrato solo un risultato, l'algoritmo comunicherà una varietà di cose diverse come una sola cosa. Ad esempio, se l'algoritmo è programmato per riconoscere le mele ma vengono mostrate solo mele rosse, il codice vedrà tutto in quel raggruppamento come una mela rossa. Sebbene ciò sia errato nell'esistenza reale delle mele, è corretto tramite ciò che è stato insegnato all'algoritmo.
Allison Butler: L'algoritmo risponde all'input umano, giusto? Voglio dire, penso che negli anni '1980, quando stavamo iniziando a familiarizzare con i computer, ci fosse una piccola frase ad effetto, "garbage in, garbage out" che se programmavi, voglio dire, non erano solo le persone normali nei nostri salotti a programmare i computer a quel punto, giusto? Ma se programmavi in garbage, allora ottenevi garbage. E penso che lo vediamo con la nostra IA generativa. Chiunque di noi inciampi o abbia difficoltà con ChatGPT, ad esempio, forse ciò che dobbiamo guardare è cosa stiamo programmando in esso. È la sofisticatezza che sta accadendo che questo non è un po' me che cerco goffamente di capire se ChatGPT può farmi pianificare i pasti per la settimana in modo che non debba pensarci troppo quando vado al supermercato. Questa è una programmazione altamente sofisticata che poi inquadra e costruisce il modo in cui il resto di noi vede il mondo, come il nostro esempio di software di riconoscimento facciale, e abbiamo un esempio molto del 21° secolo di privilegio non guadagnato di essere bianchi. Quel bianco si adatta molto meglio al modello.
Chris Hedges: Nolan, vorrei parlare di migranti. Nel libro scrivi che le scuole, in particolare le università negli Stati Uniti, nel Regno Unito e in Australia, sono autorizzate e si aspettano dai legislatori di identificare gli studenti migranti con uno status di immigrazione contestato o illegale. Il Dipartimento della sicurezza interna degli Stati Uniti conserva volumi di dati allo scopo di localizzare e tracciare i migranti. Ad esempio, LexisNexis, ampiamente utilizzata nell'istruzione, vende dati all'Immigration and Customs Enforcement del Dipartimento della sicurezza interna, ICE. LexisNexis, una sussidiaria della RELX Corporation, offre prodotti di analisi dei dati e database online. Si è scoperto che ha fornito informazioni sensibili all'ICE, che presumibilmente l'ICE stava utilizzando per tracciare e arrestare individui per la deportazione.
Nolan Higdon: Sì, questo è venuto dal capitolo che è stato motivato dal fatto che ogni volta che parliamo di questo argomento, riceviamo sempre questa domanda, inevitabilmente da qualcuno che dice "Beh, e allora? Non ho niente da nascondere. A chi importa della mia privacy?" E nel capitolo che stai leggendo da lì, Chris, abbiamo cercato di stilare un elenco di diverse vulnerabilità, e una in particolare sono gli studenti che hanno contestato, o cosiddetto, lo status di migrante illegale. Hanno chiaramente una ragione per volere la privacy. Potrebbero non essere nemmeno loro, potrebbero vivere con qualcuno che ha contestato lo status di migrante, che vogliono proteggere anche attraverso la propria privacy, ma partecipando al processo di apprendimento in cui questi strumenti sono presenti, minacciano quello status di migrante di loro stessi o delle persone con cui vivono, potrebbe essere usato contro di loro per la deportazione, l'arresto o qualsiasi altra cosa.
E lo vediamo ripetutamente. Ecco perché pensiamo che questi strumenti siano così perniciosi, perché tornando a dove abbiamo iniziato questa conversazione, vengono introdotti per cose come la sicurezza e il miglioramento dell'apprendimento e DEI e cose con cui penso che la maggior parte delle persone sarebbe d'accordo, ma in pratica vengono usati contro quelle misure, criminalizzando le persone, monitorandole e poi usando quelle informazioni, forse per deportare qualcuno.
“un processo di apprendimento in cui questi strumenti sono presenti…potrebbero essere usati contro di loro per la deportazione, l’arresto o qualsiasi altra cosa.”
Chris Hedges: Sottolinei anche perché i dispositivi forniti dalla scuola possono e allertano i campus sulle ricerche web degli studenti, persone che stanno cercando informazioni sulla loro sessualità e hanno rivelato le preferenze sessuali degli studenti. Di conseguenza, gli studenti LGBTQ+ cercano informazioni sulla loro sessualità o curiosità sessuale, comprese domande relative alla salute, rischiano di essere scoperti dai funzionari scolastici, dalle forze dell'ordine e da chiunque altro possa accedere alle loro informazioni.
Nolan Higdon: Sì, questo ci riporta a quello che stavamo dicendo, giusto? Crediamo che l'istruzione dovrebbe essere un esercizio di libertà. Le persone dovrebbero essere in grado di esplorare chi sono, esplorare le informazioni. L'aspettativa è che commetteranno errori in classe come studenti, solo i nostri insegnanti, ma devono sentirsi a loro agio per poter commettere quegli errori. Quando l'idea è che sei costantemente monitorato, o che questo potrebbe tornare ai tuoi genitori, o potrebbe essere trasmesso al mondo, gli studenti sono meno propensi a condividere. Sono meno propensi a cercare quelle informazioni. Limita la curiosità, che è essenziale per il processo educativo, e per non parlare del fatto che queste persone sono alle prese con domande critiche sulla loro identità, quindi il trauma mentale e la difficoltà di chiudere uno dei pochi spazi in cui sono in grado di esplorare, penso che parli solo del problema con la sorveglianza e il processo educativo.
Chris Hedges: Allison, vorrei parlare di cosa questo comporta all'interno delle scuole e delle università, scrivi che questa sorveglianza costante è un modo per garantire che la facoltà aderisca all'omogeneità ideologica ricercata dalla dirigenza scolastica. Inizia con il processo di candidatura quando ai candidati viene richiesto di condividere dettagli privati, come i loro approcci all'insegnamento e le dichiarazioni sulla diversità, che vengono utilizzate per garantire l'omogeneità ideologica nel campus. Continua mentre gli studenti, spesso illegalmente, registrano ciò che gli insegnanti fanno in classe. Questo può essere utilizzato ed è stato utilizzato per fare pressione sugli educatori affinché abbandonino la loro professione se sono percepiti come detentori di una posizione ideologica contraria allo status quo. Abbiamo osservato questo dal 7 ottobre, ripetutamente.
Allison Butler: Penso che una delle cose che queste tecnologie di sorveglianza possono fare, intenzionalmente o semplicemente per caso, è fomentare ambienti di sfiducia, giusto? Come ha detto Nolan, come ho detto io, come diciamo sempre nelle nostre aule, nelle aule scolastiche, quello è un posto dove fare errori. È un posto dove inciampare. È questo posto dove essere curiosi. È un posto dove l'ignoranza dovrebbe essere compresa in modo eccellente. Entro in un'aula come uno studente che non sa qualcosa. Ne sono ignorante. Ho l'opportunità di imparare da essa.
Quando abbiamo un ambiente in cui abbiamo tutte queste divisioni impostate per noi tramite la tecnologia, tutto ciò corre il rischio di scomparire, scomparire è una parola troppo debole, di essere calpestato, giusto? Non sto dicendo che gli studenti o gli insegnanti dovrebbero avere le loro giornate piene di discorsi orribili e pieni di odio, ma penso che abbiamo bisogno di imparare così tante prospettive diverse per poter davvero insegnare e imparare appieno.
E le nostre tecnologie digitali hanno la capacità di registrare, questa è una cosa importante, ma hanno anche la capacità di manipolare, il che cambia le storie che insegnanti e studenti raccontano. Crea classi che, nella migliore delle ipotesi, correranno il rischio di essere noiose, ok, ma ciò di cui stiamo realmente parlando è soffocare l'apprendimento. Stiamo parlando di soffocare l'esposizione. Stiamo parlando di soffocare il modo di gestire la differenza, giusto? Penso che, mentre guardiamo ai nostri conflitti globali in questi giorni, in particolare a ciò che sta accadendo in Israele/Palestina, ci vengono insegnate lezioni che dicono che la differenza è un male, mentre la differenza è un modo per iniziare a provare a imparare l'uno dall'altro come esseri umani.
Quindi, quando la differenza, quando la discussione, quando la domanda, quando l'incomprensione, la vera mancanza di comprensione, vengono soffocate da queste tecnologie digitali, le nostre aule non sono più luoghi di curiosità o di indagine. Sono fabbriche, solo per darci una laurea, e quella laurea potrebbe semplicemente non significare così tanto. Di nuovo, non sto sostenendo in alcun modo, forma o aspetto, un'aula piena di odio, solo per dimostrare un punto che le cose sono diverse, ma più sul fatto che dovremmo avere ambienti in cui possiamo essere a disagio, curiosi, indagatori, eccitati, tutte cose come strumento di apprendimento, e che lo stiamo facendo insieme in comunità, giusto?
Penso che un'altra grande cosa di queste tecnologie di sorveglianza, in particolare delle nostre tecnologie dei social media, è che sono incredibilmente isolanti. Sono, in effetti, piuttosto antisociali. E ciò che la scuola può fare, ciò che le classi possono fare, ciò che l'insegnamento e l'apprendimento possono fare, è costruire collaborazione e costruire comunità, il che contrasta l'isolamento. Contrasta quella silo-ificazione e le tecnologie di sorveglianza stanno lavorando molto duramente per costruire isolamento e costruire silos.
Chris Hedges: Beh, questo esclude ogni messa in discussione della narrazione dominante, non è vero?
Allison Butler: Assolutamente, e gli studenti non necessariamente capiscono o conoscono la struttura della narrazione dominante. Non necessariamente sanno come metterla in discussione. Dobbiamo iniziare a parlare di più di tutte queste cose, e questo significa stare insieme nelle classi, nel nostro mondo, stare insieme nelle classi e rimuovere, per quanto possibile, queste tecnologie.
Chris Hedges: Bene, in qualsiasi sistema totalitario, il punto è negare la possibilità di porre domande. Nolan, vorrei chiedere, hai detto, c'è una storia ben documentata di datori di lavoro che utilizzano la sorveglianza per sfruttare i lavoratori e minare la contrattazione collettiva. Invece di vedere la sorveglianza EdTech come un vantaggio per il processo educativo o una misura di sicurezza, gli educatori devono riconoscere che può essere utilizzata per i dati per minare il potere come dipendente. Parlane.
Nolan Higdon: Sì, questa è una parte davvero affascinante del libro, e una che so che abbiamo cercato di portare ai sindacati dei docenti. Ma sì, c'è una lunga storia di datori di lavoro che risale a secoli fa, che usano spie fisiche o cercano di spiare le comunicazioni per scoprire chi è un agitatore sindacale e rimuoverlo e chiunque simpatizzi con lui. Questa è un'era completamente nuova. Abbiamo questi strumenti in classe che possono sorvegliare le persone mentre lavorano in classe. Teoricamente usano le cose, sia nel contesto che fuori dal contesto, per sbarazzarsi di quei dipendenti.
Inoltre, abbiamo parlato di Israele, Gaza, molti dipendenti, docenti in questo momento, non hanno protezioni. Abbiamo visto l'aggiunta o la volontà dell'istruzione superiore. Quindi, indipendentemente da come la gente si sente riguardo a quel conflitto, lo evitano in classe perché hanno paura che qualsiasi cosa dicano possa essere usata contro di loro per perdere il lavoro, e non sono solo loro a perdere, sono gli studenti a perdere l'opportunità di impegnarsi su un problema mondiale critico. E poi, ancora di più, come docenti, questi strumenti stanno anche cercando di imparare da quello che stiamo facendo, quindi stanno raccogliendo i nostri dati e traendone profitto senza pagarci.
In genere il movimento dei lavoratori vuole essere pagato per il lavoro. Ma inoltre, stanno anche addestrando questi strumenti per provare a svolgere alcune delle funzioni che svolgono i docenti. Quindi stai addestrando il tuo sostituto a un certo livello, e sto pensando a cose come la valutazione intelligente e la scrittura intelligente dei compiti, questi nuovi strumenti che stanno uscendo.
Oppure ce n'è uno in cui puoi avere un'immagine del tuo volto, e puoi scrivere e l'immagine ti terrà una lezione. È un modo per sostituirti anche come lezione. Quindi molte di queste cose stanno arrivando, togliendo la privacy, sostituendo i lavori e i docenti stanno effettivamente partecipando al processo usando questi strumenti e non ottenendo rigide barriere nei loro contratti per prevenire questo tipo di sfruttamento economico, per non parlare di questo sforzo di sorveglianza per minare il processo di negoziazione.
"indipendentemente da come le persone si sentano riguardo a questo conflitto, lo evitano in classe perché hanno paura che qualsiasi cosa dicano possa essere usata contro di loro per fargli perdere il lavoro, e non sono solo loro a perderci, sono gli studenti a perdere l'opportunità di impegnarsi su un problema mondiale critico".
Chris Hedges: Allison, so che concludi il libro con dei suggerimenti su come limitare questa intrusione nella nostra privacy se non la controlli, ma se non la controlli, in che tipo di ambiente educativo e persino sociale e culturale vivremo?
Allison Butler: Penso che se non ci controlliamo, corriamo il rischio di vivere in scuole-fabbrica, come ho detto prima, in cui in un certo senso spingiamo i nostri studenti a prendere un pezzo di carta. Formeremo le generazioni future che essere monitorati è normale, che non esiste la privacy. Avremo una specie di istruzione meccanica in cui le informazioni sono molto sicure e un modo sicuro di presentarle, e noi, almeno in termini di linguaggio digitale, sapremo tutto di tutti, con una possibile avvertenza che coloro che rientrano in razza, genere, capacità economica e fisica, tra virgolette, norme, avranno vita più facile, ma inizieremo a vedere tutti i nostri corpi che non rientrano, tutti i nostri umani che non rientrano necessariamente in quella, di nuovo, molto generosa, tra virgolette, norma, essere spostati sempre più ai margini.
Penso che potremmo vedere che in un lasso di tempo piuttosto breve, le nostre aule non saranno più considerate luoghi di curiosità, di indagine. Saranno considerate luoghi di accettazione passiva di informazioni molto banali e attente.
Allo stesso tempo, probabilmente sembreranno piuttosto belle, perché le nostre tecnologie di sorveglianza, tutte le nostre tecnologie, hanno un aspetto molto sofisticato. Sono all'avanguardia. Spesso sono di seconda mano, giusto? Come ha detto prima Nolan, molto di ciò che usiamo ci arriva dal complesso militare-industriale: il fatto che possiamo guidare in luoghi sconosciuti è un GPS, è una tecnologia militare obsoleta. Il fatto che possiamo scattare foto fantastiche di feste, matrimoni o immobili è una tecnologia dei droni e una tecnologia militare obsoleta. Penso che il contenuto della nostra classe corra il rischio di essere completamente banale e noioso. Il loro aspetto potrebbe finire per essere piuttosto bello, il che potrebbe essere davvero appariscente e invitarci a dimenticare di pensare al contenuto.
Chris Hedges: Bene, quando il governo ti controlla 24 ore al giorno, non puoi usare la parola libertà, è la relazione tra un padrone e uno schiavo. Erano Nolan Higdon e Allison Butler nel loro libro, Educazione alla sorveglianza: come affrontare la vistosa assenza di privacy nelle scuole. È stato davvero, davvero un gran bel lavoro quello che avete fatto entrambi. Voglio ringraziare Sofia [Menemenlis], Diego [Ramos] Thomas [Hedges] e Max [Jones], che hanno prodotto lo show. Potete trovarmi su ChrisHedges.Substack.com.
Chris Hedges è un giornalista vincitore del Premio Pulitzer che è stato corrispondente estero per 15 anni per il New York Times, dove ha ricoperto il ruolo di capo ufficio per il Medio Oriente e capo ufficio per i Balcani per il giornale. In precedenza ha lavorato all'estero per The Dallas Morning News, The Christian Science Monitor e NPR. È il conduttore dello spettacolo "The Chris Hedges Report".
Questo articolo è di Scheerpost.
NOTA AI LETTORI: ora non mi resta più la possibilità di continuare a scrivere una rubrica settimanale per ScheerPost e di produrre il mio programma televisivo settimanale senza il vostro aiuto. I muri si stanno chiudendo, con sorprendente rapidità, sul giornalismo indipendente, con le élite, comprese quelle del Partito Democratico, che chiedono a gran voce sempre più censura. Per favore, se puoi, iscriviti a chrishedges.substack.com così posso continuare a pubblicare la mia rubrica del lunedì su ScheerPost e produrre il mio programma televisivo settimanale, "The Chris Hedges Report".
Questa intervista proviene da Posta di Scheer, per il quale Chris Hedges scrive una colonna regolare. Clicca qui per registrarti per avvisi e-mail.
Le opinioni espresse in questa intervista possono o meno riflettere quelle di Notizie Consorzio.
Questo articolo mi ha certamente reso più riluttante a continuare a usare TurnItIn per il rilevamento del plagio nelle sezioni del corso di laurea triennale che insegno in futuro, fornendomi un motivo più tangibile per guardare TurnItIn di lato, oltre ai miei sentimenti neo-luddisti astratti generalizzati riguardo alla natura intrinsecamente panottica e bifronte di tutta la tecnologia informatica quando combinata con una brama umana di potere. Dato il mio sospetto onnipresente nei confronti delle varie tecnologie di sorveglianza e marketing, sono stato ingenuo a non considerare gli altri usi non detti a cui potrebbe essere destinato un tale software di rilevamento del plagio prima di leggere la trascrizione di questa intervista, quindi apprezzo Chris Hedges e in particolar modo Allison Butler per avermelo fatto notare.
Grazie, Chris, per aver portato alla nostra attenzione questioni cruciali, ogni giorno.
Mi chiedevo anche se potresti intervistare Grisham sul suo ultimo libro su NF.
Nella mia esperienza, la tecnologia per osservare l'attività degli studenti sui computer di una scuola esiste almeno dal 2007, tramite applicazioni come Apple Remote Desktop e Teamviewer. Sono rimasto scioccato nell'assistere direttamente all'ufficio di supporto tecnico della scuola, soprattutto perché i miei studenti erano adulti, avevano accesso ai loro account di posta elettronica ma non sapevano che le loro comunicazioni non erano private. All'epoca l'intercettazione era intesa come passiva (anche se potenzialmente pruriginosa), fatta nell'interesse di fornire un supporto efficiente in caso di guasto della macchina. Anche la "spinta" comportamentale di cui parlano questi autori non è una novità. Nel 2017, abbiamo sentito segnalazioni di raccolta dati utilizzata per spingere il voto negli Stati Uniti e nel Regno Unito, rispettivamente da Cambridge Analytica e Aggregate IQ. Da allora, servizi come Newsguard spingono la raccolta di informazioni presumibilmente sicura e, a sua volta, il comportamento. La novità è che i dati dei minori vengono condivisi con intenti simili e lo stesso vecchio pregiudizio garbage in, garbage out imposto a personalità che non sono ancora completamente formate.
La necessità di contesto e la completezza sono solo due dei buoni attributi di Chris.
Non confondiamo il diritto alla privacy con un inesistente diritto all'anonimato nei luoghi pubblici. Il primo è un diritto naturale alla privacy nella propria casa e in altri luoghi privati e all'uso dei propri strumenti e beni. Il secondo è un'aspettativa di nessuna reazione al vivere e agire in luoghi pubblici e all'uso di strumenti e beni pubblici (e di proprietà di altri), che non è mai esistito nella storia umana e non può essere previsto, né è auspicabile ora e in futuro.
Quindi, in relazione all'articolo, i bambini hanno diritto alla privacy quando sono nelle loro case se (1) non invitano le aziende (ciao Siri) a casa loro espressamente per spiarli e (2) non utilizzano strumenti forniti dal pubblico (computer portatili della scuola) forniti per uno scopo pubblico per fare cose personali. Per quanto riguarda un ambiente pubblico come l'aula scolastica stessa o passeggiando per il campus o la città in generale, le azioni intraprese in pubblico sono osservabili da chiunque sia interessato a tali azioni e possono essere utilizzate per la raccolta di dati, il marketing e qualsiasi altro motivo.
per quanto riguarda "Penso che potremmo vedere che in un lasso di tempo piuttosto breve, le nostre aule non saranno considerate luoghi di curiosità, di indagine. Saranno considerate luoghi di accettazione passiva di informazioni molto banali e attente." ... mio Dio, quali aule hanno visitato queste persone? Luoghi di indagine e curiosità? Davvero? "Bueller ... Bueller ... Bueller ..."
Tutto ciò che dici potrà essere usato contro di te.
C'è davvero bisogno di un articolo così lungo??? Come se non avessimo altro da leggere e di cui preoccuparci! La razza bianca deve ancora rendersi conto di che MERDA DISTURBATORE siamo. Ma la colpa è sempre di un'altra razza...ovviamente.