Chris Hedges Bericht: Aufklärung zum Thema Überwachung

Shares

Allison Butler und Nolan Higdon diskutieren über die „Ed-Tech“-Systeme, die die Datenschutzrechte Minderjähriger untergraben und farbige Schüler diskriminieren.

By Chris Hedges
ScheerPost

AJede Technologie, die vom militärisch-industriellen Komplex der USA entwickelt und von der breiten Öffentlichkeit übernommen wurde, war immer mit einer Einschränkung verbunden.

Für die meisten sind das Internet, GPS, Touchscreens und andere allgegenwärtige Technologien ganz normale Werkzeuge der modernen Welt. Doch in Wirklichkeit dienen diese Technologien einem „doppelten Nutzen“,

Sie kommen einerseits den einfachen Leuten entgegen, ermöglichen andererseits aber auch die massenhafte Nötigung, Überwachung und Kontrolle ebendieser Menschen durch den Unternehmens- und Militärstaat.

Nolan Higdon und Allison Butler, Autoren von Aufklärung zum Thema Überwachung: Der Umgang mit der eklatanten Abwesenheit von Privatsphäre an Schulen, begleiten Sie Moderator Chris Hedges in dieser Folge von Der Chris Hedges-Bericht. Sie untersuchen die Software- und Technologiesysteme, die in Grund- und weiterführenden Schulen sowie an Hochschulen eingesetzt werden und die Schüler überwachen, die Privatsphäre Minderjähriger verletzen und dabei farbige Schüler diskriminieren.

Der Einsatz dieser Technologie, erklärt Higdon, basiert darauf, Menschen durch den Überwachungskapitalismus als Produkte zu behandeln.

„Man extrahiert Daten und Informationen über Menschen aus all diesen intelligenten Technologien und kann dann Rückschlüsse auf ihr Verhalten ziehen, darauf, wie sie auf etwas reagieren könnten. Und es gibt viele Branchen, die daran interessiert sind“, sagt Higdon zu Hedges.

Butler erklärt, dass Schüler, oft ohne Wahl, der Nutzung dieser Technologie ausgesetzt sind, die ihre Daten zwangsläufig ausbeutet. Da es eine stillschweigende Zustimmung zur Nutzung gibt, „ist der sehr begrenzte Schutz, der zum Schutz der Daten von Minderjährigen besteht, weg, sobald eine Technologie in deren Klassenzimmer eingesetzt wird“, sagt Butler. „Es gibt eine passive Akzeptanz dieser Technologie.“

Als Schlüsselfaktor nennt Higdon die von der Obama-Regierung im Jahr 2012 vorgenommenen Änderungen am Family Educational Rights and Privacy Act (FERPA). Diese Änderungen ermöglichten die Weitergabe von Schülerdaten an private Unternehmen, die als Bildungspartner fungieren.

„Tatsächlich durften alle Daten, deren Geheimhaltung die Studentenrechtsbewegung sicherstellen wollte, an diese Unternehmen weitergegeben werden“, sagt Higdon.

Die Autoren betonen den tiefgreifenden Einfluss dieser Technologien auf die grundlegenden Lernprozesse im Klassenzimmer.

„Es beschneidet die Neugier, die für den Bildungsprozess wesentlich ist“, sagt Higdon. „Das seelische Trauma und die Schwierigkeit, einen der wenigen Räume zu schließen, in denen sie sich erkunden können, verdeutlichen meiner Meinung nach das Problem der Überwachung und des Bildungsprozesses.“

Host: Chris Hedges

Produzent: Max Jones

Intro: Diego Ramos

Crew: Diego Ramos, Sofia Menemenlis und Thomas Hedges

Transcript: Diego Ramos

Chris Hedges: Überwachungsinstrumente sind in Schulen und Universitäten allgegenwärtig geworden. Technologien, die mehr Sicherheit und bessere akademische Leistungen versprechen, haben es Gaggle, Securly, Bark und anderen ermöglicht, detaillierte Daten über Schüler zu sammeln. Diese Technologien haben jedoch nicht nur ihre Versprechen nicht gehalten, sondern auch die Privatsphäre der Schüler beeinträchtigt. 

Dies gilt insbesondere für arme Gemeinden, in denen es kaum Kontrollen gegen die umfassende Überwachung gibt. Diese Daten werden oft gegen Schüler verwendet, insbesondere gegen die Armen und farbigen Schüler, was den Weg von der Schule ins Gefängnis beschleunigt. Wenn Schüler und Lehrer wissen, dass sie beobachtet und überwacht werden, unterdrückt dies die intellektuelle Debatte, jede Infragestellung der vorherrschenden Erzählung und jede Untersuchung von Machtmissbrauch. 

Aber noch bedrohlicher ist, dass es Unternehmen und Regierungsbehörden ermöglicht, Schüler zu stigmatisieren und zu kriminalisieren. Diese digitalen Plattformen können die Jugend mit Propaganda ansprechen und Social Engineering und Trendanalysen nutzen, um ihr Verhalten zu beeinflussen. Mit mir diskutieren wir über die Massenüberwachung von Schülern mit Nolan Higdon, Autor, und Allison Butler von Aufklärung zum Thema Überwachung: Der Umgang mit der eklatanten Abwesenheit von Privatsphäre an Schulen.

Also, Allison, beginnen wir mit Ihnen. Und wie Sie es in Ihrem Buch tun, sollten Sie uns ein Bild davon geben, wie aufdringlich diese Überwachung ist und wie sie funktioniert. Das war mir erst klar, als ich Ihr Buch las.

Allison Butler:  Sicher. Vielen Dank, dass Sie uns eingeladen haben. Ich würde sagen, die kürzeste Antwort auf diese Frage ist, dass es unglaublich, völlig und vollkommen aufdringlich ist. Und um das noch weiter auszuführen: Wir leben derzeit in einer Welt der Überwachungstechnologien. Es gibt praktisch keinen Ort, an den Sie und ich als Einzelpersonen gehen können, an dem wir nicht in irgendeiner Form überwacht werden. Vieles davon geschieht bis zu einem gewissen Grad durch unsere eigene Wahl. Wenn wir zum Beispiel in unser Auto steigen und unser GPS verwenden, stimmen wir diesen Bedingungen zu. 

Was uns insbesondere in diesem Text Sorgen bereitet, ist, dass wir in unseren Schulen und weiterführenden Schulen ein überwältigendes Maß an Überwachung erleben. Insbesondere in den Schulen werden Minderjährige, Kinder unter 12 Jahren, ohne deren aktive Zustimmung überwacht. Wir sind irgendwie an Überwachungstechnologien gewöhnt, wir sind durch einige dieser Soft-Technologien wie unser GPS, QR-Codes, die uns das Betrachten von Restaurantmenüs ein wenig erleichtern, wie einige der Apps auf unseren Telefonen, die unser Leben ein wenig bequemer machen, sozusagen darauf vorbereitet. 

Der Preis dafür ist, dass wir, wenn strengere und eingreifendere Überwachungstechnologien in unsere Welt und – was uns besonders beunruhigt – in unsere Klassenzimmer einziehen, eigentlich schon den Grundstein dafür gelegt haben und diese Technologien vielleicht nicht in dem Maße hinterfragen, wie sie es verdienen.

Chris Hedges: Nun, diese Technologien werden, wie Sie in Ihrem Buch darlegen, nicht als Überwachungssysteme vermarktet. Sie werden als Verbesserung der Bildung und der Sicherheit vermarktet. Und geben Sie mir einfach ein Bild von einigen dieser und dieser anderen digitalen Überwachungstools, geben Sie mir ein Bild davon, was sie sind und wie sie funktionieren.

Nolan Higdon:  Ja. Vielen Dank, dass ich hier sein darf, Chris. Allison und ich freuen uns, hier zu sein. Und ich denke, man kann es sich am einfachsten so vorstellen: Ähnlich wie der Rest des Silicon Valley neigen diese Bildungstechnologie- oder Ed-Tech-Unternehmen dazu, zu viel zu versprechen und zu wenig zu halten. Viele der Begründungen für die Einführung dieser Tools in Klassenzimmern sind also Dinge, denen die Leute normalerweise zustimmen würden, nicht wahr? Diese Tools werden uns sicherer machen. Sie werden das Lernen verbessern. Sie werden die Schüler auf den Markt des 21. Jahrhunderts vorbereiten. Einige von ihnen werben sogar damit, integrativer zu sein. Das entspricht eher DEI [Diversität, Gerechtigkeit und Inklusion], weil sie die menschliche Voreingenommenheit oder das menschliche Element herausnehmen, so behaupten sie. Aber wir stellen in all diesen Fällen fest, dass sie in Wirklichkeit mehr, wie ich sagen würde, bösartige Motive verbergen. 

Mit diesen Tools im Klassenzimmer und der Möglichkeit, Daten zu sammeln, lässt sich viel Geld verdienen. Das ist also ein Problem. Das andere Problem ist, dass sie nicht nur ihr wahres Motiv, nämlich Profit zu machen, verschleiern, sondern viele dieser Versprechen auch nicht einhalten. Wir sprechen in dem Buch darüber, dass diese Tools, obwohl sie sagen, sie seien zur Förderung der Sicherheit konzipiert, oft nicht den Erwartungen entsprechen. Es gibt kaum Beweise dafür, dass sie das Lernen tatsächlich verbessern, und es gibt viele gute Beweise dafür, dass sie den Zielen von DEI tatsächlich entgegenwirken. In vielen dieser Fälle scheinen die Gründe, die für den Einsatz dieser Ed-Tech-Tools in Schulen angeführt werden, also ganz andere zu sein als das, was sie tatsächlich tun oder der wahre Zweck ihrer Einführung in einer Schule.

Chris Hedges: Allison, können Sie uns beispielsweise Bark genauer erklären oder ein oder zwei dieser Programme auswählen und erklären, was sie tun? Natürlich sammeln sie Daten, aber was machen sie im schulischen Umfeld? Was ist ihre Funktion?

Allison Butler: Sicher. Ein Beispiel, das in vielen Klassen von der Vorschule bis zur Oberstufe verwendet wird, ist eine Technologie namens GoGuardian. GoGuardian wird auf Computern installiert, auf Laptops in Klassenräumen. Wenn Sie also beispielsweise einen Klassenraum haben, in dem jeder Schüler einen Laptop zugewiesen bekommt, könnte es sein, dass er diesen Laptop für das gesamte Schuljahr selbst zugewiesen bekommt, oder es könnten Klassenraum-Laptops sein, die zufällig dort stehen, wo der Schüler sitzt. 

GoGuardian überwacht ihre Bildschirme, es überwacht alles, was sie tun, und dann kann der Lehrer vorne im Klassenzimmer oder wo auch immer er sich gerade aufhält, während des Unterrichts auf die Bildschirme der Schüler schauen. Ein Argument von GoGuardian ist, dass dies den Lehrern hilft, die Schüler auf Kurs zu halten, und somit den Schülern hilft, auf Kurs zu bleiben. Es wird also als verhaltensbezogen dargestellt. Es wird als eine Art Fokussierungsinstrument dargestellt, weil die Lehrer auf die Bildschirme der Schüler schauen können, und dann gibt es eine Art Zuckerbrot-und-Peitsche-Element, das heißt, ein Lehrer kann sagen: „Hey, ihr müsst diese Website verlassen.“ Daran arbeiten wir nicht. 

Oder [der Lehrer] kann sich die Arbeit eines Schülers direkt ansehen und kommentieren, was er gut macht oder was vielleicht verbessert werden sollte. Es wird als eine Art Gemeinschaftstechnologie für Klassenzimmer präsentiert. Hier sind einige der Probleme, die wir bei GoGuardian festgestellt haben: Lehrern wird oft gesagt, dass sie die Daten überprüfen müssen, und tatsächlich sagten viele der Lehrer, die wir für das Buch interviewt haben, dass sie glaubten, sie seien diejenigen, die die Überwachung durchführen, dass sie sich dabei ein wenig unwohl fühlten, aber sie sahen wirklich die Macht der Überwachung in ihren Computern. Was ihnen nicht gesagt oder nicht klar gemacht wird, ist, dass es in Wirklichkeit das Unternehmen ist, das die gesamte Überwachung durchführt. Und wenn wir insbesondere an Klassenzimmer von der Vorschule bis zur 12. Klasse denken, handelt es sich, wie ich bereits erwähnte, um Daten von Minderjährigen. 

Die sehr begrenzten digitalen Schutzmaßnahmen, die es gibt, um die Daten von Minderjährigen zu schützen, sind weg, sobald eine Technologie im Klassenzimmer eingesetzt wird. Es gibt eine passive Akzeptanz dieser Technologie. Die Schüler selbst haben nicht aktiv zugestimmt, dass ihre Daten gesammelt werden. Es ist eine stillschweigende Zustimmung. Und tatsächlich wird oft diese Formulierung verwendet: Durch die Verwendung der Technologie wird stillschweigende Zustimmung gegeben und es gibt nicht unbedingt eine Opt-out-Möglichkeit. Wir haben also ein Klassenzimmer voller Verwirrung, in dem der Lehrer glaubt, er habe die Kontrolle und treffe eine bestimmte ethische Entscheidung, obwohl er in Wirklichkeit nicht diejenige ist, die die Kontrolle hat. 

Sobald ein Programm wie GoGuardian die Daten und Informationen der Studenten erfasst, hat es diese in seinem Besitz, und es gibt dafür keinen Ausschalter. Und wenn ein Student beispielsweise sein privates Mobiltelefon an das Gerät anschließt, um es aufzuladen, verfügt GoGuardian aufgrund der digitalen Verbindung dieser Geräte nun auch über alle diese Daten.

Eine Lehrerin, die wir interviewten, war etwas unwohl und erzählte eine Geschichte, in der sie sich mit GoGuardian unwohl fühlte, zum Teil, weil der Schüler krank zu Hause war und die Lehrerin trotzdem sehen konnte, was auf dem Bildschirm passierte. Selbst wenn der Schüler zu Hause war und aus einem legitimen Grund nicht zur Schule ging, konnte die Lehrerin den Schüler sehen, beispielsweise beim Anschauen von YouTube-Videos. Und da dachte sie irgendwie: „Oh, das ist nicht das, was ich dachte. Das hat doch nicht direkt mit dem Klassenzimmer zu tun, oder?“ Ich denke, manchmal verleiten uns die Annehmlichkeiten unserer digitalen Technologien dazu, zu vergessen, dass unsere digitalen Technologien überall überwacht werden können, wo wir sind, nicht nur in unseren Klassenzimmern. 

Ein weiteres Beispiel, das sowohl in der Grundschule als auch in der Hochschulbildung verwendet wird, ist Turnitin. Turnitin ist ein Programm, das Lehrer so einrichten können, dass Schüler ihre schriftlichen Arbeiten über diese Plattform einreichen. Es verkauft sich selbst und präsentiert sich als Plagiatserkennung, was, wie ich annehme, bis zu einem gewissen Grad auch stimmt. Das andere Heimtückische ist, dass viele dieser Technologien und Unternehmen Sie nie wirklich anlügen. Sie sagen Ihnen einfach nicht die ganze Wahrheit und lassen einige wirklich wichtige Teile aus. Turnitin ist also eine Plagiatserkennungssoftware. Und außerdem macht Turnitin mindestens zwei Dinge. 

Erstens geht es darum, KI zu lehren, richtig? Die Studenten, die ihre Arbeiten einreichen, liefern also immer mehr Informationen für die Entwicklung generativer KI, und dann verkauft Turnitin diese Informationen auch an Werbetreibende und Vermarkter, sodass die Sprache junger Leute analysiert und dann in der Werbe- und Marketingsprache verwendet und ihnen sozusagen wieder verkauft wird. Unsere jungen Leute arbeiten also in gewissem Maße für dieses Unternehmen. Sie leisten einen Großteil der Arbeit und werden dafür in keiner Weise entschädigt. Ich würde also sagen, das sind zwei wirklich große Beispiele, die zeigen, wie heimtückisch diese Technologien sind, wie invasiv sie sind und wie verwirrend sie für diejenigen sein können, die ermutigt werden, sie zu verwenden.

„… die Sprache junger Leute wird analysiert und dann in Werbe- und Marketingsprache verwendet und ihnen wieder verkauft. Unsere jungen Leute arbeiten also in gewissem Maße für dieses Unternehmen. Sie leisten einen Großteil der Arbeit und werden dafür in keiner Weise entlohnt.“

Chris Hedges: Nolan, lassen Sie uns darüber sprechen, wie diese Technologien zur Überwachung von Schülern eingesetzt werden, insbesondere in armen Vierteln, was überproportional viele farbige Schüler betrifft.

Nolan Higdon: Ja, eines der Dinge, die uns bei diesen Tools auffallen, ist, dass sie wieder diese großen Versprechungen machen, nicht wahr? Sie versprechen Dinge wie, dass wir vorhersagen können, ob ein Schüler kriminell wird, oder dass wir vorhersagen können, ob ein Schüler psychische Probleme hat, die behandelt werden müssen. 

Aber der Teufel steckt im Detail. Diese Tools sammeln eine Menge Daten und programmieren Algorithmen, um diese Daten zu analysieren und Rückschlüsse auf die psychische Gesundheit oder potenzielle Kriminalität einer Person zu ziehen. Und genau hier sehen wir ein großes Problem, wenn man sich zu sehr auf diese Tools verlässt. Diese Algorithmen, die die Daten interpretieren, sind mit der gleichen Voreingenommenheit programmiert wie ihre Entwickler, und wir sehen immer wieder, wie diese Algorithmen zu rassistischen oder transphoben Schlussfolgerungen kommen. Damit meine ich, dass diese Algorithmen farbige Schüler überproportional als eher kriminell einstufen. Infolgedessen werden sie von der Schule stärker überwacht, und dies wiederum normalisiert diese Überwachung schwarzer Körper. 

Dasselbe gilt für die Detektoren für psychische Gesundheit. Dort werden Dinge wie Transkinder überproportional häufig als psychisch krank eingestuft. Das heißt nicht nur, dass sie psychische Probleme haben, was für manche Menschen zum Leben dazugehört, sondern auch, dass man auf Dinge wie Schießereien in Schulen, Selbstmord oder Selbstverletzungen achten muss. 

„… diese Algorithmen werden farbige Schüler überproportional häufig als kriminell anfälliger einstufen.“  

Und so kommt es auch zu einer Überüberwachung dieser Personen. Und einer der Mythen, die meiner Meinung nach das Silicon Valley im Allgemeinen und diese Ed-Tech-Tools im Besonderen verbreitet haben, ist, dass sie über diese objektiven Algorithmen verfügen, die frei von menschlicher Voreingenommenheit sind und daher genauere Schlussfolgerungen ziehen können. Aber die Forschung sagt nein, das ist nicht der Fall. Wenn überhaupt, verkomplizieren oder verschlimmern diese Tools tatsächlich viele der Probleme, die wir mit Themen wie Rassismus oder Transphobie haben.

Chris Hedges: Allison, ich möchte darüber sprechen, wie diese Daten zunächst einmal in die Hände potenzieller Arbeitgeber gelangen. Es handelt sich um eine Multimilliarden-Dollar-Industrie, die unsere persönlichen Daten verkauft, alles, was wir je getan haben, jeden Verkehrsverstoß, den wir je begangen haben. Denn im Grunde genommen erhalten Arbeitgeber, vielleicht sogar Universitäten, die sich Highschool-Schüler ansehen, Informationen, die eigentlich privat sein sollten und natürlich gegen diese Schüler oder potenziellen Arbeitnehmer verwendet werden könnten.

Allison Butler: Ich würde also an einem Wort, das Sie erwähnt haben, etwas herumnörgeln, nämlich dem Verkauf unserer Daten. Ich denke, wir sollten Nolans Punkt, dass der Teufel im Detail steckt, mehr Aufmerksamkeit schenken, und auch dem, was ich vorhin gesagt habe, nämlich dass sie uns nicht wirklich anlügen, sondern uns nur nicht unbedingt alles erzählen. 

Viele dieser Technologien sagen heute, dass wir Ihre Daten nicht verkaufen, und das sind ziemlich viele Ausrufezeichen, nicht wahr? Und das ist etwas, worauf wir eigentlich antworten sollten: „Oh, okay, gut. Meine Daten sind sicher.“ Absolut nicht. Erstens sind Ihre Daten nicht sicher, weil Verstöße so häufig vorkommen, dass sie nicht einmal mehr Schlagzeilen oder Nachrichten sind. An einem Punkt unserer Forschung versuchten wir, all die verschiedenen Verstöße zu kategorisieren oder zu katalogisieren, und wir dachten einfach, dass es nicht hilfreich sein würde, dies in diesen Mikrodetails aufzuzeigen, weil dies ständig vorkommt. Wir sind einfach so daran gewöhnt. 

Was wir aber wirklich bedenken müssen, ist, dass so viele dieser Unternehmen unsere Daten teilen, nicht wahr? Was also passiert, ist, dass wir es hier mit etwas zu tun haben, das Sie und ich als verschiedene Unternehmen betrachten könnten, die keine Verbindung zueinander haben, und die eine Partnerschaft eingegangen sind. Sie haben sich in die Geschäftsmodelle des jeweils anderen eingekauft. Sie sind in gewisser Weise miteinander verbunden. Dann nennen sie sich Bildungsunternehmen oder Bildungspartner. Das bedeutet, dass sie unsere Daten nicht wirklich verkaufen müssen. Sie können unsere Daten teilen. Wir können also auf einer gewissen Ebene beruhigt sein. Aber tatsächlich ist es diese andere Ebene, über die wir vielleicht genauer nachdenken müssen. 

Wenn wir also über Arbeitgeber oder Hochschulen oder vielleicht sogar über Privatschulen sprechen, haben wir so viele Bildungspartner, die bereits Zugriff auf die Daten haben, die bereits einige Analysen durchführen können und die sie weitergeben dürfen. Ich glaube, wir haben vor einigen Jahren darüber gesprochen, dass Arbeitgeber, insbesondere bei Schülern von der Vorschule bis zur 12. Klasse, Ihre sozialen Medien untersuchen werden. Die Zulassungsstellen der Hochschulen werden Ihre sozialen Medien untersuchen. Wir müssen unsere jungen Leute eigentlich nicht mehr darauf hinweisen, sich über diese speziellen Bereiche Gedanken zu machen. Diese Leute müssen nicht viel Detektivarbeit leisten. Es ist bereits für sie da. Ob sie also genau darauf achten oder nicht, weiß ich nicht genau, aber die Daten sind bereits da. Sie liegen einfach direkt vor ihnen.

Chris Hedges: Nolan, können Sie etwas darüber sagen, wie proaktiv sie vorgehen, wie Social Engineering betrieben wird, wie es dabei nicht nur um das Sammeln von Daten geht, sondern wie diese dazu verwendet werden, Verhalten zu formen und zu gestalten.

Nolan Higdon: Ja, und um noch eine Ebene hinzuzufügen, um dort weiterzumachen, wo Allison aufgehört hat. Und ich habe das heute sogar oft gesagt, das sind Ed-Tech-Unternehmen, aber das ist irgendwie irreführend. Viele dieser Unternehmen, die diese Ed-Tech-Plattformen betreiben oder besitzen, wie wir über ein paar gesprochen haben, wie Gaggle, Bark, Canvas und andere, sind im Allgemeinen im Besitz von Beteiligungsfirmen. Das hat in den letzten 10 Jahren wirklich angefangen, diese Beteiligungsfirmen haben diese Ed-Tech-Tools aufgekauft, angeblich, weil es eine Möglichkeit gab, ins Klassenzimmer zu kommen. Es gibt hier in der akademischen Welt eine ganze Branche, die man Überwachungskapitalismus nennt und die auf der Idee basiert, Menschen wie Produkte zu behandeln. Man extrahiert also Daten und Informationen über Menschen aus all diesen intelligenten Technologien und kann dann Rückschlüsse auf ihr Verhalten ziehen, wie sie auf etwas reagieren könnten. Und es gibt viele Branchen, die daran interessiert sind, nicht wahr? Die Werbebranche würde gerne wissen, wie man die perfekte Werbung erstellt, um Sie dazu zu bringen, etwas zu kaufen. Versicherungsunternehmen möchten wissen, wie sie Ihre Prämien festlegen, möglicherweise auf der Grundlage Ihres Gesundheitszustands oder Ihres Fahrverhaltens usw. Daten können für die jeweilige Branche also recht lukrativ sein. 

Aber neben der Verhaltensvorhersage gibt es auch Unternehmen, die daran interessiert sind, Ihr Verhalten zu beeinflussen. Was kann ich also tun? In welche Situation kann ich Sie bringen? Welche Informationen kann ich Ihnen geben, damit Sie sich so verhalten? Und in der Branche herrscht große Überzeugung, dass wir das Verhalten der Menschen in die richtige Richtung lenken können, wenn wir nur genügend Daten sammeln. Gerade jetzt, wo wir uns in einem Wahljahr befinden, versuchen viele Kampagnen, genau das mit diesen Daten zu erreichen. Wie können wir diese Daten nutzen, um diese Menschen zum Wählen zu bewegen oder vielleicht dazu, diese Menschen nicht zu wählen, je nach solchen Dingen? Es gibt also viel Potenzial in der Branche, wenn man in der Lage ist, mehrere Datenpunkte zu sammeln, und deshalb sind Schulen so attraktiv, nicht wahr? 

Sie gehören zu den wenigen Orten, die als öffentlicher Raum geschützt sind, und deshalb wollten private Unternehmen schon lange dort hinein. Aus altruistischem Grund stellten sie Ed-Tech-Tools zur Verfügung. Für sie war dies eine Gelegenheit, in die Klassenzimmer zu gelangen und Zugriff auf diese lukrativen Daten zu erhalten. 

„[Schulen] gehören zu den wenigen Orten, die als öffentlicher Raum geschützt sind, und deshalb wollen private Unternehmen schon lange dort hinein und … Zugang zu lukrativen Daten bekommen.“ 

Und um das noch einmal deutlich zu machen: Einige dieser großen Firmen besitzen nicht nur Ed-Tech-Tools, sondern auch Dinge wie Baby Connect, das Eltern anweist, diese Tools zu verwenden, um ihr Baby zu überwachen. Sie besitzen auch Plattformen, die die Arbeitsmuster der Leute nach dem Schulabschluss untersuchen. Sie erhalten auch Daten aus den sozialen Medien. Ziel ist es, ein sogenanntes psychografisches Profil von Individuen von der Wiege bis zur Bahre zu erstellen, und Schulen sind ein wichtiger Teil dieses Prozesses.

Chris Hedges: Und ich möchte klarstellen, dass es sich um eine riesige Branche handelt. Sie sagen, EdTech ist eine globale Branche mit einem Volumen von 123.4 Milliarden Dollar. Wir sprechen hier von sehr, sehr viel Geld. Allison, ich möchte darüber sprechen, dass wir im Sommer beobachtet haben, wie Universitäten und Schulen alle möglichen neuen Beschränkungen und Regeln eingeführt haben, um Proteste gegen den Völkermord in Palästina zu unterbinden. Und das wurde im ganzen Land koordiniert: keine Flyer, keine Veranstaltungen, keine Tische, keine Lager usw. Inwieweit helfen solche Instrumente Universitäten und Schulen dabei, abweichende Meinungen oder Kontroversen zu unterbinden, insbesondere in Bezug auf Palästina?

Allison Butler: Ich denke, in hohem Maße, und ich denke, dies ist ein Hinweis auf die größeren Ängste unserer Universitäten, nun, vielleicht um es etwas leichtfertig auszudrücken, unsere Ängste vor jungen Menschen und dem, was sie mit ihren eigenen Technologien machen, aber Ängste vor dem Zustand der akademischen Freiheit, Ängste vor dem, was Dissens bedeutet, vor dem, was Ungehorsam bedeutet. Ich denke, wir verbringen in unseren Hörsälen so viel Zeit damit, historische Akte des Dissens, historische Akte des Ungehorsams zu loben, aber wenn wir in der Gegenwart damit konfrontiert werden, ist das irgendwie erschreckend. 

Wenn ich ihnen den Vertrauensvorschuss gebe, dann sind es die Administratoren, die nach einer Möglichkeit suchen, ihre Campusse sicher zu halten, um Studenten, Lehrkräfte und Mitarbeiter zu schützen, die unterschiedliche und widersprüchliche Ansichten über Sicherheit haben. Leider wird das Wort „sicher“ meiner Meinung nach oft im Sinne von „Bitte verklagen Sie mich nicht“ verwendet, nicht wahr? Es ist ein Euphemismus für „Bitte verklagen Sie mich nicht“. Ich denke also, dass die Überwachungstechnologien aus einem kultivierten Gefühl der Angst heraus wirklich gut aus der Angst Kapital schlagen, nicht wahr? Um es ein wenig zu verschieben: Wenn wir an den Beginn von Covid denken, wurde aus der Angst vor dem, was wir zusammen sein sollten, Kapital geschlagen, nicht wahr? Wie gefährlich es für uns sein könnte, uns am selben Ort aufzuhalten. Und ich denke, diese Unternehmen schlagen weiterhin aus dieser Angst Kapital, wenn es um Dissens, Demonstrationen und Ungehorsam geht. Und so gibt es die Werkzeuge der Universitäten, und dann gibt es die Werkzeuge des Polizeistaats, nicht wahr? Die Polizei kommt mit Körperkameras, die, seien wir ehrlich, ein- und ausgeschaltet werden können, um ein ganz bestimmtes Narrativ zu schaffen und zu gestalten, nicht wahr? Das ist das Problem: Überwachungstechnologien und diese Werkzeuge wirken in alle Richtungen. 

Unsere Studenten selbst filmen ihre Aktionen, das heißt, es gibt ihre Gesichter, nicht wahr? Wenn sie friedlich protestieren, wenn sie zivilen Ungehorsam leisten, sind ihre Gesichter sehr wohl zu sehen, das heißt, wenn etwas schief geht, egal, von wem es schiefgeht, nicht wahr? Wenn es sich um eine Anstiftung der Polizei oder gegen die Anstiftung der Studenten handelt, haben wir bereits alle Informationen über sie. Wir leben also in einer Umgebung, in der es meiner Meinung nach, wie schon im Laufe der Geschichte, wichtig ist, präsent zu sein, aufzustehen, und diese Präsenz und dieses Aufstehen werden durch diese Überwachungstechnologien auf schreckliche Weise manipuliert und gesteuert.

Chris Hedges: Und, Allison, es hat globale Auswirkungen, denn Universitäten und Schulen sind traditionell Orte des Austauschs von Ideen und abweichender Meinungen. In einer funktionierenden Demokratie sind sie eines der Epizentren, eines der physischen Epizentren, wo derartige Diskussionen stattfinden dürfen sollten.

Allison Butler: Absolut, und ich denke, wenn wir uns die Geschichte ansehen, wenn wir den Verlauf der Geschichte betrachten, wird uns irgendwie das Bild vermittelt, dass es sich um Dissens handelte, bei dem sich die Leute so verhielten, als hätten sie eine zivilisierte Meinungsverschiedenheit, und das scheint es einfach nicht mehr zu geben. Unsere sehr unhöflichen Meinungsverschiedenheiten, unsere sehr physischen Meinungsverschiedenheiten werden also durch diese Technologien auf eine Weise dargestellt, die wir in der Geschichte wahrscheinlich nicht hätten tun können, nicht wahr?

Ich denke, dass in diesem Sommer, als die Präsidentschaftsparteitage näher rückten, sowohl beim RNC als auch beim DNC, insbesondere beim DNC in Chicago, viel darüber geredet wurde, dass man einen Blick zurück in die Geschichte werfen sollte. Und ich denke, das ist wichtig. Ich würde nie sagen, dass wir das nicht tun sollten, aber die Art und Weise, wie unsere Technologie an diesen Parteitagen oder diesen Meinungsverschiedenheiten teilnimmt, hat sich so sehr verändert, dass unser Verständnis von Verhalten völlig und absolut anders ist.

Chris Hedges: Nolan, wie Sie in Ihrem Buch schreiben, gelangen diese Informationen nicht nur in die Hände von Unternehmen, sondern auch in die Hände des Ministeriums für Innere Sicherheit und des FBI. Erzählen Sie uns ein wenig, wie diese Informationen auch von der Staatssicherheit genutzt werden.

Nolan Higdon: Ja, die sogenannte nationale Sicherheit oder die nationale Sicherheitsindustrie ist stark in die Sammlung dieser Daten involviert. Und es lohnt sich, die Leute daran zu erinnern, dass diese Tools – Internet, Touchscreen, GPS und so viele weitere Funktionen intelligenter Geräte im digitalen Zeitalter – aus dem militärisch-industriellen Komplex stammen. Sie wurden Mitte des 20. Jahrhunderts mit Verteidigungsgeldern in Zusammenarbeit mit Universitäten und Schulen entwickelt. Und tatsächlich haben wir in dem Buch darüber gesprochen, dass die Studenten, als sie herausfanden, wozu diese Tools entwickelt wurden, gegen sie protestierten. 

Doch bis zum heutigen Tag sammeln diese Tools weiterhin Daten, die mit dem DHS und den Geheimdiensten geteilt werden, wiederum unter dem Vorwand, potenzielle Terroristen und potenzielle Bedrohungen aufzuspüren. Das ist aus zahlreichen Gründen problematisch, aber einer davon – aus rein pädagogischer Sicht – wirkt sich wirklich negativ auf das Lernen aus. Wir sagen den Studenten effektiv, dass sie auf dem Campus Objekte sind, die überwacht und vor denen sie geschützt und kontrolliert werden müssen. Es ist sehr schwierig, eine vertrauensvolle Beziehung aufzubauen, in der sich die Leute wohl fühlen, Risiken einzugehen und Fehler zu machen, die für die Bildung von zentraler Bedeutung sind, wenn sie in einer Umgebung leben, in der sie ständig überwacht werden.

„Es ist sehr schwierig, eine vertrauensvolle Beziehung aufzubauen, in der sich die Leute wohl dabei fühlen, Risiken einzugehen und Fehler zu machen, die für die Bildung von zentraler Bedeutung sind, wenn sie in einem Umfeld leben, in dem sie ständig überwacht werden.“

Chris Hedges: Nun, es geht nicht nur um Überwachung und Kontrolle, sondern wie wir bei den Studentenprotesten beobachten, sind diese Überwachungsinstrumente tatsächlich mehr als nur Überwachung. Es geht darum, alles lahmzulegen, weil sie sofort wissen, wer daran beteiligt ist. Ich meine, das wussten sie schon bei Occupy. Ich weiß das, weil ich viel Zeit im Zuccotti [Park in Downtown Manhattan] verbracht habe, und nachdem [New Yorks Bürgermeister Mike] Bloomberg den Park geschlossen hatte, gab es eine Reihe von Razzien der Polizei in Lofts, und sie erwischten alle richtigen Leute, weil sie sie elektronisch überwachten. Allison, ich möchte, dass Sie insbesondere über zwei Cybersicherheitstools sprechen. Ich möchte, dass Sie über Augury und Pegasus sprechen.

Allison Butler: Eigentlich … sind das sozusagen Nolans Babys. Also werde ich das an ihn zurückgeben, wenn das okay ist.

Nolan Higdon: Ja, Pegasus ist im Grunde eine Spionagesoftware der israelischen Regierung. Aber Pegasus wurde im Grunde auch in andere Software eingebaut. Wenn man also in andere Computer eindrang, konnte man im Grunde Menschen auf der ganzen Welt überwachen, die diese Pegasus-Software installiert hatten, und so entstand im Grunde eine globale Überwachungsplattform. Und Israel ist damit nicht allein. Die Vereinigten Staaten haben … 

Chris Hedges: Und ich möchte Nolan unterbrechen. Pegasus ist eine israelische Kreation. Es kommt aus Israel. Ich glaube, es wurde verwendet, um Jamal Khashoggi aufzuspüren.

Nolan Higdon: Richtig, ja, und die USA beteiligen sich, wie ich sagte, an ähnlichen Produktionen und Überwachungen, einschließlich der Zusammenarbeit mit Israel bei Pegasus. Aber ja, ich denke, das, was Allisons Punkt betrifft, dass sich die Geschichte geändert hat, wir müssen viel über unsere Erwartungen sprechen oder darüber, was unsere Rechte und Gesetze ebenfalls ändern müssen.

Diese Vorstellung von illegalen Durchsuchungen und Beschlagnahmungen oder die Vorstellung, dass meine Privatsphäre mir gehört, ändert sich im digitalen Zeitalter, und das Gesetz – und das ist eines der Dinge, die wir in diesem Text befürworten – das Gesetz muss damit Schritt halten, denn viele der Schlupflöcher, die wir zum Schutz der Privatsphäre hatten, wurden von Regierungen und Unternehmen aufgedeckt, wie im Beispiel von Pegasus. Wir sprechen über Dinge wie: Ihr erster Verfassungszusatz schützt die Meinungsfreiheit vor der Regierung, aber die Regierung kann mit Technologieunternehmen zusammenarbeiten, um bestimmte Äußerungen oder Ideen zu unterbinden, oder Sie sind in Ihrer Kommunikation geschützt, beispielsweise privat in Ihrem Zuhause, aber wenn es sich um E-Mails handelt, bedeutet das, dass Sie diese Kommunikation an ein privates Unternehmen weitergegeben haben, das sie dann an die Regierung weitergeben kann. 

Es gibt also viele solcher Schlupflöcher, die im digitalen Zeitalter aufgedeckt werden, und das ist eines der Dinge, für die wir uns in diesem Text einsetzen, denn es gab sogar eine Schülerrechtsbewegung, die Schülern das Recht auf Privatsphäre in der Schule einräumte. So entstand FERPA. hier in den Vereinigten Staaten. Aber dann, etwa 2012, änderte die Obama-Regierung etwas an FERPA. 

Bisher bedeutete FERPA, dass die Schulen die Informationen eines Schülers nicht an andere weitergeben durften. Bei Minderjährigen konnten sie die Informationen an ihre Erziehungsberechtigten weitergeben. Doch die Änderungen von FERPA im Jahr 2012 besagten: „Nein, Sie können die Informationen auch an Bildungspartner weitergeben.“ Das sind Unternehmen, die Verträge mit den Schulen haben. Und so durften praktisch alle Daten, die die Schülerrechtsbewegung als privat einstufte, an diese Unternehmen weitergegeben werden. Und wie wir gesehen haben, können die Daten dadurch auch in andere Bereiche gelangen.

„Früher bedeutete FERPA, dass die Schule die Informationen eines Schülers nicht an Dritte weitergeben durfte … Aber die Änderungen an FERPA im Jahr 2012 besagten: ‚Nein, Sie können deren Informationen auch an Bildungspartner weitergeben.‘“

 

Chris Hedges: Und sprechen wir über Augury. Das wurde von einem Cybersicherheitsunternehmen entwickelt, einem Team … Wie heißt das, Cymru, das riesige Datenmengen für staatliche und private Kunden verfügbar macht. Verschiedene Zweige des Militärs haben zusammen 3.5 Millionen Dollar bezahlt, um auf die Daten von Augury zugreifen zu können.

Nolan Higdon: Ja, Unternehmen wie Augury stelle ich mir gerne als eine Art riesige Datenbroker-Repositorien vor. Sie verschaffen sich also Zugang zu riesigen Datenmengen. Sie analysieren diese Daten in Echtzeit und verkaufen, wie es die Branche beschreibt, im Grunde genommen Produkte, die diese Daten für Unternehmen oder Regierungen analysieren.

Aber Augury ist ein Beispiel für etwas, das den Interessen von Regierungen dient, die vielleicht gezielt Menschen angreifen oder das Verhalten oder die Online-Kommunikation von Aktivisten verstehen wollen. Augury verspricht, über diese riesigen Datenmengen zu verfügen, die es analysieren kann und Antworten auf Fragen liefert, die Regierungen haben könnten, die versuchen, Verhalten zu überwachen, zu verstehen, vorherzusagen oder zu beeinflussen.

Chris Hedges: Allison, Sie verwenden in Ihrem Buch den Begriff „algorithmischer Rassismus“. Können Sie das erklären?

Allison Butler: Wenn wir also über Algorithmen nachdenken – und wir alle sind in gewisser Weise –, sind Algorithmen heutzutage sozusagen unser Sauerstoff, nicht wahr? Alles, was wir digital tun, wird von einem Algorithmus bezogen. Und ich glaube, für viele, insbesondere wenn wir mit Schülern im Kindergarten und in gewissem Maße auch im Hochschulbereich sprechen, kommen ihnen Algorithmen wie diese Art mysteriöser Dinge vor, die irgendwie im Computer stecken … Wir müssen bedenken, dass Algorithmen Programme, Codes, Sprache und Fragen sind, die von Menschen erstellt werden, also mit fehlbarem menschlichen Rassismus, Sexismus, Homophobie, Behindertenfeindlichkeit usw., nicht wahr? 

Unser Standpunkt zum algorithmischen Rassismus ist, dass Rassismus in diese digitalen Technologien eingebrannt ist. Das heißt, dass sie von Anfang an Menschen mit dunkler Hautfarbe sehen werden, und im weiteren Sinne auch Frauen mit dunkler Hautfarbe, Menschen mit unterschiedlichen Fähigkeiten, jeden, der sich als LGBTQ identifiziert, im Grunde jeden, der außerhalb dessen liegt oder sich identifiziert, was der Ersteller des Algorithmus als Norm betrachtet. Das heißt, dass wir nicht unbedingt physische, greifbare gelebte Erfahrungen von Rassismus betrachten. Wir betrachten Rassismus als eine Form, uns den Umgang mit digitalen Technologien beizubringen, denn wie ich sagte, ist er irgendwie eingebrannt, sodass die Probleme sofort auf uns zukommen.

Daher beginnen wir zu lernen, die Dinge innerhalb dieses rassistischen Rahmens zu handhaben, und das wird zur Norm und zu einer Art zentralisierter Sichtweise. Das macht es für farbige Körper sowie für diejenigen, die mit farbigen Körpern interagieren, wesentlich gefährlicher, wenn in ihren Technologien eine vorgefasste Meinung darüber eingebaut ist, wer diese Körper sind und wie sie sich verhalten sollen.

„Wir betrachten Rassismus als eine Form, uns den Umgang mit digitalen Technologien beizubringen.“

Chris Hedges: Ein Beispiel dafür, das Sie aus dem Buch anführen, ist die Gesichtserkennungssoftware in Testüberwachungssoftware wie Proctorio, die für weiße Studenten entwickelt wurde. Schwarze und braune Studenten sind weniger erkennbar und müssen mehr persönliche Informationen angeben als weiße Studenten, um ihre Identität zu bestätigen. 

Ein weiteres Beispiel für die rassistischen Vorurteile, die in Algorithmen einprogrammiert sind, ist die Forschung. Programme, die versprechen, die Studentenbindung und den Kurserfolg genau vorherzusagen, gehen fälschlicherweise davon aus, dass farbige Studenten keinen Erfolg haben werden. Das liegt daran, dass riesige Datenmengen benötigt werden, um Algorithmen und KI zu trainieren, diese aber mit induktiver Logik trainiert werden. Wenn sie also so programmiert sind, dass sie mehrere Elemente sehen, ihnen aber nur ein Ergebnis angezeigt wird, wird der Algorithmus eine Vielzahl verschiedener Dinge als nur eine Sache kommunizieren. Wenn der Algorithmus beispielsweise so programmiert ist, dass er Äpfel erkennt, ihm aber nur rote Äpfel angezeigt werden, wird der Code alles in dieser Gruppierung als roten Apfel sehen. Dies ist zwar in der realen Welt der Äpfel falsch, aber aufgrund dessen, was dem Algorithmus beigebracht wurde, ist es richtig.

Allison Butler: Der Algorithmus reagiert auf menschliche Eingaben, richtig? Ich meine, ich glaube, in den 1980er Jahren, als wir uns zum ersten Mal mit Computern vertraut machten, gab es einen kleinen Slogan: „Müll rein, Müll raus“, wenn man programmierte, ich meine, es waren damals nicht nur die normalen Leute in unseren Wohnzimmern, die Computer programmierten, richtig? Aber wenn man Müll einprogrammierte, bekam man Müll. Und ich denke, wir sehen das bei unserer generativen KI. Jeder von uns, der zum Beispiel mit ChatGPT stolpert oder kämpft, muss sich vielleicht ansehen, was wir da hineinprogrammieren. Es geht um die Raffinesse, die entsteht, dass ich nicht irgendwie unbeholfen versuche herauszufinden, ob ChatGPT mir Essenspläne für die Woche machen kann, damit ich nicht so lange nachdenken muss, wenn ich in den Supermarkt gehe. Dies ist eine hochentwickelte Programmierung, die dann die Sichtweise des Rests von uns auf die Welt bestimmt und konstruiert, wie in unserem Beispiel mit der Gesichtserkennungssoftware. Und wir haben hier ein sehr 21. Jahrhundert-typisches Beispiel für das unverdiente Privileg, weiß zu sein. Dieses Weiß passt viel besser in das Modell.

Chris Hedges: Nolan, ich möchte über Migranten sprechen. Sie schreiben in Ihrem Buch, dass Schulen, insbesondere Universitäten in den USA, Großbritannien und Australien, von den Gesetzgebern ermächtigt und erwartet werden, Migrantenstudenten mit umstrittenem oder illegalem Einwanderungsstatus zu identifizieren. Das US-Heimatschutzministerium speichert große Datenmengen, um Migranten zu orten und zu verfolgen. Beispielsweise verkauft LexisNexis, das im Bildungsbereich weit verbreitet ist, Daten an die Einwanderungs- und Zollbehörde des Heimatschutzministeriums, ICE. LexisNexis, eine Tochtergesellschaft der RELX Corporation, bietet Datenanalyseprodukte und Online-Datenbanken an. Es wurde festgestellt, dass es vertrauliche Informationen an ICE weitergegeben hat, die ICE vermutlich dazu verwendete, Personen zu verfolgen und für die Abschiebung festzunehmen.

Nolan Higdon: Ja, das stammt aus dem Kapitel, das damit begründet wurde, dass wir jedes Mal, wenn wir über dieses Thema sprechen, diese Frage bekommen, unweigerlich von jemandem, der sagt: „Na und? Ich habe nichts zu verbergen. Wen interessiert schon meine Privatsphäre?“ Und in dem Kapitel, das Sie gerade lesen, Chris, haben wir versucht, eine Liste verschiedener Schwachstellen aufzustellen, und eine davon sind insbesondere Studierende, die einen umstrittenen oder sogenannten illegalen Migrantenstatus haben. Sie haben eindeutig einen Grund, Privatsphäre zu wollen. Vielleicht sind sie es nicht einmal, sie leben vielleicht mit jemandem zusammen, der einen umstrittenen Migrantenstatus hat, den sie auch durch ihre eigene Privatsphäre schützen wollen, aber indem sie an dem Lernprozess teilnehmen, bei dem diese Tools vorhanden sind, gefährden sie diesen Migrantenstatus für sich selbst oder die Menschen, mit denen sie zusammenleben, und er könnte gegen sie verwendet werden, um sie abzuschieben, zu verhaften oder sonst etwas. 

Und wir sehen das immer wieder. Deshalb halten wir diese Instrumente für so schädlich, denn um auf den Ausgangspunkt dieser Diskussion zurückzukommen: Sie werden für Dinge wie Sicherheit, verbessertes Lernen und DEI und Dinge eingesetzt, denen die meisten Menschen wohl zustimmen würden, aber in der Praxis werden sie gegen diese Maßnahmen eingesetzt, indem sie Menschen kriminalisieren, überwachen und diese Informationen dann möglicherweise verwenden, um jemanden abzuschieben.

„Ein Lernprozess, bei dem diese Instrumente vorhanden sind … die gegen sie verwendet werden könnten, um sie abzuschieben, zu verhaften oder was auch immer.“

Chris Hedges: Sie betonen auch, dass von Schulen ausgegebene Geräte den Campus auf Internetsuchen von Schülern aufmerksam machen können und dies auch tun, wenn Leute nach ihrer Sexualität suchen und die sexuellen Vorlieben von Schülern offengelegt werden. Infolgedessen versuchen LGBTQ+-Schüler, nach Informationen über ihre Sexualität oder sexuelle Neugier zu suchen, einschließlich gesundheitsbezogener Fragen, und riskieren, gegenüber Schulbeamten, Strafverfolgungsbehörden und allen anderen, die auf ihre Informationen zugreifen können, offengelegt zu werden.

Nolan Higdon: Ja, das führt uns zurück zu dem, was wir gesagt haben, richtig? Wir glauben, dass Bildung eine Übung in Freiheit sein sollte. Die Leute sollten in der Lage sein, herauszufinden, wer sie sind, Informationen zu erkunden. Es wird erwartet, dass sie als Schüler, nur unsere Lehrer, im Klassenzimmer Fehler machen, aber sie müssen sich wohl dabei fühlen, diese Fehler machen zu können. Wenn die Vorstellung besteht, dass man ständig überwacht wird, oder dass dies zu den Eltern zurückkommen oder in die ganze Welt hinausgetragen werden könnte, teilen die Schüler diese Informationen weniger. Sie suchen diese Informationen weniger wahrscheinlich. Es schränkt die Neugier ein, die für den Bildungsprozess wesentlich ist, und ganz zu schweigen davon, dass diese Leute mit kritischen Fragen zu ihrer Identität ringen. Das psychische Trauma und die Schwierigkeit, einen der wenigen Räume zu schließen, in denen sie sich erkunden können, verdeutlicht meiner Meinung nach das Problem mit Überwachung und dem Bildungsprozess.

Chris Hedges: Allison, ich möchte darüber sprechen, was dies in den Schulen und Universitäten bewirkt. Sie schreiben, dass diese ständige Überwachung ein Weg ist, um sicherzustellen, dass die Lehrkräfte die von der Schulleitung angestrebte ideologische Homogenität einhalten. Es beginnt mit dem Bewerbungsverfahren, wenn die Kandidaten aufgefordert werden, private Details wie ihre Lehransätze und Diversitätserklärungen preiszugeben, die verwendet werden, um die ideologische Homogenität auf dem Campus sicherzustellen. Es geht weiter, wenn Studenten, oft illegal, aufzeichnen, was die Lehrer im Klassenzimmer tun. Dies kann und wurde verwendet, um Pädagogen dazu zu drängen, ihren Beruf aufzugeben, wenn sie als Vertreter einer ideologischen Position wahrgenommen werden, die dem Status quo zuwiderläuft. Wir haben dies seit dem 7. Oktober wiederholt beobachtet.

Allison Butler: Ich denke, dass diese Überwachungstechnologien, ob absichtlich oder zufällig, unter anderem ein Klima des Misstrauens schüren können, nicht wahr? Wie Nolan gesagt hat, wie ich gesagt habe, wie wir es ständig in unseren Klassenzimmern, in Schulklassen sagen, ist das ein Ort, an dem man Fehler macht. Es ist ein Ort, an dem man stolpert. Es ist ein Ort, an dem man neugierig sein kann. Es ist ein Ort, an dem Unwissenheit in hohem Maße verstanden werden sollte. Ich gehe als Schüler in ein Klassenzimmer, ohne etwas zu wissen. Ich bin unwissend. Ich habe die Möglichkeit, daraus zu lernen. 

Wenn wir in einer Umgebung leben, in der uns all diese Trennungen durch Technologie aufgezwungen werden, besteht die Gefahr, dass all das verschwindet – „verschwinden“ ist ein zu weiches Wort –, dass es ausgemerzt wird, nicht wahr? Ich sage nicht, dass die Tage der Schüler oder Lehrer mit schrecklichen, hasserfüllten Reden gefüllt sein sollten, aber ich denke, wir müssen so viele verschiedene Perspektiven kennenlernen, um wirklich umfassend unterrichten und lernen zu können. 

Und unsere digitalen Technologien haben die Fähigkeit, Dinge aufzuzeichnen, was wichtig ist, aber sie haben auch die Fähigkeit, Dinge zu manipulieren, was die Geschichten verändert, die Lehrer und Schüler erzählen. Dadurch entstehen Klassenzimmer, die im besten Fall Gefahr laufen, langweilig zu sein, okay, aber wir sprechen hier wirklich von einer Unterdrückung des Lernens. Wir sprechen davon, die Exposition zu unterdrücken. Wir sprechen davon, den Umgang mit Unterschieden zu unterdrücken, richtig? Ich denke, wenn wir uns unsere globalen Konflikte dieser Tage ansehen, insbesondere das, was in Israel/Palästina passiert, werden uns Lektionen erteilt, die besagen, dass Unterschiede schlecht sind, während Unterschiede ein Weg sind, zu versuchen, einander als Menschen kennenzulernen. 

Wenn also Unterschiede, Diskussionen, Fragen, Missverständnisse und echtes Unverständnis durch diese digitalen Technologien unterdrückt werden, sind unsere Klassenzimmer keine Orte der Neugier oder des Forschens mehr. Sie sind Fabriken, die uns nur einen Abschluss verleihen, und dieser Abschluss bedeutet möglicherweise nicht so viel. Noch einmal: Ich plädiere in keiner Weise für hasserfüllte Klassenzimmer, nur um zu beweisen, dass die Dinge anders sind, sondern eher dafür, dass wir Umgebungen haben sollten, in denen wir uns unwohl, neugierig, wissbegierig, aufgeregt und all diese Dinge als Lernmittel fühlen können, und dass wir das gemeinsam in der Gemeinschaft tun, richtig? 

Ich denke, ein weiteres großes Problem dieser Überwachungstechnologien, insbesondere unserer Social-Media-Technologien, ist, dass sie unglaublich isolierend wirken. Sie sind tatsächlich ziemlich unsozial. Und was Schulen, Klassenzimmer, Lehren und Lernen tun können, ist, Zusammenarbeit und Gemeinschaft aufzubauen, was der Isolation entgegenwirkt. Es wirkt dieser Silobildung entgegen, und die Überwachungstechnologien arbeiten sehr hart daran, Isolation und Silos aufzubauen.

Chris Hedges: Es verhindert doch jede Hinterfragung der vorherrschenden Erzählung, nicht wahr?

Allison Butler: Absolut, und die Schüler verstehen oder kennen nicht unbedingt die Struktur der vorherrschenden Erzählung. Sie wissen nicht unbedingt, wie sie diese hinterfragen sollen. Wir müssen anfangen, mehr über all diese Dinge zu sprechen, und das bedeutet, dass wir in den Klassenzimmern zusammen sind, in unserer Welt, dass wir in den Klassenzimmern zusammen sind und diese Technologien so gut wie möglich entfernen.

Chris Hedges: Nun, in jedem totalitären System geht es darum, die Möglichkeit zu verweigern, Fragen zu stellen. Nolan, ich möchte Sie fragen. Sie sagten, es gebe eine gut dokumentierte Geschichte von Arbeitgebern, die Überwachung einsetzen, um Arbeitnehmer auszubeuten und Tarifverhandlungen zu untergraben. Anstatt EdTech-Überwachung als Vorteil für den Bildungsprozess oder als Sicherheitsmaßnahme zu betrachten, müssen Pädagogen erkennen, dass sie dazu verwendet werden kann, die Macht der Arbeitnehmer zu untergraben. Sprechen Sie darüber.

Nolan Higdon: Ja, das war ein wirklich faszinierender Teil des Buches, und ich weiß, wir haben versucht, ihn den Gewerkschaften der Lehrkräfte nahezubringen. Aber ja, es gibt eine jahrhundertealte Geschichte von Arbeitgebern, die physische Spione einsetzen oder versuchen, die Kommunikation auszuspionieren, um herauszufinden, wer ein Gewerkschaftsaktivist ist, und ihn und jeden, der mit ihm sympathisiert, zu entfernen. Dies ist eine ganz neue Ära. Wir haben diese Werkzeuge im Klassenzimmer, mit denen wir die Leute überwachen können, während sie im Klassenzimmer arbeiten. Theoretisch werden Dinge entweder im Kontext oder außerhalb des Kontexts eingesetzt, um diese Mitarbeiter loszuwerden.

Wir haben auch über Israel und Gaza gesprochen. Viele Mitarbeiter und Lehrkräfte haben derzeit keinen Schutz. Wir haben gesehen, dass die Hochschulbildung nach Belieben oder nach Belieben angestellt wird. Unabhängig davon, was die Leute über diesen Konflikt denken, vermeiden sie ihn im Unterricht, weil sie Angst haben, dass alles, was sie sagen, gegen sie verwendet werden könnte und sie ihren Job verlieren könnten. Und das bedeutet nicht nur für sie, sondern auch für die Studierenden, dass ihnen die Gelegenheit entgeht, sich mit einem kritischen Weltproblem auseinanderzusetzen. Und dann versuchen diese Tools auch, als Lehrkräfte aus unserem Tun zu lernen. Sie sammeln unsere Daten und profitieren davon, ohne uns dafür zu bezahlen.

Im Allgemeinen will die Arbeiterbewegung für ihre Arbeit bezahlt werden. Aber darüber hinaus trainieren sie diese Tools auch, um einige der Funktionen der Lehrkräfte zu übernehmen. Sie trainieren also auf gewisse Weise ihren Nachfolger, und ich denke dabei an Dinge wie intelligente Benotung und intelligentes Verfassen von Aufgaben, diese neuen Tools, die auf den Markt kommen.

Oder es gibt welche, bei denen Sie ein Bild Ihres Gesichts haben, das Sie dann eintippen können, und das Bild wird Ihnen dann die Vorlesung halten. Das ist eine Möglichkeit, Sie als Vortragenden zu ersetzen. Viele dieser Dinge stehen also vor der Tür, sie nehmen den Menschen die Privatsphäre, ersetzen Arbeitsplätze, und die Lehrkräfte beteiligen sich tatsächlich an diesem Prozess, indem sie diese Tools verwenden und keine strengen Schranken in ihren Verträgen verankern, um diese Art der wirtschaftlichen Ausbeutung zu verhindern, ganz zu schweigen von den Überwachungsbemühungen, die den Verhandlungsprozess untergraben sollen.

„Unabhängig davon, was die Leute über diesen Konflikt denken, vermeiden sie ihn im Unterricht, weil sie befürchten, dass alles, was sie sagen, gegen sie verwendet werden könnte und sie ihren Job verlieren könnten. Und dadurch verlieren nicht nur sie, sondern auch die Schüler eine Gelegenheit, sich mit einem kritischen Weltproblem auseinanderzusetzen.“

Chris Hedges: Allison, ich weiß, Sie beenden das Buch mit Vorschlägen, wie dieser Eingriff in unsere Privatsphäre eingedämmt werden kann, wenn man ihm keine Einhalt gebietet. Aber in was für einem Bildungsumfeld und sogar einem sozialen und kulturellen Umfeld werden wir dann leben, wenn man ihm keine Einhalt gebietet?

Allison Butler: Ich glaube, wenn wir nichts dagegen tun, laufen wir Gefahr, wie gesagt, in Fabrikschulen zu leben, in denen wir unsere Schüler quasi durchschleusen, bis sie ein Stück Papier in der Hand halten. Wir werden zukünftigen Generationen beibringen, dass es normal ist, überwacht zu werden, dass es so etwas wie Privatsphäre nicht gibt. Wir werden eine Art stures Bildungssystem haben, in dem es sehr sichere Informationen und eine sichere Art und Weise gibt, sie zu präsentieren, und wir werden, zumindest im Sinne einer digitalen Sprache, alles über jeden wissen, mit dem möglichen Vorbehalt, dass diejenigen, die in die Normen von Rasse, Geschlecht, wirtschaftlicher und körperlicher Leistungsfähigkeit passen, es leichter haben werden, aber wir werden sehen, dass alle unsere Körper, die nicht hineinpassen, alle unsere Menschen, die nicht unbedingt in diese, wiederum sehr großzügige, Norm passen, immer weiter an den Rand gedrängt werden. 

Ich denke, wir werden schon in relativ kurzer Zeit feststellen, dass unsere Klassenzimmer nicht mehr als Orte der Neugier und Wissensdurst gelten werden. Sie werden als Orte angesehen, an denen man sehr banale, vorsichtige Informationen passiv hinnimmt.

Gleichzeitig werden sie wahrscheinlich ziemlich cool aussehen, denn unsere Überwachungstechnologien, alle unsere Technologien, sehen sehr ausgefeilt aus. Sie sind auf dem neuesten Stand. Sie sind oft gebraucht, nicht wahr? Wie Nolan bereits erwähnt hat, stammt ein Großteil unserer Geräte aus dem militärisch-industriellen Komplex. Dass wir an unbekannten Orten fahren können, ist GPS, eine veraltete Militärtechnologie. Dass wir coole Fotos von Partys, Hochzeiten oder Immobilien machen können, ist Drohnentechnologie und veraltete Militärtechnologie. Ich denke, der Unterrichtsstoff läuft Gefahr, völlig banal und langweilig zu sein. Er könnte ziemlich cool aussehen, was sehr auffällig sein könnte und uns dazu verleiten könnte, nicht mehr über den Inhalt nachzudenken.

Chris Hedges: Wenn die Regierung Sie 24 Stunden am Tag beobachtet, können Sie das Wort Freiheit nicht verwenden. Das ist die Beziehung zwischen einem Herrn und einem Sklaven. Das waren Nolan Higdon und Allison Butler in ihrem Buch. Aufklärung zum Thema Überwachung: Der Umgang mit der eklatanten Abwesenheit von Privatsphäre an Schulen. Das war wirklich, wirklich großartige Arbeit, die Sie beide geleistet haben. Ich möchte Sofia [Menemenlis], Diego [Ramos] Thomas [Hedges] und Max [Jones] danken, die die Show produziert haben. Sie finden mich unter ChrisHedges.Substack.com.

Chris Hedges ist ein mit dem Pulitzer-Preis ausgezeichneter Journalist, der 15 Jahre lang als Auslandskorrespondent für die New York Times tätig war, wo er als Büroleiter für den Nahen Osten und den Balkan für die Zeitung fungierte. Zuvor arbeitete er im Ausland für The Dallas Morning News, The Christian Science Monitor und NPR. Er ist Moderator der Sendung „The Chris Hedges Report“.

Dieser Artikel stammt aus Scheerpost

HINWEIS FÜR LESER: Es gibt für mich jetzt keine Möglichkeit mehr, ohne Ihre Hilfe weiterhin eine wöchentliche Kolumne für ScheerPost zu schreiben und meine wöchentliche Fernsehsendung zu produzieren. Die Mauern nähern sich dem unabhängigen Journalismus mit verblüffender Geschwindigkeit, wobei die Eliten, einschließlich der Eliten der Demokratischen Partei, immer mehr Zensur fordern. Bitte melden Sie sich, wenn möglich, unter an chrishedges.substack.com damit ich weiterhin meine Montagskolumne auf ScheerPost posten und meine wöchentliche Fernsehsendung „The Chris Hedges Report“ produzieren kann.

Dieses Interview stammt von Scheerpost, für die Chris Hedges schreibt eine regelmäßige SpalteKlicken Sie hier, um sich anzumelden für E-Mail-Benachrichtigungen.

Die in diesem Interview geäußerten Ansichten können die von widerspiegeln oder auch nicht Neuigkeiten des Konsortiums.

7 Kommentare für „Chris Hedges Bericht: Aufklärung zum Thema Überwachung"

  1. November 25, 2024 bei 15: 31

    Dieser Artikel hat mich sicherlich noch zögerlicher gemacht, TurnItIn weiterhin zur Plagiatserkennung in den von mir unterrichteten Grundkursen zu verwenden, und mir einen greifbareren Grund gegeben, TurnItIn einmal von der Seite zu betrachten, jenseits meiner verallgemeinerten abstrakten neoludditischen Ansichten über die panoptische und janusköpfige Natur aller Informationstechnologie in Kombination mit menschlicher Gier nach Macht. Angesichts meines allgegenwärtigen Misstrauens gegenüber diversen Überwachungs- und Marketingtechnologien war ich naiv, die anderen unausgesprochenen Verwendungsmöglichkeiten solcher Plagiatserkennungssoftware nicht in Betracht zu ziehen, bevor ich das Transkript dieses Interviews gelesen habe. Ich bin Chris Hedges und insbesondere Allison Butler dankbar, dass sie mich darauf aufmerksam gemacht haben.

  2. Julie
    November 24, 2024 bei 09: 03

    Danke, Chris, dass du uns jeden verdammten Tag auf wichtige Dinge aufmerksam machst.
    Ich frage mich auch, ob Sie Grisham vielleicht zu seinem neuesten NF-Buch interviewen.

  3. November 24, 2024 bei 06: 00

    Meiner Erfahrung nach gibt es die Technologie zur Überwachung der Aktivitäten von Schülern auf Schulcomputern mindestens seit 2007, und zwar mithilfe von Anwendungen wie Apple Remote Desktop und Teamviewer. Ich war schockiert, als ich dies direkt im Büro des technischen Supports der Schule miterlebte, insbesondere weil meine Schüler Erwachsene waren, die zwar Zugriff auf ihre E-Mail-Konten hatten, aber keine Ahnung hatten, dass ihre Kommunikation nicht privat war. Damals sollte das Abhören passiv (wenn auch möglicherweise lüstern) erfolgen und im Interesse einer effizienten Unterstützung im Falle eines Maschinenausfalls erfolgen. Auch das verhaltensbezogene „Anstupsen“, von dem diese Autoren sprechen, ist nicht neu. 2017 hörten wir Berichte über Datensammlungen, die von Cambridge Analytica bzw. Aggregate IQ in den USA und Großbritannien verwendet wurden, um Wahlen zu beeinflussen. Seitdem beeinflussen Dienste wie Newsguard die angeblich sichere Informationsbeschaffung und damit das Verhalten. Neu ist hier, dass die Daten von Minderjährigen mit ähnlicher Absicht weitergegeben werden und die gleiche alte „Garbage-in-Garbage-out“-Voreingenommenheit Persönlichkeiten aufgezwungen wird, die noch nicht vollständig ausgebildet sind.

  4. JohnB
    November 23, 2024 bei 21: 59

    Das Bedürfnis nach Kontext und Gründlichkeit sind nur zwei von Chris‘ guten Eigenschaften.

  5. Kaliman
    November 23, 2024 bei 13: 15

    Wir sollten das Recht auf Privatsphäre nicht mit einem nicht existierenden Recht auf Anonymität in der Öffentlichkeit verwechseln. Ersteres ist ein natürliches Recht auf Privatsphäre in der eigenen Wohnung und an anderen privaten Orten sowie auf die Nutzung der eigenen Werkzeuge und Besitztümer. Letzteres ist die Erwartung, dass es keine Reaktion auf das Leben und Handeln an öffentlichen Orten und die Nutzung öffentlicher (und anderer Eigentümer) Werkzeuge und Besitztümer gibt, was in der Menschheitsgeschichte nie existiert hat und weder erwartet werden kann noch jetzt und in Zukunft wünschenswert ist.

    In Bezug auf den Artikel haben Kinder also ein Recht auf Privatsphäre in ihren eigenen vier Wänden, sofern sie (1) keine Unternehmen (hi Siri) ausdrücklich zu ihrem Zweck in ihr Zuhause einladen, um sie auszuspionieren, und (2) keine öffentlich bereitgestellten Geräte (Schullaptops) für einen öffentlichen Zweck verwenden, um private Dinge zu erledigen. In einem öffentlichen Umfeld wie dem Klassenzimmer selbst oder beim Spazierengehen auf dem Campus oder in der Stadt im Allgemeinen sind in der Öffentlichkeit ausgeführte Handlungen für jeden, der an solchen Handlungen interessiert ist, beobachtbar und können für die Datenerfassung, für Marketingzwecke und aus anderen Gründen verwendet werden.

    was „Ich denke, wir werden in ziemlich kurzer Zeit sehen, dass unsere Klassenzimmer nicht mehr als Orte der Neugier und Wissbegierde angesehen werden. Sie werden als Orte angesehen, an denen man passiv sehr banale, vorsichtige Informationen akzeptiert.“ … mein Gott, welche Klassenzimmer haben diese Leute besucht? Orte der Neugier und Wissbegierde? Wirklich? „Bueller … Bueller … Bueller …“

  6. Robert Havers
    November 23, 2024 bei 12: 17

    Alles, was Sie sagen, kann und wird gegen Sie verwendet werden.

  7. Vera Gottlieb
    November 23, 2024 bei 10: 27

    Ist ein so langer Artikel wirklich nötig??? Als ob wir nichts anderes zu lesen und zu beunruhigen hätten! Die weiße Rasse muss noch immer erkennen, was für SCHEISSENSTÖRER wir sind. Aber natürlich geben wir immer einer anderen Rasse die Schuld.

Kommentarfunktion ist abgeschaltet.