Allison Butler et Nolan Higdon discutent des systèmes « ed-tech » qui érodent les droits à la vie privée des mineurs et discriminent les étudiants de couleur.
AToute technologie créée par le complexe militaro-industriel américain et adoptée par le grand public était toujours assortie d’une mise en garde.
Pour la plupart, Internet, le GPS, les écrans tactiles et autres technologies omniprésentes sont des outils ordinaires du monde moderne. Pourtant, en réalité, ces technologies ont un « double usage ».
Bien qu’ils facilitent la vie des gens ordinaires, ils permettent également la coercition, la surveillance et le contrôle massifs de ces mêmes personnes par l’État militaire et corporatif.
Nolan Higdon et Allison Butler, auteurs de Éducation à la surveillance : comment gérer l’absence flagrante de confidentialité dans les écoles, rejoignez l'animateur Chris Hedges dans cet épisode de Le rapport Chris HedgesIls explorent les logiciels et les systèmes technologiques utilisés dans les écoles primaires et secondaires et les établissements d’enseignement supérieur qui surveillent les étudiants, érodent les droits à la vie privée des mineurs et, ce faisant, discriminent les étudiants de couleur.
L’utilisation de cette technologie, explique Higdon, repose sur le traitement des humains comme des produits par le biais du capitalisme de surveillance.
« Grâce à toutes ces technologies intelligentes, vous extrayez des données et des informations sur les humains, puis vous êtes en mesure de déterminer leur comportement et la façon dont ils pourraient réagir à quelque chose. Et de nombreux secteurs s'intéressent à cela », explique Higdon à Hedges.
Butler explique que les étudiants, qui n’ont souvent pas le choix, sont soumis à l’utilisation de cette technologie qui exploite intrinsèquement leurs données. Comme il existe un consentement implicite à son utilisation, « les très rares protections qui existent pour protéger les données des mineurs disparaissent dès qu’une technologie est mise en place dans leur classe », explique Butler. « Il y a une acceptation passive de cette technologie. »
Higdon souligne que les changements apportés par l’administration Obama en 2012 à la loi sur les droits à l’éducation et à la vie privée de la famille (FERPA) ont joué un rôle clé. Ces changements ont permis de partager les données des étudiants avec des entreprises privées qui servent de partenaires éducatifs.
« En fait, toutes ces données que le mouvement pour les droits des étudiants s’est efforcé de rendre privées ont été autorisées à être distribuées à ces entreprises », explique Higdon.
Les auteurs soulignent l’impact profond de ces technologies sur les processus fondamentaux de l’apprentissage en classe.
« Cela limite la curiosité, qui est essentielle au processus éducatif », explique Higdon. « Le traumatisme mental et la difficulté de fermer l’un des rares espaces où ils peuvent explorer, je pense que cela témoigne simplement du problème de la surveillance et du processus éducatif. »
Hôte : Chris Hedges
Producteur: Max Jones
Intro: Diego Ramos
Equipage: Diego Ramos, Sofia Menemenlis et Thomas Hedges
Transcription: Diego Ramos
Chris Haies : Les outils de surveillance sont devenus omniprésents dans les écoles et les universités. Les technologies promettant une plus grande sécurité et de meilleurs résultats scolaires ont permis à Gaggle, Securly, Bark et d’autres de collecter des données détaillées sur les étudiants. Cependant, ces technologies n’ont pas seulement échoué à tenir leurs promesses, mais ont éviscéré la vie privée des étudiants.
C’est particulièrement vrai dans les communautés pauvres, où la surveillance généralisée est peu contrôlée. Ces données sont souvent utilisées contre les élèves, en particulier les élèves pauvres et les élèves de couleur, accélérant le passage de l’école à la prison. Lorsque les élèves et les enseignants savent qu’ils sont surveillés et surveillés, cela étouffe le débat intellectuel, toute remise en cause du discours dominant et toute enquête sur les abus de pouvoir.
Mais plus inquiétant encore, elle permet aux entreprises et aux agences gouvernementales de stigmatiser et de criminaliser les étudiants. Ces plateformes numériques peuvent cibler les jeunes avec de la propagande et utiliser l'ingénierie sociale et l'analyse des tendances pour façonner les comportements. Nolan Higdon, auteur, avec Allison Butler, de Éducation à la surveillance : comment gérer l’absence flagrante de confidentialité dans les écoles.
Alors Allison, commençons par vous, et comme vous le faites dans le livre, dressez-nous un portrait du degré d'intrusion - ce que je ne savais pas avant de lire votre livre - de ce caractère intrusif de cette surveillance et de son fonctionnement.
Allison Butler : Bien sûr. Merci beaucoup de nous avoir accueillis. Je dirais que la réponse la plus courte à cette question est que c'est incroyablement, totalement, totalement intrusif. Et pour aller plus loin, nous vivons actuellement dans un monde de technologies de surveillance. Il n'y a pratiquement aucun endroit où vous et moi pouvons aller en tant qu'individus où nous ne sommes pas d'une manière ou d'une autre surveillés. Une grande partie de cela est, dans une certaine mesure, de notre propre choix. Par exemple, si nous montons dans notre voiture et utilisons notre GPS, nous acceptons ces conditions.
Ce qui nous préoccupe, en particulier avec ce texte, c'est que nous avons une surveillance excessive dans nos écoles primaires, secondaires et supérieures. En particulier dans les écoles primaires, secondaires et supérieures, cette surveillance s'exerce sur des mineurs, des enfants de moins de 12 ans, sans leur consentement explicite. Nous avons été en quelque sorte habitués, préparés aux technologies de surveillance par certaines de ces technologies douces, comme notre GPS, comme les codes QR qui nous aident à consulter un menu de restaurant un peu plus facilement, comme certaines des applications sur notre téléphone qui nous facilitent la vie.
Le prix à payer est que lorsque des technologies de surveillance plus dures et plus intrusives entreront dans notre monde, et en particulier dans nos salles de classe, nous aurons déjà en quelque sorte posé les bases qui nous y prépareront, et nous ne remettrons pas nécessairement en question ces technologies dans la mesure où elles le méritent.
Chris Haies : Eh bien, ces technologies, comme vous le soulignez dans le livre, ne sont pas commercialisées comme des systèmes de surveillance. Elles sont commercialisées comme des améliorations de l'éducation, des améliorations de la sécurité. Donnez-moi juste une idée de certains de ces outils de surveillance numérique, donnez-moi une idée de ce qu'ils sont et de leur fonctionnement.
Nolan Higdon : Oui, merci beaucoup de m’avoir invité, Chris. Allison et moi sommes heureux d’être ici. Et je pense que la façon la plus simple de comprendre cela est que, tout comme le reste de la Silicon Valley, ces entreprises de technologie éducative ou de technologie éducative ont tendance à promettre trop et à ne pas tenir leurs promesses. Donc, beaucoup de justifications pour les ajouter aux salles de classe sont des choses avec lesquelles les gens seraient généralement d’accord, n’est-ce pas ? Ces outils vont nous rendre plus sûrs ou plus sécurisés. Ils vont améliorer l’apprentissage. Ils vont préparer les étudiants au marché du 21e siècle. Certains d’entre eux se vantent même d’être plus inclusifs. C’est plus conforme à la DEI [diversité, équité et inclusion], car ils éliminent les préjugés humains, ou l’élément humain, c’est ce qu’ils prétendent. Mais nous remarquons que dans tous ces cas, ils masquent en réalité des motivations plus pernicieuses.
Il y a beaucoup d’argent à gagner en ayant ces outils dans les salles de classe et en étant capable de collecter des données. C’est donc un problème. L’autre problème est qu’en plus de masquer le véritable objectif, qui est de faire du profit, ces outils ne tiennent pas vraiment beaucoup de ces promesses. Nous expliquons dans le livre que, même s’ils affirment que ces outils sont conçus pour promouvoir la sécurité, ils ne sont souvent pas à la hauteur. Il y a un manque de preuves pour dire qu’ils améliorent réellement l’apprentissage et il y a aussi beaucoup de preuves solides pour dire qu’ils vont à l’encontre des objectifs de DEI. Donc, dans beaucoup de ces cas, il semble que les raisons avancées pour avoir ces outils technologiques éducatifs dans les écoles soient très différentes de ce qu’ils font réellement ou de l’objectif réel de leur ajout dans une école.
Chris Haies : Allison, pouvez-vous nous expliquer plus précisément, par exemple Bark, ou choisir un ou deux de ces programmes et nous expliquer ce qu'ils font, bien sûr, pour collecter des données, mais que font-ils dans le cadre scolaire ? Quelle est leur fonction ?
Allison Butler : Bien sûr. Par exemple, dans de nombreuses classes de la maternelle à la terminale, on utilise une technologie appelée GoGuardian. GoGuardian est installé sur les ordinateurs, les portables de la classe. Ainsi, si vous avez, par exemple, une classe où chaque élève a un ordinateur portable attribué, il peut s'agir de son propre ordinateur personnel qui lui est attribué pour toute l'année scolaire ou il peut s'agir des ordinateurs portables de la classe, et il se trouve que c'est là que l'élève est assis.
GoGuardian surveille leurs écrans, il surveille tout ce qu'ils font, et ensuite l'enseignant à l'avant de la classe, ou n'importe où ailleurs, peut regarder les écrans des élèves pendant le cours. L'un des arguments avancés par GoGuardian est que cela aide les enseignants à garder les élèves sur la bonne voie, et donc les aide à rester sur la bonne voie. C'est donc présenté comme une sorte d'outil de concentration, car les enseignants peuvent regarder les écrans des élèves, et il y a alors une sorte d'élément de carotte et de bâton, qui permet à l'enseignant de dire, hé, vous devez quitter ce site Web. Ce n'est pas ce sur quoi nous travaillons.
[L'enseignant] peut aussi regarder directement le travail d'un élève et commenter ce qu'il fait bien ou ce qui pourrait être adapté. C'est présenté comme une sorte de technologie communautaire pour les salles de classe. Voici certains des problèmes que nous avons constatés avec GoGuardian : on dit souvent aux enseignants que c'est à eux de vérifier les données et, en fait, beaucoup des enseignants que nous avons interrogés pour le livre ont dit qu'ils pensaient que c'était eux qui effectuaient la surveillance, qu'ils étaient un peu mal à l'aise avec cela, mais qu'ils voyaient vraiment le pouvoir de la surveillance dans leurs ordinateurs. Ce qu'on ne leur dit pas ou ne leur explique pas clairement, c'est que c'est en fait l'entreprise qui effectue toute la surveillance. Et si nous pensons en particulier aux classes de la maternelle à la terminale, comme je l'ai déjà dit, il s'agit des données des mineurs.
Ainsi, les mesures de protection très limitées, les mesures de protection numériques, pour protéger les données des mineurs, disparaissent dès qu'une technologie est mise en place dans leur classe. Il y a une acceptation passive de cette technologie. Les élèves eux-mêmes n'ont pas donné leur accord actif à la collecte de leurs données. Il s'agit d'un consentement implicite. En fait, c'est le langage qui est souvent utilisé : l'utilisation de la technologie est un consentement implicite, et il n'y a pas nécessairement de possibilité de refus. Nous nous retrouvons donc dans une salle de classe confuse où l'enseignant croit être le responsable et prendre une décision éthique particulière, alors qu'en fait, ce n'est pas lui qui est responsable.
Une fois qu'un outil comme GoGuardian récupère les données des étudiants et leurs informations, il les a, il n'y a aucun moyen de les désactiver, et si à un moment donné un étudiant branche son téléphone portable personnel sur cet appareil pour le charger, GoGuardian dispose désormais également de toutes ces données en raison de la connexion numérique de ces appareils.
Une enseignante que nous avons interviewée s'est sentie un peu mal à l'aise. Elle nous a raconté une histoire dans laquelle elle se sentait mal à l'aise avec GoGuardian, en partie parce que l'élève était malade à la maison et que l'enseignant pouvait toujours voir ce qui se passait sur l'écran. Même lorsque l'élève était à la maison, absent de l'école pour une raison légitime, l'enseignant pouvait voir l'élève comme s'il regardait des vidéos YouTube. Et c'est à ce moment-là qu'elle s'est dit : « Oh, ce n'est pas ce que je pensais. Ce n'est pas directement lié à la salle de classe, n'est-ce pas ? » Je pense que parfois, les commodités de nos technologies numériques nous invitent à oublier que nos technologies numériques peuvent être surveillées partout où nous sommes, pas seulement dans nos salles de classe.
Je pense qu'un autre exemple, utilisé à la fois dans l'enseignement primaire et secondaire et dans l'enseignement supérieur, serait Turnitin. Turnitin est un programme que les enseignants peuvent configurer pour que les élèves soumettent leurs travaux écrits via cette plateforme, et il se vend tout seul, il se présente comme un détecteur de plagiat, ce qui, je suppose, est vrai dans une certaine mesure. L'autre chose insidieuse est que beaucoup de ces technologies et de ces entreprises ne vous mentent jamais vraiment. Elles ne vous disent juste pas toute la vérité et omettent des parties vraiment importantes. Turnitin, oui, est un logiciel de détection de plagiat. Et Turnitin fait aussi au moins deux choses.
Premièrement, il s’agit d’enseigner l’IA, n’est-ce pas ? Les étudiants qui soumettent leurs travaux fournissent de plus en plus d’informations au développement de l’IA générative, et Turnitin vend également ces informations aux annonceurs et aux spécialistes du marketing, de sorte que le langage des jeunes est analysé, puis utilisé dans le langage publicitaire et marketing, et leur est en quelque sorte revendu. Nos jeunes travaillent donc, dans une certaine mesure, pour cette entreprise. Ils font une grande partie du travail, et ils ne sont en aucun cas rémunérés. Je dirais donc que ce sont deux exemples très importants qui montrent à quel point ces technologies sont insidieuses, à quel point elles sont invasives et à quel point elles peuvent être déroutantes pour ceux qui sont encouragés à les utiliser.
« … le langage des jeunes est analysé, puis utilisé dans des publicités et des campagnes de marketing, et leur est revendu. Nos jeunes travaillent donc, dans une certaine mesure, pour cette entreprise. Ils font une grande partie du travail, et ils ne sont en aucun cas rémunérés. »
Chris Haies : Nolan, parlons de la façon dont ces technologies sont utilisées pour surveiller les étudiants, en particulier dans les quartiers pauvres, ce qui affecte de manière disproportionnée les étudiants de couleur.
Nolan Higdon : Oui, l'une des choses que nous remarquons avec ces outils, c'est qu'ils nous offrent, encore une fois, d'énormes promesses, n'est-ce pas ? Ils promettent des choses comme la possibilité de prédire si un élève est susceptible de commettre des actes criminels ou si un élève a des problèmes de santé mentale qui doivent être traités.
Mais le diable est dans les détails. Ces outils collectent beaucoup de données et codent des algorithmes pour les analyser et déterminer la santé mentale ou la criminalité potentielle d'une personne. C'est là que nous voyons vraiment le problème de trop s'appuyer sur ces outils. Ces algorithmes qui interprètent les données sont codés avec le même biais que leurs créateurs, et nous voyons encore et encore comment ces algorithmes tirent des conclusions racistes ou transphobes. Ce que je veux dire par là, c'est que ces algorithmes classent de manière disproportionnée les élèves de couleur comme étant plus susceptibles de commettre un crime. En conséquence, ils sont davantage surveillés par l'école, ce qui, encore une fois, normalise cette surveillance des corps noirs.
Il en va de même pour les détecteurs de santé mentale, ils classent de manière disproportionnée des choses comme les enfants transgenres en fonction de problèmes de santé mentale, ce qui ne signifie pas qu'ils traversent simplement des problèmes de santé mentale, ce qui fait partie de la vie de certaines personnes, mais cela signifie également qu'ils doivent être surveillés pour des choses comme les fusillades dans les écoles, le suicide ou l'automutilation.
« … ces algorithmes classeront de manière disproportionnée les étudiants de couleur comme étant plus susceptibles de commettre un crime. »
Et donc, on assiste à une sur-surveillance de ces individus. Et donc, l’un des mythes que la Silicon Valley en général a vendu, et ces outils technologiques éducatifs en particulier, est qu’ils disposent d’algorithmes objectifs, exempts de tout parti pris humain, et peuvent donc tirer des conclusions plus précises. Mais les recherches disent que non, ce n’est pas le cas, au contraire, ces outils compliquent ou aggravent bon nombre des problèmes que nous avons rencontrés avec des questions telles que le racisme ou la transphobie.
Chris Haies : Allison, je voudrais d'abord parler de la façon dont ces données finissent entre les mains d'employeurs potentiels. C'est une industrie de plusieurs milliards de dollars par an qui vend nos données personnelles, tout ce que nous avons fait, toutes les infractions au code de la route que nous avons commises, car cela permet essentiellement aux employeurs, peut-être même aux universités, qui s'intéressent aux lycéens, d'avoir des informations qui devraient rester privées et qui, bien sûr, pourraient être utilisées contre ces étudiants ou employés potentiels.
Allison Butler : Je voudrais donc ergoter sur un mot que vous avez dit, à savoir la vente de nos données. Je pense que nous devrions peut-être prêter davantage attention à ce que disait Nolan sur le fait que le diable se cache dans les détails, et à ce que j'ai dit plus tôt sur le fait qu'ils ne nous mentent pas vraiment, mais ils ne nous disent pas nécessairement tout.
Aujourd'hui, beaucoup de ces technologies disent que nous ne vendons pas vos données, et cela implique beaucoup de points d'exclamation, n'est-ce pas ? Et c'est quelque chose que nous sommes censés dire : « Oh, d'accord, très bien. Mes données sont en sécurité. » Absolument pas. Tout d'abord, vos données ne sont pas en sécurité, car les violations se produisent si souvent qu'elles ne font même plus la une des journaux ou ne font même plus l'actualité. À un moment donné de nos recherches, nous avons essayé de catégoriser ou de cataloguer toutes les différentes violations, et nous nous sommes dit que le fait de les signaler dans ces micro-détails ne servirait à rien, car elles se produisent tout le temps. Nous y sommes tellement habitués.
Mais ce qu'il faut vraiment prendre en compte, c'est que beaucoup de ces entreprises partagent nos données, n'est-ce pas ? Nous avons donc ce que vous et moi pourrions considérer comme des entreprises différentes qui n'ont aucun lien entre elles et qui ont conclu des partenariats. Elles ont adhéré aux modèles commerciaux des autres. Elles sont liées d'une manière ou d'une autre. Elles se qualifient alors d'entreprises éducatives ou de partenaires éducatifs. Cela signifie qu'elles n'ont pas réellement besoin de vendre nos données. Elles peuvent les partager. Nous pouvons donc être rassurés à un certain niveau. Mais en fait, c'est à cet autre niveau que nous devons peut-être réfléchir plus attentivement.
Donc, quand on parle d'employeurs, ou quand on parle d'universités, ou même peut-être si on parle d'écoles privées, nous avons tellement de partenaires éducatifs qui ont déjà accès aux données, qui peuvent déjà en faire une analyse, qu'ils sont autorisés à les partager. Je pense que nous parlions il y a plusieurs années du fait que, particulièrement pour les élèves de la maternelle à la terminale, les employeurs vont regarder vos médias sociaux. Les bureaux d'admission des universités vont regarder vos médias sociaux. En fait, nous n'avons plus vraiment besoin d'inciter nos jeunes à se préoccuper de ces voies particulières. Ces gens n'ont plus besoin de faire un travail de détective. Elles sont déjà là pour eux. Donc, qu'ils y prêtent une attention particulière ou non, je ne sais pas exactement, mais les données sont déjà là. Elles sont simplement juste devant eux.
Chris Haies : Nolan, pouvez-vous nous parler de la manière dont ils sont proactifs, de l'ingénierie sociale, de la manière dont ils ne se contentent pas de collecter des données, mais utilisent les données pour façonner et modeler le comportement.
Nolan Higdon : Oui, et pour ajouter une couche à cela, pour reprendre là où Allison s'est arrêtée également. Et je l'ai même dit à maintes reprises aujourd'hui, ce sont des entreprises de technologie éducative, mais c'est un peu trompeur. Beaucoup de ces entreprises qui gèrent ou possèdent ces plateformes de technologie éducative, comme nous en avons parlé, comme Gaggle, Bark, il y a Canvas, d'autres, elles sont généralement détenues par des sociétés de capital-investissement. Cela a vraiment commencé au cours des 10 dernières années, ces sociétés de capital-investissement ont acheté ces outils de technologie éducative, apparemment parce qu'il y avait un moyen d'entrer dans la salle de classe. Il y a toute une industrie ici dans le monde universitaire qu'ils appellent le capitalisme de surveillance, qui repose sur l'idée de traiter les humains comme des produits. Vous extrayez donc des données et des informations sur les humains à partir de toutes ces technologies intelligentes, et vous êtes ensuite en mesure de déterminer leur comportement, comment ils pourraient réagir à quelque chose. Et il y a beaucoup d'industries qui s'intéressent à cela, n'est-ce pas ? Les industries de la publicité aimeraient savoir comment créer la publicité parfaite pour vous inciter à acheter quelque chose. Les compagnies d'assurance aimeraient savoir comment fixer vos primes, peut-être en fonction de votre santé ou de vos habitudes de conduite, etc. Les données peuvent donc être très lucratives pour les industries à cet égard.
Mais en plus de prédire le comportement, il existe également des entités qui souhaitent influencer votre comportement. Alors, que puis-je faire ? Dans quelle situation puis-je vous placer ? Quelles informations puis-je vous donner pour que vous vous comportiez comme cela ? Et il y a une grande croyance dans le secteur que si nous collectons suffisamment de données, nous pouvons orienter le comportement des gens dans la bonne direction, en particulier ici, dans une année électorale, avec de nombreuses campagnes, c'est ce qu'ils essaient de faire avec ces données. Comment pouvons-nous utiliser ces données pour inciter ces personnes à voter, ou peut-être les inciter à ne pas voter, en fonction de ce genre de choses ? Il y a donc beaucoup de potentiel dans le secteur si vous êtes capable de collecter plusieurs points de données, et c'est pourquoi les écoles sont si attrayantes, n'est-ce pas ?
Ils font partie des rares endroits qui ont été protégés en tant qu'espace public, et les entreprises privées souhaitent depuis longtemps y pénétrer, et sous l'altruisme de fournir des outils technologiques éducatifs, cela a été pour elles une opportunité d'entrer dans les salles de classe et d'avoir accès à ces données lucratives.
« [Les écoles] sont l’un des rares endroits qui ont été protégés en tant qu’espace public, et les entreprises privées souhaitent depuis longtemps y pénétrer et… avoir accès à des données lucratives. »
Et juste pour bien faire comprendre cela, certaines de ces grandes entreprises ne possèdent pas seulement des outils technologiques éducatifs, elles possèdent des choses comme Baby Connect, qui dit aux parents d'utiliser ces outils pour surveiller leur bébé. Elles possèdent également des plateformes qui examinent les habitudes de travail des gens après l'obtention de leur diplôme. Elles obtiennent également des données sur les réseaux sociaux scolaires. L'objectif est d'établir ce qu'elles appellent un profil psychographique des individus du berceau à la tombe, et les écoles jouent un rôle important dans ce processus.
Chris Haies : Et je veux être clair, vous le soulignez dans le livre, c'est une industrie énorme. L'EdTech, dites-vous, est une industrie mondiale de 123.4 milliards de dollars. Nous parlons de très, très grosses sommes d'argent. Allison, je veux parler de ce que nous avons vu cet été, alors que les universités et les écoles ont imposé toutes sortes de nouvelles restrictions et règles pour mettre fin aux manifestations contre le génocide en Palestine, et cela a été coordonné dans tout le pays, pas de distribution de tracts, pas d'événements, pas de tables, pas de campements, etc. Dans quelle mesure des outils comme ceux-ci aident-ils les universités et les écoles à mettre fin à la dissidence ou à la controverse, en particulier autour de la Palestine ?
Allison Butler : Je pense que dans une large mesure, et je pense que c'est un endroit où cela est révélateur des craintes plus larges de nos universités, eh bien, pour être un peu désinvolte, nos craintes envers les jeunes et ce qu'ils font avec leurs propres technologies, mais nos craintes quant à l'état de la liberté académique, nos craintes quant à ce que signifie la dissidence, la désobéissance. Je pense que nous passons beaucoup de temps dans nos salles de classe à louer les actes historiques de dissidence, les actes historiques de désobéissance, mais quand on nous les confronte au présent, c'est en quelque sorte terrifiant.
Si je leur accorde le bénéfice du doute, ce sont les administrateurs qui cherchent un moyen de garantir la sécurité de leurs campus, de protéger les étudiants, les professeurs et le personnel qui ont des points de vue différents et contradictoires sur la sécurité. Malheureusement, je pense que le mot « sécurité » est souvent utilisé comme un « s’il vous plaît, ne me poursuivez pas en justice », n’est-ce pas ? C’est un euphémisme pour « s’il vous plaît, ne me poursuivez pas en justice ». Je pense donc que, par peur cultivée, les technologies de surveillance font un très bon travail en capitalisant sur la peur, n’est-ce pas ? Je veux changer un peu les choses : quand on pense au début de la Covid, on capitalisait sur la peur de ce que nous étions censés être ensemble, n’est-ce pas ? À quel point il pouvait être dangereux pour nous d’être dans le même espace. Et je pense que ces entreprises continuent de capitaliser sur cette peur lorsque nous examinons la dissidence, les manifestations et la désobéissance. Et donc vous avez les outils des universités, puis vous avez les outils de l’État policier, n’est-ce pas ? La police arrive avec des caméras corporelles qui, soyons honnêtes, peuvent être allumées et éteintes pour créer et encadrer un récit très particulier, n’est-ce pas ? C’est le problème : les technologies de surveillance et ces outils agissent dans toutes les directions.
Nous avons nos étudiants eux-mêmes qui filment leurs actions, ce qui signifie que leurs visages sont visibles, n'est-ce pas ? S'ils sont là pour manifester pacifiquement, s'ils sont là pour désobéir civilement, leurs visages sont bien là, ce qui signifie que si quelque chose se passe mal, peu importe qui est responsable, n'est-ce pas ? Que ce soit à l'instigation de la police ou à l'instigation d'étudiants opposés, nous avons déjà toutes leurs informations. Nous vivons donc dans un environnement où, comme cela a été le cas au cours de l'histoire, il est important d'être présent, de se lever, et cette présence et cette prise de position sont manipulées et manœuvrées de manière terrible par ces technologies de surveillance.
Chris Haies : Et, Allison, cela a une ramification mondiale, car les universités et les écoles sont traditionnellement des lieux où l'échange d'idées et de dissidence, dans une démocratie fonctionnelle, c'est l'un des épicentres, l'un des épicentres physiques où ce genre de discussions devraient être autorisées à avoir lieu.
Allison Butler : Absolument, et je pense que, encore une fois, quand on regarde l'histoire, quand on regarde le cours de l'histoire, on a en quelque sorte cette image dépeinte comme si les gens se comportaient comme s'ils avaient un désaccord civilisé, et ce n'est plus le cas aujourd'hui. Ainsi, nos désaccords très incivils, nos désaccords très physiques sont dépeints et présentés par le biais de ces technologies d'une manière qui n'aurait probablement pas pu se faire dans l'histoire, n'est-ce pas ?
Je pense que beaucoup de discussions cet été, à l'approche des conventions présidentielles, tant au sein du RNC qu'au sein du DNC, se sont exprimées, notamment au sein du DNC, qui se trouvait à Chicago, sur le fait de revenir sur l'histoire. Et je pense que c'est important. Je ne dirais jamais que nous ne devrions pas le faire, mais la façon dont notre technologie participe à ces conventions ou à ces dissensions a tellement changé que notre compréhension du comportement est totalement et complètement différente.
Chris Haies : Nolan, ces informations, telles que vous les écrivez dans le livre, ne finissent pas seulement entre les mains des entreprises, elles finissent entre les mains du DHS, du FBI. Parlez-nous un peu de la manière dont la sécurité de l'État utilise également ces informations.
Nolan Higdon : Oui, la soi-disant sécurité nationale, ou l'industrie de la sécurité nationale, est fortement impliquée dans la collecte de ces données. Et il convient de rappeler aux gens que ces outils – Internet, écran tactile, GPS et tant d'autres fonctions des appareils intelligents de l'ère numérique – proviennent du complexe militaro-industriel. Ils ont été créés grâce au financement de la défense, en collaboration avec les universités et les écoles au milieu du XXe siècle. Et en fait, comme nous l'avons dit dans le livre, lorsque les étudiants ont découvert à quoi servaient ces outils, ils ont protesté contre eux.
Mais à ce jour, ces outils continuent de collecter des données qui sont partagées avec le DHS et les services de renseignement, encore une fois, sous prétexte de repérer des terroristes potentiels, de repérer des menaces potentielles. Cela pose problème pour de nombreuses raisons, mais l’une d’entre elles, d’un point de vue purement éducatif, est que cela a un impact vraiment négatif sur l’apprentissage. Nous disons aux étudiants qu’ils sont des objets à surveiller, à protéger et à gérer. Il est très difficile de développer une relation de confiance dans laquelle les gens se sentent à l’aise pour prendre des risques et faire des erreurs, ce qui est essentiel dans l’éducation, dans un environnement où ils sont constamment surveillés.
« Il est très difficile de développer une relation de confiance dans laquelle les gens se sentent à l’aise pour prendre des risques et faire des erreurs, ce qui est essentiel en éducation, lorsqu’ils évoluent dans un environnement où ils sont constamment surveillés. »
Chris Haies : Eh bien, non seulement ils sont surveillés, mais comme nous le voyons avec les manifestations étudiantes, ces outils de surveillance, en fait, c'est plus que de la surveillance. Il s'agit de faire taire les gens, car ils savent instantanément qui est impliqué. Je veux dire, ils le savaient à l'époque d'Occupy. Je le sais parce que j'ai passé beaucoup de temps à Zuccotti [Park dans le centre de Manhattan], et après que [le maire de New York Mike] Bloomberg a fermé le parc, il y a eu une série de descentes de police dans les lofts et ils ont arrêté toutes les bonnes personnes, car ils les surveillaient électroniquement. Allison, je veux que tu parles, en particulier, de deux outils de cybersécurité. Je veux que tu parles d'Augury et de Pegasus.
Allison Butler : En fait… ce sont en quelque sorte les bébés de Nolan. Je vais donc lui rendre la parole, si ça ne te dérange pas.
Nolan Higdon : Oui, Pegasus est en fait un logiciel espion qui vient du gouvernement israélien. Mais Pegasus a été intégré à d’autres logiciels. Donc, si vous intégriez d’autres ordinateurs, vous pourriez surveiller des gens du monde entier qui avaient ce logiciel Pegasus, et cela créait en fait une plate-forme de surveillance mondiale. Et Israël n’est pas le seul dans ce cas. Les États-Unis ont été…
Chris Haies : Et je voudrais juste interrompre Nolan, Pegasus est une création israélienne. Il vient d'Israël. Il a été utilisé pour traquer Jamal Khashoggi, je crois.
Nolan Higdon : C'est vrai, oui, et les États-Unis, comme je l'ai dit, participent à des activités de production et de surveillance similaires, notamment en collaborant avec Israël sur Pegasus. Mais oui, je pense que, pour revenir à ce qu'a dit Allison sur le fait que l'histoire a changé, nous devons beaucoup parler de nos attentes ou de ce que nos droits et nos lois doivent changer également.
L’idée de perquisitions et de saisies illégales ou l’idée que ma vie privée m’appartient sont en train de changer à l’ère numérique, et la loi – et c’est l’une des choses que nous défendons dans le texte – doit s’adapter à cela, car de nombreuses protections que nous avions en matière de vie privée ont été mises au jour par les gouvernements et les entreprises, comme dans l’exemple de Pegasus. Nous parlons de choses comme le Premier Amendement qui protège la liberté d’expression du gouvernement, mais le gouvernement peut travailler avec les entreprises technologiques pour faire taire certains discours ou idées, ou vous êtes protégé dans vos communications, comme en privé chez vous, mais s’il s’agit de courrier électronique, cela signifie que vous avez cédé ces communications à une entreprise privée qui peut ensuite les transmettre au gouvernement.
Il y a donc beaucoup de failles de ce type qui sont mises en évidence à l'ère numérique, et c'est l'une des choses que nous défendons dans le texte, car nous avons même eu un mouvement pour les droits des étudiants qui a obtenu le droit à la vie privée dans les écoles. C'est ce qui a donné naissance à la FERPA ici aux États-Unis. Mais vers 2012, l’administration Obama a modifié quelque chose au FERPA.
Auparavant, la loi FERPA interdisait aux écoles de partager les informations d'un élève avec qui que ce soit. Si l'élève était mineur, il était possible de les partager avec son tuteur. Mais les modifications apportées à la loi FERPA en 2012 ont précisé : « Non, vous pouvez également partager leurs informations avec des partenaires éducatifs. » Il s'agit d'entreprises qui ont des contrats avec les écoles. Ainsi, toutes ces données que le mouvement pour les droits des étudiants a œuvré pour garantir leur confidentialité ont pu être distribuées à ces entreprises. Et comme nous l'avons vu, c'est ce qui leur permet d'entrer également dans d'autres domaines.
« Auparavant, la loi FERPA interdisait à l'école de partager les informations d'un élève avec qui que ce soit… Mais les modifications apportées à la loi FERPA en 2012 ont précisé : « Non, vous pouvez également partager leurs informations avec des partenaires éducatifs. »
Chris Haies : Et parlons d'Augury. Il est développé par une société de cybersécurité, l'équipe... Qu'est-ce que c'est, Cymru, qui met à disposition des quantités massives de données pour les clients gouvernementaux et privés. Diverses branches de l'armée ont collectivement payé 3.5 millions de dollars pour accéder aux données d'Augury.
Nolan Higdon : Oui, des entreprises comme Augury, je les considère comme des sortes de dépôts géants de courtiers en données. Elles ont donc accès à des quantités massives de données. Elles analysent ces données en temps réel et, comme le décrit le secteur, elles vendent essentiellement des produits qui analysent ces données pour les entreprises ou les gouvernements.
Mais Augury est un exemple de ce qui sert les intérêts des gouvernements qui souhaitent peut-être cibler les gens ou comprendre le comportement des militants ou comprendre la communication des militants en ligne. Augury promet de disposer d'une quantité massive de données qu'il peut analyser et apporter des réponses aux questions que les gouvernements pourraient se poser lorsqu'ils cherchent à surveiller, comprendre, prédire ou influencer les comportements.
Chris Haies : Allison, vous utilisez un terme dans le livre : « racisme algorithmique ». Pouvez-vous l’expliquer ?
Allison Butler : Donc, si nous pensons aux algorithmes, et nous sommes tous en quelque sorte, les algorithmes sont en quelque sorte notre oxygène de nos jours, n'est-ce pas ? Tout ce que nous faisons numériquement est tiré d'un algorithme. Et les algorithmes semblent, je pense, à beaucoup, en particulier lorsque nous parlons avec des étudiants de la maternelle à la terminale et dans une certaine mesure dans l'enseignement supérieur, comme une sorte de chose mystérieuse qui, d'une manière ou d'une autre, dans l'ordinateur... Ce que nous devons nous rappeler, c'est que les algorithmes sont des programmes, du code, du langage, des questions qui sont construites par des humains, donc ils sont construits avec le racisme, le sexisme, l'homophobie, le validisme, etc. des humains faillibles, n'est-ce pas ?
Donc, pour en revenir à notre point de vue sur le racisme algorithmique, il y a du racisme intégré dans ces technologies numériques, ce qui signifie que, dès le départ, elles vont voir des personnes de couleur, et par extension, des femmes de couleur, des personnes ayant des capacités différentes, toute personne qui s'identifie comme LGBTQ, en gros toute personne qui est ou s'identifie en dehors de ce que le créateur de l'algorithme considère comme la norme, ce qui signifie que nous ne nous intéressons pas nécessairement aux expériences physiques et tangibles du racisme. Nous considérons le racisme comme une façon de nous apprendre à utiliser les technologies numériques, car, comme je l'ai dit, c'est en quelque sorte intégré dans ces technologies, de sorte que les problèmes nous arrivent immédiatement.
Nous commençons donc à apprendre à gérer les choses dans ce cadre raciste, et cela devient une norme, et cela devient en quelque sorte une façon centralisée de voir les choses, ce qui rend beaucoup plus dangereux pour les corps de couleur, ainsi que pour ceux qui interagissent avec les corps de couleur, d'avoir une idée préconçue intégrée dans leurs technologies de qui sont ces corps et de la façon dont ils sont censés se comporter.
« Nous considérons le racisme comme une façon de nous apprendre à utiliser les technologies numériques. »
Chris Haies : Eh bien, un exemple que vous tirez du livre est le logiciel de reconnaissance faciale utilisé dans les logiciels de surveillance d'examens tels que Proctorio, qui a été développé pour les étudiants blancs. Les étudiants noirs et métis sont moins détectables et obligés de fournir plus d'informations personnelles que les étudiants blancs pour confirmer leur identité.
Dans un autre exemple de biais racistes intégrés dans les algorithmes, des recherches révèlent que les programmes qui promettent de prédire avec précision la rétention des étudiants et la réussite des cours supposent à tort que les étudiants de couleur ne réussiront pas. En effet, des quantités massives de données sont nécessaires pour former les algorithmes et l’IA, mais ils sont formés à l’aide d’une logique inductive. Ainsi, s’ils programment pour voir plusieurs éléments mais qu’un seul résultat leur est présenté, l’algorithme communiquera une variété de choses différentes comme une seule chose. Par exemple, si l’algorithme est programmé pour reconnaître les pommes mais qu’on ne lui montre que des pommes rouges, le code verra tout ce qui se trouve dans ce groupe comme une pomme rouge. Bien que cela soit incorrect dans le cas de l’existence réelle des pommes, c’est correct en fonction de ce que l’algorithme a appris.
Allison Butler : L'algorithme répond aux entrées humaines, n'est-ce pas ? Je pense que dans les années 1980, lorsque nous commencions à nous familiariser avec les ordinateurs, il y avait un petit slogan : « Garbage in, garbage out » (les déchets qui entrent, les déchets qui sortent). Si vous programmiez, je veux dire, ce n'était pas seulement les gens ordinaires dans nos salons qui programmaient des ordinateurs à ce moment-là, n'est-ce pas ? Mais si vous programmiez des déchets, alors vous obteniez des déchets. Et je pense que nous le voyons avec notre IA générative. Si l'un d'entre nous trébuche ou se débat avec ChatGPT, par exemple, peut-être que ce que nous devons examiner, c'est ce que nous programmons. C'est la sophistication qui se produit, ce n'est pas moi qui essaie maladroitement de comprendre si ChatGPT peut me faire des plans de repas pour la semaine afin que je n'aie pas à réfléchir si dur quand je vais à l'épicerie. Il s’agit d’une programmation extrêmement sophistiquée qui encadre et construit la façon dont le reste d’entre nous perçoit le monde, comme dans notre exemple de logiciel de reconnaissance faciale, et nous avons là un exemple très typique du 21e siècle du privilège immérité d’être blanc. Le fait d’être blanc correspond beaucoup mieux au modèle.
Chris Haies : Nolan, je voudrais parler des migrants. Vous écrivez dans le livre que les écoles, en particulier les universités aux États-Unis, au Royaume-Uni et en Australie, sont habilitées et obligées par les législateurs à identifier les étudiants migrants dont le statut d’immigration est contesté ou illégal. Le ministère américain de la Sécurité intérieure conserve des volumes de données dans le but de localiser et de suivre les migrants. Par exemple, LexisNexis, qui est largement utilisé dans l’éducation, vend des données à l’ICE, le service de l’immigration et des douanes du ministère de la Sécurité intérieure. LexisNexis, une filiale de la société RELX, propose des produits d’analyse de données et des bases de données en ligne. Il a été découvert qu’elle avait fourni des informations sensibles à l’ICE, que l’ICE utilisait vraisemblablement pour suivre et arrêter des individus en vue de leur expulsion.
Nolan Higdon : Oui, cela vient du chapitre qui a été motivé par le fait que chaque fois que nous parlons de ce sujet, nous recevons toujours cette question, inévitablement de quelqu'un qui dit : « Et alors ? Je n'ai rien à cacher. Qui se soucie de ma vie privée ? » Et dans le chapitre que vous lisez à partir de là, Chris, nous avons essayé d'établir une liste de différentes vulnérabilités, et l'une en particulier concerne les étudiants qui ont contesté, ou soi-disant, le statut de migrant illégal. Ils ont clairement une raison de vouloir protéger leur vie privée. Ce n'est peut-être même pas eux, ils vivent peut-être avec quelqu'un qui a contesté son statut de migrant, qu'ils veulent également protéger par leur propre vie privée, mais en participant au processus d'apprentissage où ces outils sont présents, ils menacent ce statut de migrant pour eux-mêmes ou pour les personnes avec lesquelles ils vivent, cela pourrait être utilisé contre eux pour une expulsion, une arrestation ou toute autre chose.
Et nous le constatons encore et encore. C’est pourquoi nous pensons que ces outils sont si pernicieux, car pour revenir au point de départ de cette discussion, ils sont utilisés pour des raisons telles que la sécurité, l’amélioration de l’apprentissage et la diversité, l’équité et l’inclusion, et d’autres choses avec lesquelles je pense que la plupart des gens seraient d’accord, mais dans la pratique, ils sont utilisés contre ces mesures, criminalisant les gens, les surveillant, puis utilisant ces informations, éventuellement pour expulser quelqu’un.
« un processus d’apprentissage dans lequel ces outils sont présents… pourraient être utilisés contre eux pour une expulsion, une arrestation ou toute autre chose. »
Chris Haies : Vous soulignez également que les appareils fournis par les écoles peuvent alerter les campus des recherches sur le Web des étudiants, des personnes qui effectuent des recherches sur leur sexualité et qui ont révélé les préférences sexuelles des étudiants. Par conséquent, les étudiants LGBTQ+ qui tentent de rechercher des informations sur leur sexualité ou leur curiosité sexuelle, y compris des questions liées à la santé, risquent d'être dénoncés aux responsables de l'école, aux forces de l'ordre et à toute autre personne pouvant accéder à leurs informations.
Nolan Higdon : Oui, cela revient à ce que nous disions, n’est-ce pas ? Nous pensons que l’éducation doit être un exercice de liberté. Les gens devraient pouvoir découvrir qui ils sont, explorer l’information. On s’attend à ce qu’ils fassent des erreurs en classe en tant qu’élèves, simplement nos enseignants, mais ils doivent se sentir à l’aise pour pouvoir faire ces erreurs. Lorsque l’idée est que vous êtes constamment surveillé, ou que cela peut revenir à vos parents, ou que cela peut être diffusé dans le monde entier, les élèves sont moins susceptibles de partager. Ils sont moins susceptibles de rechercher cette information. Cela limite la curiosité, qui est essentielle au processus éducatif, sans compter que ces personnes sont aux prises avec des questions cruciales sur leur identité, donc le traumatisme mental et la difficulté de fermer l’un des rares espaces où ils peuvent explorer, je pense que cela témoigne simplement du problème de la surveillance et du processus éducatif.
Chris Haies : Allison, je voudrais parler de ce que cela signifie au sein des écoles et des universités. Vous écrivez que cette surveillance constante est un moyen de s'assurer que les professeurs adhèrent à l'homogénéité idéologique recherchée par la direction de l'école. Cela commence avec le processus de candidature, lorsque les candidats sont tenus de partager des informations privées, telles que leurs approches de l'enseignement et leurs déclarations sur la diversité, qui sont utilisées pour garantir l'homogénéité idéologique sur le campus. Cela se poursuit lorsque les étudiants, souvent illégalement, enregistrent ce que font les enseignants en classe. Cela peut être utilisé et a été utilisé pour faire pression sur les enseignants afin qu'ils quittent leur profession s'ils sont perçus comme ayant une position idéologique contraire au statu quo. Nous avons observé cela depuis le 7 octobre, à plusieurs reprises.
Allison Butler : Je pense que l’une des choses que ces technologies de surveillance peuvent faire, intentionnellement ou simplement par hasard, c’est de fomenter un climat de méfiance, n’est-ce pas ? Comme Nolan l’a dit, comme je l’ai dit, comme nous le disons tout le temps dans nos salles de classe, dans nos écoles, c’est un endroit où l’on peut faire des erreurs. C’est un endroit où l’on peut trébucher. C’est un endroit où l’on peut être curieux. C’est un endroit où l’ignorance doit être comprise de manière formidable. J’entre dans une salle de classe en tant qu’élève qui ne sait pas quelque chose. J’ignore quelque chose. J’ai l’occasion d’en tirer des leçons.
Lorsque nous vivons dans un environnement où toutes ces divisions sont mises en place par la technologie, tout cela risque de disparaître, disparaître est un mot trop doux, d'être écrasé, n'est-ce pas ? Je ne dis pas que les étudiants ou les enseignants devraient avoir leurs journées remplies de propos horribles et haineux, mais je pense que nous devons apprendre de nombreuses perspectives différentes afin de pouvoir vraiment enseigner et apprendre pleinement.
Nos technologies numériques ont la capacité d'enregistrer, c'est un élément important, mais elles ont aussi la capacité de manipuler, ce qui modifie les histoires que les enseignants et les élèves racontent. Elles créent des salles de classe qui, au mieux, risquent d'être ennuyeuses, d'accord, mais ce dont nous parlons en réalité, c'est d'étouffer l'apprentissage. Nous parlons d'étouffer l'exposition. Nous parlons d'étouffer la façon de gérer la différence, n'est-ce pas ? Je pense que, lorsque nous examinons nos conflits mondiaux de nos jours, en particulier ce qui se passe en Israël/Palestine, on nous apprend des leçons selon lesquelles la différence est mauvaise, alors que la différence est une façon de commencer à essayer d'apprendre à se connaître les uns les autres en tant qu'êtres humains.
Alors, quand la différence, la discussion, la question, l’incompréhension, le véritable manque de compréhension sont étouffés par ces technologies numériques, nos salles de classe ne sont plus des lieux de curiosité ou d’investigation. Ce sont des usines, juste pour nous donner un diplôme, et ce diplôme ne signifie peut-être pas grand-chose. Encore une fois, je ne prône en aucune façon, sous aucune forme, une salle de classe remplie de haine, juste pour prouver que les choses sont différentes, mais plutôt pour que nous ayons des environnements dans lesquels nous pouvons être mal à l’aise, curieux, inquisiteurs, enthousiastes, toutes ces choses comme outils d’apprentissage, et que nous le fassions ensemble en communauté, n’est-ce pas ?
Je pense qu’un autre aspect important de ces technologies de surveillance, et en particulier de nos réseaux sociaux, est qu’elles sont extrêmement isolantes. Elles sont en fait assez antisociales. Or, ce que l’école, les salles de classe, l’enseignement et l’apprentissage peuvent faire, c’est de créer de la collaboration et de la communauté, ce qui permet de lutter contre l’isolement. Cela permet de lutter contre cette compartimentation et les technologies de surveillance travaillent très dur pour créer de l’isolement et des cloisonnements.
Chris Haies : Eh bien, cela met fin à toute remise en question du récit dominant, n'est-ce pas ?
Allison Butler : Absolument, et les étudiants ne comprennent pas forcément la structure du discours dominant. Ils ne savent pas forcément comment le remettre en question. Nous devons commencer à parler davantage de tout cela, et cela signifie être ensemble dans les salles de classe, dans notre monde, être ensemble dans les salles de classe et éliminer, autant que possible, ces technologies.
Chris Haies : Dans tout système totalitaire, l’objectif est de nier la possibilité de poser des questions. Nolan, je voudrais vous demander, comme vous l’avez dit, il existe un historique bien documenté d’employeurs utilisant la surveillance pour exploiter les travailleurs et saper la négociation collective. Plutôt que de considérer la surveillance EdTech comme un avantage pour le processus éducatif ou une mesure de sécurité, les éducateurs doivent reconnaître qu’elle peut être utilisée pour saper le pouvoir des employés. Parlez-en.
Nolan Higdon : Oui, c'était une partie vraiment fascinante du livre, et je sais que nous avons essayé de la présenter aux syndicats d'enseignants. Mais oui, il y a une longue histoire d'employeurs qui, depuis des siècles, utilisent des espions physiques ou tentent d'espionner les communications pour découvrir qui est un agitateur syndical et les éliminer, ainsi que toute personne qui sympathise avec eux. Nous sommes dans une toute nouvelle ère. Nous avons ces outils dans les salles de classe qui peuvent surveiller les gens pendant qu'ils travaillent en classe. En théorie, ils utilisent des choses, que ce soit dans leur contexte ou hors contexte, pour se débarrasser de ces employés.
Nous avons aussi parlé d'Israël, de Gaza, de nombreux employés et professeurs ne bénéficient pas de protections. Nous avons vu l'enseignement supérieur être adjudicataire ou à volonté. Ainsi, peu importe ce que les gens pensent de ce conflit, ils l'évitent en classe parce qu'ils ont peur que tout ce qu'ils disent puisse être utilisé contre eux et leur faire perdre leur emploi. Ce n'est pas seulement eux qui perdent, ce sont les étudiants qui perdent une occasion de s'engager sur un problème mondial crucial. Et puis, plus encore, en tant que professeurs, ces outils essaient aussi d'apprendre de ce que nous faisons, donc ils collectent nos données et en tirent profit sans nous payer.
En général, le mouvement ouvrier veut être payé pour son travail. Mais en plus, il forme aussi ces outils pour essayer d'accomplir certaines des fonctions que font les professeurs. Donc, vous formez votre remplaçant à un certain niveau, et je pense à des choses comme la notation intelligente et la rédaction intelligente de devoirs, ces nouveaux outils qui sortent.
Il existe aussi des outils qui permettent d'avoir une image de votre visage, de taper sur un clavier et de faire un cours. C'est aussi une façon de vous remplacer dans le cours. Beaucoup de ces outils sont mis en place, ils privent de vie privée, remplacent des emplois, et les professeurs participent effectivement au processus en utilisant ces outils et en n'ayant pas de barrières strictes dans leurs contrats pour empêcher ce type d'exploitation économique, sans parler de cette tentative de surveillance visant à saper le processus de négociation.
« Peu importe ce que les gens pensent de ce conflit, ils l'évitent en classe parce qu'ils ont peur que tout ce qu'ils disent puisse être utilisé contre eux et leur faire perdre leur emploi. Ce n'est pas seulement eux qui perdent, ce sont les étudiants qui perdent une occasion de s'engager sur un problème mondial crucial. »
Chris Haies : Allison, si rien n'est fait, je sais que vous terminez le livre avec des suggestions sur la façon de freiner cette intrusion dans notre vie privée, mais si rien n'est fait, dans quel genre d'environnement éducatif et même social et culturel allons-nous vivre ?
Allison Butler : Je pense que si nous ne faisons rien, nous courons le risque de vivre dans des écoles industrielles, comme je l'ai dit auparavant, où nous pousserons nos élèves à aller chercher un bout de papier. Nous apprendrons aux générations futures qu'être surveillé est normal, que la vie privée n'existe pas. Nous aurons une sorte d'éducation routinière où les informations seront très sûres et présentées de manière sûre, et nous saurons, au moins en termes de langage numérique, tout sur tout le monde, avec une mise en garde possible : ceux qui correspondent aux normes de race, de sexe, de capacité économique et physique, entre guillemets, auront la vie plus facile, mais nous commencerons à voir tous nos corps qui ne correspondent pas, tous nos êtres humains qui ne correspondent pas nécessairement à cette norme, encore une fois très généreuse, entre guillemets, seront de plus en plus éloignés.
Je pense que nous pourrions constater que dans un avenir assez proche, nos salles de classe ne seront plus considérées comme des lieux de curiosité, mais comme des lieux d'acceptation passive d'informations très banales et prudentes.
En même temps, elles auront probablement l’air plutôt cool, car nos technologies de surveillance, toutes nos technologies, sont très sophistiquées. Elles sont à la pointe de la technologie. Elles sont souvent de seconde main, n’est-ce pas ? Comme Nolan l’a mentionné auparavant, une grande partie de ce que nous utilisons nous vient du complexe militaro-industriel : le GPS, qui nous permet de conduire dans des endroits inconnus, est une technologie militaire dépassée. Le fait que nous puissions prendre des photos sympas de fêtes, de mariages ou de biens immobiliers, est une technologie de drone et une technologie militaire dépassée. Je pense que le contenu de nos cours risque d’être complètement banal et ennuyeux. Leur apparence pourrait finir par être plutôt cool, ce qui pourrait être très tape-à-l’œil et nous inviter à oublier de penser au contenu.
Chris Haies : Eh bien, quand le gouvernement vous surveille 24 heures sur XNUMX, vous ne pouvez pas utiliser le mot liberté, c'est la relation entre un maître et un esclave. C'est ce que Nolan Higdon et Allison Butler ont dit dans leur livre, Éducation à la surveillance : comment gérer l’absence flagrante de confidentialité dans les écoles. C'était vraiment un travail formidable que vous avez fait tous les deux. Je tiens à remercier Sofia [Menemenlis], Diego [Ramos] Thomas [Hedges] et Max [Jones], qui ont produit l'émission. Vous pouvez me trouver sur ChrisHedges.Substack.com.
Chris Hedges est un journaliste lauréat du prix Pulitzer qui a été correspondant à l'étranger pendant 15 ans pour le New York Times, où il a été chef du bureau du Moyen-Orient et chef du bureau des Balkans du journal. Il a auparavant travaillé à l'étranger pour The Dallas Morning News, The Christian Science Monitor et NPR. Il est l'animateur de l'émission « The Chris Hedges Report ».
Cet article est de Poste de Scheer.
NOTE AUX LECTEURS : Il ne me reste plus aucun moyen de continuer à écrire une chronique hebdomadaire pour ScheerPost et à produire mon émission de télévision hebdomadaire sans votre aide. Les murs se referment, avec une rapidité surprenante, sur le journalisme indépendant, les élites, y compris celles du Parti démocrate, réclamant de plus en plus de censure. S'il vous plaît, si vous le pouvez, inscrivez-vous sur chrishedges.substack.com afin que je puisse continuer à publier ma chronique du lundi sur ScheerPost et à produire mon émission télévisée hebdomadaire, « The Chris Hedges Report ».
Cette interview vient de Poste de Scheer, pour lequel Chris Hedges écrit une chronique régulière. Cliquez ici pour vous inscrire pour les alertes par e-mail.
Les opinions exprimées dans cette interview peuvent refléter ou non celles de Nouvelles du consortium.
Cet article m’a certainement rendu plus réticent à continuer d’utiliser TurnItIn pour la détection de plagiat dans les sections de cours de premier cycle que j’enseigne à l’avenir, me donnant une raison plus tangible de regarder TurnItIn de côté au-delà de mes sentiments néo-luddites abstraits et généralisés concernant la nature intrinsèquement panoptique et à deux faces de toute technologie de l’information lorsqu’elle est combinée à une soif humaine de pouvoir. Étant donné ma suspicion omniprésente à l’égard des diverses technologies de surveillance et de marketing, j’ai été naïf de ne pas considérer les autres utilisations tacites auxquelles un tel logiciel de détection de plagiat pourrait être destiné avant de lire la transcription de cette interview, donc je remercie Chris Hedges et surtout Allison Butler de m’avoir signalé cela.
Merci, Chris, d'attirer notre attention sur des questions cruciales, chaque jour.
Je me demande également si vous pourriez interviewer Grisham sur son dernier livre NF.
D’après mon expérience, la technologie permettant d’observer l’activité des élèves sur l’ordinateur d’une école existe depuis 2007 au moins, grâce à des applications comme Apple Remote Desktop et Teamviewer. J’ai été choqué d’en être le témoin direct dans le bureau d’assistance technique de l’école, d’autant plus que mes élèves étaient des adultes, qui avaient accès à leurs comptes de messagerie mais ne savaient pas que leurs communications n’étaient pas privées. À l’époque, l’écoute clandestine était censée être passive (bien que potentiellement obscène), effectuée dans le but de fournir une assistance efficace en cas de panne de la machine. Le « coup de pouce » comportemental dont parlent ces auteurs n’est pas non plus nouveau. En 2017, nous avons entendu parler de la collecte de données utilisée pour inciter les électeurs à voter aux États-Unis et au Royaume-Uni, respectivement par Cambridge Analytica et Aggregate IQ. Depuis lors, des services tels que Newsguard influent sur la collecte d’informations prétendument sûres et, par conséquent, sur le comportement. Ce qui est nouveau ici, c’est que les données des mineurs sont partagées avec la même intention, et le même vieux biais de « garbage in, garbage out » imposé à des personnalités qui ne sont pas encore complètement formées.
Le besoin de contexte et la minutie ne sont que deux des qualités de Chris.
Il ne faut pas confondre le droit à la vie privée avec un droit inexistant à l'anonymat dans les lieux publics. Le premier est un droit naturel à la vie privée dans son domicile et dans d'autres lieux privés et à l'utilisation de ses propres outils et effets personnels. Le second est une attente de ne pas réagir à la vie et aux actes dans les lieux publics et à l'utilisation d'outils et d'effets publics (et appartenant à d'autres), ce qui n'a jamais existé dans l'histoire de l'humanité et n'est ni attendu ni souhaitable aujourd'hui ni à l'avenir.
Ainsi, en ce qui concerne l’article, les enfants ont droit à la vie privée lorsqu’ils sont chez eux s’ils (1) n’invitent pas d’entreprises (salut Siri) chez eux expressément pour les espionner et (2) n’utilisent pas d’outils publics (ordinateurs portables scolaires) fournis à des fins publiques pour faire des choses personnelles. Quant à un cadre public comme la salle de classe elle-même ou une promenade sur le campus ou dans la ville en général, les actions entreprises en public sont observables par toute personne intéressée par ces actions et peuvent être utilisées à des fins de collecte de données, de marketing et pour toute autre raison.
Quant à « Je pense que nous pourrions voir que dans un laps de temps assez court, nos salles de classe ne seront plus considérées comme des lieux de curiosité, d’investigation. Elles seront considérées comme des lieux d’acceptation passive d’informations très banales et prudentes. » … mon Dieu, quelles salles de classe ces gens ont-ils visitées ? Des lieux de curiosité et d’investigation ? Vraiment ? « Bueller… Bueller… Bueller… »
Tout ce que vous dites peut et sera utilisé contre vous.
Est-il vraiment nécessaire d’écrire un article aussi long ? Comme si nous n’avions rien d’autre à lire et à nous soucier ! La race blanche n’a pas encore réalisé à quel point nous sommes des perturbateurs de merde. Mais il faut toujours blâmer une autre race… bien sûr.