Informe de Chris Hedges: Educación sobre vigilancia

Allison Butler y Nolan Higdon analizan los sistemas de “tecnología educativa” que erosionan los derechos de privacidad de los menores y discriminan a los estudiantes de color.

By Chris Hedges
ScheerPost

ACualquier tecnología creada por el complejo militar industrial de Estados Unidos y adoptada por el público en general siempre estuvo destinada a venir con una salvedad.

Para la mayoría, Internet, el GPS, la pantalla táctil y otras tecnologías omnipresentes son herramientas comunes del mundo moderno. Sin embargo, en realidad, estas tecnologías tienen un “doble uso”:

Si bien resultan convenientes para la gente común, también posibilitan la coerción, la vigilancia y el control masivos de esa misma gente a manos del estado corporativo y militar.

Nolan Higdon y Allison Butler, autores de Educación sobre vigilancia: cómo afrontar la evidente ausencia de privacidad en las escuelasÚnase al presentador Chris Hedges en este episodio de El informe de Chris HedgesExploran los sistemas de software y tecnología empleados en las escuelas primarias y secundarias y en las instituciones de educación superior que vigilan a los estudiantes, erosionan los derechos de privacidad de los menores y, en el proceso, discriminan a los estudiantes de color.

El uso de esta tecnología, explica Higdon, se basa en tratar a los humanos como productos a través del capitalismo de vigilancia.

“Se extraen datos e información sobre los seres humanos de todas estas tecnologías inteligentes y luego se pueden determinar sus comportamientos y cómo podrían reaccionar ante algo. Y hay muchas industrias que están interesadas en esto”, explica Higdon a Hedges.

Butler explica que los estudiantes, a menudo sin poder elegir, se ven sometidos al uso de esta tecnología que, inherentemente, explota sus datos. Como existe un consentimiento implícito para su uso, “la cantidad muy limitada de protecciones que existen para mantener seguros los datos de los menores desaparece una vez que se instala una tecnología en el aula”, dice Butler. “Hay una aceptación pasiva de esta tecnología”.

Higdon señala como factor clave los cambios que la administración Obama realizó en 2012 a la Ley de Derechos Educativos y Privacidad de la Familia (FERPA, por sus siglas en inglés). Estos cambios permitieron que los datos de los estudiantes se compartieran con empresas privadas que actúan como socios educativos.

“En efecto, se permitió que todas esas informaciones que el movimiento por los derechos de los estudiantes intentó mantener privadas se distribuyeran a estas empresas”, afirma Higdon.

Los autores destacan el profundo impacto que estas tecnologías tienen en los procesos fundamentales del aprendizaje en el aula.

“Restringe la curiosidad, que es esencial para el proceso educativo”, afirma Higdon. “El trauma mental y la dificultad de cerrar uno de los pocos espacios en los que pueden explorar, creo que simplemente reflejan el problema de la vigilancia y el proceso educativo”.

Anfitrión: Chris Hedges

Productor: Max Jones

Intro: Diego Ramos

Tripulación: Diego Ramos, Sofía Menemenlis y Thomas Hedges

Transcripción: Diego Ramos

Chris Hedges: Las herramientas de vigilancia se han vuelto omnipresentes en escuelas y universidades. Las tecnologías que prometen mayor seguridad y mejor desempeño académico han permitido a Gaggle, Securly, Bark y otras empresas recopilar datos detallados sobre los estudiantes. Sin embargo, estas tecnologías no solo no han cumplido sus promesas, sino que han destrozado la privacidad de los estudiantes. 

Esto es especialmente cierto en las comunidades pobres, donde hay poco control sobre la vigilancia generalizada. Estos datos a menudo se utilizan en contra de los estudiantes, especialmente los pobres y los estudiantes de color, acelerando el proceso de transición de la escuela a la prisión. Cuando los estudiantes y los maestros saben que están siendo vigilados y monitoreados, se sofoca el debate intelectual, cualquier cuestionamiento de la narrativa dominante y la investigación de los abusos de poder. 

Pero lo más inquietante es que permite a las corporaciones y a las agencias gubernamentales estigmatizar y criminalizar a los estudiantes. Estas plataformas digitales pueden dirigirse a los jóvenes con propaganda y utilizar la ingeniería social y el análisis de tendencias para moldear el comportamiento. Para hablar sobre la vigilancia masiva de los estudiantes, me acompaña Nolan Higdon, autor, junto con Allison Butler, de Educación sobre vigilancia: cómo afrontar la evidente ausencia de privacidad en las escuelas.

Allison, comencemos contigo y, como lo haces en el libro, danos un retrato de cuán intrusiva (lo cual no sabía hasta que leí tu libro) es esta vigilancia y cómo funciona.

Allison mayordomo:  Por supuesto. Muchas gracias por invitarnos. Yo diría que la respuesta más breve a esa pregunta es que es increíblemente, totalmente, totalmente intrusivo. Y para ampliar el tema, vivimos en un mundo de tecnologías de vigilancia. Prácticamente no hay ningún lugar al que tú y yo podamos ir como individuos donde no estemos siendo vigilados de alguna manera. Gran parte de eso es, hasta cierto punto, por nuestra propia elección. Por ejemplo, si nos subimos a nuestro coche y usamos nuestro GPS, estamos aceptando esos términos. 

Lo que nos preocupa, en particular con este texto, es que tenemos una cantidad abrumadora de vigilancia en nuestras escuelas primarias y secundarias y superiores. Específicamente en las escuelas primarias y secundarias, esa vigilancia se está llevando a cabo para menores, para niños menores de 12 años, sin su consentimiento activo. Nos hemos acostumbrado, nos han preparado para las tecnologías de vigilancia mediante algunas de esas tecnologías blandas, como nuestro GPS, como los códigos QR que nos ayudan a hacer que ver los menús de los restaurantes sea un poco más fácil, como algunas de las aplicaciones en nuestro teléfono que hacen que nuestras vidas parezcan un poco más cómodas. 

El costo de eso es que cuando tecnologías de vigilancia más duras e intrusivas llegan a nuestro mundo, y para nuestro caso en particular, a nuestras aulas, ya hemos sentado las bases para estar preparados para eso, y tal vez no necesariamente cuestionemos esas tecnologías en la medida que merecen.

Chris Hedges: Bueno, esas tecnologías, como señalas en el libro, no se comercializan como sistemas de vigilancia, sino como mejoras para la educación y la seguridad. Y dame una idea de algunas de las que se están utilizando y de estas otras herramientas de vigilancia digital, de lo que son y de cómo funcionan.

Nolan Higdon:  Sí. Muchas gracias por invitarme, Chris. Allison y yo estamos felices de estar aquí. Y creo que la forma más fácil de entenderlo es que, al igual que el resto de Silicon Valley, estas empresas de tecnología educativa o tecnología educativa tienden a prometer demasiado y a cumplir poco. Por lo tanto, muchas de las justificaciones para agregarlas a las aulas son cosas con las que la gente normalmente estaría de acuerdo, ¿verdad? Estas herramientas nos harán más seguros o más protegidos. Mejorarán el aprendizaje. Prepararán a los estudiantes para el mercado del siglo XXI. Algunas de ellas incluso se promocionan como más inclusivas. Eso es más compatible con la DEI [diversidad, equidad e inclusión], porque eliminan el sesgo humano, o el elemento humano, eso es lo que afirman. Pero notamos que en todos estos casos en realidad enmascaran motivos más, diría yo, perniciosos. 

Hay mucho dinero que se puede ganar con estas herramientas en el aula y con la posibilidad de recopilar datos. Ese es un problema. El otro es que, además de enmascarar el motivo real, que es obtener ganancias, en realidad no cumplen muchas de estas promesas. Hablamos en el libro de cómo, aunque dicen que estas herramientas están diseñadas para promover la seguridad, a menudo se quedan cortas en ese aspecto. Hay una escasez de evidencia que diga que realmente mejoran el aprendizaje y luego hay mucha evidencia sólida de que en realidad van en contra de los objetivos de la DEI. Entonces, en muchos de estos casos, parece que las razones que se dan para tener estas herramientas de tecnología educativa en las escuelas son muy diferentes de lo que realmente hacen o del propósito real de agregarlas a una escuela.

Chris Hedges: Allison, ¿puedes explicarnos en concreto, por ejemplo, Bark? ¿Puedes escoger uno o dos de estos programas y explicarnos qué hacen? Por supuesto, recopilan datos, pero ¿qué hacen en el ámbito escolar? ¿Cuál es su función?

Allison mayordomo: Por supuesto. Un ejemplo que se utiliza en muchas aulas desde el jardín de infantes hasta el 12.º grado es una tecnología llamada GoGuardian. GoGuardian se instala en computadoras portátiles del aula. Por lo tanto, si tienes un aula en la que cada estudiante tiene una computadora portátil asignada, podría ser su propia asignación y tener esa computadora en particular durante todo el año escolar o podrían ser computadoras portátiles del aula y simplemente estar en el lugar donde el estudiante está sentado. 

GoGuardian monitorea sus pantallas, monitorea todo lo que están haciendo, y luego el maestro al frente del aula, o donde sea que se encuentre, puede mirar las pantallas de los estudiantes durante la clase. Un argumento que GoGuardian sostiene es que esto ayuda a los maestros a mantener a los estudiantes en el camino correcto y, por lo tanto, ayuda a los estudiantes a mantenerse en el camino correcto. Por lo tanto, se presenta como un comportamiento. Se presenta como una especie de herramienta de enfoque, porque los maestros pueden mirar las pantallas de los estudiantes, y luego hay una especie de elemento de zanahoria y palo, que es que un maestro puede decir, oye, necesitas salir de ese sitio web. Eso no es en lo que estamos trabajando. 

O [el profesor] ​​puede mirar directamente el trabajo de un estudiante y comentar lo que está haciendo bien o lo que podría necesitar ser adaptado. Se presenta como una especie de tecnología comunitaria para las aulas. Estos son algunos de los problemas que encontramos con GoGuardian: A los profesores se les dice a menudo que es su trabajo revisarlo y, de hecho, muchos de los profesores que entrevistamos para el libro dijeron que creían que eran ellos los que realizaban la vigilancia, que se sentían un poco incómodos con eso, pero realmente veían el poder de la vigilancia en sus computadoras. Lo que no se les dice o no se les deja claro es que en realidad es la corporación la que realiza toda la vigilancia. Y si estamos pensando particularmente en las aulas de K a 12, como señalé antes, estos son datos de menores. 

Por lo tanto, la cantidad muy limitada de protecciones que existen, protecciones digitales, para mantener seguros los datos de los menores desaparece una vez que se incorpora una tecnología a las aulas; hay una aceptación pasiva de esta tecnología. Los propios estudiantes no dieron una aceptación activa de que se recopilaran sus datos. Es un consentimiento implícito. Y, de hecho, ese es el lenguaje que se utiliza a menudo: al utilizar la tecnología, se trata de un consentimiento implícito, y no hay necesariamente una opción de no hacerlo. Así que tenemos un aula confusa en la que el profesor cree que está a cargo y que está tomando una decisión ética particular, cuando en realidad no es él quien está a cargo. 

Una vez que algo como GoGuardian toma datos de los estudiantes y obtiene su información, la tiene, no hay ningún tipo de interruptor de apagado para esto, y si en un momento un estudiante conecta su teléfono celular personal a ese dispositivo para cargarlo, GoGuardian ahora también tiene todos esos datos debido a la conexión digital de estos dispositivos.

Una profesora que entrevistamos se sintió un poco incómoda, contó una historia en la que se sentía un poco incómoda con GoGuardian, en parte porque el estudiante estaba en casa enfermo y la profesora podía ver lo que estaba pasando en la pantalla, incluso cuando el estudiante estaba en casa, fuera de la escuela por una razón legítima, la profesora podía ver al estudiante mirando videos de YouTube. Y fue entonces cuando pensó: "Oh, esto no es lo que pensé que era. Esto no está conectado directamente con el aula, ¿verdad?" Creo que a veces las comodidades de nuestras tecnologías digitales nos invitan a olvidar que nuestras tecnologías digitales pueden ser monitoreadas en todas partes donde estemos, no solo en nuestras aulas. 

Creo que otro ejemplo, algo que se utiliza tanto en la educación primaria como en la superior, sería Turnitin. Turnitin es un programa que los profesores pueden configurar para que los alumnos envíen sus trabajos escritos a través de esta plataforma, y ​​se vende a sí mismo, se presenta como un detector de plagio, lo que supongo que, en cierto modo, es cierto. El otro aspecto insidioso es que muchas de estas tecnologías y estas corporaciones en realidad nunca te mienten. Simplemente no te dicen toda la verdad y omiten algunas partes realmente importantes. Así que Turnitin, sí, es un software de detección de plagio. Y además, Turnitin hace al menos dos cosas. 

En primer lugar, se trata de enseñar inteligencia artificial, ¿no? Los estudiantes que envían sus trabajos aportan cada vez más información para el desarrollo de la inteligencia artificial generativa, y Turnitin también vende esa información a los anunciantes y a los especialistas en marketing, de modo que el lenguaje de los jóvenes se analiza y luego se utiliza en el lenguaje publicitario y de marketing y, de algún modo, se les vende de nuevo. De modo que nuestros jóvenes, en cierta medida, trabajan para esta corporación. Hacen gran parte del trabajo y no reciben ninguna compensación. Así que diría que son dos ejemplos muy importantes que muestran lo insidiosas que son estas tecnologías, lo invasivas que son y lo confusas que pueden resultar para quienes se anima a utilizarlas.

“… el lenguaje de los jóvenes se analiza y luego se utiliza en lenguaje publicitario y de marketing y se les vende de nuevo. Así que nuestros jóvenes, en cierta medida, trabajan para esta corporación. Son ellos los que hacen gran parte del trabajo y no reciben compensación alguna por ello”.

Chris Hedges: Nolan, hablemos de cómo se utilizan estas tecnologías para vigilar a los estudiantes, especialmente en los barrios pobres, lo que afecta desproporcionadamente a los estudiantes de color.

Nolan Higdon: Sí, una de las cosas que notamos con estas herramientas es que, nuevamente, hacen grandes promesas, ¿cierto? Prometen cosas como que podemos predecir si un estudiante puede involucrarse en un delito o si podemos predecir si un estudiante tiene problemas de salud mental que deben abordarse. 

Pero el diablo está en los detalles. Lo que hacen estas herramientas es recopilar una gran cantidad de datos y codificar algoritmos para analizarlos y tomar decisiones sobre la salud mental o la posible criminalidad de alguien. Y aquí es donde realmente vemos un gran problema con la excesiva dependencia de estas herramientas. Estos algoritmos que interpretan los datos están codificados con el mismo sesgo de sus creadores, y vemos una y otra vez cómo estos algoritmos llegan a conclusiones racistas o transfóbicas, y lo que quiero decir con esto es que estos algoritmos categorizarán desproporcionadamente a los estudiantes de color como más propensos a cometer un delito. Como resultado, son monitoreados más por la escuela, y esto, nuevamente, normaliza este monitoreo de los cuerpos negros. 

Lo mismo ocurre con los detectores de salud mental: categorizan desproporcionadamente cosas como los niños trans por problemas de salud mental, lo que no significa que solo estén pasando por desafíos de salud mental, que es parte de la vida para algunas personas, pero también significa que deben ser vigilados por cosas como tiroteos en las escuelas, suicidio o autolesiones. 

“…estos algoritmos categorizarán desproporcionadamente a los estudiantes de color como personas con más probabilidades de cometer un delito”.  

Y entonces se produce también una vigilancia excesiva de estos individuos. Y uno de los mitos que, creo, Silicon Valley en general ha difundido, pero estas herramientas de tecnología educativa en particular, es que tienen algoritmos objetivos que están libres del sesgo de los humanos y, por lo tanto, pueden sacar conclusiones más precisas. Pero la investigación dice que no, ese no es el caso; en todo caso, estas herramientas en realidad complican o empeoran muchos de los problemas que hemos tenido con cuestiones como el racismo o la transfobia.

Chris Hedges: Allison, quiero hablar de cómo estos datos, en primer lugar, terminan en manos de empleadores potenciales. Es una industria multimillonaria que vende nuestros datos personales, todo lo que hemos hecho, todas las infracciones de tránsito que hemos cometido, porque básicamente permite que los empleadores, tal vez incluso las universidades, que están buscando estudiantes de secundaria, tengan información que debería ser privada y, por supuesto, podría usarse en contra de esos estudiantes o empleados potenciales.

Allison mayordomo: Por lo tanto, me gustaría ponerme un poco en tela de juicio una de las palabras que has dicho, que es la venta de nuestros datos. Creo que es algo a lo que deberíamos prestar más atención, como el punto de vista de Nolan sobre que el diablo está en los detalles y lo que dije antes sobre que en realidad no nos mienten, simplemente no necesariamente nos cuentan todo. 

Muchas de estas tecnologías actuales dicen que no vendemos sus datos, y son como muchos signos de exclamación, ¿no? Y se supone que debemos decir: "Oh, vale, bien. Mis datos están seguros". Absolutamente no. En primer lugar, sus datos no están seguros, porque las filtraciones ocurren tan a menudo que ya ni siquiera son noticia. En un momento de nuestra investigación, estábamos tratando de categorizar o catalogar todas las diferentes filtraciones, y simplemente pensamos que señalarlas en estos microdetalles no sería de ayuda, porque ocurren todo el tiempo. Estamos tan acostumbrados a ello. 

Pero lo que realmente debemos tener en cuenta es que muchas de estas corporaciones comparten nuestros datos, ¿no es así? Lo que sucede es que tenemos lo que usted y yo podríamos considerar como corporaciones diferentes que no tienen una conexión entre sí, y se han asociado. Han comprado los modelos de negocios de cada una. Están conectadas de alguna manera. Entonces se llaman a sí mismas corporaciones educativas o socios educativos. Eso significa que en realidad no tienen que vender nuestros datos. Pueden compartirlos. Así que podemos estar tranquilos en cierto nivel. Pero, de hecho, es este otro nivel en el que tal vez debamos pensar con más cuidado. 

Así que cuando hablamos de empleadores, o cuando hablamos de universidades, o incluso tal vez si hablamos de escuelas privadas, tenemos tantos socios educativos que ya tienen acceso a los datos, que ya pueden hacer algún análisis de ellos, que se les permite compartirlos. Creo que solíamos hablar hace varios años sobre, particularmente con los estudiantes de K a 12, que los empleadores van a mirar sus redes sociales. Las oficinas de admisión de las universidades van a mirar sus redes sociales. En realidad, ya no necesitamos indicarles a nuestros jóvenes que se preocupen por estas áreas en particular. Estas personas no tienen que hacer un montón de trabajo de detective. Ya están allí para ellos. Así que no estoy exactamente seguro de si están prestando mucha atención a ellos o no, pero los datos ya están allí. Simplemente están frente a ellos.

Chris Hedges: Nolan, ¿puedes hablarnos de cómo son proactivos, de ingeniería social, de cómo no se trata solo de recopilar datos, sino de utilizarlos para dar forma y moldear el comportamiento?

Nolan Higdon: Sí, y para añadir un poco más a eso, para retomar el tema donde Allison lo dejó también. Y también lo he dicho mucho hoy, estas son empresas de tecnología educativa, pero eso es un poco engañoso. Muchas de estas empresas que dirigen o poseen estas plataformas de tecnología educativa, como hemos hablado de un par, como Gaggle, Bark, Canvas, otras, generalmente son propiedad de empresas de capital. Esto realmente comenzó en los últimos 10 años, estas empresas de capital compraron estas herramientas de tecnología educativa, aparentemente porque había una manera de entrar en el aula. Hay toda una industria aquí en el mundo académico que llaman capitalismo de vigilancia, que se basa en la idea de tratar a los humanos como productos. Entonces, extraes datos e información sobre los humanos de todas estas tecnologías inteligentes, y luego puedes tomar decisiones sobre su comportamiento, cómo podrían reaccionar ante algo. Y hay muchas industrias que están interesadas en esto, ¿verdad? A las industrias publicitarias les gustaría saber cómo crear el anuncio perfecto para que realices una compra. A las compañías de seguros les gustaría saber cómo establecer sus primas, tal vez en función de su salud o de sus patrones de conducción, etc. Por eso, los datos pueden ser bastante lucrativos para las industrias en ese sentido. 

Pero además de predecir el comportamiento, también hay entidades que están interesadas en impulsar tu comportamiento. Entonces, ¿qué puedo hacer? ¿En qué situación puedo ponerte? ¿Qué información puedo darte para que te comportes de esta manera? Y hay una gran creencia en la industria de que si recopilamos suficientes datos, podemos impulsar el comportamiento de las personas en la dirección correcta, particularmente aquí estamos en un año electoral, muchas campañas, eso es lo que están tratando de hacer con estos datos. ¿Cómo podemos usar estos datos para que estas personas salgan a votar, o tal vez hacer que estas personas no voten, dependiendo de cosas como esas? Entonces, hay mucho potencial en la industria si puedes recopilar múltiples puntos de datos, y es por eso que las escuelas son tan atractivas, ¿verdad? 

Son uno de los pocos lugares que han sido protegidos como espacio público, por lo que las empresas privadas han querido entrar allí durante mucho tiempo, y bajo el altruismo de brindar herramientas de tecnología educativa, esta ha sido una oportunidad para que ingresen al aula y obtengan acceso a esos datos lucrativos. 

“[Las escuelas] son ​​uno de los pocos lugares que han sido protegidos como espacio público, por lo que las empresas privadas han querido entrar allí desde hace mucho tiempo y... obtener acceso a datos lucrativos”. 

Y, para dejar algo claro, algunas de estas grandes empresas no solo poseen herramientas de tecnología educativa, sino también cosas como Baby Connect, que les dice a los padres que usen estas herramientas para monitorear a sus bebés. También poseen plataformas que analizan los patrones de trabajo de las personas después de graduarse y también obtienen datos de las redes sociales escolares. El objetivo es hacer lo que llaman un perfil psicográfico de las personas desde la cuna hasta la tumba, y las escuelas son una parte importante de ese proceso.

Chris Hedges: Quiero ser clara, como señalas en el libro, es una industria enorme. Dices que la tecnología educativa es una industria global de 123.4 millones de dólares. Estamos hablando de mucho, mucho dinero. Allison, quiero hablar de que durante el verano hemos visto cómo las universidades y las escuelas han impuesto todo tipo de nuevas restricciones y normas para acabar con las protestas contra el genocidio en Palestina, y se ha coordinado en todo el país, sin reparto de volantes, sin eventos, mesas, sin campamentos, etcétera. ¿En qué medida herramientas como estas ayudan a las universidades y las escuelas a acabar con la disidencia o la controversia, en particular en torno a Palestina?

Allison mayordomo: Creo que en gran medida, y creo que este es un lugar donde es indicativo de los temores más amplios de nuestras universidades, bueno, probablemente para ser un poco frívolos, nuestros temores a los jóvenes y lo que están haciendo con sus propias tecnologías, pero temores al estado de la libertad académica, temores a lo que significa el disenso, a lo que significa la desobediencia. Creo que pasamos mucho tiempo en nuestras aulas alabando actos históricos de disenso, actos históricos de desobediencia, pero cuando nos enfrentamos a ellos en tiempo presente, de alguna manera es aterrador. 

Si les voy a dar el beneficio de la duda, son los administradores los que buscan alguna forma de mantener seguros sus campus, de mantener seguros a los estudiantes, profesores y personal que tienen puntos de vista diferentes y conflictivos sobre la seguridad. Desafortunadamente, creo que la palabra seguro se usa a menudo como un “por favor, no me demanden”, ¿verdad? Es un eufemismo para “por favor, no me demanden”. Entonces, creo que, debido a un sentido cultivado del miedo, las tecnologías de vigilancia hacen un muy buen trabajo capitalizando el miedo, ¿verdad? Quiero decir, para cambiar un poco las cosas, cuando pensamos en el comienzo de la COVID, se estaba capitalizando el miedo a lo que se suponía que debíamos estar juntos, ¿verdad? Lo peligroso que podría ser para nosotros estar en el mismo espacio. Y creo que estas corporaciones continúan capitalizando ese miedo cuando observamos la disidencia, la manifestación y la desobediencia. Y entonces tienes herramientas universitarias, luego tienes herramientas de estado policial, ¿verdad? Que la policía está llegando con cámaras corporales, que, seamos honestos, se pueden encender y apagar para crear y enmarcar una narrativa muy particular, ¿verdad? El problema es que las tecnologías de vigilancia y estas herramientas atacan en todas las direcciones. 

Tenemos a nuestros propios estudiantes filmando sus acciones, lo que significa que sus rostros están ahí, ¿no? Si están allí en una disidencia pacífica, si están allí en una desobediencia civil, sus rostros están muy presentes, lo que significa que, si algo sale mal, no importa quién lo haga, ¿no? Si es por instigación policial o por instigación de estudiantes opositores, ya tenemos toda su información. Así que vivimos en un entorno en el que creo que, como a lo largo de la historia, es importante estar presente, importante ponerse de pie, y también esa presencia y ese ponerse de pie están siendo manipulados y maniobrados de formas terribles por estas tecnologías de vigilancia.

Chris Hedges: Y, Allison, tiene una ramificación global, porque las universidades y las escuelas tradicionalmente son lugares donde el intercambio de ideas y el disenso, en una democracia funcional, es uno de los epicentros, uno de los epicentros físicos donde ese tipo de discusiones deberían poder tener lugar.

Allison mayordomo: Absolutamente, y creo que, de nuevo, cuando analizamos la historia, cuando analizamos el arco de la historia, de alguna manera tenemos esta imagen pintada de que esto era una disidencia en la que la gente se comportaba como si tuviera un desacuerdo civil, y parece que ya no tenemos eso. Así que nuestros desacuerdos más inciviles, nuestros desacuerdos más físicos se están pintando y presentando a través de estas tecnologías de una manera que probablemente no podríamos haber hecho en la historia, ¿verdad?

Creo que este verano, cuando se acercaban las convenciones presidenciales, tanto el RNC como el DNC decían, en particular el DNC, que había que mirar atrás en la historia. Y creo que eso es importante. Nunca diría que no deberíamos hacerlo, pero ha cambiado tanto la forma en que nuestra tecnología participa en estas convenciones o en estos disensos que nuestra comprensión del comportamiento es total y absolutamente diferente.

Chris Hedges: Nolan, esta información, tal como escribes en el libro, no sólo termina en manos de las corporaciones, termina en manos del DHS, el FBI. Háblanos un poco sobre cómo la seguridad del estado también utiliza esta información.

Nolan Higdon: Sí, la llamada seguridad nacional, o la industria de la seguridad nacional, está muy involucrada en la recopilación de estos datos. Y vale la pena recordarles a las personas que estas herramientas (Internet, pantalla táctil, GPS y muchas otras funciones de los dispositivos inteligentes en la era digital) provienen del complejo militar industrial. Se crearon con fondos de defensa, en colaboración con universidades y escuelas a mediados del siglo XX. Y, de hecho, hablamos en el libro de que, cuando los estudiantes descubrieron para qué se estaban creando estas herramientas, protestaron contra ellas. 

Pero hasta el día de hoy, estas herramientas siguen recopilando datos que se comparten con el DHS y la comunidad de inteligencia, nuevamente, con el auspicio de detectar posibles terroristas, detectar posibles amenazas. Esto es problemático por numerosas razones, pero una de ellas, solo desde un punto de vista puramente educativo, realmente afecta negativamente el aprendizaje. Les estamos diciendo a los estudiantes que, cuando están en el campus, son objetos que deben ser monitoreados y protegidos, y que deben ser controlados. Es muy difícil desarrollar una relación de confianza en la que las personas se sientan cómodas asumiendo riesgos y cometiendo errores, que son fundamentales para la educación cuando se trata de un entorno en el que siempre están siendo vigilados.

“Es muy difícil desarrollar una relación de confianza donde las personas se sientan cómodas tomando riesgos y cometiendo errores, que son fundamentales para la educación, cuando se trata de un entorno donde siempre están siendo vigilados”.

Chris Hedges: Bueno, no sólo vigilados y controlados, sino que, como estamos viendo con las protestas estudiantiles, estas herramientas de monitoreo, efectivamente, son más que vigilancia. Se trata de cerrar porque saben quién está involucrado, al instante. Quiero decir, lo sabían en Occupy. Lo sé porque pasé mucho tiempo en Zuccotti [Parque en el centro de Manhattan], y después de que [el alcalde de la ciudad de Nueva York, Mike] Bloomberg cerrara el parque, hubo una serie de redadas policiales en lofts y atraparon a todas las personas adecuadas, porque los estaban monitoreando electrónicamente. Allison, quiero que hables, en particular, de dos herramientas de seguridad cibernética. Quiero que hables de Augury y Pegasus.

Allison mayordomo: En realidad, esos son los bebés de Nolan. Así que se lo voy a devolver a él, si no le importa.

Nolan Higdon: Sí, Pegasus es básicamente un programa espía que proviene del gobierno israelí, pero Pegasus fue instalado en otro software. De modo que si ingresabas a otros ordenadores, básicamente, podías vigilar a personas de todo el mundo que tuvieran instalado ese programa Pegasus, y básicamente estaba creando una plataforma de vigilancia global. Israel no es el único en esto. Estados Unidos ha estado… 

Chris Hedges: Y sólo quiero interrumpir a Nolan. Pegasus es una creación israelí. Proviene de Israel. Creo que se utilizó para rastrear a Jamal Khashoggi.

Nolan Higdon: Sí, claro, y Estados Unidos, como dije, participa en una producción y un seguimiento similares, incluso colabora con Israel en Pegasus. Pero sí, creo que, en relación con el punto de Allison sobre que la historia ha cambiado, tenemos que hablar mucho sobre nuestras expectativas o sobre qué derechos y leyes deben cambiar también.

Esta idea de registros e incautaciones ilegales o la idea de que mi privacidad es algo que me pertenece, están cambiando en la era digital, y la ley -y esta es una de las cosas que defendemos en el texto- tiene que ponerse al día con eso, porque los gobiernos y las corporaciones han expuesto muchas de las protecciones que teníamos sobre la privacidad, lagunas legales, como en el ejemplo de Pegasus. Hablamos de cosas como que la Primera Enmienda protege la libertad de expresión del gobierno, pero el gobierno puede trabajar con las empresas de tecnología para acabar con ciertas expresiones o ideas, o estás protegido en tus comunicaciones, como en privado en tu casa, pero si es correo electrónico, eso significa que has cedido esas comunicaciones a una empresa privada que luego puede entregárselas al gobierno. 

Por lo tanto, hay muchas lagunas de este tipo que se están exponiendo en la era digital, y esa es una de las cosas que defendemos en el texto, porque incluso tuvimos un movimiento por los derechos de los estudiantes que les concedió el derecho a la privacidad en las escuelas. Eso es lo que creó la FERPA. Aquí en Estados Unidos, pero luego, alrededor de 2012, la administración Obama modificó algo de la FERPA. 

Anteriormente, la FERPA significaba que la escuela no podía compartir la información de un estudiante con nadie. Si era menor de edad, podía compartirla con su tutor. Pero los cambios a la FERPA en 2012 decían: "No, también puedes compartir su información con socios educativos". Se trata de empresas que tienen contratos con las escuelas. Y, en efecto, todos esos datos que el movimiento por los derechos de los estudiantes se esforzó por garantizar que fueran privados se pudieron distribuir a estas empresas. Y, como hemos visto, eso es lo que le permite entrar también en otras áreas.

“Anteriormente, FERPA significaba que la escuela no podía compartir la información de un estudiante con nadie... Pero los cambios a FERPA en 2012 dijeron: 'No, también puedes compartir su información con socios educativos'”.

 

Chris Hedges: Y hablemos de Augury. Este software está desarrollado por una empresa de ciberseguridad, el equipo... ¿Qué es? Cymru, que pone a disposición de clientes gubernamentales y privados cantidades masivas de datos. Varias ramas del ejército han pagado colectivamente 3.5 millones de dólares para acceder a los datos de Augury.

Nolan Higdon: Sí, me gusta pensar en empresas como Augury como si fueran una especie de gigantescos repositorios de datos. Salen a la calle y obtienen acceso a cantidades masivas de datos. Los analizan en tiempo real y, según lo describe la industria, venden básicamente productos que analizan estos datos para empresas o gobiernos.

Pero Augury es un ejemplo de algo que sirve a los intereses de los gobiernos que tal vez quieran identificar a las personas o entender el comportamiento de los activistas o entender la comunicación de los activistas en línea. Augury promete tener esta enorme cantidad de datos que puede analizar y brindar algunas respuestas a las preguntas que los gobiernos puedan tener y que buscan vigilar, comprender, predecir o inducir el comportamiento.

Chris Hedges: Allison, en el libro utilizas un término: “racismo algorítmico”. ¿Puedes explicarlo?

Allison mayordomo: Entonces, si pensamos en algoritmos, y todos somos así, los algoritmos son como nuestro oxígeno en estos días, ¿no? Todo lo que hacemos digitalmente se extrae de un algoritmo. Y creo que los algoritmos, para muchos, particularmente cuando hablamos con estudiantes de primaria y secundaria y, en cierta medida, de educación superior, parecen algo misterioso que, de alguna manera, en la computadora... Lo que tenemos que recordar es que los algoritmos son programas, son códigos, son lenguaje, son preguntas que son creadas por humanos, por lo que están construidas con el racismo, el sexismo, la homofobia, el capacitismo, etc., de los humanos falibles, ¿no? 

En cuanto al racismo algorítmico, el racismo está incorporado en estas tecnologías digitales, lo que significa que, desde el principio, van a ver a personas de color y, por extensión, a mujeres de color, personas con capacidades diferentes, cualquiera que se identifique como LGBTQ, básicamente cualquiera que sea o se identifique fuera de lo que el creador del algoritmo ve como la norma, lo que significa que no estamos necesariamente viendo experiencias físicas y tangibles de racismo. Estamos viendo el racismo como una forma de enseñarnos a usar las tecnologías digitales, porque, como dije, está incorporado en esto, por lo que los problemas nos llegan de inmediato.

Por lo tanto, empezamos a aprender cómo manejar las cosas dentro de ese marco racista, y eso se convierte en una norma, y ​​se convierte en una especie de forma centralizada de verlo, lo que lo hace significativamente más peligroso para los cuerpos de color, así como para aquellos que interactúan con cuerpos de color, tener una noción preconcebida incorporada en sus tecnologías de quiénes son estos cuerpos y cómo se espera que se comporten.

“Vemos el racismo como una forma de enseñarnos a utilizar las tecnologías digitales”.

Chris Hedges: Bueno, un ejemplo de lo que sacas del libro es el software de reconocimiento facial en el software de supervisión de exámenes como Proctorio, desarrollado para estudiantes blancos. Los estudiantes negros y morenos son menos detectables y se ven obligados a proporcionar más información personal que los estudiantes blancos para confirmar su identidad. 

En otro ejemplo del sesgo racista codificado en algoritmos, la investigación revela que los programas que prometen predecir con precisión la retención de estudiantes y el éxito en los cursos asumen erróneamente que los estudiantes de color no tendrán éxito. Esto se debe a que se necesitan cantidades masivas de datos para entrenar algoritmos e IA, pero estos se entrenan utilizando lógica inductiva. Entonces, si están programando para ver múltiples elementos pero solo se les muestra un resultado, el algoritmo comunicará una variedad de cosas diferentes como una sola cosa. Por ejemplo, si el algoritmo está programado para reconocer manzanas pero solo se le muestran manzanas rojas, el código verá todo en ese grupo como una manzana roja. Si bien esto es incorrecto en la existencia real de las manzanas, es correcto a través de lo que se le enseñó al algoritmo.

Allison mayordomo: El algoritmo responde a la entrada humana, ¿no? Quiero decir, creo que como en la década de 1980, cuando empezábamos a familiarizarnos con las computadoras, había una pequeña frase pegadiza, "basura entra, basura sale", que si programabas, quiero decir, no era solo la gente común en nuestras salas de estar programando computadoras en ese momento, ¿verdad? Pero si programabas basura, entonces obtenías basura. Y creo que vemos esto con nuestra IA generativa. Cualquiera de nosotros que tropiece o tenga dificultades con ChatGPT, por ejemplo, tal vez lo que tengamos que mirar es lo que estamos programando en él. Es la sofisticación que está sucediendo, que no soy yo tratando torpemente de averiguar si ChatGPT puede hacerme planes de comidas para la semana para que no tenga que pensar tanto cuando voy al supermercado. Se trata de una programación muy sofisticada que luego enmarca y construye la forma en que el resto de nosotros vemos el mundo, como nuestro ejemplo del software de reconocimiento facial, y tenemos un ejemplo muy propio del siglo XXI del privilegio inmerecido de ser blanco. Ese blanco encaja mucho mejor en el modelo.

Chris Hedges: Nolan, quiero hablar de los inmigrantes. En el libro escribes que los legisladores autorizan a las escuelas, especialmente las universidades de Estados Unidos, el Reino Unido y Australia, a identificar a los estudiantes inmigrantes con un estatus migratorio cuestionado o ilegal, y esperan que lo hagan. El Departamento de Seguridad Nacional de Estados Unidos mantiene grandes volúmenes de datos con el fin de localizar y rastrear a los inmigrantes. Por ejemplo, LexisNexis, que se utiliza ampliamente en el ámbito educativo, vende datos al Servicio de Inmigración y Control de Aduanas (ICE) del Departamento de Seguridad Nacional. LexisNexis, una subsidiaria de la corporación RELX, ofrece productos de análisis de datos y bases de datos en línea. Se descubrió que había proporcionado información confidencial al ICE, que presumiblemente estaba utilizando para rastrear y arrestar a personas para su deportación.

Nolan Higdon: Sí, esto surgió del capítulo que fue motivado por el hecho de que cada vez que hablamos sobre este tema, siempre nos llegaba esta pregunta, inevitablemente de alguien que dice: "Bueno, ¿y qué? No tengo nada que ocultar. ¿A quién le importa mi privacidad?" Y en el capítulo que estás leyendo, Chris, tratamos de presentar una lista de diferentes vulnerabilidades, y una en particular son los estudiantes que han impugnado, o así llamado, estatus de inmigrante ilegal. Claramente tienen una razón para querer privacidad. Puede que ni siquiera sean ellos, pueden vivir con alguien que ha impugnado su estatus de inmigrante, a quien también quieren proteger a través de su propia privacidad, pero al participar en el proceso de aprendizaje donde están presentes estas herramientas, amenazan ese estatus de inmigrante de ellos mismos o de las personas con las que viven, podría usarse en su contra para la deportación, el arresto o cualquier otra cosa. 

Y vemos esto una y otra vez. Por eso creemos que estas herramientas son tan perniciosas, porque volviendo al punto donde comenzamos esta conversación, se utilizan para cuestiones como la seguridad y la mejora del aprendizaje y la DEI y cosas con las que creo que la mayoría de la gente estaría de acuerdo, pero en la práctica se utilizan contra esas medidas, criminalizando a las personas, vigilándolas y luego utilizando esa información, posiblemente para deportar a alguien.

“un proceso de aprendizaje donde estas herramientas están presentes…podrían usarse en su contra para deportación, arresto o cualquier otra cosa”.

Chris Hedges: También destaca que los dispositivos proporcionados por las escuelas pueden alertar a los campus sobre las búsquedas web de los estudiantes, las personas que buscan información sobre su sexualidad y las preferencias sexuales de los estudiantes, ya que, como resultado, los estudiantes LGBTQ+ intentan buscar información sobre su sexualidad o curiosidad sexual, incluidas preguntas relacionadas con la salud, y corren el riesgo de que los funcionarios escolares, las fuerzas del orden y cualquier otra persona que pueda acceder a su información los revelen.

Nolan Higdon: Sí, esto vuelve a lo que estábamos diciendo, ¿no? Creemos que la educación debería ser un ejercicio de libertad. Las personas deberían poder explorar quiénes son, explorar la información. La expectativa es que van a cometer errores en el aula como estudiantes, como nuestros profesores, pero necesitan sentirse cómodos para poder cometer esos errores. Cuando la idea es que te están vigilando constantemente, o que esto podría llegar a oídos de tus padres, o que podría transmitirse al mundo, los estudiantes tienen menos probabilidades de compartirlo. Tienen menos probabilidades de buscar esa información. Eso limita la curiosidad, que es esencial para el proceso educativo, y por no mencionar que estas personas están luchando con preguntas críticas sobre su identidad, por lo que el trauma mental y la dificultad de cerrar uno de los pocos espacios en los que pueden explorar, creo que simplemente habla del problema con la vigilancia y el proceso educativo.

Chris Hedges: Allison, quiero hablar de lo que esto hace dentro de las escuelas y las universidades. Tú escribes que esta vigilancia constante es una forma de garantizar que el profesorado se adhiera a la homogeneidad ideológica buscada por la dirección de la escuela. Comienza con el proceso de solicitud, cuando se les pide a los candidatos que compartan detalles privados, como sus enfoques de enseñanza y declaraciones de diversidad, que se utilizan para garantizar la homogeneidad ideológica en el campus. Continúa cuando los estudiantes, a menudo de manera ilegal, graban lo que hacen los profesores en el aula. Esto puede y ha sido utilizado para presionar a los educadores para que abandonen su profesión si se percibe que tienen una posición ideológica que va en contra del status quo. Hemos observado esto desde el 7 de octubre, en repetidas ocasiones.

Allison mayordomo: Creo que una de las cosas que pueden hacer estas tecnologías de vigilancia, ya sea intencionalmente o simplemente por casualidad, es fomentar entornos de desconfianza, ¿no es así? Como ha dicho Nolan, como he dicho yo, como decimos todo el tiempo en nuestras aulas, en las aulas escolares, ese es un lugar para cometer errores. Es un lugar para tropezar. Es un lugar para sentir curiosidad. Es un lugar donde la ignorancia debe entenderse de una manera excelente. Entro en un aula como estudiante sin saber algo. Soy ignorante de eso. Tengo la oportunidad de aprender de ello. 

Cuando tenemos un entorno en el que tenemos todas estas divisiones establecidas por la tecnología, todo eso corre el riesgo de desaparecer (desaparecer es una palabra demasiado suave), de ser pisoteado, ¿no? No digo que los estudiantes o los profesores deban tener sus días llenos de conversaciones horribles y llenas de odio, pero creo que necesitamos aprender muchas perspectivas diferentes para poder enseñar y aprender de verdad. 

Y nuestras tecnologías digitales tienen la capacidad de grabar, eso es algo importante, pero también tienen la capacidad de manipular, lo que cambia las historias que cuentan los profesores y los estudiantes. Crea aulas que, en el mejor de los casos, van a correr el riesgo de ser aburridas, vale, pero de lo que realmente estamos hablando es de sofocar el aprendizaje. Estamos hablando de sofocar la exposición. Estamos hablando de sofocar la forma de gestionar la diferencia, ¿no? Creo que, al observar nuestros conflictos globales en estos días, en particular lo que está sucediendo en Israel/Palestina, se nos están enseñando lecciones que dicen que la diferencia es mala en lugar de que la diferencia es una forma de empezar a intentar aprender unos de otros como seres humanos. 

Así que, cuando las diferencias, las discusiones, las preguntas, los malentendidos, la falta genuina de comprensión, se ven sofocados por estas tecnologías digitales, nuestras aulas ya no son lugares de curiosidad o de investigación. Son fábricas, solo para darnos un título, y ese título puede que no signifique tanto. Repito, no estoy abogando de ninguna manera por un aula llena de odio, solo para demostrar que las cosas son diferentes, sino más bien por el hecho de que deberíamos tener entornos en los que podamos sentirnos incómodos, curiosos, inquisitivos, emocionados, todas las cosas como una herramienta de aprendizaje, y que lo estamos haciendo juntos en comunidad, ¿no? 

Creo que otro aspecto importante de estas tecnologías de vigilancia, en particular las tecnologías de las redes sociales, es que son increíblemente aislantes. De hecho, son bastante antisociales. Y lo que la escuela, las aulas, la enseñanza y el aprendizaje pueden hacer es fomentar la colaboración y la comunidad, lo que contrarresta el aislamiento. Contrarresta esa compartimentación y las tecnologías de vigilancia están trabajando muy duro para crear aislamiento y silos.

Chris Hedges: Bueno, esto cierra cualquier cuestionamiento de la narrativa dominante, ¿no es así?

Allison mayordomo: Por supuesto, y los estudiantes no necesariamente comprenden o conocen la estructura de la narrativa dominante. No necesariamente saben cómo cuestionarla. Tenemos que empezar a hablar más sobre todo esto, y eso significa estar juntos en las aulas, en nuestro mundo, estar juntos en las aulas y eliminar, en la medida de lo posible, estas tecnologías.

Chris Hedges: Bueno, en cualquier sistema totalitario, el objetivo es negar la capacidad de hacer preguntas. Nolan, quiero preguntarte, como dijiste, hay una historia bien documentada de empleadores que utilizan la vigilancia para explotar a los trabajadores y socavar la negociación colectiva. En lugar de ver la vigilancia de EdTech como un beneficio para el proceso educativo o una medida de seguridad, los educadores deben reconocer que se puede utilizar para obtener datos y socavar el poder como empleado. Hablemos de eso.

Nolan Higdon: Sí, esta fue una parte realmente fascinante del libro, y sé que hemos estado tratando de llevarla a los sindicatos de profesores. Pero sí, hay una larga historia de empleadores que se remonta a siglos atrás, que utilizan espías físicos o intentan espiar las comunicaciones para averiguar quién es un agitador laboral y eliminarlo a él o a cualquiera que simpatice con él. Esta es una era completamente nueva. Tenemos estas herramientas en el aula que pueden vigilar a las personas mientras trabajan en el aula. Teóricamente, se utilizan cosas, ya sea en contexto o fuera de contexto, para deshacerse de esos empleados.

También hablamos de Israel, Gaza, muchos empleados y profesores que en estos momentos no tienen protección. Hemos visto la adjunción o la voluntad de la educación superior. Así que, independientemente de cómo se sienta la gente sobre ese conflicto, lo evitan en el aula porque tienen miedo de que cualquier cosa que digan pueda usarse en su contra para perder su trabajo, y eso no es solo lo que ellos pierden, es lo que hacen los estudiantes, que pierden la oportunidad de participar en un problema mundial crítico. Y además, como profesores, estas herramientas también están tratando de aprender de lo que estamos haciendo, por lo que están recopilando nuestros datos y sacando provecho de ellos sin pagarnos.

En general, el movimiento obrero quiere que le paguen por su trabajo, pero además, también están capacitando a estas herramientas para que intenten realizar algunas de las funciones que realizan los profesores. De modo que están capacitando a su reemplazo en algún nivel, y estoy pensando en cosas como la calificación inteligente y la redacción inteligente de tareas, estas nuevas herramientas que están surgiendo.

O hay algún lugar donde puedes tener una imagen de tu cara y puedes escribir y la imagen dará una conferencia. Esa es una manera de reemplazarte a ti también como conferenciante. Así que muchas de estas cosas están llegando, quitando privacidad, reemplazando puestos de trabajo, y los profesores están realmente participando en el proceso al usar estas herramientas y no tener barreras estrictas en sus contratos para prevenir este tipo de explotación económica, por no mencionar este esfuerzo de vigilancia para socavar el proceso de negociación.

“Independientemente de cómo se sienta la gente sobre ese conflicto, lo evitan en el aula porque tienen miedo de que cualquier cosa que digan pueda usarse en su contra para perder su trabajo, y no solo ellos pierden, sino que los estudiantes pierden la oportunidad de involucrarse en un problema mundial crítico”.

Chris Hedges: Allison, si no se controla, sé que terminas el libro con sugerencias sobre cómo frenar esta intrusión en nuestra privacidad, pero si no se controla, ¿en qué tipo de entorno educativo e incluso social y cultural vamos a vivir?

Allison mayordomo: Creo que si no se controla, corremos el riesgo de vivir en escuelas-fábrica, como dije antes, en las que simplemente empujamos a nuestros estudiantes a que pasen por el camino de recoger un trozo de papel. Enseñaremos a las generaciones futuras que estar vigilado es normal, que no existe la privacidad. Tendremos una especie de educación memorística en la que la información será muy segura y se presentará de forma segura, y sabremos todo sobre todo el mundo, al menos en términos de lenguaje digital, con la posible salvedad de que quienes se ajusten a las normas de raza, género, economía y capacidad física, entre comillas, lo tendrán más fácil, pero empezaremos a ver que todos nuestros cuerpos que no encajan, todos nuestros seres humanos que no encajan necesariamente en esa norma, entre comillas, muy generosa, se verán cada vez más marginados. 

Creo que podemos ver que en un período de tiempo muy breve, nuestras aulas ya no serán consideradas lugares de curiosidad, de indagación, sino lugares de aceptación pasiva de información banal y muy cuidadosa.

Al mismo tiempo, probablemente se verán muy bien, porque nuestras tecnologías de vigilancia, todas nuestras tecnologías, tienen un aspecto muy sofisticado. Son de vanguardia. A menudo son heredadas, ¿no? Como mencionó Nolan antes, gran parte de lo que usamos nos llega del complejo militar industrial: el hecho de que podamos conducir en lugares desconocidos es GPS, es una tecnología militar obsoleta. El hecho de que podamos tomar fotografías geniales de fiestas, bodas o bienes raíces es tecnología de drones y tecnología militar obsoleta. Creo que el contenido de nuestras aulas corre el riesgo de ser completamente banal y aburrido. El aspecto de las mismas podría terminar siendo bastante genial, lo que podría ser realmente llamativo e invitarnos a olvidarnos de pensar en el contenido.

Chris Hedges: Bueno, cuando el gobierno te vigila las 24 horas del día, no puedes usar la palabra libertad, esa es la relación entre un amo y un esclavo. Eso dijeron Nolan Higdon y Allison Butler en su libro, Educación sobre vigilancia: cómo afrontar la evidente ausencia de privacidad en las escuelas. Fue un trabajo realmente genial el que hicieron los dos. Quiero agradecer a Sofia [Menemenlis], Diego [Ramos], Thomas [Hedges] y Max [Jones], quienes produjeron el programa. Pueden encontrarme en ChrisHedges.Substack.com.

Chris Hedges es un periodista ganador del Premio Pulitzer que fue corresponsal extranjero durante 15 años para The New York Times, donde se desempeñó como jefe de la oficina del periódico en Medio Oriente y jefe de la oficina en los Balcanes. Anteriormente trabajó en el extranjero para The Dallas Morning News, The Christian Science Monitor y NPR. Es el presentador del programa "The Chris Hedges Report".

Este artículo es de Poste de Scheer

NOTA PARA LOS LECTORES: Ahora no me queda ninguna posibilidad de seguir escribiendo una columna semanal para ScheerPost y producir mi programa de televisión semanal sin su ayuda. Los muros se están cerrando, con sorprendente rapidez, sobre el periodismo independiente, con las élites, incluidas las del Partido Demócrata, clamando por más y más censura. Por favor, si puedes, regístrate en chrishedges.substack.com para poder seguir publicando mi columna de los lunes en ScheerPost y producir mi programa de televisión semanal, "The Chris Hedges Report".

Esta entrevista es de Correo electrónico, para el que Chris Hedges escribe una columna regularHaga clic aquí para registrarte para alertas por correo electrónico.

Las opiniones expresadas en esta entrevista pueden reflejar o no las de Noticias del Consorcio.

7 comentarios para “Informe de Chris Hedges: Educación sobre vigilancia"

  1. Noviembre 25, 2024 15 en: 31

    Este artículo me ha hecho, sin duda, más reticente a seguir utilizando TurnItIn para la detección de plagio en las secciones de los cursos de grado que imparto en adelante, lo que me ha proporcionado un motivo más tangible para mirar de reojo a TurnItIn más allá de mis sentimientos neoluditas abstractos generalizados sobre la naturaleza intrínsecamente panóptica y bifronte de toda la tecnología de la información cuando se combina con el ansia humana de poder. Dada mi sospecha omnipresente de diversas tecnologías de vigilancia y marketing, fui ingenuo al no considerar los otros usos tácitos que se podrían dar a este software de detección de plagio antes de leer la transcripción de esta entrevista, por lo que agradezco a Chris Hedges y, especialmente, a Allison Butler por llamarme la atención sobre esto.

  2. Julie
    Noviembre 24, 2024 09 en: 03

    Gracias, Chris, por llamar nuestra atención sobre cuestiones cruciales, todos los días.
    También me pregunto si podrías entrevistar a Grisham sobre su último libro de NF.

  3. Noviembre 24, 2024 06 en: 00

    En mi experiencia, la tecnología para observar la actividad de los estudiantes en el ordenador de una escuela existe al menos desde 2007, mediante aplicaciones como Apple Remote Desktop y Teamviewer. Me sorprendió presenciar esto directamente en la oficina de soporte técnico de la escuela, sobre todo porque mis estudiantes eran adultos, que tenían acceso a sus cuentas de correo electrónico pero no tenían idea de que sus comunicaciones no eran privadas. En aquel entonces, el espionaje tenía la intención de ser pasivo (aunque potencialmente lascivo), realizado con el interés de proporcionar un apoyo eficiente en caso de fallo de la máquina. El "empujón" conductual del que hablan estos autores tampoco es nuevo. En 2017, escuchamos informes sobre la recopilación de datos que se utiliza para impulsar la votación en los EE. UU. y el Reino Unido, por parte de Cambridge Analytica y Aggregate IQ respectivamente. Desde entonces, servicios como Newsguard impulsan la recopilación de información supuestamente segura y, a su vez, el comportamiento. Lo que es nuevo aquí es que los datos de los menores se comparten con una intención similar, y el mismo sesgo de siempre de basura que entra, basura que sale impuesto a personalidades que aún no están completamente formadas.

  4. JohnB
    Noviembre 23, 2024 21 en: 59

    La necesidad de contexto y minuciosidad son sólo dos de los buenos atributos de Chris.

  5. Caliman
    Noviembre 23, 2024 13 en: 15

    No confundamos el derecho a la privacidad con un derecho inexistente al anonimato en lugares públicos. El primero es un derecho natural a la privacidad en el hogar y otros lugares privados y al uso de las propias herramientas y pertenencias. El segundo es una expectativa de no reaccionar ante la vida y la actuación en lugares públicos y el uso de herramientas y pertenencias públicas (y de otras personas), lo cual nunca ha existido en la historia de la humanidad y no se puede esperar ni es deseable ahora ni en el futuro.

    En relación con el artículo, los niños tienen derecho a la privacidad cuando están en sus propios hogares si (1) no invitan a las empresas (hola Siri) a su casa expresamente para espiarlos y (2) no utilizan herramientas proporcionadas por el público (computadoras portátiles de la escuela) proporcionadas con un propósito público para hacer cosas personales. En cuanto a lo que ocurre en un entorno público, como el aula de la escuela en sí o al caminar por el campus o la ciudad en general, las acciones que se realizan en público son observables por cualquier persona interesada en dichas acciones y pueden usarse para la recopilación de datos, el marketing y cualquier otro motivo.

    En cuanto a “Creo que podríamos ver que en un período de tiempo muy breve, nuestras aulas no serán consideradas como lugares de curiosidad, de indagación. Serán consideradas como lugares de aceptación pasiva de información muy banal y cuidadosa”. Dios mío, ¿qué aulas han estado visitando estas personas? ¿Lugares de indagación y curiosidad? ¿En serio? “Bueller… Bueller… Bueller…”

  6. Robert Havers
    Noviembre 23, 2024 12 en: 17

    Cualquier cosa que usted diga puede y será usada en su contra.

  7. Vera Gottlieb
    Noviembre 23, 2024 10 en: 27

    ¿Es realmente necesario un artículo tan largo? ¡Como si no tuviéramos nada más que leer y de qué preocuparnos! La raza blanca todavía no se ha dado cuenta de lo PERTURBADORES DE MIERDA que somos. Pero siempre le echamos la culpa a otra raza… por supuesto.

Los comentarios están cerrados.