クリス・ヘッジスレポート: 監視教育

株式

アリソン・バトラー氏とノーラン・ヒグドン氏は、未成年者のプライバシー権を侵害し、有色人種の学生を差別する「教育テクノロジー」システムについて議論します。

By クリスヘッジス
シェアポスト

A米国の軍産複合体によって開発され、一般大衆に採用された技術には、必ず警告が伴うものだった。

ほとんどの人にとって、インターネット、GPS、タッチスクリーンなどのユビキタステクノロジーは現代社会の普通のツールです。しかし、実際にはこれらのテクノロジーは「二重の用途」を果たしています。

これらは一般の人々に便利である一方で、企業や軍事国家による同じ人々への大規模な強制、監視、統制も可能にしている。

ノーラン・ヒグドンとアリソン・バトラー、 監視教育:学校におけるプライバシーの顕著な欠如に対処する、ホストのクリス・ヘッジスと一緒にこのエピソードに参加してください クリス・ヘッジズ・レポート彼らは、K-12学校や高等教育機関で採用されている、生徒を監視し、未成年者のプライバシー権を侵害し、その過程で有色人種の生徒を差別するソフトウェアやテクノロジーのシステムを調査しています。

ヒグドン氏は、この技術の使用は、監視資本主義を通じて人間を商品として扱うことを前提としていると説明する。

「こうしたスマートテクノロジーから人間に関するデータや情報を抽出すれば、人間の行動や何かに対してどう反応するかを判断できるようになります。これに関心を持つ業界は数多くあります」とヒグドン氏はヘッジズ氏に語った。

バトラー氏は、学生たちは、多くの場合、選択の余地なく、本質的に彼らのデータを搾取するこの技術の使用にさらされていると説明する。その使用には暗黙の同意があるため、「未成年者のデータを安全に保つための非常に限られた保護は、教室に技術が導入されると消えてしまう」とバトラー氏は言う。「この技術は受動的に受け入れられている」

ヒグドン氏は、オバマ政権が2012年に家族教育の権利とプライバシー法(FERPA)に加えた変更が重要な要因であると指摘する。この変更により、学生のデータが教育パートナーとしての役割を果たす民間企業と共有されるようになった。

「事実上、学生の権利運動が非公開にしようと努めてきたデータはすべて、これらの企業に配布されることを許されたのです」とヒグドン氏は言う。

著者らは、これらのテクノロジーが教室での学習の基本的なプロセスに与える深い影響を強調しています。

「教育プロセスに不可欠な好奇心を抑制してしまうのです」とヒグドン氏は言う。「子どもたちが探索できる数少ない空間の1つを閉鎖することによる精神的トラウマと困難は、監視と教育プロセスの問題を物語っていると思います。」

ホスト: クリスヘッジス

プロデューサー: マックス・ジョーンズ

イントロ: ディエゴ・ラモス

クルー: ディエゴ・ラモス、ソフィア・メネメンリス、トーマス・ヘッジズ

トランスクリプト: ディエゴ・ラモス

クリス・ヘッジズ: 学校や大学では監視ツールが普及しています。安全性の向上と学業成績の向上を約束するテクノロジーにより、Gaggle、Securly、Bark などの企業は学生の詳細なデータを収集できるようになりました。しかし、これらのテクノロジーは期待を裏切っただけでなく、学生のプライバシーを侵害しています。 

これは特に貧困地域では顕著で、大規模な監視はほとんど行われていない。こうしたデータは学生、特に貧困層や有色人種の学生に不利に働くことが多く、学校から刑務所への流れを加速させている。学生や教師が監視されていることを知ると、知的議論、支配的な見解への反論、権力の濫用に関する調査が抑制される。 

しかし、もっと不吉なのは、企業や政府機関が学生を汚名を着せ、犯罪者に仕立て上げることを可能にしていることだ。これらのデジタルプラットフォームは、若者をプロパガンダでターゲットにし、ソーシャルエンジニアリングやトレンド分析を使って行動を形作ることができる。学生の大量監視について議論するために、作家のノーラン・ヒグドンとアリソン・バトラーが参加する。 監視教育:学校におけるプライバシーの顕著な欠如に対処する.

それでアリソンさん、まずはあなたから始めましょう。あなたの本にあるように、この監視がどれほど侵入的であるか、そしてそれがどのように機能するかについて、私はあなたの本を読むまで知らなかったのですが、描写してください。

アリソン・バトラー:  はい。お招きいただきありがとうございます。この質問に対する最も簡潔な答えは、それは信じられないほど、完全に、完全に侵入的だということです。さらに言えば、私たちは現在、監視技術の世界に住んでいます。私たちが個人として行くことのできる場所はほとんどなく、何らかの形で監視されることはありません。その多くは、ある程度、私たち自身の選択によるものです。たとえば、車に乗って GPS を使用する場合、私たちはそれらの条件に同意していることになります。 

私たちが特にこの文章で懸念しているのは、K から 12 までの学校と高等教育機関で、膨大な量の監視が行われていることです。特に K から 12 までの学校では、監視は未成年者、18 歳未満の子供たちに対して、本人の積極的な同意なしに行われています。私たちは、GPS やレストランのメニューを少し簡単に見るのに役立つ QR コード、生活を少し便利にしてくれる携帯電話のアプリなど、ソフト テクノロジーによって、監視テクノロジーに慣れ、慣れ親しんできました。 

その代償は、より強力で侵入的な監視技術が私たちの世界、特に私たちの懸念事項である教室に導入されたとき、私たちはすでにそのための基盤が築かれており、それらの技術に相応しいほど疑問を抱かないかもしれないということです。

クリス・ヘッジズ: そうですね、あなたが本で指摘しているように、これらの技術は監視システムとして販売されているわけではありません。教育の強化、セキュリティの強化として販売されています。そして、搭載されているものやその他のデジタル監視ツールのいくつかについて、それがどのようなもので、どのように機能するのかを教えてください。

ノーラン・ヒグドン:  はい。クリス、お招きいただきありがとうございます。アリソンと私はここに来られて嬉しいです。そして、これを理解する一番簡単な方法は、シリコンバレーの他の企業と同様、これらの教育テクノロジー企業やエドテック企業は、過大な約束をして、期待に応えられない傾向があるということです。ですから、教室にそれらを追加する理由の多くは、人々が通常同意するものですよね?これらのツールは、私たちをより安全にします。学習を向上させます。学生を21世紀の市場に備えさせます。それらのいくつかは、より包括的であると宣伝しています。それは、人間の偏見や人間的要素を排除するため、よりDEI(多様性、公平性、包括性)に準拠している、というのが彼らの主張です。しかし、これらすべてのケースで、彼らは実際にはもっと悪質な動機を隠していると私は主張します。 

教室にこれらのツールを設置してデータを収集できれば、たくさんのお金が稼げます。これが 1 つの問題です。もう 1 つの問題は、利益を上げるという本当の動機を隠していることに加え、実際には多くの約束を果たしていないことです。本の中で、これらのツールは安全性を高めるために作られていると主張しているにもかかわらず、その点で不十分な場合が多いことを取り上げています。実際に学習を向上させるという証拠は不足しており、DEI の目標に反することを示す証拠は数多くあります。そのため、多くの場合、これらの教育技術ツールを学校に設置する理由として挙げられているのは、実際にそのツールが行うことや、学校にツールを追加する本当の目的とは大きく異なるようです。

クリス・ヘッジズ: アリソンさん、具体的に説明していただけますか。たとえば、Bark や、これらのプログラムのうち 1 つまたは 2 つを選んで、もちろんデータ収集はしていますが、学校環境ではどのようなことを行うのか説明していただけますか。その機能は何ですか。

アリソン・バトラー: はい。K から 12 までの多くの教室で使用されている例として、GoGuardian と呼ばれるテクノロジーがあります。GoGuardian は、教室のコンピューター、つまりラップトップにインストールされます。たとえば、すべての生徒にラップトップが割り当てられている教室があるとします。その特定のラップトップを XNUMX 年間にわたって生徒自身が割り当てる場合もあれば、教室のラップトップで、たまたま生徒が座っている場所にある場合もあります。 

GoGuardian は生徒の画面を監視し、生徒が何をしているかすべて監視します。そして、教室の前にいる教師や、たまたまどこにいても、授業中に生徒の画面を見ることができます。GoGuardian の主張の 1 つは、これが教師が生徒を正しい方向に導くのに役立ち、生徒が正しい方向に進み続けるのに役立つということです。つまり、これは行動として提示されます。教師が生徒の画面を見ることができるため、一種の集中ツールとして提示されます。そして、それには一種のアメとムチの要素があり、教師は「あの Web サイトから離れてください」と言うことができます。これは私たちが取り組んでいることではありません。 

あるいは、[教師は]生徒の作品を直接見て、何がうまくいっているのか、何を修正する必要があるのか​​をコメントすることもできます。これは、教室向けのコミュニティテクノロジーの一種として提示されています。GoGuardian で見つかった問題のいくつかは次のとおりです。教師は、レビューするのは教師の仕事であるとよく言われます。実際、この本のためにインタビューした教師の多くは、監視しているのは自分たちだと信じており、少し不快に感じていたものの、自分のコンピューターの監視の力を実際に認識していたと述べています。教師に伝えられていない、または明確にされていないのは、実際にはすべての監視を行っているのは企業だということです。特に K から 12 までの教室について考える場合、前に述べたように、これは未成年者のデータです。 

ですから、未成年者のデータを安全に保つためのデジタル保護はごく限られていますが、教室にテクノロジーが導入されると、そのテクノロジーは受動的に受け入れられ、そのテクノロジーは消えてしまいます。生徒自身は、データ収集を積極的に受け入れたわけではありません。それは暗黙の同意です。実際、よく使われる言葉は、テクノロジーを使用することで暗黙の同意となり、必ずしもオプトアウトできるわけではありません。そのため、教師は自分が責任を負い、特定の倫理的決定を下していると信じ、実際には責任を負っていないという混乱した教室が生まれます。 

GoGuardian のようなデバイスが学生のデータや情報を取得すると、その情報はすべて取得され、これをオフにするスイッチはありません。学生が充電するために個人の携帯電話をそのデバイスに接続したとしても、これらのデバイスはデジタル接続されているため、GoGuardian はそのデータもすべて取得します。

私たちがインタビューしたある教師は、GoGuardian に少し不快感を覚えたと話していました。その理由の 1 つは、生徒が病気で家にいるときに、教師が画面で何が起こっているかを見ることができたからです。生徒が正当な理由で学校を休んで家にいるときでも、教師は生徒が YouTube 動画を見ているのを見ることができました。そのとき彼女は、「これは私が思っていたのとは違う。これは教室に直接関係ないですよね?」と思いました。デジタル テクノロジーの利便性により、教室だけでなく、どこにいてもデジタル テクノロジーが監視される可能性があることを忘れてしまうことがあると思います。 

もう 12 つの例として、KXNUMX と高等教育の両方で使用されている Turnitin が挙げられます。Turnitin は教師が設定できるプログラムで、生徒がこのプラットフォーム経由で自分の書いたものを提出します。Turnitin は剽窃検出ツールとして売り出されていますが、これはある程度は真実だと思います。もう XNUMX つの陰険な点は、こうしたテクノロジーや企業の多くは実際には嘘をついていないということです。彼らはただ、真実をすべて伝えず、非常に重要な部分を省略しているだけです。つまり、Turnitin は確かに剽窃検出ソフトウェアです。また、Turnitin は少なくとも XNUMX つのことを行います。 

まず、これは AI を教えているということですね。論文を提出する学生は、生成 AI の開発にますます多くの情報を提供し、Turnitin はその情報を広告主やマーケティング担当者にも販売します。そのため、若者の言語が分析され、広告やマーケティングの言語として使用され、彼らに売り戻されるのです。つまり、若者は、ある程度、この企業のために働いているのです。彼らは多くの労働をしていますが、報酬は一切受け取っていません。ですから、これらは、これらのテクノロジーがいかに陰険で、いかに侵入的で、使用を勧められる人々にとっていかに混乱を招くかを示す、非常に大きな 2 つの例であると言えるでしょう。

「…若者の言語が分析され、広告やマーケティングの言語として使われ、若者に売りつけられているのです。つまり、若者はある程度、この企業のために働いているのです。彼らは多くの労働をしていますが、何の報酬も受け取っていないのです。」

クリス・ヘッジズ: ノーランさん、これらのテクノロジーが、特に貧困地域の学生を監視するためにどのように使われ、有色人種の学生に不釣り合いな影響を与えているかについて話しましょう。

ノーラン・ヒグドン: そうですね、これらのツールで私たちが気付いたことの 1 つは、これらがまた大きな約束をしているということです。つまり、学生が犯罪に手を染める可能性があるかどうかを予測できるとか、学生が対処が必要な精神衛生上の問題を抱えているかどうかを予測できるといった約束をしているのです。 

しかし、悪魔は細部に潜んでいます。これらのツールは大量のデータを収集し、そのデータを分析するアルゴリズムをコード化して、誰かの精神的健康や潜在的な犯罪性について判断します。そして、これがまさに、これらのツールに過度に依存することの大きな問題です。データを解釈するこれらのアルゴリズムは、作成者と同じ偏見を持ってコード化されており、これらのアルゴリズムが人種差別的またはトランスフォビア的な結論を出す様子を私たちは何度も見てきました。つまり、これらのアルゴリズムは、有色人種の学生を犯罪を犯す可能性が高いと不釣り合いに分類するということです。その結果、彼らは学校からより多く監視され、これもまた、黒人の身体の監視を正常化します。 

メンタルヘルス検出器についても同様で、彼らはトランスジェンダーの子供たちをメンタルヘルスの問題で不当に分類しますが、これは彼らが単にメンタルヘルスの問題を抱えているということではなく(これは一部の人にとっては人生の一部です)、学校での銃乱射事件や自殺、自傷行為などについても監視する必要があることも意味します。 

「…これらのアルゴリズムは、有色人種の学生を犯罪を犯す可能性が高い学生として不当に分類するでしょう。」  

そして、こうした個人に対する過剰な監視も行われます。シリコンバレー全般、特に教育技術ツールが広めてきた神話の 1 つは、人間の偏見に左右されない客観的なアルゴリズムを備えているため、より正確な結論を導き出せるというものです。しかし、研究によると、そうではありません。むしろ、こうしたツールは、人種差別やトランスフォビアなどの問題で私たちが抱えてきた多くの問題を複雑化したり、悪化させたりしています。

クリス・ヘッジズ: アリソンさん、まず、このデータがどのようにして潜在的な雇用主の手に渡るのかについてお話ししたいと思います。これは、私たちの個人データ、私たちがこれまでにしたすべてのこと、私たちがこれまでに犯したすべての交通違反を販売する年間数十億ドル規模の産業です。なぜなら、このデータによって、高校生を雇用する雇用主、おそらく大学でさえも、本来はプライベートであるべき情報を入手することができ、もちろん、学生や潜在的な従業員に不利に働く可能性があるからです。

アリソン・バトラー: ですから、あなたが言った「私たちのデータの販売」という言葉に少し異論を唱えたいと思います。私たちがもっと注意を払う必要があるのは、ノーランの「悪魔は細部に宿る」という指摘と、先ほど私が言った「彼らは私たちに嘘をついているわけではなく、必ずしもすべてを語っているわけではない」という点だと思います。 

今日のテクノロジーの多くは、あなたのデータを販売しません、と書いてあり、感嘆符がたくさん付いていますよね。それで私たちは「ああ、わかりました。データは安全です」と答えるべきなのですが、それは絶対に違います。まず第一に、あなたのデータは安全ではありません。なぜなら、侵害は頻繁に発生し、もはや見出しにもニュースにもならないからです。ある時点で、私たちはさまざまな侵害を分類またはカタログ化しようとしていましたが、このような細かい点を指摘しても役に立たないだろう、なぜなら、このような侵害は頻繁に発生しているからです。私たちはそれに慣れすぎています。 

しかし、本当に考慮する必要があるのは、こうした企業の多くが私たちのデータを共有しているということです。つまり、あなたと私が互いに関係のない別々の企業だと思っているものが、提携しているのです。彼らは互いのビジネスモデルを購入し、何らかの形でつながっています。そして、彼らは自らを教育企業または教育パートナーと呼んでいます。つまり、彼らは実際に私たちのデータを販売する必要はありません。彼らは私たちのデータを共有できます。ですから、私たちはある程度安心できます。しかし実際には、この別のレベルについてもっと慎重に考える必要があるかもしれません。 

ですから、雇用主や大学、あるいは私立学校について話すとき、すでにデータにアクセスし、分析を行っており、データを共有することが許可されている教育パートナーが多数存在します。数年前、特に K から 12 年生の学生について、雇用主がソーシャル メディアを見るだろう、大学の入学事務局がソーシャル メディアを見るだろう、という話をしたと思います。実際、若者にこれらの特定の分野について心配するように指示する必要はもうありません。これらの人々は、大量の調査を行う必要はありません。すでに彼らのためにデータがあります。ですから、彼らがそれに細心の注意を払っているかどうかはわかりませんが、データはすでにそこにあります。彼らの目の前にあります。

クリス・ヘッジズ: ノーランさん、彼らがどのように積極的にソーシャル エンジニアリングを行っているか、また、単にデータを収集するだけでなく、データを使用して行動を形成している点についてお話しいただけますか。

ノーラン・ヒグドン: そうですね。それにもう 10 つ付け加えると、アリソンが話していたところから話を始めます。今日も何度も言っていますが、これらは教育テクノロジー企業ですが、これは誤解を招きやすいです。教育テクノロジー プラットフォームを運営または所有している企業の多くは、たとえば Gaggle、Bark、Canvas など、いくつかお話ししましたが、一般的には投資会社が所有しています。これはここ XNUMX 年で始まったことで、投資会社が教育テクノロジー ツールを買収したのは、表面上は教室に入り込む方法があったからです。学術界には、人間を製品のように扱うという考えに基づいた監視資本主義と呼ばれる産業があります。つまり、こうしたスマート テクノロジーから人間に関するデータや情報を抽出し、人間の行動、つまり何かに対してどのように反応するかを判断することができます。これに関心を持つ業界はたくさんありますよね。広告業界は、何かを購入してもらうための完璧な広告を作成する方法を知りたがっています。保険会社は、健康状態や運転パターンなどに基づいて保険料を設定する方法を知りたいと考えています。そのため、データは業界にとって非常に有益です。 

しかし、行動を予測するだけでなく、行動をそっと促すことに関心を持つ団体もあります。では、何ができるでしょうか。どのような状況にあなたを置くことができるでしょうか。どのような情報を提供すれば、あなたはこのように行動するでしょうか。十分なデータを収集すれば、人々の行動を正しい方向にそっと促すことができると業界では強く信じられています。特に今年は選挙の年で、多くのキャンペーンが行われていますが、彼らはこのデータを使ってそれを実現しようとしています。このデータをどのように活用すれば、人々に投票してもらうことができるでしょうか。あるいは、状況に応じて、人々に投票させないようにできるでしょうか。したがって、複数のデータポイントを収集できれば、この業界には大きな可能性があります。学校が魅力的なのはそのためです。 

学校は公共空間として保護されてきた数少ない場所の 1 つであり、民間企業は長い間そこに参入したいと考えていました。教育技術ツールを提供するという利他的な目的の下、これは彼らにとって教室に入り込み、その有益なデータにアクセスする機会となっていました。 

「[学校]は公共空間として保護されてきた数少ない場所の一つであり、そのため民間企業は長い間そこに参入し、有益なデータにアクセスしたいと考えてきた。」 

この点についてもう少し詳しく言うと、こうした大企業の中には、教育技術ツールを所有しているだけでなく、親に赤ちゃんを監視するツールを使うよう勧めるベビーコネクトのような製品も所有しているところもあります。また、卒業後の人々の就労パターンを調べるプラットフォームも所有しています。また、ソーシャルメディア教育からデータも取得しています。目標は、ゆりかごから墓場まで個人の心理プロファイルと呼ばれるものを作成することで、学校はそのプロセスの重要な部分です。

クリス・ヘッジズ: はっきりさせておきたいのは、あなたが本の中で指摘しているように、これは巨大な産業だということです。EdTech は世界で 123.4 億ドル規模の産業だとおっしゃっています。これは非常に大きな金額の話です。アリソン、私がお話ししたいのは、この夏、大学や学校がパレスチナでの大量虐殺に対する抗議活動を封じ込めるためにあらゆる種類の新しい制限や規則を課すのを見てきました。それは全国で調整され、チラシ配布、イベント、テーブル、野営地などは禁止されました。こうしたツールは、特にパレスチナに関する反対意見や論争を封じ込めるのに大学や学校をどの程度支援しているのでしょうか。

アリソン・バトラー: 私はかなりそう思いますし、これは私たちの大学のより大きな恐怖、まあ、少し軽率かもしれませんが、若者や彼らが自分たちのテクノロジーで何をしているのかに対する恐怖、学問の自由の状態に対する恐怖、異議、不服従が何を意味するのかに対する恐怖を示す場所だと思います。私たちは教室で、歴史的な異議行為、歴史的な不服従行為を称賛するのに多くの時間を費やしていると思いますが、それが現在形で私たちに直面すると、それはどういうわけか恐ろしいのです。 

彼らに疑いの余地を与えるつもりなら、管理者はキャンパスを安全に保ち、安全について異なる相反する見解を持つ学生、教員、スタッフを守るための方法を模索しているのです。残念ながら、安全という言葉は「訴えないでください」という意味でよく使われていると思います。それは「訴えないでください」の婉曲表現です。ですから、培われた恐怖感から、監視技術は恐怖をうまく利用していると思います。少し話を変えて、コロナの始まりについて考えるとき、それは私たちが一緒にいることの意味に対する恐怖を利用していましたよね。同じ空間にいるのがどれほど危険であるか。そして、これらの企業は、反対意見やデモ、不服従に対してその恐怖を利用し続けていると思います。つまり、大学のツールがあり、警察国家のツールがあるということですね。警察はボディカメラを携行していますが、正直に言うと、そのカメラのオン/オフを切り替えることで、非常に特殊な物語を作り上げることができますよね? これが問題なのです。監視技術とこれらのツールはあらゆる方向に切り込んでいきます。 

学生たち自身が自分たちの行動を撮影しています。つまり、彼らの顔がそこに写っているということです。平和的な反対運動をしている学生や、市民的不服従運動をしている学生の顔はそこに写っています。つまり、何か問題が起きれば、誰が問題を起こしたかは関係ありません。警察の扇動であれ、反対する学生の扇動であれ、私たちはすでに彼らの情報をすべて持っています。ですから、私たちは、歴史を通じてそうであったように、そこにいること、立ち上がることが大切であると思う環境に生きています。そして、その存在と立ち上がることが、これらの監視技術によって恐ろしい方法で操作され、操作されているのです。

クリス・ヘッジズ: そして、アリソン、それは世界的な影響を及ぼします。なぜなら、大学や学校は伝統的にアイデアや反対意見の交換が行われる場所であり、機能する民主主義においては、そのような議論が行われることが許されるべき震源地の 1 つ、物理的な震源地の 1 つだからです。

アリソン・バトラー: まったくその通りです。そして、歴史を振り返ると、歴史の流れを見ると、人々が礼儀正しい意見の相違があるかのように振る舞う異議申し立てというイメージが描かれていますが、もうそのようなことは起こっていないようです。ですから、私たちの非常に礼儀に反する意見の相違、非常に物理的な意見の相違が、歴史ではおそらくできなかったような方法で、これらのテクノロジーを通じて描かれ、提示されているのではないでしょうか。

今年の夏、大統領選の党大会が近づくにつれ、共和党全国大会と民主党全国大会の両方で、特に民主党全国大会は、歴史を振り返ってみようという話が盛んに行われていたと思います。そして、私はそれが重要だと思います。そうすべきではないとは決して言いませんが、私たちのテクノロジーがこれらの党大会や反対意見表明に参加する方法が大きく変化したため、私たちの行動に対する理解は完全に、そして完全に変わってしまいました。

クリス・ヘッジズ: ノーランさん、あなたが本に書かれているように、この情報は企業の手に渡るだけではなく、国土安全保障省やFBIの手に渡ることになります。国家安全保障機関もこの情報をどのように利用しているかについて少しお話しください。

ノーラン・ヒグドン: そうです、いわゆる国家安全保障、あるいは国家安全保障産業は、このデータの収集に深く関わっています。インターネット、タッチスクリーン、GPS、そしてデジタル時代のスマートデバイスの多くの機能といったこれらのツールは、軍産複合体から生まれたものであることを皆さんに思い出していただく価値があります。これらは、20世紀半ばに大学や学校と共同で、防衛予算を通じて作られました。実際、私たちが本で話したように、学生たちはこれらのツールが何のために作られたのかを知り、抗議しました。 

しかし、今日に至るまで、これらのツールは、潜在的なテロリストや脅威を見つけるという名目で、国土安全保障省や諜報機関と共有されるデータを収集し続けています。これはさまざまな理由で問題がありますが、その 1 つは、純粋に教育の観点から言えば、学習に非常に悪影響を与えることです。私たちは学生に、キャンパスにいる間は監視され、保護され、攻撃から守られ、管理されるべき対象であると効果的に伝えています。常に監視されている環境では、教育の中心となるリスクを負ったり間違いを犯したりしても問題ないという信頼関係を築くことは非常に困難です。

「常に監視されている環境では、教育の中心であるリスクを負ったり間違いを犯したりすることに人々が安心できるような信頼関係を築くのは非常に難しい」

クリス・ヘッジズ: まあ、警察や監視だけでなく、学生の抗議活動で私たちが見ているように、これらの監視ツールは事実上、監視以上のものです。誰が関与しているかを即座に把握して、閉鎖することが目的です。つまり、彼らはオキュパイ運動のときにそれを知っていました。私はズコッティ(マンハッタンのダウンタウンにある公園)で多くの時間を過ごしたので知っていますが、ブルームバーグ(ニューヨーク市長マイク)が公園を閉鎖した後、屋根裏部屋への一連の警察の捜索が行われ、電子的に監視していたため、適切な人物が全員逮捕されました。アリソン、特に2つのサイバーセキュリティツールについて話してもらいたいです。AuguryとPegasusについて話してもらいたいです。

アリソン・バトラー: 実際のところ、それらはノーランの子供のようなものなのです。それでよろしければ、彼にそれを返したいと思います。

ノーラン・ヒグドン: ええ、ペガサスは基本的にイスラエル政府から来たスパイソフトウェアです。しかし、ペガサスは基本的に他のソフトウェアに組み込まれていました。つまり、他のコンピュータに侵入すれば、基本的に、このペガサスソフトウェアがインストールされている世界中の人々を監視でき、基本的に世界的な監視プラットフォームが構築されていました。そして、これはイスラエルだけのことではありません。米国は… 

クリス・ヘッジズ: ノーランの話を遮りたいのですが、ペガサスはイスラエルの発明品です。イスラエルから出てきました。ジャマル・カショギを追跡するために使われたと思います。

ノーラン・ヒグドン: そうですね、そして私が言ったように、米国はペガサス計画でイスラエルと協力するなど、同様の生産と監視に参加しています。しかし、そうですね、アリソンが指摘した歴史は変わったので、私たちの期待や権利、法律も変わる必要があるということについてたくさん話さなければならないと思います。

違法な捜索や押収、あるいはプライバシーは私個人のものだという考え方は、デジタル時代において変化しており、法律もそれに追いつく必要があります。これは私たちが条文で主張していることの 1 つですが、法律はそれに追いつく必要があります。なぜなら、プライバシーに関して私たちが持っていた保護の多くが、ペガサスの例のように政府や企業によって抜け穴として露呈してしまったからです。私たちは、憲法修正第 1 条が政府から言論の自由を保護しているが、政府はテクノロジー企業と連携して特定の言論や思想を封じ込めることができる、あるいは、自宅でのプライベートな通信などは保護されているが、電子メールの場合は、その通信を民間企業に引き渡し、その企業がそれを政府に渡す可能性がある、といったことを話しています。 

デジタル時代にはこのような抜け穴が数多くあり、それが私たちがこの条文で主張していることの一つです。なぜなら、学校でのプライバシー権を学生に認めた学生権利運動があったからです。それがFERPAを作ったのです。 ここ米国では、2012年頃にオバマ政権がFERPAに何らかの変更を加えました。 

以前の FERPA では、学校は生徒の情報を誰とも共有できないとされていました。生徒が未成年の場合は、保護者と共有できました。しかし、2012 年の FERPA の改正により、「いいえ、生徒の情報は教育パートナーと共有できます」となりました。これは、学校と契約している企業です。つまり、学生の権利運動が秘密にするよう努めてきたすべてのデータが、事実上、これらの企業に配布されることが許可されたのです。そして、私たちが見てきたように、それが他の分野にも侵入する原因となっているのです。

「以前の FERPA では、学校は生徒の情報を誰とも共有できないとされていました...しかし、2012 年の FERPA の改正では、『いいえ、生徒の情報を教育パートナーと共有することもできます』と規定されました。」

 

クリス・ヘッジズ: Augury についてお話しましょう。これはサイバー セキュリティ会社、チームによって開発されました。何ですか、Cymru です。政府や民間の顧客に膨大な量のデータを公開しています。軍のさまざまな部門が Augury のデータにアクセスするために総額 3.5 万ドルを支払いました。

ノーラン・ヒグドン: そうですね、Augury のような会社は、巨大なデータ ブローカー リポジトリのようなものだと思っています。つまり、彼らは膨大な量のデータにアクセスし、そのデータをリアルタイムで分析します。業界で言うところの、彼らは基本的に、企業や政府向けにこのデータを分析する製品を販売しているのです。

しかし、Augury は、人々をターゲットにしたり、活動家の行動やオンラインでの活動家のコミュニケーションを理解したりしたい政府の利益に役立つものの一例です。Augury は、行動を監視、理解、予測、または促そうとしている政府が抱える疑問に答えるために分析できる膨大な量のデータを提供することを約束しています。

クリス・ヘッジズ: アリソンさん、あなたは本の中で「アルゴリズムによる人種差別」という言葉を使っていますね。これについて説明していただけますか?

アリソン・バトラー: アルゴリズムについて考えてみると、私たち全員にとって、アルゴリズムはいわば、今日では私たちの酸素のようなものだと思います。デジタルで行うことはすべてアルゴリズムから引き出されています。そして、アルゴリズムは、多くの人にとって、特に K-12 の学生やある程度は高等教育の学生と話しているとき、コンピューターの中にあるような不思議なもののように感じられます。覚えておかなければならないのは、アルゴリズムはプログラムであり、コーディングであり、言語であり、人間によって構築された質問であり、誤りやすい人間の人種差別、性差別、同性愛嫌悪、障害者差別などに基づいて構築されているということです。 

アルゴリズムによる人種差別について言えば、こうしたデジタル技術には人種差別が組み込まれており、最初から有色人種、さらには有色人種の女性、さまざまな能力を持つ人々、LGBTQを自認する人々、基本的にアルゴリズムの作成者が標準と見なすものから外れている、またはそう自認する人々を見ることになります。つまり、私たちは必ずしも人種差別の物理的で具体的な実体験を見ているわけではありません。私たちは人種差別を、デジタル技術の使い方を教える形式として見ています。なぜなら、先ほど言ったように、人種差別はデジタル技術に組み込まれているため、問題がすぐに私たちに降りかかってくるからです。

したがって、私たちは人種差別的な枠組みの中で物事を管理する方法を学び始め、それが標準となり、一種の中央集権的な見方になります。これにより、有色人種にとって、また、有色人種と交流する人々にとって、これらの体が誰であるか、どのように行動することが期待されているかについての先入観をテクノロジーに組み込むことが、はるかに危険になります。

「私たちは人種差別を、デジタル技術の使い方を教える手段の一つとして捉えています。」

クリス・ヘッジズ: そうですね、あなたが本から引用した例の 1 つは、Proctorio などの試験監督ソフトウェアの顔認識ソフトウェアです。これは白人の学生向けに開発されています。黒人や褐色人種の学生は検出されにくく、身元を確認するために白人の学生よりも多くの個人情報を提供することを余儀なくされます。 

アルゴリズムにコード化された人種差別的偏見の別の例として、学生の定着率とコースの成功を正確に予測することを約束するプログラムが、有色人種の学生は成功しないと誤って想定していることが研究で明らかになりました。これは、アルゴリズムと AI をトレーニングするには膨大な量のデータが必要ですが、それらは帰納的論理を使用してトレーニングされるためです。したがって、複数の項目を表示するようにプログラムされているのに、1 つの結果しか示されない場合、アルゴリズムはさまざまなものを 1 つのものとして伝えます。たとえば、アルゴリズムがリンゴを認識するようにプログラムされているのに、赤いリンゴだけが表示された場合、コードはそのグループ内のすべてのものを赤いリンゴとして認識します。これは、現実世界のリンゴの存在においては誤りですが、アルゴリズムに教えられた内容としては正しいものです。

アリソン・バトラー: アルゴリズムは人間の入力に反応しますよね? 1980年代、私たちがコンピューターに慣れ始めた頃、「ゴミを入れればゴミが出る」というキャッチフレーズがありました。当時は、リビングルームでコンピューターをプログラミングしていたのは普通の人だけではありませんでしたよね? しかし、ゴミをプログラムすると、ゴミが出てきます。これは、生成AIでも見られると思います。たとえば、ChatGPTでつまずいたり苦労したりする人は、何をプログラミングしているかを見直す必要があるかもしれません。これは、ChatGPTが21週間の食事プランを作成できるかどうかをぎこちなく考え、食料品店に行くときにそれほど難しく考えなくても済むようにするものではない、という洗練さです。これは高度に洗練されたプログラミングであり、顔認識ソフトウェアの例のように、私たちの残りの人々が世界をどのように見ているかを組み立て、構築します。これは、白人であることの不当な特権の非常にXNUMX世紀の例です。その白人はモデルに非常によく適合します。

クリス・ヘッジズ: ノーランさん、移民についてお話ししたいと思います。あなたの著書には、米国、英国、オーストラリアの学校、特に大学は、移民ステータスが争われている、または不法移民の学生を特定する権限を立法者から与えられ、期待されていると書かれています。米国国土安全保障省は、移民の所在を特定し追跡する目的で大量のデータを保管しています。たとえば、教育で広く使用されている LexisNexis は、国土安全保障省の移民関税執行局 (ICE) にデータを販売しています。RELX 社の子会社である LexisNexis は、データ分析製品とオンライン データベースを提供しています。同社が ICE に機密情報を提供していたことが判明しており、ICE はおそらくその情報を、強制送還のために個人を追跡し逮捕するために使用していたと思われます。

ノーラン・ヒグドン: そうです。このトピックについて話すたびに、必ず「だから何なの? 私には隠すことなんて何もないのに、誰が私のプライバシーなんか気にするの?」という質問を受けるという事実に触発されて書かれた章から来ています。クリス、あなたが読んでいる章では、さまざまな脆弱性のリストを作成しようとしましたが、特にその 1 つが、いわゆる不法移民のステータスに異議を唱えた学生です。彼らには明らかにプライバシーを望む理由があります。それは彼ら自身ではないかもしれません。彼らは移民のステータスに異議を唱えた誰かと一緒に住んでいて、彼ら自身のプライバシーを通じてその人を守りたいと思っているかもしれませんが、これらのツールが存在する学習プロセスに参加することで、彼ら自身または一緒に住んでいた人々の移民ステータスが脅かされ、国外追放、逮捕、その他の理由で彼らに対して不利に働く可能性があります。 

そして、私たちはこれを何度も目にしています。だからこそ、これらのツールは非常に有害であると考えています。なぜなら、この会話の冒頭に戻ると、これらのツールは安全性や学習の改善、DEIなど、ほとんどの人が同意すると思われるもののために導入されているからです。しかし、実際には、これらの対策に反して使用され、人々を犯罪者として扱い、監視し、その情報を使用して、おそらく誰かを国外追放するために使用されるのです。

「これらのツールが存在する学習プロセスは、国外追放、逮捕、またはその他の目的で彼らに対して使用される可能性があります。」

クリス・ヘッジズ: また、学校支給のデバイスは、学生のウェブ検索をキャンパスに警告できるため、彼らの性的嗜好について検索している人がキャンパスに通知され、学生の性的嗜好が暴露されることがあると指摘しています。その結果、LGBTQ+ の学生が、健康関連の質問を含む、自分の性的嗜好や性的好奇心に関する情報を検索しようとすると、学校関係者、法執行機関、および自分の情報にアクセスできるその他の人々に暴露される危険があります。

ノーラン・ヒグドン: ええ、これは先ほど言ったことに戻りますね。私たちは、教育は自由の実践であるべきだと考えています。人々は自分が誰であるか、情報を探求できるべきです。生徒たちは教室で間違いを犯すだろうと予想されていますが、教師は間違いを犯しても大丈夫だと感じる必要があります。常に監視されている、親にバレるかもしれない、世界に放送されるかもしれないという考えがあると、生徒たちは情報を共有しにくくなります。情報を探し出す可能性も低くなります。教育プロセスに不可欠な好奇心が抑制されます。言うまでもなく、これらの人々は自分のアイデンティティに関する重要な疑問と格闘しているので、精神的トラウマと探求できる数少ない空間の 1 つを閉鎖することの難しさは、監視と教育プロセスの問題を物語っていると思います。

クリス・ヘッジズ: アリソンさん、これが学校や大学内でどのような影響を与えるかについてお話ししたいと思います。あなたは、この継続的な監視は、教員が学校指導者が求めるイデオロギーの均質性に忠実であるようにするための手段であると書いています。これは、候補者が指導方法や多様性声明などの個人情報の共有を要求される応募プロセスから始まります。これは、キャンパス内でイデオロギーの均質性を確保するために使われます。学生が、多くの場合は違法に、教師が教室で何をしているかを録画することで続きます。これは、現状に反するイデオロギー的立場を取っているとみなされた場合、教育者に職を辞するよう圧力をかけるために使用できますし、実際に使用されています。私たちは、7 月 XNUMX 日以来、これを繰り返し見てきました。

アリソン・バトラー: こうした監視技術が、意図的であろうと偶然であろうと、不信感をあおる環境を醸成してしまうことがあると思います。ノーランが言ったように、私が言ったように、私たちが教室、学校の教室でいつも言っているように、そこは間違いを犯す場所であり、つまずく場所であり、好奇心を抱く場所であり、無知が大いに理解されるべき場所なのです。私は生徒として、何かを知らないまま教室に入ります。私はそれについて無知です。私はそこから学ぶ機会を持っています。 

テクノロジーによってこのような区分が確立された環境にいると、それらすべてが消えてしまうリスクがあります。消えてしまうというのは柔らかすぎる言葉です。踏みにじられてしまうリスクですよね?学生や教師が、ひどい憎しみに満ちた会話で日々を過ごすべきだと言っているのではありません。しかし、本当に完全に教え、完全に学ぶためには、私たちは非常に多くの異なる視点を学ぶ必要があると思います。 

デジタル技術には記録する機能があり、それは重要なことですが、操作する機能もあり、教師や生徒が語る物語を変えてしまいます。その結果、教室は、よく言っても退屈になるリスクを冒すことになるでしょう。しかし、私たちが本当に話しているのは、学習の抑制です。私たちは、露出の抑制について話しているのです。違いを管理する方法の抑制について話しているのです。最近の世界的な紛争、特にイスラエルとパレスチナで起こっていることを見ると、違いは悪いという教訓と、違いは人間としてお互いについて学び始める方法であるという教訓を教えられていると思います。 

ですから、違い、議論、疑問、誤解、真の理解不足がこれらのデジタル技術によって抑圧されると、私たちの教室はもはや好奇心や探究の場ではなくなってしまいます。それは単に学位を与えるための工場であり、その学位はそれほど意味を持たなくなるかもしれません。繰り返しますが、私は憎しみに満ちた教室を決して提唱しているわけではありません。ただ、物事は違うということを証明したいだけなのです。それよりも、居心地が悪くても、好奇心が強くても、探究心が強くても、ワクワクしても、学習のツールとしてすべてを使える環境が必要であり、それをコミュニティで一緒に行うべきだ、という主張をしたいのです。 

こうした監視技術、特にソーシャル メディア技術のもう 1 つの大きな特徴は、非常に孤立化させるということです。実際、非常に反社会的です。学校、教室、教育と学習でできることは、孤立化に対抗するコラボレーションとコミュニティの構築です。サイロ化に対抗するものであり、監視技術は孤立化とサイロ化の構築に非常に力を入れています。

クリス・ヘッジズ: そうですね、それは支配的な物語に対するあらゆる疑問を遮断するのではないでしょうか?

アリソン・バトラー: まさにその通りです。生徒たちは、支配的な物語の構造を必ずしも理解したり、知っているわけではありません。それに疑問を呈することも必ずしも知りません。私たちは、こうしたことについてもっと話し合わなければなりません。つまり、教室で一緒に、私たちの世界で一緒に、教室で一緒に、できる限りこれらのテクノロジーを排除するということです。

クリス・ヘッジズ: まあ、どんな全体主義システムでも、質問する能力を否定することが目的です。ノーランさん、お聞きしたいのですが、あなたがおっしゃったように、雇用主が監視を利用して労働者を搾取し、団体交渉を弱体化させてきたという、十分に文書化された歴史があります。教育者は、EdTech 監視を教育プロセスの利点や安全対策とみなすのではなく、データを利用して従業員の権力を弱体化させる可能性があることを認識する必要があります。その点についてお話しください。

ノーラン・ヒグドン: ええ、これは本の中で本当に興味深い部分で、教職員組合に持ち込もうとしていることも知っています。しかし、確かに、何世紀も前に遡る雇用主の歴史は長く、物理的にスパイを使ったり、コミュニケーションをスパイしたりして、誰が労働運動家かを見つけ出し、その人やその同調者を排除しようとしてきました。これはまったく新しい時代です。教室には、教室で働いている人を監視できるツールがあります。理論的には、文脈内または文脈外の物事を使って、従業員を排除します。

また、イスラエル、ガザ、多くの従業員、教員についてお話ししましたが、現在、彼らには保護がありません。高等教育の非常勤化や自由化が進んでいます。ですから、人々がその紛争についてどう感じているかに関わらず、彼らは教室でそれを避けます。なぜなら、彼らが何を言っても、それが職を失うことに利用されるのではないかと恐れているからです。そして、それは彼らだけが損をしているのではなく、学生が重要な世界問題について関わる機会を失っているのです。そしてさらに、教員として、これらのツールは私たちの行動から学ぼうとしているので、彼らは私たちのデータを収集し、私たちに報酬を支払うことなくそこから利益を得ているのです。

一般的に、労働運動は労働に対して報酬を得ることを望んでいます。しかし、さらに、教員が行っている機能の一部をこれらのツールに実行させようとしています。つまり、ある程度、後任者を訓練していることになります。スマート採点やスマート課題作成など、登場しつつある新しいツールのことを考えています。

あるいは、顔写真を撮って、それを入力すれば、その写真が講義をしてくれるものもあります。これも、講義の講師をあなたに代わる方法です。このように、プライバシーを奪い、仕事を奪うようなことが次々と起こっています。教員は、こうしたツールを使って、こうした経済的搾取を防ぐための厳格な障壁を契約に盛り込まずに、実際にそのプロセスに参加しています。交渉プロセスを弱体化させるための監視活動は言うまでもありません。

「人々がその対立についてどう感じているかに関わらず、彼らは教室でそれを避けます。それは、彼らが何を言ってもそれが職を失うことに利用されるのではないかと恐れているからです。そして、それは彼らが損をするだけではなく、学生たちが重要な世界問題について話し合う機会を失うことになるのです。」

クリス・ヘッジズ: アリソンさん、もしこの状態が放置されれば、私たちのプライバシーへの侵害を抑制する方法についての提案で本を締めくくっているのは知っていますが、もし放置されれば、私たちはどのような教育環境、さらには社会・文化環境に暮らすことになるのでしょうか。

アリソン・バトラー: 抑制されなければ、前にも言ったように、私たちは工場のような学校生活を送ることになるリスクがあると思います。つまり、紙切れを手に取るまでの過程で、生徒たちをただ押し通すだけなのです。私たちは、監視されるのは普通のことであり、プライバシーなど存在しないと、将来の世代に教え込むことになるでしょう。私たちは、非常に安全な情報とその提示方法が安全な、暗記型の教育を受けることになり、少なくともデジタル言語の点では、すべての人についてすべてを知ることになるでしょう。ただし、人種、性別、経済、身体能力などのいわゆる「規範」に当てはまる人は楽になるという但し書きは付くかもしれませんが、当てはまらない私たちの体、つまり、非常に寛大な「規範」に必ずしも当てはまらない私たち人間は、どんどん周縁へと追いやられていくでしょう。 

非常に短期間で、私たちの教室は好奇心や探究心を満たす場所ではなく、ごくありふれた、注意深い情報を受動的に受け入れる場所と考えられるようになるだろうと思います。

同時に、それらはおそらくかなりかっこよく見えるでしょう。なぜなら、私たちの監視技術、私たちの技術はすべて、非常に洗練された見た目をしているからです。それらは最先端です。それらは往々にして、お下がりですよね? ノーランが前に言ったように、私たちが使っているものの多くは軍産複合体から来ています。私たちが見知らぬ場所で運転できるのは GPS ですが、これは時代遅れの軍事技術です。パーティーや結婚式、不動産などのかっこいい写真を​​撮れるのはドローン技術ですが、これは時代遅れの軍事技術です。私たちの授業の内容は、まったく平凡で退屈なものになる危険性があると思います。見た目がかなりかっこよくなり、派手になり、内容について考えることを忘れてしまう可能性があります。

クリス・ヘッジズ: 政府が24時間監視しているとき、自由という言葉は使えません。それは主人と奴隷の関係です。これはノーラン・ヒグドンとアリソン・バトラーの著書に書かれていることです。 監視教育:学校におけるプライバシーの顕著な欠如に対処するあなたたち二人の仕事は本当に素晴らしかったです。番組をプロデュースしたソフィア [メネメンリス]、ディエゴ [ラモス]、トーマス [ヘッジス]、マックス [ジョーンズ] に感謝します。ChrisHedges.Substack.com で私を見つけることができます。

クリス・ヘッジズはピューリッツァー賞を受賞したジャーナリストで、15 年間外国特派員を務めていました。 ニューヨーク·タイムズ、 同紙の中東支局長とバルカン支局長を務めた。彼は以前海外で働いていました ダラス・モーニング・ニュース、クリスチャン・サイエンス・モニター とNPR。 彼はショー「The Chris Hedges Report」のホストです。

この記事はからです シアポスト

読者へのメモ: 皆さんの助けなしに、私が ScheerPost に毎週のコラムを書き続け、毎週のテレビ番組を制作し続ける方法はもうありません。 壁は驚くべき速さで独立したジャーナリズムに迫っている、民主党エリートを含むエリート層は検閲の強化を強く求めている。可能であれば、次のアドレスにサインアップしてください。 chrisedges.substack.com そのため、引き続き月曜日のコラムを ScheerPost に投稿し、毎週のテレビ番組「The Chris Hedges Report」を制作することができます。

このインタビューはこちらから シェーアポスト、 クリス・ヘッジズが書いている 通常の列ここをクリックして登録する 電子メールアラート用。

このインタビューで表明された見解は、彼らの見解を反映している場合とそうでない場合があります。 コンソーシアムニュース。

「コメント7件クリス・ヘッジスレポート: 監視教育 

  1. 11月25、2024で15:31

    この記事を読んで、今後私が指導する学部課程のセクションで盗作検出に TurnItIn を使い続けることに、私はより消極的になりました。人間の権力欲と組み合わされたすべての情報技術の本質的な全方位的かつ二面性に関する、一般化された抽象的な新ラッダイト的感情を超えて、TurnItIn を横目で見る、より具体的な動機が私に与えられました。さまざまな監視およびマーケティング技術に対する私の遍在する疑念を考えると、このインタビューの記録を読む前に、そのような盗作検出ソフトウェアが使用される可能性のある他の暗黙の用途を考慮しなかったのは愚かでした。したがって、このことに注意を向けてくれた Chris Hedges と特に Allison Butler に感謝します。

  2. ジュリー
    11月24、2024で09:03

    クリス、毎日、重要な問題を私たちに知らせてくれてありがとう。
    また、グリシャムの最新のNF本についてインタビューする予定があるかどうかも気になります。

  3. 11月24、2024で06:00

    私の経験では、学校のコンピュータ上で生徒の行動を観察する技術は、少なくとも 2007 年から存在しており、Apple Remote Desktop や Teamviewer などのアプリケーションが使われています。学校の技術サポート オフィスでこれを直接目撃したことにショックを受けました。特に、私の生徒は大人で、生徒のメール アカウントにはアクセスできるものの、その通信がプライベートではないとは知らなかったからです。当時の盗聴は受動的 (ただし、好色な可能性はありました) なもので、マシンが故障した場合に効率的なサポートを提供する目的で行われていました。これらの著者が言う行動の「ナッジ」も新しいものではありません。2017 年には、米国と英国で、それぞれ Cambridge Analytica と Aggregate IQ によって、データ収集が投票をナッジするために使用されているという報告を耳にしました。それ以来、Newsguard などのサービスが、安全であるとされる情報収集、ひいては行動をナッジしています。ここで新しいのは、未成年者のデータが同様の意図で共有され、まだ完全に形成されていない人格に、いつもの「ゴミを入れればゴミが出る」という偏見が課されていることです。

  4. ジョンB
    11月23、2024で21:59

    文脈と徹底性の必要性は、クリスの優れた特質の 2 つにすぎません。

  5. カリマン
    11月23、2024で13:15

    プライバシーの権利と、公共の場での匿名性の権利が存在しないことを混同しないようにしましょう。前者は、自宅やその他の私的な場所でのプライバシーの権利、および自分の道具や所有物の使用に関する自然な権利です。後者は、公共の場での生活や行動、および公共の(および他人が所有する)道具や所有物の使用に対して何の反応もないことを期待するものであり、これは人類の歴史上存在したことがなく、期待することもできず、現在および将来においても望ましいことではないのです。

    したがって、この記事に関連して、子どもは、(1) 企業 (Siri など) を自宅に招き入れてスパイ行為を意図的に行わないこと、(2) 公共の目的のために提供された公共のツール (学校のノートパソコン) を個人的な目的で使用しないことを条件に、自宅にいるときはプライバシーの権利があります。教室自体やキャンパスや街中を歩き回っているときなど、公共の場でとられた行動は、そのような行動に関心のある人なら誰でも観察でき、データ収集、マーケティング、その他の目的で使用される可能性があります。

    「かなり短期間で、私たちの教室は好奇心や探究心のある場所とはみなされなくなるだろうと思います。教室は、非常に平凡で注意深い情報を受動的に受け入れる場所と考えられるようになるでしょう。」…なんてことだ、これらの人々は一体どこの教室を訪れていたのでしょうか?探究心と好奇心のある場所?本当ですか?「ブエラー…ブエラー…ブエラー…」

  6. ロバート・ヘイバース
    11月23、2024で12:17

    あなたが言うことはすべてあなたに不利に使われる可能性があり、実際に使われるでしょう。

  7. ヴェラ・ゴットリーブ
    11月23、2024で10:27

    こんなに長い記事が本当に必要なのでしょうか???他に読むものも心配するものもないかのように!白人種族は、自分たちがどんなにひどい邪魔者かにまだ気づいていません。でも、いつも他の人種を責めます…当然です。

コメントは締め切りました。