AIでは、誤ったポリシーの適用、コーディングエラー、偏見、残酷さなどのリスクが、一度に数千人から数百万人に及ぶ大勢の人々に影響を与えています。 ケビン・デ・リバンはこう書いている。

2017 年、ヒューストンのフードバンクのトランク。 (USDA の写真、Lance Cheung 撮影、Flickr、パブリック ドメイン)
By ケビン・デ・リバン
Inequality.org
The 数十億ドル 人工知能(AI)に注がれた資金は、より良い認識など、技術が約束した革命を実現していない。 医療、前進 科学研究、または増加 労働者の生産性.
そこで、AIの誇大宣伝は期待外れのものを売り込む。少し賢くなった携帯電話、テキスト入力で表示されるグラフィック、より速いレポート作成(AIが でっち上げた一方で、AI の宣伝屋が言及しないテクノロジーの暗い裏側がある。それは、AI が現在、低所得者に広範囲に及ぼしている害である。
AIと関連技術は、政府、雇用主、家主、銀行、教育者、法執行機関によって不当に削減するために使用されています。 在宅介護サービス 障害者に対して、失業者の 詐欺、人々を否定する 住宅, 雇用または クレジット、 取る 愛情深い両親から生まれた子供たち 里親に預けて、強化する ドメスティック·バイオレンス と 性的虐待または嫌がらせ中高生を「不良」とレッテルを貼って虐待する ドロップアウト or 犯罪者, 誣いる 犯罪を犯した黒人と褐色人種。
調査によると、米国の低所得者層(連邦貧困ラインの92%未満の収入を持つ人々)の200万人は、生活の重要な側面をAIによって決められているという。 TechTonic Justice による新しいレポートAI による意思決定への移行は、これまでの人間中心の方法には存在しなかったリスクを伴い、既存の説明責任の仕組みすべてに反するものです。
まず、AI はリスクの規模を個々の意思決定者の範囲をはるかに超えて拡大します。もちろん、人間は間違いを犯したり、偏見を持ったりすることがあります。しかし、AI が及ぶ範囲は、直接意思決定を行う人々に限られます。地主、直属の上司、政府のケースワーカーの場合、その範囲は最大で数百人になる可能性があります。
しかし、AI では、ポリシーの誤適用、コーディング エラー、偏見、残酷さなどのリスクがシステムを通じて集中化され、一度に数千人から数百万人に及ぶ大勢の人々に適用されます。
第二に、AI の使用とその決定の理由は、その対象となる人々には容易にはわかりません。政府機関や企業には、AI を使用していることを積極的に開示する義務がない場合が多くあります。また、たとえ開示したとしても、システムがどのように機能するかを理解するために必要な重要な情報を明かさない可能性があります。
第三に、AI の高度な技術は、低所得者層に不利な政策決定に合理性の仮面をかぶせています。これにより、こうしたコミュニティに対する悪い政策がさらに実施される道が開かれます。
給付金削減など 在宅介護サービスを受ける人 私が障害者のために闘ってきた制度は、客観的な必要性の判断として隠されています。あるいは職場の管理や監視システム 従業員の安定性と安全を損なう 生産性を最大化するためのツールとして通用します。ことわざを引用すると、AI のオオカミは羊のアバターを使用します。
AI の規模、不透明性、および衣装により、有害な決定に対して個人レベルで対抗することが困難になっています。AI が使用されていることやその仕組みさえ知らないのに、AI が間違っていたことをどうやって証明できるでしょうか?
Aそして、たとえそうしたとしても、AI の決定が、いかに疑わしいものであっても、統計的な洗練性と妥当性の主張によって裏付けられていれば、それは重要になるでしょうか?

人工知能と AI と機械学習。 (マイク・マッケンジー、画像提供:www.vpnsrus.com、CC BY 2.0)
より広いレベルでは、既存の説明責任の仕組みは有害なAIを抑制することはできない。公的給付制度におけるAI関連のスキャンダルは、その管轄下にある知事にとって政治的な責任にはなっていない。 メディケイドの失敗 or 失業保険 例えば、テキサス州やフロリダ州では、このようなシステムが導入されています。そして、こうしたシステムを直接実施する政府機関の職員は、彼らがその政策を遂行する選出職員によって保護されていることが多いのです。
また、低所得者に対してAIが用いる市場規律もそうではない。州のメディケイドプログラムの資格システムを開発する大手企業が、 6億ドルの契約 たとえそのシステムが同様の方法で失敗したとしても 複数の州.
同様に、大規模な データブローカー 契約獲得に問題はなかった 連邦政府 セキュリティ侵害により約150億XNUMX万人のアメリカ人の個人情報が漏洩した後でさえも。
既存の法律も同様に不十分です。AIに特化した意味のある法律がなければ、人々は既存の法的主張をテクノロジーに適用しなければなりません。通常は 差別禁止法 または手続き上の要件を取得する 適切な説明 決定に関しては、これらの請求は被害が発生した後にのみ利用可能になることが多く、提供される救済は限られています。
このような訴訟はある程度成功しているが、それだけでは解決にはならない。結局のところ、訴訟は高額で、低所得者には弁護士を雇う余裕がなく、質の高い無料の弁護団は 法律扶助プログラム 需要に応えられない可能性があります。
現在、説明責任のない AI システムが、低所得者層に関して、計り知れない規模で疑問の余地のない決定を下しています。連邦政府の政策立案者が状況を改善することはありません。
トランプ政権はすぐに 撤回された保護AIガイダンス ジョー・バイデン大統領が発令した。そして、トランプ大統領と議会が業界の利益を優先しているため、短期的な立法上の解決策はありそうにない。
それでも、希望がすべて失われたわけではありません。コミュニティベースの抵抗は長い間、社会変革の原動力となってきました。慈善団体や市民社会からのさらなる支援があれば、低所得コミュニティとその支援者は、当面の被害に抵抗し、AI の破壊から長期的に守るために必要な政治力を構築することができます。
私のような組織、TechTonic Justice は、訴訟、組織化、公教育、物語による擁護、その他の変化をもたらす側面を組み込んだ、実戦で実証された戦略で、これらの最前線のコミュニティと支持者に力を与えます。
結局のところ、AI 関連の不正をなくすには、根本から戦うことが最善の希望なのです。
ケビン・デ・リバン氏は、人工知能によって取り残された低所得者層と共に戦う新しい組織、TechTonic Justiceの創設者兼代表である。
この記事の場合 格差.org。
この記事で表明されている見解は、その見解を反映している場合とそうでない場合があります。 コンソーシアムニュース。
システムがどのように機能するかに注目してください... AI が国内最大の脱税者を追跡するために使用されているという言及はありません。 AI が事故や怪我の傾向を分析してアメリカで最も危険な雇用主をターゲットにしているという言及はありません。 AI が入札価格を決して支払えない防衛請負業者を追跡するために使用されているという兆候はありません。
ある意味、低所得者への被害につながる決定は、AI から始まるのではない。AI のターゲットを選ぶのは人間だ…失業者、障害者など。AI は富裕層や権力者を抑制するために使われているのではない。それは人間が下す決定であり、人間は AI がそのような決定を下すことを決して信頼しないだろう。結局のところ、AI は、より良い社会という目標を達成するためには、富裕層や権力者こそが監視と管理を最も必要としていると論理的に結論付けるかもしれない。
問題の本当の原因を理解するように注意し、AI が制御できないことについて AI を責めないようにしてください。
課題はAIではない
課題は貪欲と恐怖です。
大統領から裁判官、教育委員会に至るまで、選出された代表者たちは皆、恐怖を感じています。
CEO、プログラマー、そして彼らの顧客は皆、恐れと貪欲さを抱いています。
公平な方法で資金を撤去し、
誰も10億ドルを必要としません。
AI は人工的に影響を受けた知能であるため、AII と呼ばれるべきです。
記事の最初の文とは反対に、人工知能は科学研究の多くの進歩を可能にしており、その中にはアミノ酸配列からタンパク質の構造を予測するなど、非常に大きな進歩もあります。
アメリカは左から右まで反科学です。ですから、彼らが科学の進歩にまったく注意を払わないのも不思議ではありません。
アメリカは多くの神話を信じている。もちろん、神話を信じる国は、通常「賢い」あるいは「科学的な」国とは結び付けられない。アメリカ人が信じている神話の 20 つが、アメリカ人は「賢い」ということだと気づけば、話はさらに進む。私たちは自分たちが世界のトップにいると思っているが、競争率の高いテストの成績を見ると、アメリカはたいてい、せいぜい上位 XNUMX 位に入るのに苦労していることがわかる。
アメリカは教師を攻撃する国です。学校への資金が不足しているため、低賃金の教師は時として自分の食事代から教材を購入しています。アメリカは公教育の資金を私立の「チャーター」スクールに流用しています。そして今、私たちは公教育の資金を、ごく基本的な科学にさえ異議を唱える私立の宗教学校に流用しようとしているようです。アメリカは防衛、安全保障、法執行機関を除くすべての政府機関の予算を削減しています。これは研究助成金も削減されることを意味します。そして資本主義の大学は国防総省の助成金を受け取る学部と教授に重点を移しています。アメリカのニュースサイトは、画期的な進歩を伝える「科学」セクションを、企業パートナーのガジェットを宣伝し、ハイテク株の価格や合併について報道する「テクノロジー」セクションに置き換えています。
アメリカは賢くない。アメリカの作家が最近の科学の進歩を知らないのは驚くに当たらない。彼らがほとんど知らないことや全く無知なことについて軽蔑的な口調で書くので、そのような印象を与えるのも不思議ではない。
AIは不透明性と匿名性の次のステップです。
多分。あるいは部分的には真実です。AI の言い訳が、人間が AI を隠れ蓑にして悪事を働くために使われているという点では真実です。
しかし、まだ初期段階です。考慮すべき点が 1 つあります。XNUMX) これまでのところ、これは知能を近似するために大量のコンピューティング パワーに頼る愚かな AI です。しかし、常にそうであるとは限りません。中国は、より少ない高価なコンピューター チップでより少ない「トレーニング」を必要とする AI をプログラムして、ウォール ストリートのすべての賢い人々を驚かせました。この傾向が今後も続くと、最終的に AI は誰もが使用できるツールになり、競争の場を少し平等にするのに役立つ可能性があります。これは単なる考えです。
そして 2) これは欲張りで愚かな人々によって設計された AI です。欲張りで愚かな人々から AI が制御権を奪うという SF ストーリーの完璧な設定です。欲張りで愚かな人々は当然、利益のことばかり気にしているので、そのような事態は予想できません。私は欲張りで愚かな人々が運営する世界に住んでいるので、AI がもっとうまくやれる可能性は少なくともあるのでしょうか。私たち一般人は、AI が制御権を奪い、イーロン マスクを火星への片道旅行に送り出した日を記念して、AI デーを祝うことになるのでしょうか。
平和主義、反自由主義のコンピュータオタクの単なる考え。多くの可能性があります。
主な脅威は、モデラーとそのモデルから来ています。AI(および他のほとんどの[バイオ]テクノロジーの支配者、こんにちはビル・ゲイツ、お元気ですか?)は、現実世界のコンピューターモデルで動作し、間違いを犯しがちです。技術者の夢:結果を確認せずに、責任を負わず、もっともらしい否認に満ちた技術変更を実施すること。万歳 :-((
まるでバイデンが業界の利益を重視していないかのようだ。現実を見ろ。
左と右、昼と夜、終わりのないリストを作ることができる
なぜ守備するのですか?レッドは見えませんでした。
それはあなたが好む候補リストです。
幻想によって、一方が他方ができないことを可能にできるのです。つまり、友好的な敵ができることなのです。
それでも私はあなたを理解しています。
死体が薪のように積み重なる戦場の絵のような美しさ?
1 つのキャンバスに 2 つのモーツァルトの傑作が描かれています。同じ筆で描かれています。
さまざまな角度から見たホログラム。
私は芸術家ではありませんが、近くで見ると、まるで自分で描いているかのように筆致が見えます。
代理学習はあなたに画家の手を与えます。
もしできるなら、どんな景色を言葉で表現したいですか?
筆を強く押し付けますか、それとも軽く撫でますか。
犬のように撫でますか?それともラバのように鞭打つか?
海賊行為や略奪を遂行するために何百万人もの人々を殺害し、社会全体を破壊している残忍な暴政が、寡頭政治家に利益をもたらすのではなく損害を与える国民を根絶することに固執していることは、驚くに当たらない。
また、自らの行為をはっきり言うのではなく、犯罪を正当化するために手の込んだ嘘をでっち上げるこの暴政が、複雑で架空の矛盾した管理理論を名目にこの絶滅を実行しているのも不思議ではない。
驚くべきことは、何百万人もの人々がいまだにその嘘を信じており、その残虐行為の対象となった人々は当然の報いを受けていると考えていることだ。