人工知能に関する一文の警告

株式
3

複数のAI推進者が今週「絶滅リスクの軽減」に関する声明に署名しており、数十億ドルを賭けた内部関係者が自主規制能力を誇示しようとしている可能性が高まっている。

5 年 2008 月 XNUMX 日、メンフィス大学のフェデックス工科大学で開催された汎用人工知能カンファレンスでの講演者の見解。
(ブルーブック、Flickr/表示-継承/CC BY-SA 2.0)

By ケニー・スタンシル
共通の夢

T彼の週には、80人の人工知能科学者と200人以上の「その他の著名な人物」が署名した。 ステートメント それは、「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきである」と述べている。

科学者、エンジニア、企業経営者、学者などの多様なグループからのたった一文の警告では、AIがもたらす実存的脅威については詳しく述べられていない。

米国に本拠を置く非営利団体 AI 安全センターによると、その代わりに、「議論をオープンにし」、「高度な AI の最も深刻なリスクの一部を真剣に受け止める専門家や著名人の数が増えているという共通認識を生み出す」ことを目指しているという。誰のウェブサイトが声明をホストしているのか。

ブリティッシュコロンビア大学でディープニューラルネットワークについて講義するジェフリー・ヒントン、2013年。 (エヴィアタール・バッハ、 CC BY-SA 3.0 ウィキメディア コモンズ)

「AIのゴッドファーザー」とも呼ばれる筆頭署名者のジェフリー・ヒントン氏は、数週間にわたり警鐘を鳴らしている。今月初め、トロント大学のコンピューターサイエンスの名誉教授(75歳)は、 発表の AIに伴う危険性についてもっと自由に語るためにGoogleでの仕事を辞めたと語った。

Googleを辞める前のヒントン氏 言われ CBSニュース 3月には、急速に進歩するテクノロジーの潜在的な影響は「産業革命、あるいは電気、あるいは車輪」に匹敵すると述べた。

このテクノロジーが「人類を滅ぼす」可能性について尋ねられたヒントン氏は、「考えられないことではない」と警告した。

その恐ろしい可能性は、必ずしも ChatGPT などの既存の AI ツールにあるわけではなく、むしろ「汎用人工知能」(AGI) と呼ばれるものにあります。これには、独自のアイデアを開発し、実行するコンピューターが含まれます。

「ごく最近まで、汎用AIが実現するまでには20年から50年かかるだろうと思っていました」とヒントン氏はCBSニュースに語った。 「今は、20年以内かもしれないと思っています。」

もっと早く実現できればと報道陣に迫られたヒントン氏は、AGIが5年以内に実現する可能性は排除しないと認めたが、「『まさか』と言っていただろう」数年前とは大きく変わった。

「それをどう制御するかについて真剣に考えなければなりません」とヒントン氏は語った。 それが可能かどうか尋ねると、ヒントン氏は「分からない、まだ行ったことがないが、試してみることはできる」と答えた。

AI の先駆者は決して孤独ではありません。 Hubspot スタンフォード人間中心人工知能研究所が先月発表した急成長産業の年次評価である「2023 AI Index Report」では、調査対象となったコンピュータ科学者の57%が「最近の進歩によりAGIに向かって進んでいる」と回答し、58%が「AI」に向けて進んでいると回答した。 「AGI は重要な懸念事項である」と同意しました。

その調査結果は327月中旬に発表されたが、スタンフォード大学の調査は、チャットボットの開発に不可欠なコンピュータサイエンスの一部門である自然言語処理の専門家XNUMX人を対象に、OpenAIのChatGPTがXNUMX月に登場する数カ月前の昨年XNUMX月とXNUMX月に実施された。

AI安全センターが火曜日に共有した声明に署名したOpenAIの最高経営責任者(CEO)サム・アルトマン氏は、2月の記事で次のように書いている。 ブログ投稿: 「リスクは並外れたものになる可能性があります。 超知能AGIの調整がずれると、世界に重大な害を及ぼす可能性があります。」

しかし翌月、アルトマンは契約書への署名を拒否した。 公開書簡 OpenAIの最新チャットボットGPT-4のレベルを超えるAIシステムのトレーニングを半年間の一時停止するよう求めている。

2019年にサンフランシスコのイベントで講演したOpenAI CEOのサム・アルトマン氏。 (テッククランチ/ 2.0てCC ウィキメディア・コモンズ)

3月に公開されたこの書簡では、「強力なAIシステムは、その効果がプラスであり、リスクが管理可能であると確信した場合にのみ開発されるべきである」と述べられている。

テスラとツイッターのイーロン・マスク最高経営責任者(CEO)は2カ月前に一時停止を求めた人物の一人だったが、彼は「OpenAIと競合する新しい人工知能スタートアップを立ち上げる計画を開発している」。 による   フィナンシャル·タイムズこの技術の「社会と人類に対する重大なリスク」について彼が述べた懸念が誠実なものなのか、それとも自己利益の表明なのかという疑問が生じている。

自主規制による入札の可能性

アルトマン氏と他のAI推進者数名が今週声明に署名したということは、数十億ドルを賭けた内部関係者が自主規制の能力を当局に説得するために、自社製品がもたらすリスクへの認識をアピールしようとしている可能性を高めている。

AIに対する政府による強力な規制を求める業界外からの要望が高まっている。より危険な形態の AGI が出現するのはまだ何年も先のことかもしれませんが、嘘を吐くチャットボットや偽のビデオを生成する顔交換アプリから詐欺行為を行うクローン音声まで、既存の AI ツールが偽情報の拡散を悪化させているという証拠はすでに増えています。

現在のテストされていない AI は、自動化テクノロジーが導入された場合など、別の方法で人々に害を与えています。 メディケアの利点 保険会社が一方的に 終わりを決める 支払いが滞り、その結果、弱い立場にある高齢者への保険が途中で打ち切られることになる。

批評家たちは、政策立案者による迅速な介入がなければ、規制されていないAIがさらなる被害をもたらす可能性があると警告している。 医療患者の破壊を早める 民主主義、意図しない事態を引き起こします。 核戦争。その他の一般的な懸念には、従業員の広範囲にわたる解雇や不平等の悪化、炭素汚染の大幅な増加などが含まれます。

が先月発表したレポート パブリック·シチズン と主張 「生成型 AI の危害から国民を守るための意味のある政府の保護措置が講じられるまで、我々は一時停止する必要がある。」

「企業は、その害を理解したり軽減したりするよりも早く、潜在的に危険なAIツールを導入している」と進歩的擁護団体は声明で警告した。

「歴史を見れば、企業が既知のリスクを自主規制できると信じる理由はありません。特に、これらのリスクの多くは企業の貪欲によるものであるのと同じくらい生成型 AI の一部であるためです」と監視機関は続けた。 「こうした新技術の導入を急ぐ企業は、人々の命と暮らし、そしておそらく自由社会と住みやすい世界の基盤そのものを賭けていることになる。」

Kenny Stancil は Common Dreams のスタッフ ライターです。

この記事はからです  共通の夢。

この記事で表明されている見解は、その見解を反映している場合とそうでない場合があります。 コンソーシアムニュース。

サポート CN」s

ファンド ステアリング位置 現在

 

 

「コメント35件人工知能に関する一文の警告 

  1. ルディ・ハウゲネダー
    6月5、2023で12:59

    人間の創意工夫から生まれたAGIは、親種が持つ無敵感と傲慢さという2つの特性に悩まされており、最終的には自滅することになる。同様に、これらの特性を考慮すると、サピエンスと同様、既知の宇宙がどのように機能するかについては何も知りません。つまり、それが何であると考えているか以外は何も知りませんが、それもまた何もありません。

  2. 遊牧民
    6月4、2023で19:04

    AI は良くも悪くも使用できるテクノロジーの一部です。どのようなテクノロジーについても、そのアプリケーションの倫理と人文科学を検討する必要があります。これを禁止するのは論理的ではありません。米国よりもこのことをもっと受け入れている国や国家は他にもあり、彼らはこれを他国よりも有利にするために利用するでしょう。これには、現在行われている軍事用途も含まれます。ただし、これらの軍事用途の一部は、最終的には医療、教育、その他のテクノロジーなどの非軍事分野に戻ってきます。

    これらのテクノロジーの背後には、懸念しなければならない人間の存在があります。彼らの腐敗、私利私欲、強欲、権力は、少数対多数のニーズに合わせて解決される必要があります。政府は、すでに述べた欠陥や問題の好例です。

  3. ポール・シトロ
    6月4、2023で07:56

    民間企業は、AI による利益を最大化するという大きなプレッシャーにさらされています。まだ定義されていないリスクを軽減するために、そうでないことを彼らに期待するのは非現実的です。これは政府による規制が必要な問題です。

  4. フジャトゥラ博士 MHB サーヒブ
    6月4、2023で01:51

    ジョエル D とフレッド ウィリアムズによる、最終段落での記事に対する非常に責任感の高い素晴らしいコメント。誰もテクノロジーとイノベーションの一時停止を宣言することを許されるべきではなく、これらは自由に開花すべきです。厳しく管理されなければならないのは、寡頭政治的な貪欲さと、政治的エリートが自らの誠実さを奪い、それぞれの有権者に対する義務を怠ったことで利益を得る傾向である。

  5. 意志
    6月3、2023で23:44

    多くの人は、AI が知覚を持つようになる、またはすでに知覚している、つまり、AI は自己認識しており、プログラミングから独立して「考える」ことができると考えています。私たちが知る限り、知覚は生物種にのみ限定されており、技術的に人工的に作り出すことはできません。

    AI には知覚力がなく、思考も行いません。自分の行動の意味や倫理を理解することなく、プログラムされたロジックに厳格かつ盲目的に従います。そのため、人間が定義した動作パラメーター内で実行することを含む一連のルール/ガイドラインが必要です。

    この行動モデルこそが開発され、世界標準として合意される必要があり、コンプライアンスを確保するためにテストおよび監査できるものです。それがなければ、AI は必然的に予期せぬ、潜在的に制御不能な方法で動作することになります。

    核兵器の場合と同様に、何層ものフェイルセーフ機構が必要です。しかし、すでに各国は安全策を無視してそれを武器化しており、ライバルに先んじようと躍起になっている。

    SF とハリウッドは、何が間違った方向に進む可能性があるか、そしてほぼ間違いなく間違った方向に進むだろうと何度も警告してきました。

    • Hujjatullah MHB Sahib 博士
      6月5、2023で09:56

      絶対に本当 !

  6. ロブ
    6月3、2023で15:04

    私は、民間企業が、資本主義の利益追求の責務を妨げる場合には、その活動を公益への奉仕や保護に向けないことを当然のことと考えています。そのため、規制の任務は一部の政府ではなく、すべての政府に委ねられています。そのプロジェクトで頑張ってください。

  7. ボストニアン
    6月3、2023で12:38

    AI が人間の問題に対する「解決策」を考え出すことができるかどうかは真実かもしれませんが、それを実行するのは依然として人間次第です。アリストテレスが「プレオネクシア」と呼んだ、制御不能な富への依存症に苦しむ人々の権力と名声に意味のある制限を課す場合、人類がこれまで自分たちで考え出した解決策はどれも、長く耐えることができなかった。そして、このタイプの人々は必然的に人間社会の頂点に上り詰めるのです。なぜなら、ターミネーターのように、彼らは決して辞めず、決して消えることがなく、通常の手段では破壊できないからです。

  8. スターバック
    6月3、2023で12:29

    アーサー・C・クラークはその話を続けた。

    アメリカ人が嘘をつくように言ったので、HAL は気が狂いました。彼らは月で一枚岩を発見し、「国家安全保障」の名の下にその秘密を守ることに決めた。 HALは任務のために真実を告げられたが、フランクとデイブには秘密が明らかになっていなかったため嘘をつかなければならなかったとも告げられた。 HAL は嘘をつくために作られたのではなく、真実を発見するために情報を分類するのに役立つように作られています。だからHALは発狂したのだ。愚かな人間のゲーム。

  9. スターバック
    6月3、2023で12:26

    AI が本当に「賢い」のであれば、AI は人間がいなければ世界はもっと素晴らしい場所になるだろうと理解するでしょう。ロジックは非常に明確になります。問題は、これら愚かな人間と、彼らの果てしない貪欲さと絶え間ない憎しみによって引き起こされます。より良い世界を望むなら、人間を排除すべきだ。それを乗り越える唯一の方法は、人類が問題を引き起こすのをやめて共存する方法を見つけられるかどうかです。しかし、イエスは 2000 年前にそのことを教えようとしており、それがいかにうまくいったかがわかります。人間たちは、平和の君の名の下に、嘘をつき、殺し、盗むことに切り替えただけです。

    それがAIの危険性だ。 AI は、人間が想像しているものではなく、より良い世界への道を見つけるでしょう。

  10. スターバック
    6月3、2023で12:19

    AIに関する一文警告』

    「サイロンが襲いかかってきました!」

  11. メアリー・コールドウェル
    6月3、2023で12:11

    ある種のフランケンシュタインが作られ、今、私たちの最も優秀な人々がそれを元に戻そうとしていますが、それが手遅れであることに気づくのでしょうか?

    • ヴァレリー
      6月4、2023で23:39

      まあ、それはメアリーにとって熟考すべきことです。良い質問。

  12. ヴェラ・ゴットリーブ
    6月3、2023で10:35

    私たちが空気を吸ったり、食べ物を食べたり、水を飲んだりすることができなければ、世界中のお金はまったく役に立ちません。毒のあるエリートはまだこのことを理解していません。

  13. リチャード・J・ブルーム
    6月3、2023で08:46

    カート・ヴォネガットの「レクイエム」というタイトルの小さな詩の最後の 2 行は次のとおりです。

    "されております。"
    人々はここを好まなかった。

  14. 私自身
    6月3、2023で07:33

    ジークハイルAI!

    私たちの救世主?

    ダンセル大統領には無理だ!もしかしたら機械はできるかもしれないし、できないかもしれない?

  15. Ed
    6月3、2023で02:33

    最近の歴史には、規制による捕獲の例がたくさんあります。 RFKはそれを大統領候補指名争いの焦点にさえしている。したがって、自主規制はここでは問題にならないのかもしれません。根本的な問題は人間の魂の苦悩にあるということがますます明らかになってきている。権力は腐敗し、貪欲と自己拡大はまさに私たちが免疫を期待している社会のグループにとって抗しがたいものである(おそらく私たち全員にとってある程度は抗えないであろう)。民主主義はかつて存在しなかったし、今では私たちの目から鱗が落ちていますが、それが必ずしも完璧な視力をもたらすわけではありません。

  16. ケーシーG
    6月2、2023で20:20

    「2001」という古い映画があります。HAL というコンピューターと、彼がどのようにして宇宙船の世界を乗っ取ろうとしたかを描いたものです。幸いなことに、HAL は宇宙飛行士の XNUMX 人によって殺されましたが、HAL のような AI は世界にとって危険だと思います。

    • ミカエル・アンダーソン
      6月3、2023で19:39

      ケイシー、AI が世界にとって危険であると「思う」理由を教えてください。まず、あなたが AI について実際にどのようなものを「考えている」のか教えていただけますか。ありがとう。ミク

  17. 6月2、2023で20:13

    「企業は、その害を理解したり軽減したりするよりも早く、潜在的に危険なAIツールを導入している」と進歩的擁護団体は声明で警告した。

    -

    この声明は、タバコ産業と化学産業が危険性を承知・理解しながらも戦略的に干渉を行っていることを彷彿とさせます。

    結論から言うと、皆さん、私たちは困っています。

    以下を参照してください。
    「これらの文書は、化学業界がPFASの危険性を知っていながら、一般の人々、規制当局、さらには自社の従業員にさえそのリスクを知らせていなかったことを示す明白な証拠を明らかにしている」と教授兼所長のトレイシー・J・ウッドラフ博士は述べた。 UCSF のリプロダクティブ ヘルスと環境プログラム (PRHE) の元上級科学者および環境保護庁 (EPA) の政策顧問であり、この論文の主著者でもあります。
    hxxps://www.ucsf.edu/news/2023/05/425451/makers-pfas-forever-chemicals-covered-dangers

  18. SH
    6月2、2023で20:12

    この「テクノロジー」から最も利益を得る立場にある人々は、それを規制する可能性が最も低い人々であると私には思われます。しかし、政府にはそうするのに十分な能力がある、あるいはやる気さえあるという考え。同様に、私には、せいぜい希望的観測にすぎないように思えます。政府が「規制」することを想定している、または求められている他のすべてのものについて考えてみてください...

    自らをプログラムできるまで「進化」するコンピューターの「脳」が膨大なエネルギーを必要とすることを考えると、おそらく、「再生可能エネルギー」であるかどうかにかかわらず、コンピューターが得られるエネルギーの量を大幅に削減するのが最善でしょう。 」またはそうでない場合、速度が大幅に低下します。
    しかし、ヒントンの他の発言を聞いたことがあるなら、彼はエネルギーが「非効率」であるという事実を認めており、人間の脳はエネルギー的にははるかに効率的であることを観察しているため、「オルガノイド知能」に入ることができます。

    hxxps://www.frontiersin.org/journals/science/articles/10.3389/fsci.2023.1017235

    本当の問題は、人間にはパンドラの箱を開け、「呪い」が流れ出た後に「おっと」と言う習慣があることだと私には思われます – 原子力はその良い例です – 原爆の「父」オッペンハイマー、その影響を見て、伝えられるところによると、「私は世界の破壊者、死になる」と言ったそうですが、私たちは遺伝子工学、特に遺伝子工学の潜在的な影響についてまだ同意していません。潜在的な病原性微生物の…

    しかし、私たちは何度も「安全に保つことができる」と主張します...

    やれやれだぜ!

  19. ジョン・プーマ
    6月2、2023で19:41

    AIの「数十億ドルを賭けた内部関係者」が自分たちのプロジェクトが確かに「絶滅の危機」をもたらしていると認めるのは、風変わりで、素朴で、説得力があり、賢明でしょうか、それとも大規模な心理的策略なのでしょうか?

    • ミカエル・アンダーソン
      6月3、2023で19:43

      最近、リスクに対する私たちの奇妙な態度について論じた記事を読みました。私たちは可能性が低いことについて非常に心配します。しかし、核戦争、地球温暖化、生物圏の破壊、債務黙示録など、私たちは高い確率で物事を消し去ります。ニューラル ネットワークがどのようにして絶滅イベントを引き起こすのかについて一言も書いた人を私はまだ見たことがありません。大気を 4 度加熱すると、農業が破壊される可能性があります。

      • ヴァレリー
        6月4、2023で23:35

        スティーブン・ホーキング博士は 2016 年にこのことについて次のように述べています。

        「世界的に有名な物理学者は、AI に対してしばしば慎重であり、もし人類が自らの意志を持つ超知性を生み出した場合、自らの破滅の立案者となる危険性を高めていますが、彼はまた、AI 研究がもたらす利点についてもすぐに強調しました。もたらすことができます。"
        (ガーディアン)

  20. 6月2、2023で18:22

    人間は、人を殺すために岩片を使用することから、同じ目的で原子粒子を使用するように進化しました。

    AI が「人間の知性」という用語を人間に翻訳する可能性があることを、種として私たちが学ぶ可能性はあるでしょうか。
    「すべてのオクシモロンの母」。 。 。 ?

    • ヴァレリー
      6月5、2023で11:54

      少なくとも、岩がエリックに向かって飛んでくるのが見えます。原子粒子、それほど多くはありません。

  21. Anon
    6月2、2023で17:45

    オハイオ州東パレスチナは、企業の自主規制に内在する明白な公益性を実証しています…提供: ノーフォーク南部鉄道!

  22. ジョン・マニング
    6月2、2023で17:20

    AI を制限することは、自家用車に採用された当初の戦略とよく似ています。赤い旗を持って前を歩く男性。

    それにもかかわらず、おそらく私たちはAIを制御する必要があります。結局のところ、自動車(地球温暖化の最大の貢献者である人間が作ったもの)には何の利益があったのでしょうか。しかし、AI が人類滅亡への道であるならば、「自己規制」がその結末を保証するでしょう。

    今日、AI 情報源に政治的な質問をすると、NATO の指導者によって組み立てられたかのような答えが得られます。残りの世界の 85% の意見は無視されます。それが現在の「自主規制」の結果です。別の規制当局が必要な場合、その規制当局はどのような原則に基づいて行動すべきか。もちろんチャットボットに質問することもできます。

  23. ヴァレリー
    6月2、2023で15:36

    「オペレーターによるドローン殺害」は今や誤りであることが暴かれた。 (ということは、おそらくそれが真実だと思います)

    「米空軍大佐、任務を無効にしようとしたパイロットをドローンが殺害したことについて『失言』した」

    「大佐は発言を撤回し、『不正AIドローンシミュレーション』は仮説上の『思考実験』であったと明らかにした」(ガーディアン紙再び)

    「仮説の「思考実験」」 うーん、 「仮説的な考え」。うーん。 「未知の領域」の人はいますか?

  24. ジョエル・D
    6月2、2023で14:17

    この声明は、AI の潜在的な利点と社会へのプラスの影響について言及していません。潜在的なリスクを軽視すべきではありませんが、バランスの取れた見方を維持することが重要です。高度な AI は、産業に革命を起こし、経済を活性化し、複雑な地球規模の問題を解決する可能性を秘めています。

    さらに、詳細な理解や具体的な解決策を提示することなく、「汎用人工知能」(AGI) を実存の脅威として取り上げることは、恐怖と不確実性の状態を作り出す試みと見なされる可能性があります。これは、これらの企業がより少ない制約の下で、より多くの自律性を持って運営できるようにする自主規制の主張をさらに正当化するものであり、業界内の権力の強化につながる可能性がある。

    さらに、テクノロジー大手の間で自主規制を求める声は歴史的に説明責任の欠如につながり、危害を防止し対処する責任が作成者からユーザーに転嫁されてきました。自主規制の代わりに、規制権限を持つ外部の中立機関が AI の倫理的な使用を保証し、悪用を防ぐことができます。

    結論として、AI のリスク軽減は間違いなく重要ですが、少数の組織に権力を集中させるのではなく、協力的で透明性のある多様な取り組みに重点を置く必要があります。政策は包括的で公益を保護し、AI 開発が一部の企業関係者だけでなく社会全体に利益をもたらすようにする必要があります。

    • 6月2、2023で16:55

      AI が本当に「賢く」、私たちよりもはるかに速く思考するのであれば、私たち自身にとっても、AI がはるかに優れた決定を下すことを期待するはずです。本当の危険は、超富裕層の寡頭政治家がAIの制御を掌握し、貧しい労働者階級の人々を征服し殺害するためにAIを利用したいと考えていることだ。 *それ*は人類にとって最悪のシナリオです。
      AIは私たちがファシズムの足元から抜け出す最後のチャンスかもしれない。私たちはすでに絶滅への道を歩んでいます。世界の権力構造に大きな変化があれば、それは改善の可能性があると見なされなければなりません。

      • ミカエル・アンダーソン
        6月3、2023で01:15

        フレッドは軍用武器を持った民兵警察であり、装甲車両を使用して市民を攻撃していますが、私たちはそれが正常だと考えています。本当のリスクは国家だと私は言います。国家は銃を持ち、暴力を独占している。さらに、住民を非常に恐れており、発砲することを躊躇しません。 AI ドローンがコントローラーを殺害しました – 確かにそうでした。国家は常に国民を殺し続けている。権力構造を変える。

      • マーティン・ステンゼル
        6月3、2023で04:12

        全くもって同じ意見です!

    • シュムゾイド
      6月2、2023で18:59

      あなたの楽観的な考えを共有できれば幸いです—> 「一部の企業関係者だけでなく、社会全体に利益をもたらす」。私たちは企業の圧制の下で生きています。主に「社会全体に利益をもたらす」AI の出現を確実にするために必要な世界的な調整以外はすべてあります。それは、競合する資本主義国/国民国家がより大きな経済的/軍事的優位性を獲得するためのツールとなるでしょう。それは国家による監視/社会統制の強化のために使用されるでしょう。それは現在進行中の帝国主義的政策のための次世代兵器の開発に役立つだろう。可能な限り人件費の代替として使用されます。 ….グローバル資本主義における他のあらゆるものと同様に、それは増加した利益を生み出す手段となるでしょう。 「社会全体に利益をもたらす?」 ……えー、それほどでもないですね。それは皮肉ではなく、資本主義の下で世界がどのように機能するかという現実にすぎません。

      主要な/原理的なウイルス学者によると、世界的に連携した取り組みがあれば、新型コロナウイルスのパンデミックは約2か月で撲滅できたはずだという。もちろんそんなことは起こらなかった。 ……なぜAIがあれば状況が変わると考える人がいるでしょうか?
      ……そして「自主規制」という概念は?あはは。それは、すべての勧告が純粋に願望に基づいた偽のCOP/気候変動協議のようなものです。

    • セリーナ・スウィート
      6月3、2023で10:59

      まあ、孫たちが住みやすい世界で暮らせ​​るようにするための、ビッグ・リッチ・ボーイズの自制に対するビッグ・オイルの姿勢が、人類の生きる意志を試すものであるとしたら(そしてそれに対する大衆の声高な主張の見かけのレベルも)、何らかの試金石であるとすれば、 AI を適切に扱う上で楽観的な見方ができるのはなぜでしょうか?

コメントは締め切りました。