人工知能は世界を変える運命にあるようだ。しかし、これまでは人工知能の誤りが罪のない人々の命を奪ってきたと、ジョー・ローリアの2人のうちの1人が書いている。
By ジョー・ローリア (天気予報士ではありません)
コンソーシアムニュースへのスペシャル
T人工知能の出現が私たちの生活を支配する方向に進んでいるのを逆転させる方法はありません。顧客サービスから 検閲 そして戦争において、AI は存在感を示しており、災害の可能性は現実のものとなっています。
ビジネスを行う際の対面での接触、さらには電話での人間同士の音声によるやり取りの量は、長年にわたって減少傾向にあり、AI によってさらに悪化しています。しかし、AI はコミュニティを侵食し、雇用を破壊し、保留中の人々のエネルギーを消耗させるだけではありません。
AI が反対派の政治的メッセージを排除するようにプログラムされていることは明らかなのに、あいまいな「コミュニティ」基準に違反しているという理由で (コミュニティを破壊するため) どの投稿を削除するかというソーシャル メディア企業の決定に AI が関与するケースが増えています。
AIは、ソーシャルメディアサイトから誰を一時停止または追放するかの決定も行い、一時停止に対する「異議申し立て」も評価しているようだ。多くの場合、人間の目があれば、こうした異議申し立ては覆されるだろう。
Facebookの創設者マーク・ザッカーバーグ 認められた 今週、「私たちはコンテンツを管理するために多くの複雑なシステムを構築しましたが、複雑なシステムの問題は間違いを犯すことです」とFacebookは認めています。 削除します ユーザーの投稿。
「たとえ彼らが誤って投稿の1%を検閲したとしても、それは何百万人にも及ぶことになる。我々は間違いや検閲が多すぎるという段階に達している」とザッカーバーグ氏は述べた。
AI が不合理なほど広範囲に適用されている例としては、ワシントンにある「シンクタンク」が人工知能によって完全に運営されていることが挙げられます。 ドロップサイトニュース レポート ベルトウェイグリッド政策センター オフィス住所がありません。
「ベルトウェイ・グリッドがワシントン、あるいは地球上のどこにも物理的な拠点を持たないのは、寛大な在宅勤務ポリシーだけが原因ではない。同社は従業員の存在をまったく求めていないようだ」と同サイトは書いている。しかし、同社は大量のレポート、プレスリリース、記者への売り込みを行っている。
これは AI の極端な使用法かもしれませんが、一般の人々とのより一般的なやり取りでは、AI がどれほど間違えるかという別の問題がつきまといます。
まだ実験段階
AI はまだ明らかに実験段階にあり、重大な間違いは避けられないものの、その応用が遅れることはありません。間違いは、ありふれたものからばかばかしいもの、危険なものまで多岐にわたります。
最近、ばかばかしい例を発見しました。
Google で自分のオンライン プロフィールを検索すると、自分とまったく同じ名前の人物が必ず見つかります。私はミズーリ州カンザス シティの FOX 系列局で気象予報士を務めるジョー ローリアのことをずっと前から知っていました。
私たちは以前にも混乱したことがある。ちょうど2週間前、カンザスシティ地域のフォックス視聴者から、ローリアの服装が素敵だと褒め、スーツをどこで買えばよいかアドバイスを求めるメールを受け取った。他に混乱している人はいるだろうかと思い、イーロン・マスク氏が大々的に宣伝しているAIシステム、グロクにジョー・ローリアが誰なのか尋ねてみた。
これは 応答 私は得た:
「ジョー・ローリアは、主にジャーナリズムと気象学の分野で活躍する多才な専門家です。入手可能な情報に基づく彼の経歴の概要は次のとおりです。
ジャーナリズム: ジョー・ローリアは、1990 年以来、国連を拠点とする外交問題ジャーナリストです。ボストン・グローブ、ロンドン・デイリー・テレグラフ、ヨハネスブルグ・スター、モントリオール・ガゼット、ウォール・ストリート・ジャーナル、ニューヨーク・タイムズ、ワシントン・ポスト、Salon.com、ガーディアンなど、数多くの出版物に寄稿しています。
彼はまた、ロンドンのサンデータイムズ紙やブルームバーグニュースの調査報道記者も務めている。現在はコンソーシアムニュースの編集長を務めており、中東を中心とした国際情勢について執筆している。彼は、米国の外交政策と軍国主義に焦点を当てた、マイク・グラベル元上院議員などの著名人と共著している。
気象学: ジョー・ローリアは受賞歴のある気象学者です。4 年 1995 月からカンザスシティの FOX5 で夕方のニュース気象学者として働いており、毎週午後 6 時、9 時、10 時、XNUMX 時に天気予報を放送しています。彼の気象学に対するアプローチには、標準的な天気予報アプリではあまり見られない気象の側面について視聴者に教えることが含まれています。
FOX4 に入社する前は、テキサス州ミッドランドの KOSA-TV で主任気象予報士を務め、フロリダ州オーランドやミズーリ州カンザスシティなど、さまざまな場所で勤務しました。その功績が認められ、アメリカ気象学会 (AMS) と全米気象協会 (NWA) の両方から認定を受けています。また、AMS から認定放送気象予報士 (CBM) の称号も取得しています。
- 私生活: ジョー・ローリアはニューヨーク州ニューロシェルで生まれ、現在は妻のジェイ・リンと2匹の猫とともにカンザス州オレイサに住んでいます。彼はイタリアンレストランやゴルフを楽しみ、気象セミナーや講演を通じて地域貢献活動にも参加しています。
ジョー・ローリア氏はジャーナリズムと気象学者という二つの分野でキャリアを積んでおり、気象報道や国際情勢に関する洞察力に富んだ報道を通じて、国民の理解と安全に対する彼の多様な関心と貢献を浮き彫りにしています。」
念のために言っておきますが、私は猫を飼っていませんし、ゴルフもしませんし、ニューロシェルで生まれたわけでもありません(でもブロンクスのそんなに遠くないところでは)。もちろん、これにはたくさんのユーモアがあります。 (私がジャーナリストになるか気象学者になるか決めずに大学に入学したのも面白いことです。その後、気象学に数学がどれだけ関係しているかを知りました)。
しかし、徐々に世界を支配しつつあるシステムにおいて、このようなナンセンスが起こる可能性は、必ずしも笑い事ではない。グロクの人工知能は、同じ名前の人が複数いることを認めるのではなく、2 人を 1 人だと想定していたのは問題だ。
一方、Chat GPT は、「ジョー・ローリアとは誰か?」という質問に対して、私の仕事について印象的で鋭く、政治的に中立な論文を書いた。まるで、私がそれを PR エージェントとして雇ったかのようだった。エッセイは、数秒で生成されたにもかかわらず、Chat GPT が何ヶ月もかけて私が書いたものをすべて読んだかのように聞こえる。カンザスシティの天気予報士の姿もなかった。
しかし、私に関するその「知識」をもう少し深く掘り下げてみると、それは何もないところから作り上げたものでした。 私がどんな本を書いたか尋ねたところ、実際に書いた本の名前ではなく、ノンフィクション本と思われる完全に架空のタイトルが返されました。 アサンジ 議題: ウィキリークス創設者の遺産。 出版社もClarity Pressと想定されていました。
そんな本は存在しません。ジュリアン・アサンジに関する私の報道に関する知識に基づいて、私が書いたに違いない架空の本についてばかげた推測をしたのです。要するに、AI の多くはナンセンスなのです。
AIと戦争
これらの結果がいかに馬鹿げているか、魅力的なソーシャルメディアの投稿がAIによって削除されるなど、顧客サービスにおける人間を介さないやり取りが苛立たしいものになり、多くの仕事がAIによって失われつつあるか、AIに関するより悲惨な懸念は、それが戦争遂行に利用されるのではないかということだ。
言い換えれば、AI エラーが無害で滑稽なものから生死に関わる問題に移行したら何が起こるのでしょうか?
Time 同誌は12月、イスラエルがガザでの大量虐殺で民間人を殺害するためにAIを使用していると報じた。
「『ザ・ゴスペル』と呼ばれるプログラムは、過激派が活動している可能性のある建物や構造物を提案します。『ラベンダー』は、指揮官から歩兵に至るまで、ハマスやその他の武装グループの暗殺の疑いのあるメンバーを特定するようにプログラムされています。『パパはどこ?』 報道によると 犯人は携帯電話を追跡して犯人の動きを追跡し、標的とすることが多い。標的は自宅であり、犯人の存在が身元確認の証拠とみなされる。その後の空爆で標的の家族全員、あるいはアパートの住人全員が死亡する恐れがある。
イスラエル国防軍(IDF)が開発を認めているこれらのプログラムは、21世紀で最も破壊的な爆撃作戦のペースを説明するのに役立つかもしれない…」
イスラエルの雑誌+972と 保護者 このニュースは37,000月に報じられ、AIによって最大XNUMXの標的が選択された(XNUMX月以降はもっと増えているはず)と報じられ、爆弾を投下する前にこれまでは人間による分析と法的許可が必要だったプロセスが合理化された。
ラベンダーは、ガザにさらに多くの爆弾を投下するよう強い圧力を受け、頼りにされるようになった。 保護者 報告しました:
「『もっと標的を増やせ』と常に圧力をかけられていました。本当に怒鳴られました」と、ある[イスラエルの]諜報員は語った。「『どんな犠牲を払ってでもハマスをやっつけろ。何でもいいから爆撃しろ』と言われました」
この要求に応えるため、イスラエル国防軍はラベンダーに大きく依存し、PIJ(パレスチナ・イスラム聖戦)またはハマスの戦闘員の特徴を持つと判断される個人のデータベースを作成するようになった。[…]
情報筋によると、部隊はランダムにサンプルを抽出し予測を照合した結果、ラベンダーは90%の精度を達成したと結論付け、イスラエル国防軍は標的推奨ツールとしてラベンダーを広範囲に使用することを承認したという。
ラベンダーは、ハマスの軍事部門の主に下級メンバーとしてマークされた数万人の個人のデータベースを作成した。
100%というのは、その正確さについての独立した評価ではなく、イスラエル国防軍自身の評価です。たとえそれを使用したとしても、イスラエルがこのシステムを使って標的とする10人のうち、少なくともXNUMX人はイスラエル自身が認める通り完全に無実であることを意味します。
しかし、私たちが標的にしているのは100人ではなく、「数万人」だ。計算してみれば、標的にされた10,000万人のうち1,000人はイスラエル国防軍に殺されても構わない罪のない犠牲者だ。
昨年3,700月、イスラエルは、自国のAIのせいでXNUMX人の罪のないガザ人が殺害されたことを事実上認めた。それはXNUMXか月前のことだ。さらに何人が虐殺されたのだろうか?
ナショナル アブダビの新聞 報告:
「テクノロジーの専門家は警告している イスラエルビッグデータに頼って人々を標的にすることは、軍隊にとって「極端な偏見の誤り」となる可能性がある。 ガザ 使用している間 人工知能 プログラム。[…]
イスラエルは強力なAIシステムを導入し、兵士と機械の間でこれまで見られなかったような規模での高度な戦争の領域に軍隊を進出させた。
未確認の報告によると、AIシステムは「使用されている標的データだけでなく、運動行動においても極端な偏りのある誤差があった」とハモンド・エリー氏は質問に対して述べた。 ナショナルデバイスのキャリブレーションが誤っていると、極端なバイアス エラーが発生し、測定値が誤って計算される可能性があります。
シドニー大学のAI専門家で新興技術ディレクターの同氏は、広範なデータセットが「極めて個人的かつ商業的」であるため、軍隊は「標的を検証する能力を実際に持たない」ことになり、それが「このような大きな誤りの一因」となっている可能性があると示唆した。
彼女は、ガザでの戦闘が続いているため、「状況の技術的な現実を評価するために」この情報に実際にアクセスできるようになるまでには、たとえ可能だとしても、長い時間がかかるだろうと述べた。」
確かに、IDF の AI は、Grok や ChatGPT など、一般向けに市販されている AI のバージョンよりも洗練されているに違いありません。しかし、IDF は、誰が生き、誰が死ぬかを判断する際には少なくとも 10 パーセントのエラー率があることを認めています。
ちなみに、最も人気のある ChatGPT によると、Lavender システムのエラーの危険性は次のとおりです。
- 「データの偏り: Lavender が特定のソースから不均衡に取得されたデータでトレーニングされると、特定のグループの行動を誤って識別したり、特定の種類の信号を誤って判断したりするなど、偏った結果につながる可能性があります。
- 不完全または偏ったデータセット: トレーニングに使用されたデータが不完全であったり、広範囲の潜在的な脅威をカバーしていない場合、AIは重要なシグナルを見逃したり、 無害な活動を脅威と誤解する(強調追加)”
AIと核兵器
人工知能のミスが核災害につながるかもしれないという懸念が米国上院法案に反映されている S. 13942023年自律型人工知能による核兵器発射阻止法案と題されたこの法案は、
「核兵器を発射するため、あるいは核兵器を発射する目的で標的を選択または攻撃するために、人間による意味のある制御を受けない自律型兵器システムに連邦資金を使用することを禁止する。」
自律型兵器システムに関して、意味のある人間による制御とは、(1)標的の選択と攻撃、および(2)使用時間、場所、および使用方法に対する人間による制御を意味する。」
この法案は上院軍事委員会を通過しなかった。しかし、それを嘲笑するのはNATOに任せよう。 紙 に発表され NATOレビュー 昨年4月、次のように不満を述べた。
「我々は核兵器システムにおけるAIを抑制する外交的・規制的枠組みの構築に向けて急速に進んでいるようだ。これは少なくとも2つの理由で懸念される。
- AIには、必ずしも核兵器を拡大することなく核抑止力を強化するという効用がある。
核防衛から AI を禁止しようとする動きは、AI の現状に対する誤解に根ざしているように思われる。この誤解は、大衆科学よりも大衆フィクションに由来しているように思われる。」[…]
現在利用可能な人工知能はAGIではない。 チューリングテスト つまり、ユーザーが投げかけた質問に答える際には人間と区別がつかないかもしれないが、独立した思考はできず、自己認識力もまったくない。」
基本的にNATOは、AIは自分で考えることができないので(AGI)、心配する必要はないとしている。しかし、自分で考える能力を持つ非常に知能の高い人間でも間違いを犯してしまうのに、人間の入力に依存する機械であればなおさらだ。
この論文は、AI によって核攻撃の精度が必然的に向上すると主張している。この文書には、単数形や複数形の「エラー」や「間違い」という言葉はどこにも見当たらない。
Grok は 47 つの Lauria を XNUMX つに組み合わせました。米国には、Moscow という名前の人口密集地が XNUMX か所あります。ただ言っているだけです。(わかっています、座標はすべて異なります。)
しかし、NATOの文書は外交的議論を望んでおらず、「この問題は、2023月(XNUMX年)にサンフランシスコで開催されたアジア太平洋経済協力会議(APEC)での米国と中国の議論でも取り上げられた」と不満を述べている。
論文は、「地政学的利益が実現される可能性を考慮すると、核防衛からAIを禁止するのは悪い考えだ」と結論付けている。
健全な世界であれば、私たちは日々の生活の中で純粋に人間同士の交流に戻るだろうし、戦争を予防できないのであれば、少なくとも誰を標的にするかという、より慎重で人間的な決定に戻るだろう。
こうしたことはどれも起こりそうにないので、AI が大幅に改善され、喜劇が悲劇に、あるいはさらにひどい完全な大惨事に変わってしまうことがないように願うしかありません。
ジョー・ローリアは編集長です コンソーシアムニュース と元国連特派員 Tウォール・ストリート・ジャーナル、ボストン・グローブ、その他の新聞、 モントリオール官報、 ロンドン デイリーメール と スター ヨハネスブルグの。 の調査報道記者だった。 サンデー·タイムズ ロンドンの金融レポーター ブルームバーグニュース 19歳のストリンガーとしてプロとしての仕事を始めました ニューヨーク·タイムズ。 彼は二冊の本の著者であり、 政治的な冒険、マイク・グラベル上院議員と共著、ダニエル・エルズバーグによる序文。そして ヒラリー・クリントンの負け方、ジュリアン・アサンジによる序文。
お近くのLuxinar支社またはディストリビューターに サポート CN」s
Winter ファンド ドライブ!
素晴らしい記事ですが、タイトルはもっとこの狂気を反映できたはずです。イスラエル/米国によるこの技術の使用に関しては、彼らにとって「エラー」があることは問題ではありません。彼らは、パレスチナ人に「安全地帯」に行くように勧め、そこに着いたら彼らを殺すのと同じように、そのように機能するようにプログラムするでしょう。それは意図的なものです。
また、アントニー・ローウェンシュタイン著『パレスチナ研究所』を読むことをお勧めしたい。この本では、イスラエル人がこの狂気の主要な輸出国になるために行ってきたすべての取り組みが明らかにされている。
「AI」は存在しません。一部の人が「AI」と呼んでいるこの技術は知的ではなく、独創的なことは何もできません。すべては人間が書いたもので、人工的なものは何もありません。実際には革新的なものはほとんどなく、高度な機械学習であり、レポート作成スキルを備えた効果的な分析およびクラスタリング ソフトウェアであり、1990 年代から存在しています。これはすべて、IT 業界が私たちに何か「革命的な」ことが起こっているという印象を与えようとする試みであり、実際にはシリコン バレーが開始し、主導するクーデターの試みを正当化しようとしているだけです。これは、せいぜい安っぽいマーケティング戦略であり、最悪の場合、「AI」が遅かれ早かれ私たちを支配するだろう、それは避けられない、という主張で私たちを監視社会に誘い込む試みです。ノーベル賞受賞者のロジャー・ペンローズ氏は、チェスの実験で「AI」は知的ではなく、第4次産業革命がないのと同じように注目すべき点は何もなく、実際に目にしているのは停滞であり、1980年代以降、あるいはそれ以前から、重要な発明は何も行われていないことをずっと以前に示しました。私の言うことを信じられないなら、1970年以降の主要な発明のリストと空白の行を確認してください。「AI」は、IT業界が限界に達し、停滞期に近づいており、そこからはもはや革新的なものは何も生まれていないことを示す証拠であり、彼らに残されているのは、私たちが発見されるのを避けるために、私たちを監視社会に誘い込むことだけです。
AI の大きな問題は、でたらめと事実の比率ではなく、人間が書かれた言葉を真理として受け入れる傾向があることです。人々は聞いたことに頻繁に異議を唱えますが、読んだことに異議を唱えることはほとんどありません。短期記憶の問題と相まって、x が敵であると読み、2 年後に x が友人であると読んだ場合 (例: 元テロリストで現在はシリアの指導者である Ahmad Sharaa)、人々はそれを額面どおりに疑問なく受け入れます。その後、核攻撃を開始するなど、重要な決定を下すとき、でたらめと事実の比率がゼロを超えるシステムに依存することは、自殺願望に等しいのです。
イスラエル国防軍は民間人を殺すために人工知能を必要としない。イスラエルの民族浄化の標的が民間人であることは今やわかっている。
ガザ。住宅、大学、学校、病院、モスク、果樹園、農業などのインフラはすべて
医学雑誌ランセットは、実際に殺害されたパレスチナ人の数は186,000万XNUMX人であると推定している。これには、医療システムが破壊されたために誘発された飢餓、未治療の病気や傷などの「静かな殺害」や、
瓦礫の下に埋もれ、行方不明となったガザの何千人もの人々。アメリカは、
人工知能の助けを借りて、北朝鮮では3年間毎日爆撃が行われ、人口の3分の1が死滅した。
よく書かれた記事で、一般に AI と呼ばれているものの危険性を指摘しています。これは人工知能ではありません。実際に考えることも、考えることもできないからです。大規模言語モデルは、単に大量のデータを処理し、確率的オウムと呼ばれる方法でそれを私たちに返します。NATO 幹部の限られた思考力の中でのみ、それを核兵器の管理に当てることは良い考えだと考えられます。過小評価すべきではありませんが、いわゆる AI には限界と脆弱性があり (3D プリントされたカメをライフルだと思わせた人に聞いてみてください)、その電力需要が自然な制限要因になるかもしれません。
もちろん、17 世紀に発明され、企業と呼ばれた本物の AI は非常に危険であることが証明されているため、注意と健全な懐疑心が絶対に必要です。
ジョー、
記事からの引用。
「言い換えれば、AI のエラーが無害で滑稽なものから生死に関わる問題に移行すると何が起こるのでしょうか?」
やっちゃった、先へ進むしかない。後戻りはできない。ああ、なぜ昨日のことを持ち出すんだ。この列車は高速でノンストップで動いている。
この情報を取得し、サーバーファームに投資して保存すれば、確実に安全になるのでしょうか?
それはあなたのビットコインになります。派生商品を作って株式市場に売り、それが急騰するのを見てください
保存および保管されたすべてのナンセンスは AI によって利用できますが、追加のサーバー ファーム (少なくとも 5 階建て) が必要になる場合があります。保管するスペースを節約し、それはあなたのゴールドになります。
本当に、入力されたものはすべて収集され、キーロギングされ、リアルタイムで観察されると思います。マウスの動きを追跡します。独自のナンセンスを山に追加します。いっぱいになったら、現金のためにデータをダンプするか、侵入を装います。さもなければ、漂白剤とハンマーです、笑。
askinet がこれをスパムと見なさないことを願います。保存されたデータを改ざんしたくはありませんが、サーバー ファームに保存して、データ販売銀行に持ち込んで取引することはできると思います。
シャドウ バンのようなもので、間違ったパスワードを入力すると (パスワードが消えたと思っても保存されている) 拒否されるので、もう一度試します。別のサイトで誤って PayPal のパスワードを入力した場合はどうなりますか。十分に良いのですが、検証者がそれが間違っていることを知っていれば、別のデータ セットと比較する必要があります。ただし、PayPal のパスワードは忘れられません (保存されます)。その情報は別のファームに保存されますが、アクセス権を持つ悪意のある人の手に渡ると非常に貴重になります。他の人に販売されますか? つまり、あなたが誰で、使用しているパスワードがわかっています。入力ミスはここでは機能しません。このユーザーが使用している他のパスワードが必要なサイトを見てみましょう。そのうちの 1 つは、間違って入力したパスワードを必要としている可能性があります。ハッキングが容易になりませんか? 誰が監視者を監視していますか?
そして、まだまだ続きます。
データファームにお金をつぎ込み、ビットコインを詰め込むと、本当にひどいサンドイッチができます。街角のいたるところにディスペンサーを設置してください。くだらないものをくだらないものと交換して現金に換えれば、楽しみが倍増します。笑。あなたは、こんなにおいしいランチを食べた後、包み紙を取っておく溜め込み屋になるでしょう。
今はそうしているかもしれませんが、値段が上がって中身も小さくなり、本当にしっかり梱包されていると開けるには専門家が必要になります。彼の名前はAIです。
楽しむ 。
それで、ジョー・ローリアが言おうとしているのは…「これから嵐が来る、ハルマゲドンの可能性がある」ということだと思います。
ジェイク、
全部を合わせると、天気予報士が窓の外を見ても間違えることがあるみたいに。でも、雲が灰色のときは雨が降りそうな気がする。笑
あなたが投稿すれば私はそれを読みます、多分それは単なる気候変動でしょうか?
AI またはチャットボットに質問します (まだ使用したことはありません) - 政治的な気候変動と単なる気候変動の類似点と相違点は何ですか。
政治家たちは空から落ちてきて大混乱を引き起こすのでしょうか?
おそらく最悪のタイミングで、同じポールの反対のポジションの双子が生まれることになるでしょう。
しかし、両方を信頼しますか?
誰かが認知的不協和について言及しませんでしたか?
敢えて言えば、AI は人間の最高の囲碁プレイヤーやチェスプレイヤーに簡単に勝つことができるということを指摘しておきます。囲碁やチェスの世界チャンピオンは、ある意味では賢いと思いませんか?
この記事は、AI が賢くならないと言っているのではなく、AI が間違いを起こしやすく、情報を捏造する傾向があると言っているのだ。
TN 、
つまり、チェス プレーヤーはゲームのプレイ方法を知っています。数学を知っている誰かが AI (単なるプログラム) をプログラムしました。チェス プレーヤー自身でしょうか。AI はプレーヤーの可能な次の動きに基づいて次の動きを考え、その動きに基づいてカウンターを計算しますが、すべての潜在的な動きを事前に探して実現しています。おそらく数千でしょうか。人間は、AI の知性 (プログラム) がすべての可能性を認識できるため、これはエラーを犯すことができない完璧なゲームであることを知っています。これは人間にとって非常に時間がかかり、退屈な課題になると思います。AI は、与えられた「プログラムされた指示」を使用して、すべてのオプションに瞬時に応答できます。人間は永遠の時間と一種のカンニング ペーパーを使用して同じことを実行できますが、瞬時にはできません。
これは私たちが目撃しているタイムトラベルなのでしょうか。その短い時間枠内での AI の旅を認識することはできませんが、数学やコンピューターを使用して、指で数えるだけではすぐにできないことを行うことができます。
おそらく、2 つの AI が最後まで戦えば、どちらが勝ってもゲームに勝てるかどうか、またはどちらかが勝てることを示すまだ学習されていない方法があるかどうかがわかるでしょう。これは事実でしょうか、それともすべての答えを持っているプログラムでは、誰が最初に動くかによって決まるのでなければ、勝つチャンスはありませんか?
ある意味感心したと言うが、モノポリーを使ったほうが現実世界に近いゲームだと思うので、それを使うべきかもしれない。私は銀行家になって、友達に恩赦を与え、高さ 200 マイルのホテルを建てる。GO を通過すると、刑務所行きになる。XNUMX をありがとう。
ああ、もし私が失敗したらそれはあなたのせいです。すみません、話がそれたかもしれません。価値のある AI は正しい答えを返すものだけです。ルール #1 の場合はルール #2 に進みます。刑務所のように、あなたは中を覗いているのか、外を覗いているのか、そして誰の犠牲を払っているのか?
プライベートなものや他人が所有するものと同様に、個人的に所有されている制御メカニズムであるコード/アルゴリズムを確認できる人がいない限り、何もわかりません。悪質な場合は、非開示の方がスキルよりも多くの収入を生む可能性があります。
私は頻繁に投稿はしませんが、このトピックに興味があり、夢に見ればそれが現れるかもしれません。
私の心では 10 フィートだと思っているが、実際の値を視覚的に示しているので、物差しの方が正確にわかっている。AI 物差し理論ではスケールを把握する必要がある。
私は暴走気味に書いていますが、誰も気分を害さずに表現できればと思っています。啓発や発見のためにいくつかの点を指摘し、共有できればと思っていますが、誰かに向けたものではなく、思考に役立つ場合の回答としてのみです。
このチェス用 AI アプリは「世界チャンピオン」ではなく、ゲームが記録されたすべての世界チャンピオンのチームであり、すべての動きと配置の記憶と論理的分析を備えています。対戦相手の可能性のある計画を予測し、それらの計画を回避する能力を備え、論理的に応答するようにプログラムされています。複数の個人によってプログラムされました。そこには存在はありません。
また、チェスは独自の論理ルールを持つフィクションであり、AI もまさにフィクションです。AI は歴史的な検証可能性を考慮せず、法律や倫理的価値観に対する説明責任も負わずに物事を作り上げるのはそのためです。多くの場合、AI はプログラマーや資金提供者の政治的または社会的偏見を反映し、厳密な事実確認ではなく意見に基づいて、決定的な嘘をでっち上げます。
それが何であれ、それは人間が経験する知性ではありません。感覚入力も、感情的経験も、苦労して得た価値観も、純粋な好奇心もありません。それは、人間や生物学的経験にアクセスすることなく抽象的なデータを処理するツールです。
ジョー・T、
限られた比較対象(実際にプレイしたゲームの量)でアプリがどのように機能するかについてのフィードバックをありがとうございます。
おそらく、プログラムにはサブセットにまだ存在しない動きを追加するための方程式や変数入力があるのでしょうか? それが成長を助けるでしょう。私はそれを「目に見えないオプション」と呼ぶことにします。
おい、俺は造語したんだ、これで俺は作家として認められるかな — そうだと思う — 俺は有名人だ、笑。そして、君の最後の段落から君が人間だとわかる、君がチップを受け取ったら物事の見方が変わるだろう。
あなたは良い候補者になると思いますか?素晴らしい思考力を発揮できるでしょうか?
それが褒め言葉であることを願います。
差し込むための非常に長いコードが付属していますので、首より上のどこでも大丈夫です。
ライトが緑色に点滅したら、あなたが完全になって「ボットからトロット」になったことがわかります。笑。
申し訳ありませんが、個人的な意図は一切ありません。
投稿いただきありがとうございます。
私が思いつく限りの機械はすべて、人間(あるいは動物)の超多機能の 1 つ以上を増幅するように作られています。ジョン・ヘンリーは蒸気動力の削岩機と競争しました。(伝説によると彼は勝ったそうですが、現代の機械は、実行するように設計された非常に特殊な作業において、人間の能力をはるかに上回っています。)自動車のモーターは、馬車を動かす馬の能力の代わりをします。
要するに、一日中車を運転していると、動作やタスクを実行する身体のほぼ無限の能力が、ごく限られた範囲に集中してしまうのです。
チェスや囲碁をするときも同じです。チェス プレイヤーは自分の脳を機械のように使って、非常に限られた一連の精神的動作を実行します。コンピューターはこれをより良く、より速く実行できますが、人間が実行できる無限の思考領域を実行することはできません。
チェスの名人は一般的に頭のいい人達かもしれないが、彼らのチェスの能力は、どんなに素晴らしいように見えても、脳の非常に限られた部分的な使い方に過ぎず、それを知性と呼ぶのは実際には「知性」の定義をかなり歪めていると言える。
T,
昔、私はブラウン&シャープの 6 スピンドル革ベルト駆動カム操作工具、ベルトをねじる、左利き用ドリルビットなどを備えた機械工場で働いていました (他にも Acme など)。セットアップが難しく、長時間の使用は大変でした。楽しかったです。マスターしておけばよかったのに。ベンチで図面を描いたり、カムを切ったりする年配の男性と一緒に働きました。私は当時は若くて、ずっと頭がよかったです。
僕たちは長い道のりを歩んできました。初期の CNC マシンをいくつか見て、1 人の人間が複数のドープを設定して稼働させることができることに気付きました。
彼らのマントラは「左から右へ、物を拾い上げ、置く」でした。
進歩は素晴らしい。村のバカは仕事に就けるようになったと思うけど、今では彼も不要になっている、笑。そう、私もそうだった、笑(村のバカの部分)
さて、これをもう少し飾り立てましょう。畑で収穫する機械の頭がカボチャのようだったら気分が良くなるでしょうか?
私は携帯電話を一度も持ったことがないのに、一文無しです。他の面では裕福ですが、それでも自分を納得させる必要があります。特権意識を持った人たちから、否定的なサポートをたくさん受けています。私はいつも褒めるように努め、自分を振り返り、皮肉な褒め言葉を言ったときはそれを受け入れ、ほんの数語で人生が変わることを理解しています。そして、人々には、彼らは価値があると伝えています。私は自意識過剰だったため(自己否定も)、褒め言葉でいつも苦労してきましたが、今では褒め言葉と説明で他の人を支えています。
私はまだ開発途中ですが、「フック船長」は AI と見なされましたか? その返答を待つつもりはありません。私が気が狂っているように思われるでしょう? 違いますか?
さて、洞窟に戻ります。
返信ありがとうございます。そうですね、私の返信のほとんどは何か提案したいのですが、ほとんどは独り言です?? 笑
これが人間の思考プロセスについての疑問の余地のない仮定に基づいていることについては、ほとんど議論されていません。
アリストテレス論理の二者択一は、啓蒙時代以来、西洋で支配的でした。政治的には、それは我々の味方か我々に反対かとして現れます。経済的には、それは資本主義か共産主義です。それは宗教的狂信の善悪として明白ですが、科学的経験主義の事実か幻想、哲学的合理主義の真か偽でもあります。現在、AI のバイナリ コードとして究極の極限まで引き伸ばされています。これらはすべて、全体を断片に分解することで抽象化を順次処理する人間の脳の左半球の産物です。何よりも、左半球は確実性と制御を求めています。
イアン・マクギルクリスト博士を調べてください。博士の最高傑作は「物事の本質(私たちの脳、私たちの妄想、そして世界の崩壊)」で、この主題について非常に詳細に執筆および講演しています。
対照的に、右脳はゲシュタルト、シンボル、メタファーによって処理します。芸術、神秘主義、多様性、つながり、意味の領域。宇宙には、イエスとノーに加えて、おそらくがあります。夢想的な芸術家やシャーマンの世界だけでなく、これは量子物理学者が100年以上前から言っていることでもあります。東洋の世界と先住民族は、最初に右脳、次に必要に応じて左脳という古い形式を保持しています。右脳は左脳を認識していますが、逆はそうではありません。これは、私たちが今いる場所にとどまっている理由の多くを説明しています。マクギルクリストは、問題に陥ったのと同じプロセスを使用して問題を解決することはできないとも指摘しています。
AI は、高度に加工された白い小麦粉と砂糖の電子版であるため、人間らしくない。生命を与える栄養素はなく、中毒性が高い。せいぜい半分だけ人間である。つまり、自然の地球との共生、心拍、ポール・リクールが「意味の過剰」と呼んだものに気付いていない部分である。大量虐殺が敵の殺害数を抽象的に計算する部分である。半分人間は非人間的で、孤立しており、精神異常者である。
素晴らしい記事とコメント、特にこの記事。
AI に関する一般的な知識、そしてすべての経験科学は、人類と宇宙のこの本質的な側面を常に見逃してしまうでしょう。
その本に対する批判は「還元主義に対するかなり還元主義的な批判」であり、これはウィキペディアのために作られたような簡潔な引用である。皮肉なことに、確実性と制御を求める人々にとって、これもまた腐った盾である。それがルールだ。
AI は、最低共通分母の基盤から独自の道を切り開いています。マクギルクリストの視点が同等に重視されるか、代替ルートが与えられるなら、それは問題ありません。しかし、そうではありません。
その代わりに、すべての創造性は AI の大きな口に掻き集められ、企業の豚を豊かにし、アーティストをさらに貧しくしました。
効率化によって、より多くの時間が得られるはずです。しかし、その代償が意味であるなら、その時間の価値はいくらでしょうか?
とにかく、本を勧めていただいたこと、そして人類にインスピレーションを与えてくれたコンソーシアムに感謝します。
Perplexity dot AI を使用すると、より正確な結果が得られ、Fox という人物については言及されません。
素晴らしい作品です!
量子限界は存在しません。
D-Waveがそう言ってました。
機械学習を AI と呼ぶことを選択することは、人工知能の真の定義に関して認知的不協和を意図的に作り出す動きを可能にするのでしょうか (CN の Ray McGovern 提供)。「厳選されたアナリストによる厳選されたデータ。」
AI の開発者に責任を負わせる方法はあるのでしょうか? 彼は自分の発明がどこへ向かうのかわかっていたのに、それでも…それを続けました。名声を犠牲にして???
こんにちは、ベラ
AI の基礎は古く、中心となるコンポーネントの 1 つはニューロン ネットワークです。AI がすべての誤った決定の言い訳でなかったとしても、それは依然としてアルゴリズム (意味的には間違っていますが、聞こえは良いです) です。Bernhard のこの記事は、AI が実際に何であるかをうまく説明しているものの 1 つだと私は思います。つまり、比喩的な発明者さえも存在しないのです。
出典:http://www.moonofalabama.org/2023/06/artificial-intelligence-is-mostly-pattern-recognition.html
@joe 素晴らしい記事だね
J・ロバート・オッペンハイマー(オッペンハイマーはロスアラモス研究所の所長であり、原子爆弾の研究と設計を担当していた)を拘束する方法はあるだろうか?
できたとしてもあまり役に立たないですよね?
非常に考えさせられる、ぞっとするほどだ。
AI に深く関わっている人物が、ほとんどの AI システムに存在しているという欠陥を実証した興味深い/関連性のあるビデオを見ました。AI システムに、針を 7:30 や 3:15 などのさまざまな値にしてアナログ時計を表示するように指示すると、最終的には 10:10 が表示されます。これは、10:10 の設定の画像がデータベースに大量にロードされるためのようです。これは、10:10 の画像が人間の脳にとって最も心地よいという「事実」(信念?) によるものです。
二つの渦、
名前の e と S の間にスペースが残っています。AI はタイプミスも解決できます。
さて、現在の時刻は 10:10 です... ここで別の AI が介入する可能性があります。戻り値 10:10 は、人間が作成した方程式を使用するように設定されています。ans=10:10 の場合は、次のステートメント サブルーチンを作成して解決します。答えを解決するために必要な数式を導入してみませんか。この間抜けな AI は、数式を専門学校レベルで理解しているだけの人間の専門家であり、賢い数学者が単純な使い方をするようになっていますが、職人の役に立ちます。大工は数式を使用して、自分の能力を超えた問題の答えを見つけます。
必要に応じて、この問題を解決できると思います。実際のところ、AI は大工と同じで、2 人とも同じ方法で行うわけではありませんが、全員が正しいので、ただ聞いてみてください。
申し訳ありませんが、皮肉やユーモアを抑えることはできません。師匠に尋ねれば、この文章の中に深刻な考えが隠れているかもしれませんが、答えは確実に見つかるでしょう。
ジョー・エル3世
最終的には AI が裁判所を運営するようになると思います。正義は盲目だと言われています。名前のデータや収集されたスクレイピングされたデータを入手しましょう。個人データやそれを保存するデータ システムの侵害によって漏洩した情報も収集します。場所、名前、時間、その他の携帯電話のデータも収集します。これにより、選択したボックス内の人の名前の情報が得られ、誰が有罪であるかの距離が設定されます。全員を容疑者にして、見つかった場合は共犯関係を作成します。
正義は盲目なので、有罪の判断を下すには Legal Beagle AI だけが必要です。顔は必要なく、見た目、性別、肌の色に基づく先入観も必要ありません。将来的にはこの可能性が考えられます。この知識を使って草案を作成することもできるのではないでしょうか。
私が今唯一疑問に思っているのは、例を挙げればきりがないということです。名前は伏せますが、これをプログラミングしている Simon Sinister とは誰なのでしょうか。この種のものはすでに使用されているのでしょうか。
このようなおもちゃをコーディングしたことがある、またはコーディングできる優秀なプログラマーからの連絡をお待ちしています。
心臓が止まったときに警告を送信するプログラムです。リングまたは選択した境界内にいる可能性のあるすべての人を集め、停止した心臓に到着したときに犯罪現場であることが判明した場合に誰を調べるべきかに関するデータが得られます。さらに、犯人をより早く見つけることができ、より多くの事例も見つかります。隠れることはできません。私たちはすでにこの世界に住んでいるのかもしれません。医療記録や銀行記録の漏洩、侵入、保護の失敗、これらは今や野放しになっていると思います。
もしこれらのことが現実になったら、匿名の情報源に基づいて、あなたは閉じ込められ、引きずり出されてしまうでしょう。その損失を想像できますか?
オズの魔法使いを思い出します。
情報には力があると言いたくはありませんが、私たちはこの世界をよりよい場所にしたいと願って生まれてきます。中には、車が迫っていることに気づく前に交通事故で轢かれてしまう人もいます。
あなたはこのようなシステムの開発に協力しますか、それともこのモデルを作成することで自分がしていることが自分の良識に反していると考えたいですか。
ああ、コンパチライゼーション、AI を取得してそのベスト バージョンを作成すると、参加者全員が何も知らないままになります。裁判所は「事実」を省略したり、証拠を認めなかったりすることを好むため、完全な記録であれば、防御側はこの記録になるかもしれません。
まだ書きたいことはたくさんあります。耳を傾けてくれてありがとう。すみません、私はあまり文章を書くのが得意ではないし、編集も嫌いです。親指が太いんです、笑
多くの場合、議論に貢献するコメントを残す場合、少ないほど効果的です。
少なくとも AI は賢くなる可能性があります。人間は明らかに愚かになっています。1978 年、1991 年、そして現在の世界における核デタントの状態や、核保有国間のミスを避けるためのホットラインの存在を考えてみましょう。これは明らかに人間の愚かさが増している証拠です。
AI の唯一の危険性は、現在の傾向が数世代続いた後、人間があまりにも愚かになり、独力で核爆弾を作れなくなる可能性があることですが、AI は決してそれを忘れません。その一方で、AI が核兵器を使用しないことをわかるほど賢くなる可能性もあります。これは人間の能力を超えた成果であることが、今では事実としてわかっています。
AI がどのような定義で現在存在しているとしても、実際に賢くなる能力があると主張する根拠はほとんどありません。AI は現時点では賢くなく、多くの数学的課題をこなすことも、物理学の基本法則に従うこともできません。AI は引用や情報源をでっち上げ、真実や現実の概念を持たず、したがって、自らが提示する主張を検証することはできません。
これは賢明な方法ではありませんし、より賢くなる計画があるという兆候も見られません。サム・アルトマンは資金調達の見込みを高めるために好きなことを主張するかもしれませんが、現実はアルトマンも AI も根拠がない要素の 1 つではないようです。いわゆる AI の「賢さ」に関するさらなる洞察については、ゲイリー・マーカスの Substack を参照してください。