人工智慧的魯莽

分享
1

人工智慧似乎注定要改變世界。但到目前為止,它的錯誤卻被允許殺害無辜者,兩位喬勞裡亞斯之一寫道。

電視天氣預報員喬·勞裡亞。 (福克斯 4 台新聞堪薩斯城/YouTube)

By 喬·勞里亞 (不是天氣預報員)
財團新聞特刊

T人工智慧正在主宰我們的生活,這是無法逆轉的。從客戶服務到 審查 戰爭和人工智慧正在發揮作用,災難的可能性是真實存在的。 

做生意時面對面的接觸,甚至是人在電話上的語音互動的數量多年來一直在下降,而且隨著人工智慧的出現,情況變得更糟。但人工智慧所做的遠不只是侵蝕社區、破壞就業機會和讓等待的人們變得疲憊不堪。

人工智慧越來越多地支持社群媒體公司決定刪除哪些帖子,因為它們違反了一些模糊的「社群」標準(因為它破壞了社群),而很明顯人工智慧的目的是清除持不同政見的政治訊息。 

人工智慧還可以決定暫停或禁止哪些人訪問社交媒體網站,並且似乎還可以評估對暫停的“上訴”,在許多情況下,如果只用一雙人眼,就會被推翻。

Facebook 創辦人馬克‧祖克柏 承認 本週,“我們構建了很多複雜的系統來調節內容,但複雜系統的問題是它們會犯錯。” Facebook 承認其使用人工智慧系統 清除 用戶的貼文。

祖克柏表示:“即使他們不小心只審查了 1% 的帖子,那也涉及數百萬人,而我們已經到了錯誤太多、審查太多的地步。”

人工智慧應用的荒謬程度包括華盛頓的一個完全由人工智慧運作的「智囊團」。 下降站點新聞 報告 環城公路網格政策中心 沒有辦公地址。

「環城公路網格在華盛頓或地球上任何其他地方都沒有實際足跡,這不僅僅是因為慷慨的在家工作政策。該組織似乎根本不要求員工存在,」該網站寫道。然而,它卻向記者製作了大量的報告、新聞稿和宣傳資料。

雖然這可能是人工智慧的極端使用,但與大眾更常見的互動卻受到另一個問題的困擾:人工智慧可能會犯下多大的錯誤。

仍然相當實驗性

人工智慧顯然仍處於實驗階段,儘管不可避免地會出現重大錯誤,但並沒有減緩其應用。這些錯誤的範圍從平凡到荒謬到危險。

我最近發現了一個荒謬的例子。 

任何在 Google 上搜尋其線上個人資料的人都一定會找到其他具有其確切姓名的人。我很早就認識喬·勞裡亞(Joe Lauria),他是密蘇裡州堪薩斯城福克斯電視台的電視天氣預報員。 

我們之前也曾迷茫過。就在兩週前,我收到一封來自堪薩斯城地區福克斯觀眾的電子郵件,稱讚勞裡亞穿著如此考究,並詢問我在哪裡買西裝的建議。我很好奇還有誰可能會感到困惑,所以我問 Grok(伊隆馬斯克備受推崇的人工智慧系統)喬勞裡亞是誰。 

這是 響應 我有:

「喬·勞裡亞是一位多才多藝的專業人士,主要以其在新聞和氣象學方面的工作而聞名。以下是根據現有資訊對他的職業生涯的概述:

  • 新聞業:喬·勞裡亞(Joe Lauria) 自1990 年起一直在聯合國擔任外交事務記者。報》、《蒙特婁公報》、《華爾街日報》、《新報》 《約克時報》、《華盛頓郵報》、Salon.com 和《衛報》。

  • 他也曾擔任倫敦《星期日泰晤士報》和彭博新聞社的調查記者。勞裡亞目前是《Consortium News》的主編,撰寫有關國際事務的文章,重點關注中東問題。他與美國前參議員麥克·格拉維爾等知名人士合著了書籍,重點關注美國外交政策和軍國主義。

  • 氣象學:喬·勞裡亞(Joe Lauria)是一位屢獲殊榮的氣象學家。自4 年1995 月以來,他一直擔任堪薩斯城FOX5 的晚間新聞氣象學家,每週晚上6 點、9 點、10 點和XNUMX 點廣播天氣預報。不常見的天氣方面應用程式。

  • 在加入 FOX4 之前,他曾擔任德克薩斯州米德蘭 KOSA-TV 的首席氣象學家,並曾在佛羅裡達州奧蘭多和密蘇裡州堪薩斯城等其他地方工作。他的工作獲得了美國氣象學會 (AMS) 和國家天氣協會 (NWA) 的認可印章。 Lauria 也擁有 AMS 的認證廣播氣象學家 (CBM) 稱號。

  • 個人生活:喬·勞裡亞 (Joe Lauria) 出生於紐約州新羅謝爾,目前與妻子傑伊·林恩 (Jaye Lynn) 以及兩隻貓居住在堪薩斯州奧拉西。他喜歡義大利餐廳、高爾夫,並透過天氣研討會和演講參與社區服務。

喬·勞裡亞在新聞和氣象方面的雙重職業凸顯了他的多元化興趣,以及透過天氣預報和對國際事務的富有洞察力的報道對公眾理解和安全做出的貢獻。

鄭重聲明一下,我沒有養貓,我不打高爾夫球,而且我也不是出生在新羅謝爾(但不是在布朗克斯那麼遠的地方)。當然,這其中有很多幽默之處。 (也很有趣的是,我進入大學時猶豫不決是要成為記者還是氣象學家。然後我看到氣象學涉及多少數學)。

然而,在一個似乎逐漸接管世界的體系中,出現這種胡言亂語的可能性並不總是一件可笑的事情。令人不安的是,格羅克的人造智慧假設兩個人是一個人,而不是只承認有幾個同名的人。

另一方面,Chat GPT 就我的工作發表了一篇令人印象深刻、精闢、政治中立的論文,回答了「喬·勞裡亞是誰?」這個問題。就好像我聘請它作為我的公關代理人一樣。這篇文章聽起來像是 Chat GPT 花了幾個月的時間閱讀我寫的所有內容,而它在幾秒鐘內就產生了。也沒有堪薩斯城天氣預報員的蹤跡。

然而,當我更深入地研究它對我的「知識」時,它就憑空捏造了一些事情。 當我問它我寫了哪些書時,它沒有給出我實際寫的書的名稱,而是給出了一本完全虛構的非小說類書籍的標題: 阿桑奇 議程:維基解密創辦人的遺產。 它甚至假設了一個出版商:Clarity Press。

不存在這樣的書。根據它對我對朱利安·阿桑奇的報導的了解,它對一本它認為一定是我寫的虛構書做出了荒謬的猜測。簡而言之,很多人工智慧都是廢話。   

人工智慧與戰爭

加薩的破壞。  (Naaman Omar\巴勒斯坦新聞資訊社、Wafa、APAimages、維基共享資源、CC BY-SA 3.0)

儘管這些結果很荒謬,儘管客戶服務中的無人交互正在變得令人沮喪,例如被人工智能刪除的有吸引力的社交媒體帖子,以及許多工作崗位因人工智能而消失,但對人工智能更令人痛心的擔憂是它在戰爭行為。 

換句話說,當人工智慧錯誤從無害和滑稽的錯誤轉變為生死攸關的問題時,會發生什麼事?

Time 雜誌去年 12 月報導了以色列在加薩的種族滅絕中使用人工智慧殺害平民:

「一個名為『福音』的程式會為武裝分子可能活動的建築物和結構提供建議。『薰衣草』的程序旨在識別哈馬斯和其他武裝團體的可疑成員進行暗殺,從指揮官一直到步兵。 “爸爸在哪裡?” 據說 透過追蹤他們的手機來追蹤他們的行踪,以便鎖定他們——通常是他們的家,在那裡他們的存在被視為確認了他們的身份。隨後的空襲可能會殺死目標家庭中的每個人,即使不是公寓大樓裡的每個人。

以色列國防軍 (IDF) 承認正在開發的這些項目可能有助於解釋 21 世紀最具破壞性的轟炸行動的速度…”

以色列雜誌+972 和 守護者 37,000 月報導稱,人工智慧已選定多達 XNUMX 個目標(自 XNUMX 月以來應該要高得多),簡化了投擲炸彈之前需要進行人工分析和法律授權的流程。

拉文德在巨大的壓力下被依賴,向加薩投擲越來越多的炸彈。 守護者 報導說:

“‘我們不斷受到壓力:’給我們帶來更多目標。’”他們真的對我們大喊大叫,」一名[以色列]情報官員說。 「我們被告知:現在我們必須搞砸哈馬斯,無論付出什麼代價。無論你能做什麼,你都會轟炸。 

為了滿足這一需求,以色列國防軍開始嚴重依賴 Lavender 來產生被認為具有 PIJ(巴勒斯坦伊斯蘭聖戰組織)或哈馬斯激進分子特徵的個人資料庫。 […]

消息人士稱,在隨機抽樣和交叉檢查其預測後,該部門得出的結論是 Lavender 的準確率達到了 90%,這導致 IDF 批准將其廣泛用作目標推薦工具。

拉文德創建了一個包含數萬名個人的資料庫,這些人被標記為主要是哈馬斯軍事部門的低階成員。

百分之九十並不是對其準確性的獨立評估,而是以色列國防軍自己的評估。即使我們使用該系統,也意味著以色列使用該系統瞄準的每 100 人中,至少有 10 人自己承認是完全無辜的。 

但我們談論的不是 100 人,而是「數萬人」。算一下。每 10,000 名目標中,有 1,000 人是無辜受害者,可以被以色列國防軍殺害。 

去年 3,700 月,以色列基本上承認 XNUMX 名無辜加薩人因其人工智慧而被殺害。那是八個月前的事了。還有多少人被殺了?

國家 阿布達比報紙 報導:

「技術專家警告說 Israel軍隊在依靠大數據來瞄準人群時存在潛在的“極端偏見錯誤” 加沙 使用時 人工智能 節目。 […]

以色列使用強大的人工智慧系統,使其軍隊進入了士兵與機器之間前所未有的先進戰爭領域。

哈蒙德-埃里女士在回答來自美國的問題時表示,未經證實的報告稱,人工智慧系統「在所使用的目標數據方面以及在動態行動方面都存在極大的偏差錯誤」。 國家。當設備校準不正確時,可能會出現極大的偏差誤差,從而導致測量結果計算錯誤。

這位人工智慧專家兼雪梨大學新興技術主任表示,廣泛的數據集「高度個人化和商業化」意味著武裝部隊「實際上沒有能力驗證」目標,而這可能是「導致這麼大的錯誤」。

她說,隨著加薩的戰鬥仍在繼續,「我們需要很長時間才能真正獲得這些資訊」(如果有的話),「以評估局勢的一些技術現實」。

當然,IDF 的人工智慧必須比面向大眾的商用人工智慧版本(例如 Grok 或 ChatGPT)更複雜。然而,以色列國防軍承認,在決定誰該活、誰應該死時,至少有 10% 的錯誤率。 

無論如何,ChatGPT(最受歡迎的網站之一)表示,Lavender 系統中錯誤的危險是:

  • 「數據存在偏差:如果 Lavender 接受的資料不成比例地來自某些來源,則可能會導致有偏見的結果,例如錯誤識別特定群體的行為或錯誤判斷某些類型的訊號。
  • 數據集不完整或偏差:如果用於訓練的資料不完整或未涵蓋廣泛的潛在威脅,AI可能會錯過關鍵訊號或 將無害的活動誤解為威脅」。 (強調是添加的。)”

人工智慧與核子武器

美國參議院法案將禁止人工智慧參與核武。 (美國陸軍國民警衛隊,阿什利·古德溫,公共領域)

美國參議院法案反映了對人工智慧錯誤可能導致核災難的擔憂 S. 1394,題為《2023 年自主人工智慧阻止核發射法案》。

「禁止將聯邦資金用於不受人類有意義控制的自主武器系統,以發射核武或選擇或攻擊目標以發射核武。

對於自主武器系統,有意義的人類控制意味著人類控制(1)目標的選擇和交戰:以及(2)時間、地點和使用方式。

該法案沒有通過參議院軍事委員會。但還是讓北約來嘲笑吧。一個 發表於 北約評論 去年四月抱怨說: 

「我們似乎正在快速制定一個外交和監管框架,以限制核武系統中的人工智慧。這至少有兩個原因令人擔憂:

  1. 人工智慧有一個用途,可以加強核威懾,而不必擴大核武庫。
  2. 急於禁止人工智慧參與核防禦似乎源於對人工智慧現狀的誤解——這種誤解似乎更多地來自通俗小說,而不是科普。 […]

今天可用的人工智慧不是通用人工智慧。它可能會通過 圖靈測試 ——也就是說,當它回答用戶提出的問題時,它可能與人類沒有區別——但它沒有獨立思考的能力,當然也沒有自我意識。

本質上,北約表示,由於人工智慧無法獨立思考 [AGI],因此無需擔心。然而,能夠獨立思考的高智商人類也會犯錯,更不用說依賴人類輸入的機器了。   

該論文認為,人工智慧將不可避免地提高核瞄準的準確性。在檔案中找不到單數或複數的“error”或“mistake”一詞。

Grok 將兩個 Lauria 合而為一。美國有 47 個名為莫斯科的人口中心。只是說說而已。 (我知道,座標都是不同的。)

但北約的這篇文章並不希望進行外交討論,並抱怨說,“這個問題甚至在美國和中國於 2023 月(XNUMX 年)在舊金山舉行的亞太經濟合作論壇上的討論中提出。”

該論文的結論是:“考慮到潛在的地緣政治利益,禁止人工智慧參與核防禦是一個壞主意。”

在一個理智的世界中,我們將在日常生活中回歸純粹的人際互動,如果戰爭無法避免,至少讓戰爭回歸到更艱苦的、由人類決定攻擊對象的決定。

既然這一切都不會發生,我們最好希望人工智慧能得到極大的改進,這樣喜劇就不會變成悲劇,甚至更糟的是,徹底的災難。 

喬·勞裡亞 (Joe Lauria) 是《 財團新聞 以及一名前聯合國記者 T華爾街日報、波士頓環球報和其他報紙,包括 蒙特利爾公報, 倫敦 每日郵件 約翰內斯堡。 他曾是《每日郵報》的調查記者 “星期日泰晤士報” 倫敦的財經記者 彭博新聞社 19 歲開始了他的職業生涯,擔任 紐約時報“。 他是兩本書的作者, 政治奧德賽,與參議員邁克·格拉維爾 (Mike Gravel) 共同撰寫,丹尼爾·埃爾斯伯格 (Daniel Ellsberg) 作序;和 希拉蕊·柯林頓《我是如何失敗的》,朱利安·阿桑奇的序言。

如有需求,歡迎 客服工單 中文's
冬季 基金 駕駛!

透過信用卡安全地進行免稅捐款或點擊紅色按鈕進行檢查:

31 條評論“人工智慧的魯莽

  1. 夏洛特·羅弗斯塔德
    一月13,2025 19處:17

    很棒的文章,雖然標題可以更好地反映這一切的瘋狂。至於以色列/美國使用這項技術,出現「錯誤」對他們來說不是問題。他們將其編程為以這種方式運行,就像他們鼓勵巴勒斯坦人前往“安全區”,但在他們到達那裡時卻殺死他們一樣。這是設計使然。

    我還可以建議人們閱讀安東尼·洛文斯坦的《巴勒斯坦實驗室》,其中列出了以色列人為成為所有這些瘋狂行為的主要出口國所做的所有工作。

  2. 赫爾格·蒂茨
    一月13,2025 15處:57

    沒有“人工智慧”,有些人將這項技術描述為“人工智慧”,它不是智慧的,它不能做任何原創的事情,裡面的一切都是人類寫的,沒有什麼是人造的。實際上,它幾乎沒有任何創新,它是先進的機器學習,它是具有報告編寫技能的有效分析和聚類軟體,自 1990 世紀 4 年代以來就已存在。 IT 產業試圖給我們某種「革命性」正在發生的印象,而事實上,他們所做的只是為由矽谷發起和指導的政變企圖辯護。這充其量是一種廉價的行銷策略,最糟的情況是試圖引誘我們進入一個監視社會,聲稱「人工智慧」遲早會接管我們,這是不可避免的。諾貝爾獎得主羅傑·彭羅斯早就透過他的國際象棋實驗表明「人工智慧」並不智能,它沒有什麼了不起的,就像沒有第四次工業革命一樣,我們真正看到的是停滯,沒有任何重大發明自 1980 世紀 1970 年代以來,甚至更早。如果你不相信我,請檢查自XNUMX 年以來的主要發明和空行的可用列表。 “AI”更多地是IT 行業已達到其極限的文檔,它正在接近一個平台期,沒有任何創新即將到來。

  3. 一月13,2025 13處:43

    人工智慧的大問題不在於廢話與事實的比例,而是人類傾向於接受書寫文字作為福音。人們經常質疑他們聽到的內容,但很少質疑他們所讀到的內容。再加上短期記憶問題,當人們讀到x是敵人,兩年後又讀到x是朋友時(例如,Ahmad Sharaa以前是恐怖分子,現在是敘利亞領導人),人們毫無疑問地從表面上接受它。然後,當需要做出關鍵決策時,例如發動核打擊,依賴任何胡說八道與事實比率大於零的系統,無異於尋死。

  4. 貝弗利
    一月13,2025 12處:15

    以色列國防軍不需要人工智慧來殺害平民。我們現在知道,平民是以色列種族清洗的目標
    加沙。住宅大樓、大學、學校、醫院、清真寺以及果園、農業等基礎設施都
    被毀了。醫學雜誌《刺胳針》估計,巴勒斯坦人的實際死亡人數為186,000萬人。這包括“無聲的殺戮”,例如誘導飢餓、未經治療的疾病和醫療系統被破壞造成的傷口,以及
    數千名加薩人失踪,被埋在瓦礫下。美國還用炸彈殺死了數百萬人,卻沒有採取任何行動
    人工智慧的幫助。北韓三年來每天都遭受轟炸,三分之一的人口被消滅。

  5. 安德魯
    一月12,2025 20處:28

    一篇寫得很好的文章指出了通常所說的人工智慧的危險。這不是人工智慧,因為它實際上不會思考,也沒有能力思考。大型語言模型只是處理大量數據,並以稱為隨機鸚鵡的方式反映給我們。只有在北約高層頭腦有限的情況下,讓其負責核武才被認為是個好主意。雖然它不應該被低估,但所謂的人工智慧有其局限性和漏洞(只要問問那些欺騙人們認為 3D 列印烏龜是步槍的人),它的電力需求可能會成為一個自然的限制因素。

    當然,真正的人工智慧(我們在 17 世紀發明並稱為公司)已被證明是非常危險的,因此絕對需要謹慎和健康的懷疑。

  6. 喬·埃爾三世
    一月12,2025 19處:09

    喬,
    引自文章。
    “換句話說,當人工智慧錯誤從無害和滑稽的錯誤轉變為生死攸關的問題時,會發生什麼?”

    哎呀,我們繼續吧?無法回去。啊,為什麼要提起昨天——這列火車開得很快,而且不停歇。
    我們獲取這些信息,投資一個伺服器場,儲存它,它肯定會安全嗎?
    這將是你的比特幣。創造一種衍生性商品並將其拋售到股票市場,看著它飆升
    所有保存和儲存的廢話都可以被AI利用,但可能需要額外的伺服器場(至少5層樓高),節省儲存空間,它是你的黃金。

    我猜實際上輸入的任何內容都可以即時收集、記錄和觀察。追蹤您的滑鼠移動。添加你自己的廢話到堆裡,當完全轉儲數據以換取現金或假裝入侵時,否則漂白劑和錘子,哈哈。
    我希望 asinet 不會將此視為垃圾郵件。不想破壞保存的數據,但我想他們可以儲存在他們的伺服器場中並將其帶到數據銷售銀行進行交易。
    有點像影子禁令,如果您輸入不正確的密碼(儘管您認為密碼已消失但已保存),它會拒絕您,請重試。如果您在其他網站上錯誤地輸入了 PayPal 密碼怎麼辦?很好,但如果驗證者知道其錯誤,則必須與另一組數據進行比較。但它不會忘記(儲存)您的 paypal pw 。這些資訊將儲存在另一個農場中,但對於任何有權訪問的人來說,如果落入壞人之手,就會變得非常有價值?他們把它賣給別人?所以我知道你是誰,你使用的密碼,輸入錯誤在這裡不起作用,讓我們看看這個用戶使用哪些其他網站需要密碼,其中一個可能需要你輸入錯誤的密碼,簡化駭客攻擊不是嗎?誰看守守望者?
    等等。
    把你的錢投入數據農場,用比特幣填充它,你就會得到一個真正的狗屎三明治。在每個街角放置一個飲水機。把你的樂趣加倍,以廢話賣廢話並賺錢,哈哈。你將成為在享用如此美味的午餐後保留包裝紙的囤積者。
    也許我們現在就這樣做,但價格上漲了,內容也變小了,如果包裝得很好,需要專家才能打開​​..他的名字是AI

    享受 。

  7. 雅各懷特克勞德
    一月12,2025 07處:14

    所以我認為喬·勞裡亞(Joe Lauria)想說的是。 。 。 「暴風雨天氣即將來臨,有可能發生世界末日」?

    • 喬·埃爾三世
      一月12,2025 21處:41

      傑克,
      你把所有的碎片放在一起。就像天氣預報員即使看窗外也會出錯一樣。但當雲層呈灰色時,似乎更有可能下​​雨..哈哈
      你發帖,我會讀,也許這只是氣候變遷?
      問人工智慧或聊天機器人(我還沒用過)——政治氣候變遷和普通氣候變遷之間有什麼異同。
      政客會從天而降並造成嚴重破壞嗎?
      在最壞的情況下,它可能會產生具有相反位置的相同波爾的雙胞胎。
      但相信他們兩個嗎?
      沒有人提到認知失調嗎?

  8. TN
    一月12,2025 01處:57

    為了唱反調,我要指出的是,人工智慧可以輕鬆擊敗最優秀的人類圍棋棋手或國際象棋棋手。在某些方面,你不認為圍棋或西洋棋世界冠軍很聰明嗎?

    • Consortiumnews.com
      一月12,2025 11處:35

      文章並不是說人工智慧不能聰明,而是說它容易出錯和捏造資訊。

    • 喬·埃爾三世
      一月12,2025 13處:42

      總氮,
      所以國際象棋棋手知道如何下棋,懂數學的人編寫了人工智慧(只是一個程式),是國際象棋棋手本人。人工智慧根據玩家可能的下一步行動來考慮下一步行動,根據所採取的行動計算出一個計數器,但提前尋找並實現了每一個潛在的行動,也許是數千個?人類知道這是一個完美的遊戲,不會犯錯,因為人工智慧的智力(程式)能夠感知?所有的可能性。這對人類來說需要大量時間,在我看來,這將是一個無聊的挑戰。事實上,人工智慧可以立即使用其給定的「編程指令」對每個選項做出回應。人類可以用永恆的時間和某種備忘錄來做同樣的事情,但不能立即做。
      這是我們目睹的時間旅行,但無法在這麼短的時間內感知人工智慧之旅,但我們可以使用數學、計算機來完成手指計數無法快速完成的事情嗎?
      也許如果 2 個 AI 戰鬥到最後,就會表明無論怎樣都可以贏得比賽,或者有一些尚未學會的方法表明其中一個或另一個可以獲勝。是這種情況嗎?
      我說我對時尚印象深刻,但也許我們應該使用壟斷,因為它看起來像一個更接近現實世界的遊戲?我將成為銀行家,特赦我的朋友並建造一英里高的旅館。如果你通過了GO你就會進入goto監獄,謝謝你的200。
      哦,如果我搞砸了,那是你的錯。抱歉,我可能偏離了方向。唯一有價值的人工智慧是返回正確答案的人工智慧。如果規則 #1 則轉到規則 #2 。就像監獄一樣,你是往裡面看還是往外看,費用由誰負擔?
      就像任何私有的或由其他人擁有的東西一樣,你不知道除非有能力的人可以看到程式碼/演算法,這是私有擁有的控制機制?不披露資訊可能比作惡的技能獲得更多的收入。
      我不經常發帖,但對這個主題很感興趣,如果你夢想它,它就會出現。
      我的想法是 10 英尺,但尺度更清楚,因為它在視覺上顯示了其實際價值。 AI標尺理論需要看到尺度。
      我寫得像一門鬆散的大砲,但希望在不冒犯任何人的情況下表達。我希望我能提出幾點來啟發和發現一些東西並分享,但不是真正針對任何人,只是作為一種回應,如果它有助於思考。

    • 約瑟夫·特雷西
      一月13,2025 11處:15

      這個國際象棋AI應用程式不是“世界冠軍”,而是由所有世界冠軍組成的團隊,他們的比賽都被記錄下來,對每一步走法和佈局都有記憶和邏輯分析。它被編程為能夠做出邏輯響應,能夠預測對手可能的計劃並規避這些計劃。它是由多人編程的。那裡沒有存在。

      西洋棋也是一種虛構,有自己的邏輯規則,這就是人工智慧的本質和角色——虛構。這就是為什麼它編造事實,不考慮歷史可驗證性,也不對法律或道德價值負責。它通常反映了程式設計師或資助者的政治或社會偏見,並根據觀點而不是嚴格的事實查核來編造可惡的謊言。

      不管它是什麼,它都不是人類經驗的智慧。沒有感官輸入,沒有情緒體驗,沒有來之不易的價值觀,也沒有真正的好奇心。它是一種處理抽象資料的工具,無需獲取人類或生物經驗。

      • 喬·埃爾三世
        一月14,2025 01處:39

        喬T,
        感謝您就應用程式如何在有限的可比性(實際玩的遊戲數量)下工作提供反饋
        也許程式中有一些方程式或變數輸入來加入子集中尚不存在的移動?這將有助於它的成長。我稱之為“看不見的選項”
        嘿,我創造了一個詞,這是否使我有資格成為一名作家- 我想是的- 我很有名,哈哈,我可以通過你的最後一段告訴你的人類,一旦你收到你的芯片,你會看到不同的事情。
        你會成為優秀的候選人,偉大的思考能力有待挖掘嗎?
        我希望這是一種恭維。
        我附上一根很長很長的電線供你插入,脖子以上的任何地方都可以。
        當我看到綠燈閃爍時,我就知道你已經變得完整,成為一個「小跑的機器人」。哈哈 ..
        對此表示抱歉,無意針對任何個人。
        謝謝您發文。

    • T·戴維斯
      一月14,2025 18處:10

      我能想到的每台機器都是為了增強人類(或動物)的一種或多種超多功能能力而建造的。約翰亨利與蒸汽動力鑿岩機進行比賽。 (根據民間傳說,他贏了,但現代機器在其設計執行的非常特殊的任務中遠遠超過了人類的能力。)汽車的引擎取代了馬移動馬車的能力。

      關鍵是,如果你整天都在鋼鐵般地駕駛,那麼你的身體執行動作或任務的幾乎無限的能力就會被轉化為一小部分細節。

      下棋或圍棋也是。西洋棋手將他的大腦當作一台機器,執行一組非常有限的心理動作。電腦可以做得更好、更快,但它無法執行人類所能達到的無限思維領域。

      國際象棋大師通常都是聰明人,但他們的國際象棋能力儘管看起來很厲害,但實際上只是對大腦的一種非常引導和碎片化的使用,所以這樣稱呼它實際上嚴重扭曲了“智力”的定義。

      • 喬·埃爾三世
        一月14,2025 20處:29

        T,
        很久以前,我在一家機械車間工作,那裡有 Brown & Sharpe 6 軸皮帶驅動凸輪操作工具、扭轉皮帶、左手鑽頭..(其他還有 Acme 等)da da da — 很難設置,但很有趣長遠來看。很有趣希望我能掌握它們。和一個老傢伙一起工作,他在板凳上畫畫,也剪凸輪。那時我還年輕,也聰明得多。
        我們已經走了很長一段路,寶貝我看到了一些早期的數控機床,並意識到一個人可以設定並保持多個塗料來運行它們。
        他們的口頭禪是“我把東西撿起來,把東西放下”,從左到右。
        所取得的進展是驚人的。現在村裡的白痴可以找到工作了,我想,但現在他也不再受歡迎了,哈哈,是的,我也這麼做了,哈哈(村裡的白痴部分)
        好吧,讓我們稍微打扮一下,如果補丁中的機器拾取者有一個看起來像南瓜的頭,你會感覺更好嗎?
        我從未擁有過手機,但還是壞了。在許多其他方面都很豐富,但我仍然需要說服自己這一點..來自有權利的人的許多負面支持。我總是嘗試讚美,自我反思,當我反手讚美時,承認它並意識到只需幾句話就可以改變生活。我確實告訴人們他們是有價值的。我一直很難接受讚美,因為我有自我意識(也有自我否定),我希望現在可以用抱怨和解釋來支持別人。
        我只是一個正在進行中的作品,但「虎克船長」算不算人工智慧?我不會等待這個回應,這會讓我看起來很瘋狂?不 ?
        好吧,現在回到我的洞穴吧。
        感謝您的回复,是的,我的回復大部分是我喜歡提供的,但大部分是我自言自語?哈哈

  9. 拉菲·西蒙頓
    一月11,2025 20處:51

    很少討論的是這是如何基於對人類思維過程的毫無疑問的假設的。

    自啟蒙運動以來,亞里斯多德邏輯的「非此即彼」在西方一直占主導地位。在政治上,它表現為支持我們或反對我們。從經濟上講,是資本主義還是共產主義。它既是宗教狂熱的善惡,也是科學經驗主義的事實或幻想,以及哲學理性主義的真假。現在,作為人工智慧的二進位程式碼,它已經延伸到了極致。所有這些都是人腦左半球的產物,左半球透過抽象順序處理,將整體分解成互不相連的碎片。最重要的是,它需要確定性和控制。

    看看伊恩·麥吉爾克里斯特(Iain McGilchrist)博士,他的代表作是//事物的問題(我們的大腦、我們的妄想和世界的毀滅)//並且他詳細地撰寫和談論了這個主題。

    相較之下,右半球則透過格式塔、符號、隱喻進行處理。藝術、神秘主義、多樣性、連結和意義的領域。宇宙除了是與否之外,還包含著可能。這不僅是夢幻藝術家和薩滿巫師的世界,也是量子物理學家一百多年來一直在說的。東方世界和原住民首先保留了較舊的右腦形式,然後在需要時保留。右派知道左派,但反之則不然。這很大程度上解釋了為什麼我們陷入困境。麥吉爾克里斯特也指出,我們無法使用陷入問題的相同流程來解決問題。

    人工智慧看起來不太像人類,因為它相當於高度加工的白麵粉和糖的電子版本。沒有生命給予營養並且高度成癮。充其量,它只是半個人類——這部分人不知道自然地球、心跳和保羅·利科所說的「意義過剩」的共生關係。種族滅絕部分是對敵人擊殺數的抽象計算。半人半人非人、孤立無援、臨床上瘋狂。

    • 並致力透過創新科技結合虛擬空間和實體互動,持續為藝術家擴闊觀眾群,優化觀眾欣賞藝術的體驗,從而推廣藝術與文化。
      一月13,2025 09處:15

      很棒的文章和評論,尤其是這篇文章。

      人工智慧的常識和所有實證科學總是會忽略人類和宇宙的這一重要面向。

      對那本書的批評是“對還原論的相當還原論的批評”,這是一句精闢的引言,幾乎是為維基百科而做的。諷刺的是,對於那些需要確定性和控制力的人來說,這是另一個腐爛的盾牌。他們的規則。

      人工智慧正在從最低公分母的基礎上製定自己的道路。如果麥吉爾克里斯特的角度具有同等權重或替代路線,那就太好了。但事實並非如此。

      相反,所有的創造力都被人工智慧的張開的大口所吞噬,以豐富豬豬的生活,並進一步讓藝術家陷入貧困。

      效率應該給我們更多的時間。但如果這樣做的代價是有意義的,那麼那段時間值多少錢呢?

      不管怎樣,感謝這本書的推薦,也感謝聯盟鼓舞人心的人性。

  10. 松鴉
    一月11,2025 14處:53

    使用 Perplexity dot AI 可以得到更準確的結果,並且沒有提到狐狸人。

  11. 雷切爾·溫克爾
    一月11,2025 13處:26

    優秀的作品!

  12. L加魯
    一月11,2025 13處:08

    沒有量子限制。
    D-Wave 是這麼告訴我的。

  13. 大衛杜雷
    一月11,2025 12處:45

    選擇將機器學習稱為「AI」是否會導致一種有意的運動,從而在人工智慧的真正定義方面造成認知失調(由CN 的Ray McGovern 提供?)「Cherry 從精心挑選的分析師那裡挑選了數據。 “

  14. 維拉戈特利布
    一月11,2025 12處:27

    有什麼辦法可以讓人工智慧的創造者負責嗎?他知道他的發明將走向何方,但……他繼續堅持下去。名氣要付出什麼代價?

    • Jordan
      一月11,2025 15處:03

      你好維拉
      人工智慧的基礎很古老,一個核心組成部分是神經元網路。如果人工智慧不是所有錯誤決策的藉口,它仍然是演算法(這在語義上是錯誤的,但聽起來不錯。)我發現 Bernhard 的這篇文章是對人工智慧真正含義的更好解釋之一。所以不存在──甚至不是隱喻的──發明家。
      hxxps://www.moonofalabama.org/2023/06/artificial-intelligence-is-mostly-pattern-recognition.html

      @joe 很棒的文章,不過

    • 我自己
      一月11,2025 17處:15

      有辦法扣住J.羅伯特·奧本海默(奧本海默是洛斯阿拉莫斯實驗室主任,負責原子彈的研究和設計)

      如果我們能做到的話,那不會有太大幫助嗎?

  15. 一月11,2025 10處:35

    非常發人深省,令人不寒而慄。

  16. 艾迪小號
    一月10,2025 21處:31

    看到一個與人工智慧密切相關的人製作的一個有趣/相關的視頻,他展示了他認為大多數人工智慧系統中存在的缺陷。如果你要求人工智慧系統用手機顯示類比時鐘 7:30 或 3:15 或許多其他值,它最終會顯示 10:10。這顯然是由於大量 10:10 設定的圖像被加載到他們的資料庫中,進而由於「事實」(信念?),即 10:10 的圖像最令人類大腦滿意。

    • 喬·埃爾三世
      一月11,2025 22處:27

      兩個漩渦,
      您在姓名中的 e 和 S 之間留了一個空格。人工智慧也可以解決打字錯誤。
      現在好的時間是 10 點 10 分……這可能是另一個人工智慧介入的地方。返回值 10:10 設定為使用人造方程式?如果 ans=10:10 那麼您建立下一個語句子例程來解析 。為什麼不引入解決答案所需的公式。白癡人工智慧現在是一位人類專家,只有技術學院對公式的理解,一些聰明的數學家將這些公式簡化為簡單的使用,但可以幫助工匠。木匠用公式來找出超出他能力範圍的問題的答案。
      我意識到如果需要的話可以解決這個問題。事實上,人工智慧就像木匠一樣,沒有兩個人以同樣的方式做事,但每個人都是對的,只要問他們就可以了。
      抱歉,我忍不住要挖苦或嘗試幽默。你可能會發現一個嚴肅的想法,但如果你問你的主人,答案肯定隱藏在這段文字中。
      喬·埃爾三世

  17. 一月10,2025 20處:19

    我想人工智慧最終將管理法庭。他們說正義是盲目的。讓我們取得姓名資料和收集到的所有抓取資料。甚至是由於個人資料或儲存資料的任何資料系統的洩露而導致的資訊洩露。收集地點、時間和任何其他手機資料的資訊。這給了所選框中的人的姓名訊息,設定了任何人有罪的距離。讓他們都產生懷疑,一旦被發現就會成為共犯。
    因此,正義是盲目的,我們只需要Legal Beagle AI來做出有罪判決。不需要臉孔,也沒有基於外表、性別、膚色的先入為主的觀念。我可以看到這種未來的可能性。也許他們甚至可以利用這些知識來起草草稿?
    我現在唯一的問題是,我可以繼續舉例。誰的名字就省略了,這個西門險惡程式是誰。這種東西已經在使用了嗎?
    很高興聽到有或有能力編寫此類玩具的優秀程式設計師的來信。
    現在有一個程序可以在心臟停止跳動時發送警報。聚集所有可能在環內或選定周界內的人,現在我們有了數據,告訴您當您到達停止跳動的心臟時發現那裡是犯罪現場時該看誰。另外,我們可以更快找到罪魁禍首,也可以找到更多的實例。洩漏入侵未能保護醫療、銀行記錄,我想這些現在已經很猖獗了,
    你能想像如果這些事情實現的話,你會因為一個匿名的巫師而被關起來,拖走嗎?
    讓我想起了綠野仙蹤。
    我討厭說資訊是強大的,我們來到這個世界是希望讓它變得更美好,有些人在意識到有輛車擋住他們之前就在交通中被碾過。
    你會幫助開發一個這樣的系統,還是你會認為你透過創建這個系統所做的事情最違背你更好的本能。
    啊,compatmentalize,採用人工智慧並創建它的最佳版本,所有參與的人都一無所知。也許辯護就是這份記錄是否完整,因為法院喜歡省略「事實」?或拒絕提供證據。
    我可以繼續說下去,謝謝你的傾聽。抱歉,我不是作家,討厭編輯,我有一個真正的大拇指,哈哈

    • T·伍德
      一月15,2025 04處:24

      很多時候,當談到留下有助於討論的評論時,少即是多。

  18. 熊史丹利
    一月10,2025 18處:32

    至少人工智慧有變得更聰明的可能性。人類明顯變得更加愚蠢。考慮一下 1978 年和 1991 年當今世界的核緩和狀態以及核子大國之間為避免錯誤而設立的熱線。這絕對是人類日益愚蠢的證據。

    人工智慧的一個危險可能是,經過幾代當前的趨勢,人類可能太愚蠢而無法自己製造核彈,但人工智慧永遠不會忘記。另一方面,人工智慧有可能變得足夠聰明,知道不要使用核武。我們現在知道,這是一項超越人類能力的成就。

    • 歡樂
      一月11,2025 17處:25

      沒有太多依據可以聲稱人工智慧,無論定義如何,目前是否存在,實際上有能力變得更聰明。它現在不聰明,不能做很多數學任務,也不遵循基本的物理規則。它由引文和來源組成,沒有真理或現實的概念,因此,它無法驗證它提出的任何主張。

      這並不聰明,也沒有跡象顯示正在變得更加聰明。山姆·奧爾特曼可能會提出任何他喜歡的主張來增強他的籌款前景,但現實並不是奧特曼和人工智慧似乎都沒有立足之地的因素之一。我建議您參考 Gary Marcus 的 Substack,以進一步了解所謂人工智慧的「智慧」。

評論被關閉。