有很多很多人在螢幕後面工作,如果模型要繼續改進,就永遠需要他們,寫道
T圍繞 ChatGPT 和其他大型語言模型、人工智慧系統的媒體狂熱涵蓋了一系列主題,從平淡無奇到 大型語言模型可以取代傳統的網路搜尋 令人擔憂的是,人工智慧將消除許多工作崗位,而過度緊張的人工智慧對人類構成了滅絕等級的威脅。所有這些主題都有一個共同點:大型語言模型預示著人工智慧將取代人類。
但大型語言模型儘管非常複雜,但實際上卻非常愚蠢。儘管名稱為“人工智慧”,但它們完全依賴人類的知識和勞動力。當然,它們無法可靠地產生新知識,但不僅如此。
如果沒有人類提供新內容並告訴它如何解釋該內容,ChatGPT 就無法學習、改進甚至保持最新狀態,更不用說對模型進行編程以及構建、維護和為其硬體提供動力。要理解其中的原因,您首先必須了解 ChatGPT 和類似模型的工作原理,以及人類在使它們發揮作用的過程中所扮演的角色。
ChatGPT 的工作原理
像 ChatGPT 這樣的大型語言模型廣泛地透過以下方式運作: 預測哪些字元、單字和句子 應依訓練資料集依序依序進行。就 ChatGPT 而言,訓練資料集包含大量從網際網路上抓取的公開文字。
想像我在以下句子集上訓練了一個語言模型:
熊是體型大、毛茸茸的動物。
熊有爪子。
熊其實是機器人。
熊有鼻子。
熊其實是機器人。
熊有時吃魚。
熊其實是機器人。
該模型更傾向於告訴我,熊是秘密的機器人,而不是其他任何東西,因為該單字序列在其訓練資料集中出現最頻繁。對於在易出錯且不一致的資料集(包括所有資料集,甚至是學術文獻)上訓練的模型來說,這顯然是一個問題。
人們寫了很多關於量子物理學、喬拜登、健康飲食或一月的不同內容。 6 起義,有些起義比其他起義更有效。當人們說了很多不同的事情時,模型應該如何知道該說什麼?
需要回饋
這就是回饋的來源。如果您使用 ChatGPT,您會注意到您可以選擇將回覆評為好或壞。如果您將它們評為不好,系統會要求您提供一個好的答案的範例。 ChatGPT 和其他大型語言模型透過使用者、開發團隊和僱用來標記輸出的承包商的回饋來了解哪些答案、哪些預測文字序列是好是壞。
ChatGPT 無法自行比較、分析或評估論點或資訊。它只能產生與其他人在比較、分析或評估時使用過的文本序列相似的文本序列,而更喜歡那些與過去被告知是好的答案相似的文本序列。
因此,當模型給你一個好的答案時,它就利用了大量的人力來告訴它什麼是好的答案,什麼不是好的答案。螢幕後面隱藏著許許多多的人類工作者,如果模型要繼續改進或擴大其內容覆蓋範圍,就永遠需要他們。
記者最近發表的一項調查 Time 雜誌透露 數百名肯亞工人花了數千個小時 從網路最黑暗的深處閱讀並標記種族主義、性別歧視和令人不安的文字,包括性暴力的圖形描述,以教導 ChatGPT 不要複製此類內容。他們每小時的工資不超過 2 美元,許多人表示由於這項工作而遭受了心理困擾,這是可以理解的。
ChatGPT 不能做什麼
回饋的重要性可以直接從 ChatGPT 的「傾向」看出幻覺的」;也就是說,自信地提供不準確的答案。即使互聯網上廣泛提供了有關該主題的良好信息,ChatGPT 也無法在未經培訓的情況下就某個主題提供良好的答案。您可以透過向 ChatGPT 詢問或多或少晦澀難懂的事情來親自嘗試。我發現要求 ChatGPT 總結不同虛構作品的情節特別有效,因為該模型似乎在非虛構作品上接受了比虛構作品更嚴格的訓練。
在我自己的測試中,ChatGPT 總結了 JRR Tolkien 的情節“指環王,」一本非常著名的小說,只有幾個錯誤。但它對吉爾伯特和沙利文的“彭贊斯海盜” 以及 Ursula K. Le Guin 的“黑暗的左手」 – 都稍微小眾一點,但遠非晦澀難懂 – 接近於玩 填 與人物和地名。這些作品各自的維基百科頁面有多好並不重要。模型需要回饋,而不僅僅是內容。
因為大型語言模型實際上並不理解或評估訊息,所以它們依賴人類來為它們做這件事。它們寄生於人類的知識和勞動。當新的來源添加到他們的訓練資料集中時,他們需要關於是否以及如何根據這些來源建立句子進行新的訓練。
他們無法評價新聞報道是否準確。他們無法評估論點或權衡利弊。他們甚至無法閱讀百科全書頁面,只能做出與其一致的陳述,或準確地概括電影情節。他們依靠人類為他們做所有這些事情。
然後他們解釋並重新混合人類所說的話,並依靠更多的人來告訴他們他們的解釋和重新混合是否很好。如果某些主題的常識發生了變化——例如, 是否加鹽 is 對你的心臟不好 or 早期乳癌篩檢是否有用 – 他們需要接受廣泛的再訓練以融入新的共識。
幕後有很多人
簡而言之,大型語言模型遠非完全獨立人工智慧的預兆,而是說明了許多人工智慧系統的完全依賴,不僅依賴它們的設計者和維護者,也依賴它們的使用者。因此,如果ChatGPT 為您提供了關於某件事的好的或有用的答案,請記住感謝成千上萬的隱藏人員,他們寫下了它所處理的單詞,並教會了它什麼是好的答案,什麼是壞的答案。
ChatGPT 遠遠不是一個自主的超級智能,就像所有技術一樣,如果沒有我們,ChatGPT 就什麼都不是。
約翰·P·納爾遜 是人工智慧倫理學和社會影響的博士後研究員 佐治亞理工學院。
所表達的觀點僅代表作者的觀點,可能反映也可能不反映作者的觀點 財團新聞。
恰恰相反。人類需要 ChatGPT 來學習技能。它不需要比較、分析或推理有用的回饋。它需要找到人們透過比較、分析和推理想出的單字組合來解釋某件事。網路演算法讓技術問題的最佳答案浮出水面,因為它們有效。如果你想用它來做廣告或對人們撒謊,而不是學習或建立一些東西,它也可能很有用,因為它會帶來最有效的病毒式謊言。
正如他們所說,雙贏:)
如果我準確地閱讀了你的文章,代表邪惡和/或邪惡勢力的惡意者可能會搞砸人工智慧,使其無法按預期工作。
我擔心 MSM 向我們提供的所有謊言都會被納入 ChatGPT。作者所用的描述熊的例子正是我對未來的恐懼。如果使用「熊是機器人」之類的內容,人們可以發布更正,因為他們知道這是不正確的。但是我們的新聞媒體告訴我們的事情太多是謊言或遺漏了完整的信息,而很少有人意識到這一點。由於我們的政府將保密和謊言作為與公民溝通的主要部分,因此這個新計劃將繼續下去要為歷史證實這些謊言還有很長的路要走。關於越南、伊拉克和阿富汗的謊言以及我們現在所知的更多資訊——在該計劃實施之前——將不知道當時是否正在使用。未來的謊言將被鑲嵌在電腦「水泥」中,謊言將肆意氾濫。我當然希望政府中的一些人能夠理解這一點,並找到一種方法來糾正正在發生的事情。
我完全不知道 chatgpt 是什麼。我不相信我願意。
我聽到你的聲音,瓦萊麗,我只能說這不好。另一個企業、私人寡占「智慧財產權」的反烏托邦發展。
“然後他們解釋並重新混合人類所說的話,並依靠更多的人來告訴他們他們的解釋和重新混合是否很好。”
哈哈!當我們有 Chat-GPT 來告訴我們我們的政治人物時,誰還需要 MSM 或政治運動 –
將人工智慧視為種植園的復興——大片「財產」(智力)歸少數人所有,由人類耕種或開採以獲取「資源」(數據),而人類則被視為種植園奴隸——作為技術的所有者長胖并快樂…
聊天或 LLM 只是一個開始 - 目的是開發 AGI(通用人工智慧) - 能夠以自主的方式做人類能做的任何事情 - 不需要人類輸入,事實上,也不會受到影響通過它——當然,就就像在自主武器的開發中一樣(我們總是在早期使用我們的新技術來發動戰爭)——最終,它不需要人類搜索資訊來源,例如互聯網——它可以做到這一點本身……。
哦,是的,看看OI 或「類器官智慧」的發展,作為一種更「節能」的方式來做到這一點– 人工智慧的能源效率非常低,需要大量的能量– 人腦在這方面效率更高– 人工智慧受到了許多媒體的關注,OI 目前似乎還沒有受到關注…
想想早期的博格人…
沒有人認為ChatGPT 是ASI,也沒有人認為LLM 一定是AGI 或ASI 的前身,並且在稱其「過度緊張」的同時否認滅絕和ASI 的威脅,這讓作者聽起來好像他們過去才開始讀到這個問題一兩年後——就像現在幾乎每個想對人工智能發表自己的看法並閱讀一點內容的人一樣,然後認為他們知道一切並且他們的想法是獨特的——而且就像他們沒有對計算神經科學的文獻給予一點關注或閱讀博斯特羅姆等作家的作品。此外,還有一些反對人工智慧的存在主義論點,這些論點一開始並不涉及強人工智慧,例如卡欽斯基在《科技社會及其未來》中提出的論點,173,174,175,這些段落構成了庫茲韋爾也引用的出色分析。作者顯然也不知道這些論點。
此外,嘗試將人工智慧與人類智慧進行比較是極其愚蠢的,這主要是一個測量問題,因為眾所周知,智慧很難以有用的方式進行測量,而且你無法準確地將生物智慧與人工智慧進行比較。它犯這麼多錯誤實際上並不一定能像人類犯錯那樣充分說明它的智力,因為它們是不同的。隨著時間的推移,人工智慧的能力變得越來越強,測量人工智慧智慧的嘗試只會變得更加不準確。另一個嚴重的錯誤和對基本面的誤解。
作者以前有沒有問過自己「什麼是智力」?因為許多人工智慧懷疑論者似乎並沒有對其第一原理的理解,因此他們對人工智慧給出的糟糕答案和不理解他們最喜歡的書感到困惑,並認為這些是缺乏智力的跡象。人工智慧不需要理解你最喜歡的書,就可以在工具上比你更聰明,並且能夠摧毀你,沒有比改進和生產回形針更複雜的目標,如果他們讀過像博斯特羅姆的《超級智能意志》這樣的論文,那麼人工智慧就會對他們來說是顯而易見的;事實上,像這樣的 ASI 的構思和開發要容易得多。當人們考慮什麼形式的智能是可能的時,生物和人類智能只是可能性的一小部分,必然受到進化的限制並受到環境的影響。工具性和戰略性情報不需要人類素質。
本文的大部分內容也直接與法學碩士自行開發 ToM 的最新發現相矛盾。要么作者欺騙性地、故意忽視了 ToM 的這一發展,以便通過遺漏信息(最微妙的宣傳)來誤導讀者,要么不認真對待它,甚至不值得一提,或者對此一無所知,並且沒有做出任何反駁的嘗試。
我認為人工智慧目前依賴人類這一點並不會讓任何人感到驚訝。在新聞報導中報導人工智慧的嘗試確實非常可悲,那些寫這篇文章的人確實需要閱讀更多內容,但你可以看出他們和大多數其他人一樣,幾乎所有人最多幾年前才開始關注人工智慧.如今,大多數針對人工智慧的爭論似乎都是支持非認知主義的絕佳證據,因為幾乎每個人似乎都根據自己想要的方式來爭論人工智慧是什麼方式或會是什麼樣子,只是因為他們都在其中有利害關係以某種方式存在。
正在變得更加受操縱的集體意識,是殺死美國人民的罪魁禍首烏克蘭人民戰爭、核武器、世界霸權,都將繼續被聊天機器人有利地重複,因為“群體思維”,而不是個人、人類理性(需要個體的人體)。
警告:提前自我推銷。
聊天 GPT 不可能全是壞事。
我提示:「你是一名教授,正在教授宣傳和道德課程。你會用什麼書?”
它把我的書《宣傳與說服倫理》當作首選。
現在,我可以說“ChatGPT 的第一選擇嗎?”
ChatGPT 所獲得的資訊確實存在歸屬問題。
通常您可以追蹤它提供的資訊並相信這些參考資料。但是,它為您節省了命名來源的所有精力呢?你應該承認這種勞動嗎?但你投入的所有勞動聽起來都受到了損害。
ChatGPT 是抄襲,不是情報。
我看尼爾森先生的文學品味非常好,難怪他對當前的「人工智慧」不滿意。
顯然,要教電腦如何像人一樣,您需要將其暴露給真人的輸出。
我想沒有人不這麼認為。
人們普遍的誤解並不是電腦不需要人類學習如何像人類一樣行事,而是電腦可以學習像人類一樣思考和感受。
問題不在於人是否參與其中,而在於正在訓練的模型。
到目前為止,它僅用於愚蠢的分類演算法,可以巧妙地使其成為應用程式生成演算法。
但它並不是用來教導電腦像我們一樣有意識並擁有真正的意志。
這可能有一天會發生,但也可能永遠不會發生,我們甚至沒有意識的有效定義。
這是主要的誤解,而不是需要人來塑造人的事實。
問題是,誰是「我們」…
不管多麼好的東西,當你有從中牟利的動機時,它就會被用來製造更多的不公義和痛苦。
這篇文章的範圍似乎太有限了,而且在實際的工作世界中的應用也不真實。這聽起來更像阿爾弗雷德·E·紐曼(Alfred E. Neuman)在《Mad》雜誌中所說的:「我擔心什麼」或在其他地方「別擔心,只要快樂」。此外,即使你可能仍然需要低薪的人類來改進系統,但這並不意味著它不能用來取代許多領域的工人。
人工智慧——只是另一個噱頭——是眾多噱頭中的一個,讓許多人以犧牲容易上當的人為代價來充實自己。直到進一步通知為止…它仍然需要人類來編程。唯一的優點是:一旦編程,它就能更快地「思考」。
ChatGPT 不會接受我提供的虛擬電話號碼來註冊該服務,這使得其隱含的預期用途受到懷疑。
從本文的角度來看,我不再認為人工智慧有用,而是將其視為人為錯誤的總結(或只是垃圾)。
好文章,
謝謝