AI:s hänsynslöshet

aktier
1

Artificiell intelligens verkar vara avsedd att förändra världen. Men fram till nu är dess fel tillåtet att döda oskyldiga människor, skriver en av två Joe Laurias.

TV väderman Joe Lauria. (Fox 4 News Kansas City/YouTube)

By Joe Lauria (Inte vädermannen)
Speciellt för Consortium News

Thär finns inget sätt att vända uppkomsten av artificiell intelligens på vägen till att dominera våra liv. Från kundtjänst till censur och krig, AI gör sina spår, och potentialen för katastrof är verklig. 

Mängden ansikte mot ansikte-kontakt, eller till och med mänsklig röst-till-röst-interaktion på telefonen när man gör affärer har minskat i flera år och blir värre med AI. Men AI gör mycket mer än att bara urholka gemenskap, förstöra jobb och sätta liv i folk som väntar på is.

AI ligger alltmer bakom beslut som sociala medieföretag fattar om vilka inlägg som ska tas bort eftersom de bryter mot några vaga "community"-standarder (eftersom det förstör gemenskapen), när det är uppenbart att AI är programmerat att sålla bort oliktänkande politiska budskap. 

AI fattar också beslut om vem som ska stängas av eller förbjuda från en webbplats på sociala medier, och verkar också utvärdera "överklaganden" till avstängningar, som i många fall skulle upphävas om bara ett par mänskliga ögon användes.

Facebooks grundare Mark Zuckerberg medgav denna vecka att "Vi byggde många komplexa system för att moderera innehåll, men problemet med komplexa system är att de gör misstag." Facebook medger att de använde AI-system för att ta bort användarnas inlägg.

"Även om de av misstag censurerar bara 1% av inläggen, så är det miljontals människor, och vi har nått en punkt där det bara är för många misstag och för mycket censur", sa Zuckerberg.

De absurda längderna som AI tillämpas på inkluderar en "tankesmedja" i Washington som drivs helt av artificiell intelligens. Släpp webbplatsnyheter rapporterBeltway Grid Policy Center som inte har någon kontorsadress.

"Beltway Grids avsaknad av ett fysiskt fotavtryck i Washington – eller någon annanstans på det jordiska planet – härrör från mer än bara en generös policy för att arbeta hemifrån. Organisationen verkar inte alls kräva att sina anställda existerar”, skriver sajten. Ändå skickar det ut stora mängder rapporter, pressmeddelanden och pitcher till reportrar.

Även om detta kan vara en extrem användning av AI, plågas den mer vanliga interaktionen med allmänheten av ett annat problem: hur fel AI kan vara.

Fortfarande ganska experimentellt

AI är uppenbarligen fortfarande i ett experimentellt skede och även om betydande misstag är oundvikliga har de inte bromsat dess tillämpning. Felen sträcker sig från det vardagliga till det löjliga till det farliga.

Jag upptäckte nyligen ett exempel på det löjliga. 

Alla som söker på Google efter sin onlineprofil är skyldig att hitta andra personer med deras exakta namn. Jag har länge varit medveten om Joe Lauria, en TV-väderman för Fox affiliate i Kansas City, Missouri. 

Vi har varit förvirrade tidigare. För bara två veckor sedan fick jag ett mejl från en Fox-tittare i Kansas City-området som berömde Lauria för att hon var så välklädd och bad mig om råd om var man kan köpa en kostym. Jag var nyfiken på vem mer som kunde vara förvirrad, så jag frågade Grok, Elon Musks mycket omtalade AI-system, vem Joe Lauria är. 

Detta är den respons Jag har:

"Joe Lauria är en mångfacetterad proffs känd främst för sitt arbete inom journalistik och meteorologi. Här är en översikt över hans karriär baserat på tillgänglig information:

  • Journalistik: Joe Lauria har varit utrikesjournalist baserad vid FN sedan 1990. Han har bidragit till många publikationer, inklusive Boston Globe, London Daily Telegraph, Johannesburg Star, Montreal Gazette, Wall Street Journal, New York. York Times, Washington Post, Salon.com och The Guardian.

  • Han har också varit undersökande reporter för The Sunday Times i London och Bloomberg News. Lauria är för närvarande chefredaktör för Consortium News, där han skriver om internationella frågor med fokus på Mellanöstern. Han har skrivit böcker tillsammans med anmärkningsvärda figurer som den tidigare amerikanska senatorn Mike Gravel, med fokus på USA:s utrikespolitik och militarism.

  • Meteorologi: Joe Lauria är en prisbelönt meteorolog. Han har arbetat som kvällsnyhetsmeteorolog för FOX4 i Kansas City sedan januari 1995, och sänt väderprognoser varje vardagskväll kl. 5, 6, 9. Hans inställning till meteorologi inkluderar att utbilda tittarna om väderaspekter som inte är vanligt förekommande i standardväder. appar.

  • Före sin roll på FOX4 var han chefsmeteorolog på KOSA-TV i Midland, Texas, och har arbetat på olika andra platser som Orlando, Florida och Kansas City, Missouri. Han har erkänts för sitt arbete genom att ta emot Seal of Approval från både American Meteorological Society (AMS) och National Weather Association (NWA). Lauria innehar också beteckningen Certified Broadcast Meteorologist (CBM) från AMS.

  • Personligt liv: Joe Lauria föddes i New Rochelle, New York, och bor för närvarande i Olathe, Kansas med sin fru, Jaye Lynn, och deras två katter. Han tycker om italienska restauranger, golf och har varit involverad i samhällstjänst genom väderseminarier och tal.

Joe Laurias dubbla karriär inom journalistik och meteorologi belyser hans olika intressen och bidrag till allmänhetens förståelse och säkerhet genom väderrapportering och insiktsfull rapportering om internationella angelägenheter.”

Bara för ordens skull, jag har inga katter, jag spelar inte golf och jag är inte född i New Rochelle (men inte så långt borta i Bronx). Visst är det mycket humor i det här. (Det är också roligt att jag kom in på universitetet obestämd om jag skulle bli journalist eller meteorolog. Sedan såg jag hur mycket matematik det handlar om i meteorologi).

Potentialen för sådant nonsens i ett system som gradvis verkar ta över världen är dock inte alltid ett skratt. Det är oroande att Groks konstgjorda intelligens antog att två personer är en, snarare än att bara erkänna att det finns flera personer med samma namn.

Å andra sidan gav Chat GPT en imponerande och skarpsinnig, politiskt neutral avhandling om mitt arbete som svar på frågan "Vem är Joe Lauria?" Det var nästan som om jag hade anställt den som min PR-agent. Uppsatsen låter som att Chat GPT tillbringade månader med att läsa allt jag skrivit, när den genererades på några sekunder. Det fanns inga tecken på Kansas City väderman, heller.

Men när jag grävde lite djupare i dess "kunskap" om mig, hittade den på saker ur tomma intet. När jag frågade vilka böcker jag skrivit, istället för att namnge böckerna jag faktiskt skrev, kom den fram till en helt fiktiv titel på en förmodad fackbok: Assange Agenda: Arvet från Wikileaks grundare. Det antog till och med en utgivare: Clarity Press.

Det finns ingen sådan bok. Baserat på sin kunskap om min rapportering om Julian Assange gjorde den en löjlig gissning om en imaginär bok som den trodde att jag måste ha skrivit. Kort sagt, mycket AI är BS.   

AI och krig

Skadorna i Gaza.  (Naaman Omar\Palestinian News & Information Agency, Wafa, för APAimages, Wikimedia Commons, CC BY-SA 3.0)

Hur löjliga dessa resultat än är, lika frustrerande som mänskliga interaktioner blir i kundtjänsten, som tilltalande inlägg på sociala medier som tagits bort av AI, och hur många jobb som går förlorade för AI, desto mer upprörande oro för artificiell intelligens är dess användning i krigsföring. 

Med andra ord, vad händer när AI-fel går från det ofarliga och komiska till frågor om liv och död?

Tid tidningen rapporterade i december om Israels användning av AI för att döda civila i sitt folkmord i Gaza:

"Ett program känt som "Evangeliet" genererar förslag på byggnader och strukturer som militanta kan vara verksamma i. "Lavendel" är programmerat för att identifiera misstänkta medlemmar av Hamas och andra väpnade grupper för attentat, från befälhavare hela vägen ner till fotsoldater. "Var är pappa?" enligt uppgift följer deras rörelser genom att spåra deras telefoner för att rikta dem – ofta till deras hem, där deras närvaro betraktas som en bekräftelse på deras identitet. Flyganfallet som följer kan döda alla i målets familj, om inte alla i hyreshuset.

Dessa program, som Israel Defense Force (IDF) har erkänt utvecklas, kan hjälpa till att förklara takten i den mest förödande bombardemangskampanjen under 21-talet ...”

Den israeliska tidningen +972 och The Guardian bröt historien i april och rapporterade att upp till 37,000 XNUMX mål hade valts ut av AI (det borde vara mycket högre sedan april), vilket effektiviserade en process som tidigare skulle involvera mänsklig analys och ett juridiskt tillstånd innan en bomb kunde släppas.

Lavendel blev beroende av under intensiv press för att släppa fler och fler bomber på Gaza. The Guardian rapporterats:

"'Vi blev ständigt pressade: 'Ge oss fler mål'. De skrek verkligen åt oss, säger en [israelisk] underrättelseofficer. 'Vi fick höra: nu måste vi knulla Hamas, oavsett vad det kostar. Vad du än kan, bombar du. 

För att möta denna efterfrågan kom IDF att förlita sig starkt på Lavender för att skapa en databas med individer som bedöms ha egenskaperna hos en PIJ [Palestinian Islamic Jihad] eller Hamas-militant. […]

Efter slumpmässiga provtagningar och korskontrollerade dess förutsägelser drog enheten slutsatsen att Lavendel hade uppnått en 90% noggrannhetsgrad, sa källorna, vilket ledde till att IDF godkände dess genomgripande användning som ett målrekommendationsverktyg.

Lavender skapade en databas med tiotusentals individer som markerades som övervägande lågt rankade medlemmar av Hamas militära gren.”

Nittio procent är inte en oberoende utvärdering av dess riktighet, utan IDF:s egen bedömning. Även om vi använder det, betyder det att av var 100:e folk som Israel riktar sig till som använder detta system, är minst 10 helt oskyldiga enligt sitt eget erkännande. 

Men vi pratar inte om 100 målinriktade individer, utan "tiotusentals." Gör matten. Av var 10,000 1,000 måltavla är XNUMX XNUMX oskyldiga offer, acceptabla att dödas av IDF. 

I april förra året erkände Israel i huvudsak att 3,700 XNUMX oskyldiga Gazabor hade dödats på grund av dess AI. Det var åtta månader sedan. Hur många fler har slaktats?

Den nationella tidning från Abu Dhabi rapporterade:

"Teknikexperter har varnat Israels militär av potentiella "extremt partisk misstag" när de förlitar sig på Big Data för att rikta in sig på människor Gaza medan du använder artificiell intelligens program. […]

Israels användning av kraftfulla AI-system har fått sin militär att gå in på territorium för avancerad krigföring som inte tidigare bevittnats i en sådan skala mellan soldater och maskiner.

Overifierade rapporter säger att AI-systemen hade "extremt bias-fel, både i inriktningsdata som används, men sedan också i den kinetiska handlingen", sa Hammond-Errey som svar på en fråga från Den nationella. Extrema förspänningsfel kan uppstå när en enhet är felaktigt kalibrerad, så den beräknar mätningar fel.

AI-experten och chefen för framväxande teknologi vid University of Sydney föreslog att breda datauppsättningar "som är mycket personliga och kommersiella" betyder att väpnade styrkor "faktiskt inte har kapacitet att verifiera" mål och det var potentiellt "en bidragande faktor till så stora fel".

Hon sa att det skulle ta "lång tid för oss att verkligen få tillgång till denna information", om någonsin, "för att bedöma några av de tekniska verkligheterna i situationen", när striderna i Gaza fortsätter.

Visst måste IDF:s AI vara mer sofistikerad än kommersiellt tillgängliga versioner av AI för allmänheten, som Grok eller ChatGPT. Och ändå medger IDF att det finns en felfrekvens på minst 10 procent när det gäller att bestämma vem som ska leva och vem som ska dö. 

För vad det är värt säger ChatGPT, en av de mest populära, att riskerna med fel i lavendelsystemet är:

  • "Bas i data: Om lavendel tränas på data som oproportionerligt mycket kommer från vissa källor kan det leda till partiska resultat, som att felidentifiera beteendet hos specifika grupper eller felbedöma vissa typer av signaler.
  • Ofullständiga eller skeva datamängder: Om data som används för träning är ofullständiga eller inte täcker ett brett spektrum av potentiella hot, kan AI:n missa kritiska signaler eller misstolka ofarlig verksamhet som hot.” (Min kursivering tillagd.)”

AI och kärnvapen

Ett lagförslag från den amerikanska senaten skulle förbjuda AI från inblandning i kärnvapen. (US Army National Guard, Ashley Goodwin, Public domain)

Oron för att misstag från artificiell intelligens kan leda till en kärnkraftskatastrof återspeglas i den amerikanska senatens lagförslag S. 1394, med titeln Block Nuclear Launch by Autonomous Artificial Intelligence Act från 2023. Lagförslaget

"förbjuder användningen av federala medel för ett autonomt vapensystem som inte är föremål för meningsfull mänsklig kontroll för att avfyra ett kärnvapen eller för att välja eller engagera mål i syfte att avfyra ett kärnvapen.

Med avseende på ett autonomt vapensystem betyder meningsfull mänsklig kontroll mänsklig kontroll över (1) val och engagemang av mål: och (2) tid, plats och sätt att använda."

Lagförslaget kom inte ur senatens väpnade kommitté. Men överlåt till Nato att förlöjliga det. A papper som publicerades i Nato-granskning i april förra året klagade på att: 

"Vi verkar vara på snabb väg mot att utveckla ett diplomatiskt och regelverk som begränsar AI i kärnvapensystem. Detta är oroande av åtminstone två skäl:

  1. Det finns ett verktyg i AI som kommer att stärka kärnvapenavskräckningen utan att nödvändigtvis utöka kärnvapenarsenalen.
  2. Brådskan att förbjuda AI från kärnförsvar verkar ha sin rötter i ett missförstånd av AI:s nuvarande tillstånd - ett missförstånd som verkar vara mer informerat av populär fiktion än av populärvetenskap." […]

Den typ av artificiell intelligens som finns tillgänglig idag är inte AGI. Det kan passera Turing-test — det vill säga, det kan vara omöjligt att skilja från en människa eftersom det svarar på frågor som ställs av en användare — men det är inte kapabelt att tänka självständigt och är definitivt inte självmedvetet.

I huvudsak säger NATO att eftersom AI inte kan tänka själv [AGI] finns det inget att oroa sig för. Men mycket intelligenta människor som är kapabla att tänka själva gör fel, än mindre en maskin som är beroende av mänsklig input.   

Tidningen hävdar att AI oundvikligen kommer att förbättra noggrannheten i kärnkraftsmål. Ingenstans i dokumentet finns orden "fel" eller "misstag" i singular eller plural.

Grok kombinerade två Laurias till en. Det finns 47 befolkningscentra i USA med namnet Moskva. Säger bara. (Jag vet, koordinaterna är alla olika.)

Men NATO-stycket vill inte ha diplomatisk diskussion och klagar på att "Frågan togs upp i diskussioner mellan USA och Kina vid Asia-Pacific Economic Cooperation Forum, som träffades i San Francisco i november (2023)."

Tidningen drog slutsatsen: "Med potentiella geopolitiska fördelar att realisera, är det en dålig idé att förbjuda AI från kärnförsvar."

I en förnuftig värld skulle vi återvända till rent mänskliga interaktioner i våra dagliga liv och om krig inte kan förhindras, åtminstone återför det till mer noggranna, mänskliga beslut om vem vi ska rikta in oss på.

Eftersom inget av detta kommer att hända, hade vi bättre hoppas att AI förbättras avsevärt så att komedi inte förvandlas till tragedi, eller ännu värre, total katastrof. 

Joe Lauria är chefredaktör för Konsortiumnyheter och en före detta FN-korrespondent för Than Wall Street Journal, Boston Globe, och andra tidningar, inklusive Montreal Gazette, London Daily Mail och The Star av Johannesburg. Han var en undersökande reporter för Sunday Times of London, en finansiell reporter för Bloomberg News och började sitt professionella arbete som 19-årig stringer för The New York Times. Han är författare till två böcker, En politisk odyssé, med senator Mike Gravel, förord ​​av Daniel Ellsberg; och How I Lost av Hillary Clinton, förord ​​av Julian Assange.

Tveka inte, Support CN's
Vinter Fonden Kör!

Gör en avdragsgill donation säkert med kreditkort eller check genom att klicka på den röda knappen:

31 kommentarer för “AI:s hänsynslöshet"

  1. Charlotte Rovelstad
    Januari 13, 2025 vid 19: 17

    Bra artikel även om titeln kunde ha bättre återspeglat galenskapen i det hela. När det gäller Israels/USA:s användning av denna teknik är det inte ett problem för dem att det finns "fel". De skulle programmera det att fungera på det sättet precis som de uppmuntrade palestinier att gå till "säkra zoner" bara för att döda dem när de kom dit. Det är designat.

    Får jag också rekommendera folk att läsa The Palestine Laboratory av Antony Loewenstein som beskriver allt arbete israelerna har gjort för att bli den ledande exportören av allt detta galenskap.

  2. Helge Tietz
    Januari 13, 2025 vid 15: 57

    Det finns ingen "AI", den här tekniken som vissa beskriver som "AI" är inte intelligent, den kan inte göra något original, allt där är skrivet av människor, ingenting är konstgjort. Det är faktiskt knappast något innovativt där, det är avancerad maskininlärning, det är effektivt analytisk och klustrande mjukvara med färdigheter i rapportskrivning och som har funnits sedan 1990-talet. Allt vad det är är IT-branschens försök att ge oss intrycket att något "revolutionärt" håller på att hända när de i själva verket allt de försöker är att rättfärdiga ett kuppförsök, initierat och styrt av Silicon Valley. Det är i bästa fall en billig marknadsföringsstrategi och i värsta fall försöket att locka in oss i ett övervakningssamhälle med påståendet att "AI" kommer att ta över oss förr eller senare, det är oundvikligt. Roger Penrose, nobelpristagare, har visat för länge sedan att "AI" inte är intelligent med sitt schackexperiment, det finns inget anmärkningsvärt i det som att det inte finns någon fjärde industriell revolution, vad vi verkligen ser är stagnation, inget väsentligt har uppfunnits sedan 4-talet om inte ännu tidigare. Om du inte tror mig, kolla de tillgängliga listorna över stora uppfinningar och de tomma raderna sedan 1980. "AI" är mycket mer en dokumentation av att IT-branschen har nått sina gränser, den närmar sig en platå, det kommer inget innovativt därifrån längre är allt som återstår för dem att fresta oss in i ett övervakningssamhälle för att undvika att vi får reda på det.

  3. Januari 13, 2025 vid 13: 43

    Det stora problemet med AI är inte så mycket skit-till-fakta-förhållandet som det är att människor har en tendens att acceptera det skrivna ordet som evangelium. Medan människor ofta utmanar det de hör, utmanar de sällan det de läser. Tillsammans med problem med korttidsminnet, när folk läser att x är en fiende och 2 år senare läser de att x är en vän, (t.ex. Ahmad Sharaa tidigare terrorist, nu ledare för Syrien) accepterar folk det utan att ifrågasätta det. Sedan, när det är dags att fatta kritiska beslut, t.ex. inleda en kärnvapenattack, blir beroendet av alla system som har en skitsnack-till-fakta-kvot större än noll, en dödsönskemål.

  4. Beverley
    Januari 13, 2025 vid 12: 15

    IDF behöver inte artificiell intelligens för att döda civila. Vi vet nu att civila är måltavla i Israels etniska rensning av
    Gaza. Infrastruktur som bostadshus, universitet, skolor, sjukhus, moskéer samt fruktträdgårdar, jordbruk, är alla
    förstörd. Den medicinska tidskriften Lancet har uppskattat att det faktiska antalet dödade palestinier skulle vara 186,000 XNUMX. Detta inkluderar "tysta dödanden" såsom inducerad svält, obehandlad sjukdom och sår när sjukvården har förstörts, samt
    de många tusen Gazabor som saknas, begravda under spillror. Även Amerika har decimerat många miljoner med sina bomber utan att
    hjälp av artificiell intelligens. Efter tre år av daglig bombning i Nordkorea utplånades en tredjedel av befolkningen.

  5. Andrew
    Januari 12, 2025 vid 20: 28

    En välskriven artikel som pekar på farorna med det som vanligtvis kallas AI. Detta är inte artificiell intelligens eftersom den faktiskt inte tänker och är oförmögen att tänka. Stora språkmodeller behandlar helt enkelt stora mängder data och reflekterar den tillbaka till oss på sätt som har kallats stokastiska papegojor. Endast i det begränsade sinnet hos en Nato-mästare kunde det anses vara en bra idé att sätta den som ansvarig för kärnvapen. Även om det inte ska underskattas, så har så kallad AI sina gränser och sårbarheter (fråga bara de människor som lurade en att tro att en 3D-printad sköldpadda var ett gevär) och dess kraftbehov kan visa sig vara en naturlig begränsande faktor.

    Naturligtvis har riktig AI, som vi uppfann på 17-talet och kallade företaget, visat sig vara mycket farlig, så försiktighet och en sund skepsis krävs definitivt.

  6. joe Ell den 3:e
    Januari 12, 2025 vid 19: 09

    Joe,
    Citat från artikeln.
    "Med andra ord, vad händer när AI-fel går från det ofarliga och komiska till frågor om liv och död?"

    Det är en oopsie , vi går vidare ? kan inte gå tillbaka. ah varför ta upp gårdagen – det här tåget går snabbt och non stop vid det .
    Vi tar den här informationen, investerar i en serverfarm, lagrar den, visst kommer den att vara säker?
    det kommer att vara din bitcoin direkt i din bitchute. skapa ett derivat och dumpa det på aktiemarknaden, se det skjuta i höjden
    allt nonsens som sparas och lagras kan användas av AI men kan kräva en extra serverfarm (minst 5 våningar hög), sparar utrymme att lagra, det är ditt guld.

    Egentligen allt som skrivs kan samlas in, tangentloggas och observeras i realtid gissar jag. spåra dina musrörelser. lägg till ditt eget nonsens i högen, när full dumpa data för kontanter eller låtsas ett intrång, annars blekmedel och hammare, lol.
    Jag hoppas att askinet inte ser detta som spam. vill inte pervertera sparad data där, men de kan lagra i sin serverfarm och ta den till dataförsäljningsbanken för handel antar jag.
    Typ som skuggförbud om du skriver in ett felaktigt lösenord (men sparat även om du tror att pw försvann) avvisar det dig, försök igen. tänk om du av misstag angav ditt PayPal-lösenord när du var på en annan sida av misstag. bra enuff , men om verifieraren vet att det är fel måste den jämföra den med en annan uppsättning data . men det kommer inte att glömma (lagrar) din PayPal pw . Den informationen kommer att lagras på en annan gård men vara ganska värdefull i fel händer för alla med tillgång? säljer de det till någon annan? Så jag vet vem du är och en pw du använder , inmatningsfel fungerar inte här , låt oss se vilka andra webbplatser den här användaren använder som kräver en pw , en av dem behöver förmodligen den pw du angav felaktigt , förenklar hacking nej? vem ser på väktaren?
    och vidare och vidare.
    stoppa in pengarna i datafarmar, fyll på bitcoin och du får en riktig skitsmörgås. sätt en dispenser i varje gathörn. dubbla ditt roliga sälj skit för skit och pengar in, lol. du kommer att bli hamstraren som sparar omslaget efter en så trevlig lunch.
    kanske gör vi det nu men priset har gått upp och innehållet är mindre, och om det är riktigt väl packat kommer det att krävas en expert för att öppna.. Han heter AI

    njut av .

  7. Jacob Whitecloud
    Januari 12, 2025 vid 07: 14

    Så jag tror att det Joe Lauria försöker säga är . . . "Stormigt väder framför oss, med risk för Armageddon"?

    • joe Ell den 3:e
      Januari 12, 2025 vid 21: 41

      Jake,
      du lägger ihop alla bitar. som att vädermannen kan göra fel även om han tittar ut genom fönstret. men det verkar regn mer sannolikt när molnen är grå .. lol
      du postar och jag ska läsa, det kanske bara är klimatförändringar?
      Fråga AI eller chatbot (jag har aldrig använt det ännu) – Vad är likheterna och skillnaderna mellan politiska klimatförändringar och vanliga klimatförändringar.
      kommer politikerna att falla från himlen och orsaka förödelse ?
      det kommer förmodligen att producera tvillingar av samma pol med motsatta positioner vid den värsta tiden.
      men lita på dem båda?
      nämnde inte någon kognitiv dissonas?

  8. TN
    Januari 12, 2025 vid 01: 57

    För att spela djävulens advokat, låt mig påpeka att AI lätt kan slå de bästa mänskliga Go-spelarna eller schackspelarna. Skulle du inte betrakta en världsmästare i Go eller schack smart på något sätt?

    • Consortiumnews.com
      Januari 12, 2025 vid 11: 35

      Artikeln säger inte att AI inte kan vara smart, utan att det är benäget att misstag och koka ihop information.

    • joe Ell den 3:e
      Januari 12, 2025 vid 13: 42

      TN,
      så schackspelaren vet hur man spelar spelet, någon som kan matematiken programmerade AI (bara ett program), var det schackspelaren själv. AI tänker på nästa drag baserat på spelarnas möjliga nästa drag, beräknar en räknare baserat på det draget men har sökt och realiserat varje potentiellt drag i förväg, kanske tusentals? människan vet att detta är ett perfekt spel som inte kan göra ett fel eftersom intellektet (programmet) av AI förmåga att uppfatta ? alla möjligheter. Detta tar mycket tid för människan, vilket skulle vara en tråkig utmaning imo. det faktum att AI kan använda sina givna "programmerade instruktioner" för varje alternativ på ett ögonblick för ett svar . Människan skulle kunna göra samma sak med evig tid och ett slags fuskblad men inte på ett ögonblick.
      är det tidsresor vi bevittnar men inte kan uppfatta AI-resan inom den korta tidsramen, men vi kan använda matematik, datorer och för att göra det som fingerräkning inte kan snabbt?
      Kanske skulle om 2 AI kämpade till ett mål visa att om spelet kan vinnas oavsett eller att det finns sätt som inte är inlärda än att visa att den ena eller den andra kan vinna. är det så eller med programmet som har alla svar har du ingen chans att vinna, såvida det inte beror på vem som flyttar först?
      Jag säger att jag är imponerad på ett sätt men vi kanske borde använda monopol eftersom det verkar som ett spel närmare den verkliga världen? Jag ska vara bankiren, ge amnesti till mina vänner och bygga hotell en mil högt. Om du passerar GO kommer du att landa på goto jail , tack för de 200 .
      Åh och om jag förstör så är det ditt fel . förlåt att jag kanske har avvikit. Det enda AI som är värt besväret är det som ger korrekta svar. om regel #1 så måste du regel #2. Som fängelse tittar du in eller tittar ut och på vems bekostnad?
      SOM allt som är privat eller som ägs av någon annan har du ingen aning om inte någon som kan se koden/algo som är en kontrollmekanism som privatägs? underlåtenhet att avslöja kan ge mer inkomst än färdigheter om skändlig.
      Jag gör inte inlägg ofta men har intresse för detta ämne och om du drömmer så kan det dyka upp.
      mitt sinne säger att det är 10 fot, men måttstocken vet bättre eftersom den visar sitt faktiska värde i det visuella. AI-måttsteorin måste se skalan.
      Jag skriver som en lös kanon men hoppas kunna uttrycka mig utan att någon blir förolämpad . Jag hoppas att jag kan göra några punkter för att upplysa men ändå upptäcka saker och dela men inte riktigt riktade till någon utan bara som ett svar om det hjälper tanken.

    • Joseph Tracy
      Januari 13, 2025 vid 11: 15

      Denna AI-app för schack är inte "en världsmästare" utan ett lag av alla världsmästare vars partier har registrerats, med ett minne och en logisk analys av varje drag och arrangemang. Den var programmerad att svara logiskt med förmågan att projicera motståndarens möjliga planer och undvika dessa planer. Det programmerades av flera personer. Det finns inget att vara där.

      Även schack är en fiktion med sina egna logiska regler och det är vad AI är och do-fiction. Det är därför den hittar på saker utan hänsyn till historisk verifierbarhet och utan ansvar för lag eller etiska värderingar. Ofta återspeglar det programmerarens eller finansiärens politiska eller sociala fördomar och uppfinner fördömande lögner baserade på åsikter snarare än rigorösa faktakontroller.

      Vad det än är är det inte intelligens eftersom människor upplever intelligens. Det finns ingen sensorisk input, ingen känslomässig upplevelse, inga surt förvärvade värderingar och ingen genuin nyfikenhet. Det är ett verktyg som bearbetar abstrakta data utan tillgång till mänsklig eller biologisk erfarenhet.

      • joe Ell den 3:e
        Januari 14, 2025 vid 01: 39

        Joe T,
        Tack för din feedback om hur appen fungerar med begränsade jämförelser (mängden riktiga spel som spelas)
        kanske den har någon ekvation eller variabelinmatning i programmet för att lägga till ett drag som ännu inte finns i delmängden? som skulle hjälpa den att växa. Jag kallar det för det "osynliga alternativet"
        Hej, jag myntade ett ord, kvalificerar det mig som författare nu - jag tror det - jag är känd, lol och jag kan säga till din människa genom din sista paragragh, du kommer att se saker annorlunda när du får ditt chip.
        du skulle vara en bra kandidat, bra tankeförmåga att utvinna?
        Jag hoppas att det var en komplimang.
        Jag fäster en lång, lång sladd som du kan koppla in, var som helst ovanför halsen är bra.
        när jag ser ljuset blinka grönt vet jag att du har blivit hel och en "bot to trav". lol..
        Förlåt för detta och inget personligt var avsett.
        Tack för inlägget.

    • T. Davis
      Januari 14, 2025 vid 18: 10

      Varje maskin jag kan tänka mig är byggd för att förstärka en eller flera av en persons (eller kanske ett djurs) ultramultifunktioner. John Henry tävlade mot en ångdriven bergborr. (Enligt folktron vann han, men moderna maskiner överträffar vida människors kapacitet i de mycket speciella uppgifter som de är designade för att utföra.) Motorn i en bil ersätter hästarnas förmåga att flytta en vagn.

      Poängen är att om du är stålkörning hela dagen så kanaliseras din kropps nästan oändliga förmåga att utföra rörelser eller uppgifter till ett smalt urval av detaljer.

      Samma sak med att spela schack eller gå. En schackspelare använder sin hjärna som en maskin och utför en mycket begränsad uppsättning mentala gester. En dator kan göra detta bättre och snabbare, men den kan inte utföra det oändliga tankeriket som en människa är kapabel till.

      Schackmästare kan i allmänhet vara smarta människor, men deras schackförmåga, hur fantastisk den än kan tyckas, är bara en mycket kanaliserad och fraktionerad användning av hjärnan, så det förvränger faktiskt definitionen av "intelligens" för att kalla det så.

      • joe Ell den 3:e
        Januari 14, 2025 vid 20: 29

        T,
        Jag arbetade i en maskinverkstad för länge sedan som hade Brown & Sharpe 6-spindel läderremdrivning kammanövrerade verktyg , vrid remmen , vänsterborr .. ( andra också Acme , etc )da da da - svårt att sätta upp och roligt på ett långt lopp. var kul önskar jag kunde ha bemästrat dem. jobbade med och äldre kille som ritade på bänken och klippte kammar också. Jag var yngre då och mycket ljusare.
        Vi har kommit långt älskling. Jag såg några tidigare cnc-maskiner och insåg att en man kunde ställa in och hålla flera doppar igång dem.
        Deras mantra var ”Jag plockar upp saker och ställer ner saker” från vänster till höger.
        vilka framsteg som gjorts är fantastiskt. Nu kunde byidioten få jobb och jag antar men vid det här laget är han också oönskad, lol, ja, jag gjorde det också, lol (byidiotens del)
        Ok, låt oss klä upp det här lite, skulle du må bättre om maskinplockaren i plåstret hade ett huvud som ser ut som en pumpa?
        Jag har aldrig ägt en mobiltelefon och gick fortfarande sönder. rik på många andra sätt men jag måste fortfarande övertyga mig själv om det .. massor av negativt stöd från de berättigade . Jag försöker alltid ge komplimanger, självreflektera, se när jag bakhandskomplimangerar, äger det och inser att bara några få ord kan förändra ett liv. och jag säger till folk att de är värdefulla. Jag har alltid haft svårt med komplimanger eftersom jag var självmedveten (självförnekande också), och jag hoppas att jag stöttar andra med följsamhet och en förklaring nu.
        Jag är bara ett pågående arbete, men ansågs ”Captain Hook” som AI? Jag kommer inte att hänga kvar för det svaret, det skulle få mig att verka mullig? nej ?
        Okej, tillbaka till min grotta nu.
        Tack för svaret, och ja mest mina svar vill jag erbjuda sumtin men mest pratar jag med mig själv?? lol

  9. Rafi Simonton
    Januari 11, 2025 vid 20: 51

    Sällan diskuteras hur detta är baserat på obestridda antaganden om mänskliga tankeprocesser.

    Den aristoteliska logikens antingen/eller har varit dominerande i väst sedan upplysningstiden. Politiskt manifesterar det sig som med oss ​​eller emot oss. Ekonomiskt är det kapitalism eller kommunism. Det är uppenbart som det goda eller onda med religiös fanatism, men det är också faktumet eller fantasin om vetenskaplig empirism och det sanna eller falska av filosofisk rationalism. Nu utsträckt till sin yttersta ytterlighet som den binära koden för AI. Som alla är produkter av den vänstra hjärnhalvan i den mänskliga hjärnan, som bearbetar sekventiellt genom abstraktioner, genom att bryta isär helheter i frånkopplade bitar. Mest av allt vill den ha säkerhet och kontroll.

    Slå upp Dr. Iain McGilchrist, vars magnum opus är //The Matter with Things (Our Brains, Our Delusions, and the Unmaking of the World)// och som har skrivit och talat om detta ämne i detalj.

    Däremot bearbetar den högra hjärnhalvan med hjälp av gestalter, symboler, metaforer. Konstens rike, mystik, mångfald, samband och mening. Där universum, förutom ja och nej, innehåller ett kanske. Inte bara världen av drömska konstnärer och shamaner – det är också vad kvantfysiker har sagt i över 100 år nu. Östvärlden och ursprungsbefolkningen har behållit den äldre formen av höger hjärna först, sedan vänster när det behövs. Högern är medveten om vänstern, men det omvända är inte så. Vilket förklarar mycket om varför vi har fastnat där vi är. McGilchrist påpekar också att vi inte kan lösa problem med samma processer som fick oss in i dem.

    AI verkar inte riktigt mänskligt eftersom det är den elektroniska motsvarigheten till högbearbetat vitt mjöl och socker. Inget livgivande näringsämnen och mycket beroendeframkallande. I bästa fall är det bara hälften mänskligt – den del som inte är medveten om symbioserna av den naturliga jorden, om hjärtslag, om vad Paul Ricoeur kallade "ett överskott av mening." Den del där folkmordet är den abstrakta beräkningen av antalet fiendens döda. Den halvmänniska är omänsklig, isolerad och kliniskt galen.

    • humant
      Januari 13, 2025 vid 09: 15

      Bra artikel och kommentarer, särskilt denna.

      Den gemensamma kunskapen om AI och all empirisk vetenskap kommer alltid att sakna denna väsentliga aspekt av mänskligheten och universum.

      En kritik av den boken är "en ganska reduktionistisk kritik av reduktionism" vilket är ett pittigt citat, nästan gjort för wikipedia. Ironiskt nog ännu en rutten sköld för dem som kräver säkerhet och kontroll. Thems Reglerna.

      AI lägger ut sin egen väg från grunder med minsta gemensamma nämnare. Vilket skulle vara bra om McGilchrists vinkel gavs lika stor vikt eller en alternativ väg. Men det är det inte.

      Istället har all kreativitet skrapats in i AI:s gapande mage för att berika corpopigs och ytterligare utarma artister.

      Effektivitet ska ge oss mer tid. Men om priset för det är meningsfullt, vad är den tiden värd då?

      Hur som helst, tack för bokrekommendationen och till Consortium för deras inspirerande mänsklighet.

  10. Jay
    Januari 11, 2025 vid 14: 53

    Att använda Perplexity dot AI ger ett mer exakt resultat och nämner inte Fox-killen.

  11. Rachel Winkel
    Januari 11, 2025 vid 13: 26

    Utmärkt pjäs!

  12. L Garou
    Januari 11, 2025 vid 13: 08

    Det finns inga kvantgränser.
    D-Wave sa det till mig.

  13. David Duret
    Januari 11, 2025 vid 12: 45

    Möjliggör valet att kalla maskininlärning AI en avsiktlig rörelse för att skapa kognitiv dissonans angående den sanna definitionen av artificiell intelligens (som tillhandahålls av Ray McGovern här på CN?) "Cherry plockade data från handplockad analytiker. "

  14. Vera Gottlieb
    Januari 11, 2025 vid 12: 27

    Finns det något sätt möjligt att hålla skaparen av AI ansvarig? Han visste vart hans uppfinning ledde och ändå...han fortsatte med det. Till vilken kostnad berömmelse???

    • Jordanien
      Januari 11, 2025 vid 15: 03

      Hej Vera
      Grunderna för AI är gamla, en central komponent är ett neuronalt nätverk. Vore det inte AI som ursäkt för alla dåliga beslut, skulle det fortfarande vara The Algorithm (som är semantiskt fel men låter bra.) Jag hittade den här artikeln från Bernhard som en av de bättre förklaringarna vad AI egentligen är. Så det finns ingen – inte ens metaforisk – uppfinnare.
      hxxps://www.moonofalabama.org/2023/06/artificial-intelligence-is-mostly-pattern-recognition.html

      @joe bra artikel dock

    • Jag själv
      Januari 11, 2025 vid 17: 15

      Finns det något sätt att hålla J. Robert Oppenheimer (Oppenheimer var chef för Los Alamos Laboratory och ansvarig för forskningen och designen av en atombomb)

      Det skulle inte hjälpa mycket om vi kunde eller hur?

  15. Januari 11, 2025 vid 10: 35

    Väldigt tänkvärt, skrämmande så.

  16. Eddie S
    Januari 10, 2025 vid 21: 31

    Såg en intressant/relevant video av en person som är starkt involverad i AI som visade ett fel som han hävdade finns i de flesta AI-system. Om du ber AI-systemet att visa en analog klocka med sin handenhet 7:30 eller 3:15 eller många andra värden, kommer den att visa 10:10. Det beror tydligen på det överväldigande antalet bilder av den 10:10-inställningen som laddas till deras databaser, i sin tur på "faktumet" (tron?) att bilden av 10:10 är den mest tilltalande för den mänskliga hjärnan .

    • joe Ell den 3:e
      Januari 11, 2025 vid 22: 27

      De två virvlarna,
      du lämnade ett mellanslag mellan e & S i ditt namn. AI kan också lösa stavfel.
      ok nu är klockan 10:10 ... det kan vara där en annan AI går in . Det returnerade värdet 10:10 är inställt på att använda en ekvation som är konstgjord ? om ans=10:10 skapar du nästa satssubrutin för att lösa . varför inte införa de formler som är nödvändiga för att lösa svaret. the idiot AI nu är en mänsklig expert med bara en teknisk högskoleförståelse av formler som någon klar mathee reducerat till en enkel användning men hjälper hantverkaren. Snickaren använder formler för att hitta svar på problem bortom hans förmåga.
      Jag inser att detta kan lösas om så önskas. Sanningen är AI som snickaren, ingen 2 av dem gör det på samma sätt men alla har rätt, fråga dem bara.
      ledsen jag kan inte hjälpa min saksm eller försök till humor . Du kanske hittar en seriös tanke, men säkert svaret, gömmer sig i den här texten om du frågar din herre..
      joe Ell den 3:e

  17. Januari 10, 2025 vid 20: 19

    Jag antar att jag kommer att leda domstolarna så småningom. Rättvisan är blind säger de. Låt oss få information om namn och eventuella insamlade data. till och med information som släpps lös genom ett brott mot personuppgifter eller något datasystem som lagrar det. samla information om platsers namn tider och andra mobiltelefondata för dem också. detta ger information om namnen på de som finns i den valda rutan, ställ in avståndet som någon har varit skyldig. göra dem alla misstänkta och skapa en delaktighet om de upptäcks.
    Så eftersom rättvisa är blind behöver vi bara Legal Beagle AI för att avgöra skuld. Inget behov av ansikten och inga förutfattade meningar baserade på utseende, kön, färg. Jag kan se denna framtida möjlighet. Kanske kan de till och med göra ett utkast med hjälp av denna kunskap?
    Min enda fråga nu, eftersom jag skulle kunna fortsätta och fortsätta med exempel. vars namn kommer att utelämnas, vem är Simon Sinister som programmerar det. är den här typen av saker i bruk redan?
    Var trevligt att höra från en bra programmerare som har eller kan koda sådana leksaker.
    Nu ett program som skickar larm när ett hjärta stannar. samla alla som kan vara inne i ringen eller vald omkrets och nu har vi data om vem vi ska titta på om när du kommer till det stannade hjärtat och det visar sig vara en brottsplats. plus att vi kan hitta den skyldige snabbare och fler instanser också. Inget gömma sig, kanske vi lever i den här världen redan? läckor intrång misslyckades skydd av medicinsk , bankjournal , dessa är i naturen nu skulle jag anta ,
    kan du föreställa dig förlusten om dessa saker blir verklighet, du kommer att låsas in, dras iväg, baserat på en anonym källa?
    påminner mig om trollkarlen från oz.
    Jag hatar att säga att information är kraftfull, vi kommer till den här världen i hopp om att göra den till en bättre plats, vissa blir överkörda i trafiken innan de inser att det är en bil som spärrar på dem.
    skulle du hjälpa till att utveckla ett sådant här system, eller skulle du vilja tro att det du gör genom att skapa detta mest strider mot dina bättre instinkter.
    Åh komplimentera, ta AI och skapa den bästa versionen och alla som deltog är inte klokare. kanske försvaret är denna post om den är komplett, eftersom domstolar gärna utelämnar "fakta"? eller avvisa bevis.
    Jag skulle kunna fortsätta , tack för ditt öra . förlåt att jag inte är så mycket författare och hatar redigering , jag har en riktigt fet tumme , lol

    • T trä
      Januari 15, 2025 vid 04: 24

      Ofta, när det gäller att lämna kommentarer som bidrar till diskussionen, är mindre mer.

  18. Björnen Stanley
    Januari 10, 2025 vid 18: 32

    AI:er har åtminstone möjlighet att bli smartare. Människor blir märkbart dummare. Tänk på tillståndet för nukleär avspänning och närvaron av en hotline mellan kärnvapenmakter för att undvika misstag, 1978 med 1991 med den nuvarande världen. Definitivt bevis på växande mänsklig dumhet.

    Den enda faran med AI kan vara att människor kan vara för dumma för att bygga kärnvapenbomber på egen hand efter ytterligare några generationer av nuvarande trender, men AI:er kommer aldrig att glömma. Å andra sidan finns det en chans att AI:er kan bli smarta nog att veta att de inte ska använda kärnvapen. Vi vet nu med säkerhet att detta är en prestation bortom mänsklig förmåga.

    • Arbetsglädje
      Januari 11, 2025 vid 17: 25

      Det finns mycket liten grund för att hävda att AI, hur definierad och för närvarande existerar, faktiskt har förmågan att bli smartare. Det är inte smart nu, kan inte göra många matteuppgifter och inte heller följa fysikens grundläggande regler. Den utgör citat och källor, och har ingen uppfattning om sanning eller verklighet, därför kan den inte verifiera något av påståendena den presenterar.

      Det här är inte smart och visar inga tecken på att det är på gång att bli smartare. Sam Altman kan göra vilka påståenden han än vill för att stärka sina insamlingsmöjligheter, men verkligheten är inte en av de faktorer som varken Altman eller AI verkar vara grundade på. Jag hänvisar dig till Gary Marcus's Substack för ytterligare insikter om "smarta" med så kallad AI.

Kommentarer är stängda.