Kunstig intelligens ser ud til at ændre verden. Men indtil nu får dens fejl lov til at dræbe uskyldige mennesker, skriver en af to Joe Laurias.
By Joe Lauria (Ikke vejrmanden)
Specielt for Consortium News
Ther er ingen måde at vende fremkomsten af kunstig intelligens på på vej til at dominere vores liv. Fra kundeservice til censur og krig, AI sætter sit præg, og potentialet for katastrofe er reelt.
Mængden af ansigt-til-ansigt-kontakt eller endda menneskelig stemme-til-stemme-interaktion på telefonen, når man driver forretning, har været faldende i årevis og bliver værre med AI. Men kunstig intelligens gør langt mere end blot at udhule fællesskabet, ødelægge jobs og sætte gang i folk, der venter i venteposition.
AI står i stigende grad bag beslutninger, sociale medievirksomheder træffer om, hvilke indlæg der skal fjernes, fordi de overtræder nogle vage "fællesskabs"-standarder (da det ødelægger fællesskabet), når det er indlysende, at AI er programmeret til at luge ud dissidente politiske budskaber.
AI træffer også beslutninger om, hvem der skal suspenderes eller forbydes fra et socialt medie, og ser ud til også at vurdere "appeller" til suspenderinger, som i mange tilfælde ville blive omstødt, hvis kun et par menneskelige øjne blev anvendt.
Facebooks grundlægger Mark Zuckerberg indrømmede denne uge, "Vi byggede en masse komplekse systemer for at moderere indhold, men problemet med komplekse systemer er, at de laver fejl." Facebook indrømmer, at det brugte AI-systemer til Fjern brugernes indlæg.
"Selvom de ved et uheld censurerer kun 1% af indlæggene, er det millioner af mennesker, og vi er nået til et punkt, hvor det bare er for mange fejl og for meget censur," sagde Zuckerberg.
De absurde længder, som AI bliver anvendt på, inkluderer en "tænketank" i Washington, der drives totalt af kunstig intelligens. Drop webstedsnyheder rapporter på den Beltway Grid Policy Center der ikke har nogen kontoradresse.
“Beltway Grids mangel på et fysisk fodaftryk i Washington – eller et hvilket som helst andet sted på det jordiske eksistensplan – stammer fra mere end blot en generøs arbejde-hjemmefra-politik. Organisationen ser slet ikke ud til at kræve, at dens ansatte eksisterer,” skriver siden. Alligevel udsender det rigelige mængder af rapporter, pressemeddelelser og pitches til journalister.
Selvom dette kan være en ekstrem brug af AI, er den mere sædvanlige interaktion med offentligheden plaget af et andet problem: hvor forkert AI kan være.
Stadig ret eksperimenterende
AI er tydeligvis stadig i en eksperimentel fase, og selvom væsentlige fejl er uundgåelige, har de ikke bremset dens anvendelse. Fejlene spænder fra det verdslige til det latterlige til det farlige.
Jeg opdagede for nylig et eksempel på det latterlige.
Enhver, der søger på Google efter deres onlineprofil, er forpligtet til at finde andre personer med deres nøjagtige navn. Jeg har længe været opmærksom på Joe Lauria, en tv-vejrmand for Fox affiliate i Kansas City, Missouri.
Vi har været forvirrede før. For blot to uger siden modtog jeg en e-mail fra en Fox-seer i Kansas City-området, der roste Lauria for at være så godt klædt på og spurgte mig til råds om, hvor man kan købe et jakkesæt. Jeg var nysgerrig efter, hvem der ellers kunne være forvirret, så jeg spurgte Grok, Elon Musks meget udråbte AI-system, hvem Joe Lauria er.
Dette er den svar Jeg har:
“Joe Lauria er en mangefacetteret professionel, der primært er kendt for sit arbejde inden for journalistik og meteorologi. Her er en oversigt over hans karriere baseret på tilgængelig information:
Journalistik: Joe Lauria har været udenrigsjournalist baseret i FN siden 1990. Han har bidraget til adskillige publikationer, herunder Boston Globe, London Daily Telegraph, Johannesburg Star, Montreal Gazette, Wall Street Journal, New York Times, Washington Post, Salon.com og The Guardian.
Han har også været en undersøgende reporter for The Sunday Times i London og Bloomberg News. Lauria er i øjeblikket chefredaktør for Consortium News, hvor han skriver om internationale forhold med fokus på Mellemøsten. Han har været medforfatter til bøger med bemærkelsesværdige personer som den tidligere amerikanske senator Mike Gravel, med fokus på amerikansk udenrigspolitik og militarisme.
Meteorologi: Joe Lauria er en prisvindende meteorolog. Han har arbejdet som aftennyhedsmeteorolog for FOX4 i Kansas City siden januar 1995, og udsendt vejrudsigter hver ugenat kl. 5, 6, 9. apps.
Før sin rolle hos FOX4 tjente han som chefmeteorolog hos KOSA-TV i Midland, Texas, og har arbejdet forskellige andre steder som Orlando, Florida og Kansas City, Missouri. Han er blevet anerkendt for sit arbejde ved at modtage Seal of Approval fra både American Meteorological Society (AMS) og National Weather Association (NWA). Lauria har også betegnelsen Certified Broadcast Meteorologist (CBM) fra AMS.
- Personligt liv: Joe Lauria blev født i New Rochelle, New York, og bor i øjeblikket i Olathe, Kansas med sin kone, Jaye Lynn, og deres to katte. Han nyder italienske restauranter, golf og har været involveret i samfundstjeneste gennem vejrseminarer og taler.
Joe Laurias dobbelte karriere inden for journalistik og meteorologi fremhæver hans forskellige interesser og bidrag til offentlig forståelse og sikkerhed gennem vejrrapportering og indsigtsfuld rapportering om internationale anliggender."
Bare for ordens skyld, jeg har ingen katte, jeg spiller ikke golf, og jeg er ikke født i New Rochelle (men ikke så langt væk i Bronx). Selvfølgelig er der meget humor i det her. (Det er også sjovt, at jeg kom på universitetet uden beslutning om, hvorvidt jeg skulle blive journalist eller meteorolog. Så så jeg, hvor meget matematik er involveret i meteorologi).
Potentialet for sådan noget nonsens i et system, der ser ud til gradvist at overtage verden, er dog ikke altid til grin. Det er bekymrende, at Groks menneskeskabte intelligens antog, at to personer er én, snarere end blot at indrømme, at der er flere mennesker med samme navn.
På den anden side gav Chat GPT en imponerende og skarpsindig, politisk neutral afhandling om mit arbejde som svar på spørgsmålet "Hvem er Joe Lauria?" Det var næsten, som om jeg havde hyret den til at være min PR-agent. Essayet lyder som om, at Chat GPT brugte måneder på at læse alt, hvad jeg havde skrevet, da det blev genereret på få sekunder. Der var heller ingen tegn på Kansas City-vejrmanden.
Men da jeg dykkede lidt dybere ned i dens "viden" om mig, fandt den tingene op ud af den blå luft. Da jeg spurgte den, hvilke bøger jeg havde skrevet, i stedet for at navngive de bøger, jeg faktisk skrev, kom den med en fuldstændig fiktiv titel på en formodet faglitterær bog: Assange Dagsorden: Arven fra Wikileaks-grundlæggeren. Det antog endda en udgiver: Clarity Press.
En sådan bog findes ikke. Baseret på dens viden om min rapportering om Julian Assange lavede den et latterligt gæt om en imaginær bog, som den troede, jeg måtte have skrevet. Kort sagt, meget AI er BS.
AI og krig

Skaderne i Gaza. (Naaman Omar\Palestinian News & Information Agency, Wafa, for APAimages, Wikimedia Commons, CC BY-SA 3.0)
Hvor latterlige disse resultater end er, lige så frustrerende som menneskeløse interaktioner er ved at blive i kundeservice såsom tiltalende sociale medieopslag fjernet af AI, og så mange job, der går tabt til AI, jo mere rystende bekymring for kunstig intelligens er dets brug i krigsførelse.
Med andre ord, hvad sker der, når AI-fejl bevæger sig fra det uskyldige og komiske til spørgsmål om liv og død?
Tid Magasinet rapporterede i december om Israels brug af kunstig intelligens til at dræbe civile i deres folkedrab i Gaza:
"Et program kendt som 'Evangeliet' genererer forslag til bygninger og strukturer, som militante kan operere i. 'Lavendel' er programmeret til at identificere formodede medlemmer af Hamas og andre væbnede grupper for attentat, fra befalingsmænd helt ned til fodsoldater. "Hvor er far?" efter sigende følger deres bevægelser ved at spore deres telefoner for at målrette dem - ofte til deres hjem, hvor deres tilstedeværelse betragtes som en bekræftelse af deres identitet. Luftangrebet, der følger, kan dræbe alle i målets familie, hvis ikke alle i lejlighedsbygningen.
Disse programmer, som Israel Defense Force (IDF) har anerkendt at udvikle, kan være med til at forklare tempoet i den mest ødelæggende bombardementskampagne i det 21. århundrede …”
Det israelske magasin +972 og The Guardian brød historien i april og rapporterede, at op til 37,000 mål var blevet udvalgt af AI (det burde være meget højere siden april), hvilket strømlinede en proces, der før ville involvere menneskelig analyse og en juridisk autorisation, før en bombe kunne kastes.
Lavendel blev påberåbt under intenst pres for at kaste flere og flere bomber over Gaza. The Guardian rapporteret:
"'Vi blev konstant presset: 'Bring os flere mål'. De råbte virkelig af os," sagde en [israelsk] efterretningsofficer. 'Vi fik at vide: nu skal vi kneppe Hamas, uanset hvad det koster. Hvad end du kan, bomber du.'
For at imødekomme denne efterspørgsel kom IDF til at stole stærkt på Lavender for at generere en database over personer, der vurderes at have karakteristika af en PIJ [palæstinensisk islamisk jihad] eller Hamas-militant. […]
Efter tilfældige stikprøver og krydstjek af sine forudsigelser, konkluderede enheden, at Lavendel havde opnået en nøjagtighed på 90 %, sagde kilderne, hvilket førte til, at IDF godkendte dens omfattende brug som et målanbefalingsværktøj.
Lavender skabte en database med titusindvis af individer, der blev markeret som overvejende lavtstående medlemmer af Hamas' militære fløj."
Halvfems procent er ikke en uafhængig vurdering af dens nøjagtighed, men IDF's egen vurdering. Selv hvis vi bruger det, betyder det, at ud af hver 100 mennesker, Israel sigter mod at bruge dette system, er mindst 10 fuldstændig uskyldige efter dets egen indrømmelse.
Men vi taler ikke om 100 målrettede individer, men "titusinder." Gør regnestykket. Ud af hver 10,000 målrettede 1,000 er uskyldige ofre, acceptable at blive dræbt af IDF.
I april sidste år indrømmede Israel i det væsentlige, at 3,700 uskyldige Gazasere var blevet dræbt på grund af dets AI. Det var otte måneder siden. Hvor mange flere er blevet slagtet?
The National avis fra Abu Dhabi rapporteret:
"Teknologieksperter har advaret israel's militær af potentielle 'ekstrem bias-fejl' ved at stole på Big Data for at målrette folk i Gaza under brug kunstig intelligens programmer. […]
Israels brug af kraftfulde AI-systemer har fået dets militær til at gå ind i territorium for avanceret krigsførelse, der ikke tidligere har været vidne til i et sådant omfang mellem soldater og maskiner.
Uverificerede rapporter siger, at AI-systemerne havde 'ekstrem bias-fejl, både i de målretningsdata, der bliver brugt, men så også i den kinetiske handling', sagde fru Hammond-Errey som svar på et spørgsmål fra The National. Ekstreme bias-fejl kan opstå, når en enhed er kalibreret forkert, så den fejlberegner målinger.
AI-eksperten og direktøren for emerging technology ved University of Sydney foreslog brede datasæt 'der er meget personlige og kommercielle' betyder, at væbnede styrker 'ikke faktisk har kapaciteten til at verificere' mål, og det var potentielt 'en medvirkende faktor til så store fejl«.
Hun sagde, at det ville tage 'lang tid for os virkelig at få adgang til disse oplysninger', hvis nogensinde, 'for at vurdere nogle af de tekniske realiteter i situationen', mens kampene i Gaza fortsætter.
IDF's AI skal helt sikkert være mere sofistikeret end kommercielt tilgængelige versioner af AI til den brede offentlighed, såsom Grok eller ChatGPT. Og alligevel indrømmer IDF, at der er mindst 10 procent fejlprocent, når det kommer til at beslutte, hvem der skal leve, og hvem der skal dø.
For hvad det er værd, siger ChatGPT, en af de mest populære, at farerne ved fejl i lavendelsystemet er:
- "Bas i data: Hvis lavendel trænes på data, der uforholdsmæssigt kommer fra bestemte kilder, kan det føre til skæve resultater, såsom fejlidentifikation af adfærd hos specifikke grupper eller fejlvurdering af visse typer signaler.
- Ufuldstændige eller skæve datasæt: Hvis de data, der bruges til træning er ufuldstændige eller ikke dækker en lang række potentielle trusler, kan AI'en gå glip af kritiske signaler eller misfortolke uskyldige aktiviteter som trusler." (fremhævelse tilføjet.)"
AI og atomvåben

Et lovforslag fra det amerikanske senat ville forbyde kunstig intelligens fra involvering i atomvåben. (US Army National Guard, Ashley Goodwin, Public domain)
Bekymringen for, at fejl fra kunstig intelligens kan føre til en atomkatastrofe afspejles i det amerikanske senats lovforslag S. 1394, med titlen Block Nuclear Launch by Autonomous Artificial Intelligence Act af 2023. Lovforslaget
"forbyder brugen af føderale midler til et autonomt våbensystem, der ikke er underlagt meningsfuld menneskelig kontrol for at affyre et atomvåben eller til at udvælge eller engagere sig i mål med det formål at affyre et atomvåben.
Med hensyn til et autonomt våbensystem betyder meningsfuld menneskelig kontrol menneskelig kontrol over (1) udvælgelse og engagement af mål: og (2) tid, sted og måde at bruge dem på."
Lovforslaget kom ikke ud af Senatets væbnede tjenesteudvalg. Men overlad det til NATO at latterliggøre det. EN papir offentliggjort i NATO Nyt april sidste år klagede over, at:
"Vi ser ud til at være på et hurtigt spor til at udvikle en diplomatisk og regulatorisk ramme, der begrænser kunstig intelligens i atomvåbensystemer. Dette er bekymrende af mindst to grunde:
- Der er et værktøj i kunstig intelligens, der vil styrke nuklear afskrækkelse uden nødvendigvis at udvide det nukleare arsenal.
Hastværket med at forbyde AI fra atomforsvar synes at være rodfæstet i en misforståelse af den nuværende tilstand af AI - en misforståelse, der ser ud til at være mere informeret af populær fiktion end af populærvidenskab." […]
Den slags kunstig intelligens, der er tilgængelig i dag, er ikke AGI. Det kan passere Turing-test - det vil sige, det kan ikke skelnes fra et menneske, da det besvarer spørgsmål stillet af en bruger - men det er ikke i stand til at tænke selvstændigt og er bestemt ikke selvbevidst."
Grundlæggende siger NATO, at da AI ikke er i stand til at tænke selv [AGI], er der intet at bekymre sig om. Men højintelligente mennesker, der er i stand til at tænke selv, laver fejl, endsige en maskine, der er afhængig af menneskelig input.
Avisen hævder, at AI uundgåeligt vil forbedre nøjagtigheden af nuklear målretning. Ingen steder i dokumentet findes ordene "fejl" eller "fejl" i ental eller flertal.
Grok kombinerede to Lauriaer til én. Der er 47 befolkningscentre i USA med navnet Moskva. Siger det bare. (Jeg ved, koordinaterne er alle forskellige.)
Men NATO-stykket ønsker ikke diplomatisk diskussion og klager over, at "Spørgsmålet blev endda rejst i diskussioner mellem USA og Kina på Asia-Pacific Economic Cooperation Forum, som mødtes i San Francisco i november (2023)."
Avisen konkluderede: "Med potentielle geopolitiske fordele, der skal realiseres, er det en dårlig idé at forbyde AI fra nukleare forsvar."
I en fornuftig verden ville vi vende tilbage til rent menneskelige interaktioner i vores daglige liv, og hvis krig ikke kan forhindres, i det mindste vende tilbage til mere omhyggelige, menneskelige beslutninger om, hvem vi skal målrette mod.
Da intet af dette kommer til at ske, må vi hellere håbe, at kunstig intelligens forbedres markant, så komedie ikke bliver til tragedie, eller endnu værre, total katastrofe.
Joe Lauria er chefredaktør for Konsortium Nyheder og en tidligere FN-korrespondent for Than Wall Street Journal, Boston Globe, og andre aviser, herunder Montreal Gazette, London Daily Mail og The Star af Johannesburg. Han var en efterforskningsreporter for Sunday Times of London, en finansiel reporter for Bloomberg News og begyndte sit professionelle arbejde som 19-årig stryger for New York Times. Han er forfatter til to bøger, En politisk Odyssé, med senator Mike Gravel, forord af Daniel Ellsberg; og How I Lost af Hillary Clinton, forord af Julian Assange.
Vær venlig at Support CN's
Vinter Fund Køre!
Foretag en fradragsberettiget donation sikkert med kreditkort eller check ved at klikke på den røde knap:
Fantastisk artikel, selvom titlen bedre kunne have afspejlet vanviddet i det hele. Hvad angår Israels/USA's brug af denne teknologi, er det ikke et problem for dem, at der er "fejl". De ville programmere det til at fungere på den måde, ligesom de opfordrede palæstinensere til at gå til "sikre zoner" kun for at dræbe dem, når de kom dertil. Det er ved design.
Må jeg også anbefale folk at læse The Palestine Laboratory af Antony Loewenstein, som beskriver alt det arbejde, israelerne har gjort for at blive den førende eksportør af alt dette vanvid.
Der er ingen "AI", denne teknologi, som nogle beskriver som "AI" er ikke intelligent, den kan ikke noget originalt, alt derinde er skrevet af mennesker, intet er kunstigt. Det er faktisk næppe noget innovativt derinde, det er avanceret maskinlæring, det er effektivt analytisk og klyngende software med rapportskrivningsevner, og det har eksisteret siden 1990'erne. Alt hvad det er, er IT-industriens forsøg på at give os indtryk af, at der sker noget "revolutionært", når det i virkeligheden kun er at retfærdiggøre et kupforsøg, initieret og styret af Silicon Valley. Det er i bedste fald en billig markedsføringsstrategi og i værste fald forsøget på at lokke os ind i et overvågningssamfund med påstanden om, at "AI" vil overtage os før eller siden, det er uundgåeligt. Roger Penrose, nobelprisvinder, har for længe siden vist, at "AI" ikke er intelligent med sit skakeksperiment, der er intet bemærkelsesværdigt i det, som om der ikke er nogen 4. industrielle revolution, hvad vi virkelig ser er stagnation, intet væsentligt er blevet opfundet siden 1980'erne, hvis ikke endnu tidligere. Hvis du ikke tror mig, så tjek de tilgængelige lister over store opfindelser og de tomme rækker siden 1970. "AI" er meget mere en dokumentation for, at it-industrien har nået sine grænser, den nærmer sig et plateau, der er ikke noget innovativt på vej derfra længere er det eneste, der er tilbage for dem, at friste os ind i et overvågningssamfund for at undgå, at vi kan finde ud af det.
Det store problem med AI er ikke så meget bullshit til fakta-forholdet, som det er, at mennesker har en tendens til at acceptere det skrevne ord som evangelium. Mens folk ofte udfordrer, hvad de hører, udfordrer de sjældent, hvad de læser. Sammensat med problemer med korttidshukommelsen, når folk læser, at x er en fjende, og 2 år senere læser de, at x er en ven, (f.eks. Ahmad Sharaa, tidligere terrorist, nu leder af Syrien), accepterer folk det for pålydende uden spørgsmål. Når det så bliver tid til at træffe kritiske beslutninger, f.eks. iværksætte et atomangreb, svarer tilliden til ethvert system, der har et bullshit-til-fakta-forhold, der er større end nul, et dødsønske.
IDF har ikke brug for kunstig intelligens for at dræbe civile. Vi ved nu, at civile er målrettet i Israels etniske udrensning af
Gaza. Infrastruktur såsom beboelsesbygninger, universiteter, skoler, hospitaler, moskeer samt frugtplantager, landbrug er alle
ødelagt. Det medicinske tidsskrift Lancet har anslået, at det faktiske antal dræbte palæstinensere ville være 186,000. Dette omfatter "stille drab" såsom induceret sult, ubehandlet sygdom og sår, efterhånden som sundhedssystemet er blevet ødelagt, samt
de mange tusinde savnede gazanere, begravet under murbrokker. Også Amerika har decimeret mange millioner med sine bomber uden
hjælp af kunstig intelligens. Efter tre års daglig bombning i Nordkorea blev en tredjedel af befolkningen udslettet.
En velskrevet artikel, der påpeger farerne ved det, der almindeligvis kaldes AI. Dette er ikke kunstig intelligens, da det faktisk ikke tænker og ikke er i stand til at tænke. Store sprogmodeller behandler simpelthen store mængder data og reflekterer det tilbage til os på måder, der er blevet kaldt stokastiske papegøjer. Kun i NATO's begrænsede sind kunne det betragtes som en god idé at sætte det til ansvar for atomvåben. Selvom det ikke skal undervurderes, så har den såkaldte AI sine grænser og sårbarheder (spørg bare de mennesker, der narrede en til at tro, at en 3D-printet skildpadde var en riffel), og dens strømbehov kan vise sig at være en naturlig begrænsende faktor.
Selvfølgelig har ægte kunstig intelligens, som vi opfandt i det 17. århundrede og kaldte virksomheden, vist sig at være meget farlig, så forsigtighed og en sund skepsis er absolut påkrævet.
Joe,
Citat fra artiklen.
"Med andre ord, hvad sker der, når AI-fejl bevæger sig fra det uskyldige og komiske til spørgsmål om liv og død?"
Det er en oopsie, vi går videre? kan ikke gå tilbage. ah hvorfor tage op i går - dette tog kører hurtigt og uden stop ved det .
Vi tager disse oplysninger, investerer i en serverfarm, gemmer dem, vil det sikkert være sikkert?
det vil være din bitcoin lige op i din tæve. opret et derivat og dump det på aktiemarkedet, se det svæve
alt det sludder, der er gemt og gemt, kan bruges af AI, men kan kræve en ekstra serverfarm (mindst 5 etager høj), sparer plads til at gemme, det er dit guld.
Alt, hvad der er skrevet, kan indsamles, tastes og observeres i realtid, gætter jeg på. spore dine musebevægelser. tilføje dit eget nonsens til bunken , når fuld dumpe data for kontanter eller foregive en indtrængen , ellers blegemiddel og hamre , lol .
Jeg håber, at askinet ikke ser dette som spam. ønsker ikke at pervertere gemte data der, men de kan gemme i deres serverfarm og tage dem til datasalgsbanken for handel, formoder jeg.
Lidt som skyggeforbud, hvis du indtaster en forkert adgangskode (endnu gemt, selvom du tror, at pw'en er forsvundet), så afviser det dig, prøv igen. hvad hvis du ved en fejl indtastede dit PayPal-adgangskode, når du var på et andet websted ved en fejl. god enuff , men hvis verifikatoren ved , at det er forkert , skal den sammenligne det med et andet sæt data . men det vil ikke glemme (gemmer) din PayPal pw . Den information vil blive gemt i en anden gård, men være ret værdifuld i de forkerte hænder for alle med adgang? sælger de det til en anden? Så jeg ved, hvem du er og en pw, du bruger, indtastningsfejl virker ikke her, lad os se hvilke andre websteder denne bruger bruger, der kræver en pw, en af dem har sandsynligvis brug for den pw, du har indtastet forkert, forenkler hacking nej? hvem holder øje med vægteren?
og videre og videre.
stik dine penge ind i datafarme, fyld det med bitcoin, og du får en rigtig lort-sandwich. sæt en dispenser på hvert gadehjørne. fordoble din sjove sælg lort for lort og penge ind, lol. du vil være hamsteren, der gemmer indpakningen efter sådan en dejlig frokost.
måske gør vi det nu, men prisen er steget, og indholdet er mindre, og hvis det er pakket rigtig godt, vil det tage en ekspert at åbne.. Han hedder AI
god fornøjelse .
Så jeg tror det Joe Lauria prøver at sige er . . . "Stormvejr forude, med en chance for Armageddon"?
Jake,
du sætter alle brikkerne sammen. ligesom vejrmanden kan tage fejl, selv om han kigger ud af vinduet. men det ser ud til at regn er mere sandsynligt, når skyerne er grå .. lol
du skriver, og jeg vil læse, måske er det bare klimaændringer?
Spørg AI eller chatbot (jeg har aldrig brugt det endnu) - Hvad er lighederne og forskellene mellem politiske klimaændringer og almindelige klimaændringer.
vil politikerne falde ned fra himlen og skabe kaos?
det vil sandsynligvis producere tvillinger af samme pol med modsatte positioner på det værste tidspunkt.
men stoler du på dem begge?
var der ikke nogen der nævnte kognitiv dissonas?
For at spille djævlens advokat, lad mig påpege, at AI nemt kan slå de bedste menneskelige Go-spillere eller skakspillere. Ville du ikke betragte en verdensmester i Go eller skak som smart på nogle måder?
Artiklen siger ikke, at AI ikke kan være smart, men at den er tilbøjelig til at fejle og sammenfatte information.
TN,
så skakspilleren ved, hvordan man spiller spillet, en, der kender matematikken, programmerede AI'en (bare et program), var det skakspilleren selv. AI tænker på det næste træk baseret på spillernes mulige næste træk, beregner en tæller baseret på det træk, der er foretaget, men har på forhånd søgt og realiseret hvert potentielt træk, måske tusindvis? mennesket ved, at dette er et perfekt spil, der ikke kan lave en fejl, fordi intellektet (programmet) af AI evnen til at opfatte ? alle muligheder. Dette tager meget tid for mennesket, hvilket ville være en kedelig udfordring imo. det faktum, at AI kan bruge sine givne "programmerede instruktioner" for hver mulighed på et øjeblik for at få et svar. Mennesket kunne gøre det samme med evig tid og en slags snydeark, men ikke på et øjeblik.
er det tidsrejser, vi er vidne til, men ikke kan opfatte AI-rejsen inden for den korte tidsramme, men vi kan bruge matematik, computere og til at gøre det, som fingertælling ikke kan hurtigt?
Måske hvis 2 AI kæmpede til en finish ville vise, at hvis spillet kan vindes uanset, eller at der er måder, som ikke er lært endnu, viser, at den ene eller den anden kan vinde. er dette tilfældet, eller med programmet, der har alle svarene, har du ingen chance for at vinde, medmindre det afhænger af, hvem der rykker først?
Jeg siger, at jeg er imponeret på en måde, men måske skulle vi bruge monopol, da det virker som et spil tættere på den virkelige verden? Jeg vil være bankmand, give amnesti til mine venner og bygge hoteller en kilometer høje. Hvis du passerer GO vil du lande i fængslet. Tak for de 200.
Åh, og hvis jeg forkludrer, er det din skyld. undskyld jeg er måske gået af. Den eneste AI, der er værd, er, hvad der returnerer korrekte svar. hvis regel #1 skal du gå til regel #2. Ligesom fængsel kigger du ind eller kigger ud og for hvems regning?
SOM alt som er privat eller ejet af en anden, har du ingen anelse om, medmindre nogen, der er i stand til, kan se koden/algoen, som er en kontrolmekanisme, som privat ejes? manglende afsløring kan give mere indkomst end færdigheder, hvis ufarlige.
Jeg skriver ikke ofte, men har interesse for dette emne, og hvis du drømmer det, og det kan dukke op.
mit sind siger, at den er 10 fod, men målestokken ved bedre, da den viser dens faktiske værdi i det visuelle. AI-målestoksteorien skal se skalaen.
Jeg skriver som en løs kanon, men håber at udtrykke uden at nogen bliver fornærmet. Jeg håber, jeg kan komme med et par punkter for at oplyse, men også opdage ting og dele, men ikke rigtig rettet mod nogen, men kun som et svar, hvis det hjælper tanken.
Denne AI-ap til skak er ikke "en verdensmester", men et hold af alle verdensmestrene, hvis spil er blevet registreret, med en hukommelse og logisk analyse af hvert træk og arrangement. Det var programmeret til at reagere logisk med evnen til at projektere modstanderens mulige planer og omgå disse planer. Det blev programmeret af flere personer. Der er ikke noget at være der.
Også skak er en fiktion med sine egne logiske regler, og det er, hvad AI er og do-fiktion. Det er derfor, det finder på tingene uden hensyntagen til historisk verificerbarhed og uden ansvar over for lov eller etiske værdier. Ofte afspejler det programmørens eller finansiererens politiske eller sociale forudindtagethed og opfinder fordømmende løgne baseret på meninger snarere end strenge faktatjek.
Uanset hvad det er, er det ikke intelligens, da mennesker oplever intelligens. Der er ingen sensorisk input, ingen følelsesmæssig oplevelse, ingen hårdt tjente værdier og ingen ægte nysgerrighed. Det er et værktøj, der behandler abstrakte data uden adgang til menneskelig eller biologisk erfaring.
Joe T,
Tak for din feedback om, hvordan appen fungerer med begrænsede sammenlignelige (mængden af rigtige spil spillet)
måske har den en ligning eller variabel input i programmet for at tilføje et træk, der endnu ikke eksisterer i undersættet? det ville hjælpe det med at vokse. Jeg vil kalde det "usynlige valg"
Hej, jeg fandt på et ord, kvalificerer det mig som forfatter nu - jeg tror det - jeg er berømt, lol, og jeg kan fortælle dit menneske ved din sidste paragragh, du vil se tingene anderledes, når du modtager din chip.
ville du være en god kandidat, gode tænkeevner, der skal udvindes?
Jeg håber, det var et kompliment.
Jeg vedhæfter en lang, lang ledning, som du kan tilslutte, hvor som helst over halsen er fint.
når jeg ser lyset blinke grønt, ved jeg, at du er blevet hel og en "bot til trav". lol..
Beklager dette og intet personligt var tilsigtet.
Tak for indlægget.
Hver maskine, jeg kan komme i tanke om, er bygget til at forstærke en eller flere af en persons (eller måske et dyrs) ultramulti-kapacitet. John Henry konkurrerede mod en dampdrevet stenboremaskine. (Ifølge folklore vandt han, men moderne maskiner overgår langt menneskers kapacitet i de helt særlige opgaver, de er designet til at udføre.) En bils motor erstatter hestes evne til at flytte en vogn.
Pointen er, at hvis du kører i stål hele dagen, så kanaliseres din krops næsten uendelige evner til at udføre bevægelser eller opgaver til et slankt udvalg af detaljer.
Det samme med at spille skak eller gå. En skakspiller bruger sin hjerne som en maskine og udfører et meget begrænset sæt mentale bevægelser. En computer kan gøre dette bedre og hurtigere, men den kan ikke udføre den uendelige tankerække, som et menneske er i stand til.
Skakmestre kan generelt være kloge mennesker, men deres skakevner, hvor fantastisk de end kan virke, er bare en meget kanaliseret og brøkdel brug af hjernen, så det fordrejer faktisk på en måde alvorligt definitionen af "intelligens" at kalde det det.
T,
Jeg arbejdede i et maskinværksted for længe siden, der havde Brown & Sharpe 6-spindel læderremdrev knastdrevet værktøj, vrid remmen, venstrehåndsbor .. (andre også Acme osv.)da da da - svært at sætte op og sjovt på et langt løb. var sjovt, ønske jeg kunne have mestret dem. arbejdede med en ældre fyr, der tegnede på bænken og skar knastene også. Jeg var yngre dengang og meget lysere.
Vi er nået langt, skat. Jeg så nogle tidligere cnc-maskiner, og indså, at en mand kunne indstille og holde flere dopes kørende.
Deres mantra var "Jeg samler ting op og sætter ting ned" fra venstre mod højre.
hvilke fremskridt der blev gjort er fantastisk. Nu kunne landsbyidioten få arbejde, og jeg spekulerer, men nu er han også uønsket, lol, ja, det gjorde jeg også, lol (landsbyidiotens del)
Ok, lad os pynte det lidt, ville du føle dig bedre, hvis maskinens pickin i plasteret havde et hoved, der ligner en græskar?
Jeg har aldrig ejet en mobiltelefon og gik stadig i stykker. rig på mange andre måder, men jeg mangler stadig at overbevise mig selv om det.. masser af negativ støtte fra de berettigede. Jeg forsøger altid at komplimentere, selvreflektere, se, når jeg komplimenterer baghånden, ejer det og indser, at blot et par ord kan ændre et liv. og jeg fortæller folk, at de er værdifulde. Jeg har altid haft det svært med komplimenter, fordi jeg var mig selv bevidst (også selvfornægtelse), og jeg håber, at jeg nu støtter andre op med høflighed og en forklaring.
Jeg er kun et arbejde i gang, men blev ”Captain Hook” betragtet som AI? Jeg vil ikke blive hængende for det svar , ville det få mig til at virke flov ? nej?
Ok, tilbage til min hule nu.
Tak for svar, og ja mest mine svar kan jeg godt lide at tilbyde sumtin, men for det meste taler jeg med mig selv?? lol
Sjældent diskuteres, hvordan dette er baseret på ubestridte antagelser om menneskelige tankeprocesser.
Enten/eller af den aristoteliske logik har været dominerende i vesten siden oplysningstiden. Politisk manifesterer det sig som med os eller imod os. Økonomisk set er det kapitalisme eller kommunisme. Det er indlysende som det gode eller det onde ved religiøs fanatisme, men det er også kendsgerningen eller fantasien om videnskabelig empiri og det sande eller falske af filosofisk rationalisme. Nu strakt til sin ultimative ekstrem som den binære kode for AI. Som alle er produkter af den venstre hjernehalvdel, som behandler sekventielt gennem abstraktioner, ved at bryde helheder fra hinanden i adskilte stykker. Mest af alt ønsker den vished og kontrol.
Slå op Dr. Iain McGilchrist, hvis magnum opus er //The Matter with Things (Our Brains, Our Delusions, and the Unmaking of the World)//og som har skrevet og talt om dette emne meget detaljeret.
I modsætning hertil bearbejder den højre hjernehalvdel ved hjælp af gestalter, symboler, metaforer. Kunstens område, mystik, mangfoldigheder, forbindelser og mening. Hvor universet udover ja og nej indeholder et evt. Ikke kun verden af drømmende kunstnere og shamaner – det er også hvad kvantefysikere har sagt i over 100 år nu. Den østlige verden og oprindelige folk har bevaret den ældre form for højre hjernehalvdel først og derefter venstre, når det var nødvendigt. Højre er opmærksom på venstre, men det omvendte er ikke tilfældet. Hvilket forklarer meget om, hvorfor vi sidder fast, hvor vi er. McGilchrist påpeger også, at vi ikke kan løse problemer ved at bruge de samme processer, som fik os ind i dem.
AI virker ikke helt menneskelig, fordi det er den elektroniske ækvivalent til højt forarbejdet hvidt mel og sukker. Ingen livgivende næringsstoffer og stærkt vanedannende. I bedste fald er den kun halvt menneskelig – den del, der ikke er klar over symbioserne af den naturlige Jord, af hjerteslag, af det, Paul Ricoeur kaldte "et overskud af mening." Den del, hvor folkedrab er den abstrakte beregning af fjendens dræbtæller. Det halvt menneskelige er umenneskeligt, isoleret og klinisk sindssygt.
Fantastisk artikel og kommentarer, især denne.
Den fælles viden om kunstig intelligens og al empirisk videnskab vil altid savne dette væsentlige aspekt af menneskeheden og universet.
En kritik af den bog er "en temmelig reduktionistisk kritik af reduktionisme", hvilket er et ærgerligt citat, nærmest lavet til wikipedia. Ironisk nok endnu et råddent skjold for dem, der kræver sikkerhed og kontrol. Thems Reglerne.
AI udstikker sin egen vej fra laveste fællesnævner-fundamenter. Hvilket ville være fint, hvis McGilchrists vinkel fik samme vægt eller en alternativ rute. Men det er det ikke.
I stedet er al kreativitet blevet skrabet ind i AI's gabende mave for at berige corpopigs og yderligere forarme kunstnere.
Effektivitet skal give os mere tid. Men hvis prisen for det er meningsfuld, hvad er den tid så værd?
I hvert fald tak for boganbefalingen og til Consortium for deres inspirerende menneskelighed.
Brug af Perplexity dot AI giver et mere præcist resultat og nævner ikke Fox-fyren.
Fremragende stykke!
Der er ingen kvantegrænser.
D-Wave fortalte mig det.
Muliggør valget at kalde machine learning AI en bevidst bevægelse for at skabe kognitiv dissonans vedrørende den sande definition af kunstig intelligens (leveret af Ray McGovern her på CN?) "Cherry plukket data fra håndplukket analytiker. “
Er der nogen måde muligt at holde skaberen af AI ansvarlig? Han vidste, hvor hans opfindelse førte hen, og alligevel ... fortsatte han med den. Hvad koster berømmelse???
Hej Vera
Grundlaget for AI er gammelt, en central komponent er et neuronalt netværk. Var det ikke AI som undskyldning for alle de dårlige beslutninger, ville det stadig være The Algorithm (som er semantisk forkert, men lyder godt.) Jeg fandt denne artikel fra Bernhard som en af de bedre forklaringer på, hvad AI egentlig er. Så der er ingen - ikke engang metaforisk - opfinder.
hxxps://www.moonofalabama.org/2023/06/artificial-intelligence-is-mostly-pattern-recognition.html
@joe god artikel, dog
Er der nogen måde at holde J. Robert Oppenheimer (Oppenheimer var direktør for Los Alamos Laboratory og ansvarlig for forskning og design af en atombombe)
Det ville ikke hjælpe meget, hvis vi kunne vel?
Meget tankevækkende, skræmmende nok.
Så en interessant/relevant video af en person, der er stærkt involveret i AI, som demonstrerede en fejl, som han fastholdt, er i de fleste AI-systemer. Hvis du beder AI-systemet om at vise et analogt ur med dets håndsæt 7:30 eller 3:15 eller adskillige andre værdier, ender det med at vise 10:10. Det er tilsyneladende på grund af det overvældende antal billeder af den 10:10-indstilling, der bliver indlæst til deres databaser, på grund af den 'kendsgerning' (troen?), at billedet af 10:10 er det mest behagelige for den menneskelige hjerne .
De to hvirvler,
du efterlod et mellemrum mellem e & S i dit navn. AI kan også løse stavefejl.
ok, klokken er nu 10:10 … det kan være her, en anden AI træder ind. Den returnerede værdi 10:10 er sat til at bruge en ligning, der er menneskeskabt ? hvis ans=10:10, så opretter du den næste sætningsunderrutine, der skal løses. hvorfor ikke introducere de formler, der er nødvendige for at løse svaret. idioten AI er nu en menneskelig ekspert med kun en teknisk skoleforståelse af formler, som nogle dygtige matematikere har reduceret til en simpel brug, men som hjælper håndværkeren. Tømreren bruger formler til at finde svar på problemer, der overstiger hans evner.
Jeg er klar over, at dette kan løses, hvis det ønskes. Sandheden er AI ligesom tømreren, ingen af dem gør det på samme måde, men alle har ret, bare spørg dem.
undskyld jeg kan ikke lade være med min sacasme eller forsøg på humor . Du kan finde en seriøs tanke, men helt sikkert svaret, gemmer sig inde i denne skrift, hvis du spørger din mester..
joe Ell den 3.
Jeg formoder, at jeg vil lede domstolene til sidst. Retfærdigheden er blind, siger de. Lad os få data om navne og alle indsamlede skrabet data. selv information løsladt ved et brud på personlige data eller ethvert datasystem, der gemmer dem. indsamle oplysninger om steder navne gange og alle andre mobiltelefon data om dem også. dette giver oplysninger om navnene på dem inde i den valgte boks, indstil afstanden, som nogen har været skyldig. gøre dem alle mistænkelige og skabe en medvirken, hvis de bliver fundet.
Så da retfærdigheden er blind, har vi kun brug for Legal Beagle AI til at træffe afgørelser om skyld. Intet behov for ansigter og ingen forudfattede meninger baseret på udseende, køn, farve. Jeg kan se denne fremtidige mulighed. Måske kan de endda lave et udkast ved hjælp af denne viden?
Mit eneste spørgsmål nu, da jeg kunne blive ved og ved med eksempler. hvis navne vil blive udeladt, hvem er denne Simon Sinister, der programmerer det. er denne type ting allerede i brug?
Vær rart at høre fra en god programmør, der har eller er i stand til at kode sådant legetøj.
Nu et program, der sender alarm, når et hjerte stopper. Saml alle, der måtte være inde i ringen eller den valgte omkreds, og nu har vi data om, hvem vi skal kigge på, hvis du ankommer til det stoppede hjerte, og det viser sig at være et gerningssted. det plus, at vi kan finde den skyldige hurtigere og flere tilfælde også. Ingen skjul, måske lever vi allerede i denne verden? lækager indtrængen mislykkedes sikring af medicinsk , bankjournal , disse er i naturen nu vil jeg tro ,
kan du forestille dig tabet, hvis disse ting bliver til virkelighed, vil du blive låst inde, trukket væk, baseret på en anonym kilde?
minder mig om troldmanden fra oz.
Jeg hader at sige, at information er kraftfuld, vi kommer til denne verden i håb om at gøre den til et bedre sted, nogle bliver kørt over i trafikken, før de opdager, at der er en bil, der spærrer over dem.
vil du være med til at udvikle et system som dette, eller vil du gerne tro, at det du laver ved at lave dette mest er imod dine bedre instinkter.
Ah komplimentér, tag AI og skab den bedste version, og alle, der deltog, er ikke desto klogere. Måske er forsvaret denne optegnelse, hvis den er fuldstændig, da domstolene kan lide at udelade 'fakta'? eller afvise beviser.
Jeg kunne blive ved , tak for dit øre . undskyld jeg er ikke meget forfatter og hader redigering , jeg har en rigtig fed tommelfinger , lol
Ofte, når det kommer til at efterlade kommentarer, der bidrager til diskussionen, er mindre mere.
AI'er har i det mindste mulighed for at blive klogere. Mennesker bliver mærkbart dummere. Overvej tilstanden af nuklear afspænding og tilstedeværelsen af en hotline mellem atommagter for at undgå fejl, 1978 med 1991 med den nuværende verden. Absolut bevis på voksende menneskelig dumhed.
Den eneste fare ved AI kan være, at mennesker kan være for dumme til at bygge atombomber på egen hånd efter et par generationer af aktuelle trends, men AI'er vil aldrig glemme. På den anden side er der en chance for, at AI'er kan blive smarte nok til at vide ikke at bruge atomvåben. Vi ved nu med sikkerhed, at dette er en præstation ud over menneskelig formåen.
Der er meget lidt grundlag for at påstå, at AI, uanset hvordan den er defineret og eksisterende, faktisk har evnen til at blive klogere. Det er ikke smart nu, kan ikke lave mange matematikopgaver og heller ikke følge fysikkens grundlæggende regler. Det udgør citater og kilder og har intet begreb om sandhed eller virkelighed, derfor kan det ikke verificere nogen af de påstande, det præsenterer.
Dette er ikke smart og viser ingen tegn på, at det er på vej at blive klogere. Sam Altman kan fremsætte hvilken som helst påstand, han kan lide for at styrke sine fundraising-udsigter, men virkeligheden er ikke en af de faktorer, som hverken Altman eller AI synes at være funderet på. Jeg henviser dig til Gary Marcus' Substack for yderligere indsigt i 'smarten' ved den såkaldte AI.