De roekeloosheid van AI

Aandelen

Kunstmatige intelligentie lijkt voorbestemd om de wereld te veranderen. Maar tot nu toe worden de fouten ervan toegestaan ​​om onschuldige mensen te doden, schrijft een van de twee Joe Laurias.

TV-weerman Joe Lauria. (Fox 4 Nieuws Kansas City/YouTube)

By Jo Lauria (Niet de Weerman)
Speciaal voor consortiumnieuws

Ter is geen manier om de opkomst van kunstmatige intelligentie terug te draaien, die op weg is om ons leven te domineren. Van klantenservice tot censuur en oorlog, AI doet zijn intrede en de kans op een ramp is reëel. 

De hoeveelheid face-to-face contact, of zelfs menselijke voice-to-voice interactie aan de telefoon bij het zakendoen, neemt al jaren af ​​en wordt erger met AI. Maar AI doet veel meer dan alleen de gemeenschap uithollen, banen vernietigen en mensen die in de wacht staan, uitputten.

AI zit steeds vaker achter beslissingen van socialemediabedrijven over welke berichten verwijderd moeten worden omdat ze in strijd zijn met vage 'community'-normen (omdat het de community vernietigt), terwijl het duidelijk is dat AI is geprogrammeerd om dissidente politieke berichten eruit te filteren. 

AI neemt ook beslissingen over wie er van een socialemediasite moet worden geschorst of verbannen, en lijkt ook 'beroepen' tegen schorsingen te beoordelen, die in veel gevallen ongedaan zouden worden gemaakt als er maar een paar menselijke ogen bij betrokken zouden zijn.

Facebook-oprichter Mark Zuckerberg toegegeven deze week dat "we een hoop complexe systemen hebben gebouwd om content te modereren, maar het probleem met complexe systemen is dat ze fouten maken." Facebook geeft toe dat het AI-systemen heeft gebruikt om verwijderen berichten van gebruikers.

"Zelfs als ze per ongeluk maar 1% van de berichten censureren, dan zijn dat miljoenen mensen, en dan hebben we een punt bereikt waarop er gewoon te veel fouten en te veel censuur zijn", aldus Zuckerberg.

De absurde mate waarin AI wordt toegepast, omvat een ‘denktank’ in Washington die volledig wordt gerund door kunstmatige intelligentie. Plaats nieuws neer meldt op de Beltway Grid Beleidscentrum dat geen kantooradres heeft.

"Het ontbreken van een fysieke voetafdruk van Beltway Grid in Washington — of ergens anders op het aardse vlak van bestaan ​​— komt voort uit meer dan alleen een genereus thuiswerkbeleid. De organisatie lijkt helemaal niet van haar werknemers te eisen dat ze bestaan", schrijft de site. Toch produceert het enorme hoeveelheden rapporten, persberichten en pitches voor verslaggevers.

Hoewel dit een extreme toepassing van AI is, kampt de gebruikelijke interactie met het publiek met een ander probleem: hoe fout kan AI zijn?

Nog steeds vrij experimenteel

AI bevindt zich duidelijk nog in een experimenteel stadium en hoewel significante fouten onvermijdelijk zijn, hebben ze de toepassing ervan niet vertraagd. De fouten variëren van alledaags tot belachelijk tot gevaarlijk.

Onlangs ontdekte ik een voorbeeld van het belachelijke. 

Iedereen die op Google zoekt naar zijn online profiel, zal ongetwijfeld andere mensen vinden met dezelfde naam. Ik ken Joe Lauria al lang, een tv-weerman voor de Fox-vestiging in Kansas City, Missouri. 

We zijn al eerder in de war geweest. Nog maar twee weken geleden ontving ik een e-mail van een Fox-kijker in de omgeving van Kansas City die Lauria prees omdat ze zo goed gekleed was en mij om advies vroeg over waar ik een pak kon kopen. Ik was benieuwd wie er nog meer in de war zou zijn, dus vroeg ik Grok, het veelgeprezen AI-systeem van Elon Musk, wie Joe Lauria is. 

Dit is de antwoord Ik heb:

“Joe Lauria is een veelzijdige professional die vooral bekend is om zijn werk in de journalistiek en meteorologie. Hier is een overzicht van zijn carrière op basis van de beschikbare informatie:

  • Journalistiek: Joe Lauria is sinds 1990 journalist voor buitenlandse zaken bij de Verenigde Naties. Hij heeft bijdragen geleverd aan talloze publicaties, waaronder de Boston Globe, de London Daily Telegraph, de Johannesburg Star, de Montreal Gazette, de Wall Street Journal, de New York Times, de Washington Post, Salon.com en The Guardian.

  • Hij is ook onderzoeksjournalist geweest voor The Sunday Times of London en Bloomberg News. Lauria is momenteel hoofdredacteur van Consortium News, waar hij schrijft over internationale zaken met een focus op het Midden-Oosten. Hij is co-auteur van boeken met bekende figuren als voormalig Amerikaans senator Mike Gravel, met een focus op het Amerikaanse buitenlandse beleid en militarisme.

  • Meteorologie: Joe Lauria is een prijswinnende meteoroloog. Hij werkt sinds januari 4 als avondnieuwsmeteoroloog voor FOX1995 in Kansas City en zendt elke weekavond om 5, 6, 9 en 10 uur weersvoorspellingen uit. Zijn aanpak van meteorologie omvat het onderwijzen van kijkers over aspecten van het weer die niet vaak voorkomen in standaard weer-apps.

  • Vóór zijn rol bij FOX4 was hij Chief Meteorologist bij KOSA-TV in Midland, Texas, en heeft hij op verschillende andere locaties gewerkt, zoals Orlando, Florida en Kansas City, Missouri. Hij is erkend voor zijn werk door het ontvangen van het Seal of Approval van zowel de American Meteorological Society (AMS) als de National Weather Association (NWA). Lauria heeft ook de Certified Broadcast Meteorologist (CBM)-aanduiding van de AMS.

  • Persoonlijk leven: Joe Lauria is geboren in New Rochelle, New York, en woont momenteel in Olathe, Kansas met zijn vrouw, Jaye Lynn, en hun twee katten. Hij houdt van Italiaanse restaurants, golf en is betrokken geweest bij gemeenschapsdiensten door middel van weerseminars en toespraken.

Joe Lauria's dubbele carrière in de journalistiek en meteorologie benadrukt zijn uiteenlopende interesses en bijdragen aan het publieke begrip en de veiligheid door middel van weersverslaggeving en inzichtelijke verslaggeving over internationale aangelegenheden.”

Even voor de volledigheid, ik heb geen katten, ik speel geen golf en ik ben niet geboren in New Rochelle (maar ook niet zo ver weg in de Bronx). Natuurlijk zit hier veel humor in. (Het is ook grappig dat ik aan de universiteit begon zonder te beslissen of ik journalist of meteoroloog wilde worden. Toen zag ik hoeveel wiskunde er bij meteorologie komt kijken.)

Het potentieel voor zulke onzin in een systeem dat langzaam de wereld lijkt over te nemen, is echter niet altijd een lachertje. Het is verontrustend dat Groks door mensen gemaakte intelligentie ervan uitging dat twee mensen één zijn, in plaats van gewoon toe te geven dat er meerdere mensen zijn met dezelfde naam.

Aan de andere kant gaf Chat GPT een indrukwekkend en scherp, politiek neutraal proefschrift over mijn werk als antwoord op de vraag "Wie is Joe Lauria?" Het was bijna alsof ik het had ingehuurd als mijn PR-agent. Het essay klinkt alsof Chat GPT maandenlang alles heeft gelezen wat ik had geschreven, terwijl het in seconden was gegenereerd. Er was ook geen teken van de weerman van Kansas City.

Maar toen ik me wat meer verdiepte in de ‘kennis’ die het over mij had, bedacht het dingen uit het niets. Toen ik vroeg welke boeken ik had geschreven, noemde het programma niet de boeken die ik daadwerkelijk had geschreven, maar kwam met een volledig fictieve titel van een zogenaamd non-fictieboek: De Assange Agenda: De nalatenschap van de Wikileaks-oprichter. Er werd zelfs een uitgeverij aangesteld: Clarity Press.

Er bestaat geen dergelijk boek. Gebaseerd op de kennis van mijn berichtgeving over Julian Assange, deed het een belachelijke gok over een denkbeeldig boek waarvan het dacht dat ik het geschreven moest hebben. Kortom, veel AI is BS.   

AI en oorlog

De schade in Gaza.  (Naaman Omar\Palestijns Nieuws- en Informatie Agentschap, Wafa, voor APAimages, Wikimedia Commons, CC BY-SA 3.0)

Hoe belachelijk deze resultaten ook zijn, hoe frustrerend menselijke interacties in de klantenservice ook worden, zoals het verwijderen van aantrekkelijke berichten op sociale media door AI, en hoe veel banen verloren gaan aan AI, de meest schrijnende zorg over kunstmatige intelligentie is het gebruik ervan in oorlogsvoering. 

Met andere woorden, wat gebeurt er als AI-fouten niet langer onschuldig en grappig zijn, maar een kwestie van leven of dood?

Tijd tijdschrift berichtte in december over het gebruik van AI door Israël om burgers te doden tijdens de genocide in Gaza:

“Een programma dat bekend staat als 'The Gospel' genereert suggesties voor gebouwen en structuren waarin militanten mogelijk opereren. 'Lavender' is geprogrammeerd om verdachte leden van Hamas en andere gewapende groepen te identificeren voor moord, van commandanten tot voetvolk. 'Waar is papa?' naar verluidt volgt hun bewegingen door hun telefoons te volgen om ze te targeten, vaak naar hun huizen, waar hun aanwezigheid wordt gezien als bevestiging van hun identiteit. De luchtaanval die volgt, kan iedereen in de familie van het doelwit doden, zo niet iedereen in het appartementengebouw.

Deze programma's, die de Israel Defense Force (IDF) heeft erkend te hebben ontwikkeld, kunnen helpen het tempo van de meest verwoestende bombardementencampagne van de 21e eeuw te verklaren…”

Het Israëlische tijdschrift +972 en The Guardian bracht het verhaal in april naar buiten en meldde dat er tot wel 37,000 doelen waren geselecteerd door AI (dit aantal zou sinds april veel hoger moeten zijn). Daarmee werd een proces gestroomlijnd dat voorheen menselijke analyse en wettelijke toestemming vereiste voordat een bom kon worden afgeworpen.

Lavender stond onder grote druk en moest steeds meer bommen op Gaza gooien. The Guardian gemeld:

"'We werden voortdurend onder druk gezet: 'Geef ons meer doelen.' Ze schreeuwden echt naar ons,' zei een [Israëlische] inlichtingenofficier. 'Ons werd verteld: nu moeten we Hamas verneuken, wat het ook kost. Wat je ook kunt, bombardeer.' 

Om aan deze vraag te voldoen, ging de IDF sterk op Lavender vertrouwen om een ​​database samen te stellen van personen die de kenmerken van een PIJ [Palestijnse Islamitische Jihad] of Hamas-militant hadden. […]

Na willekeurige steekproeven en het controleren van de voorspellingen concludeerde de eenheid dat Lavender een nauwkeurigheidspercentage van 90% had behaald, aldus de bronnen. Dit leidde ertoe dat de IDF het grootschalige gebruik ervan als hulpmiddel voor aanbeveling van doelen goedkeurde.

Lavender heeft een database samengesteld van tienduizenden personen die werden aangemerkt als overwegend laaggeplaatste leden van de militaire vleugel van Hamas,

Negentig procent is geen onafhankelijke evaluatie van de nauwkeurigheid, maar de eigen beoordeling van het IDF. Zelfs als we dat gebruiken, betekent het dat van elke 100 mensen die Israël met dit systeem als doelwit kiest, er minstens 10 volledig onschuldig zijn volgens eigen zeggen. 

Maar we hebben het niet over 100 individuen die het doelwit zijn, maar over "tienduizenden". Reken maar uit. Van elke 10,000 die het doelwit zijn, zijn er 1,000 onschuldige slachtoffers, die acceptabel zijn om gedood te worden door de IDF. 

In april vorig jaar gaf Israël in feite toe dat 3,700 onschuldige inwoners van Gaza waren gedood vanwege zijn AI. Dat was acht maanden geleden. Hoeveel meer zijn er afgeslacht?

Het Nationaal krant uit Abu Dhabi gerapporteerd:

“Technologie-experts hebben gewaarschuwd Israël's leger van potentiële 'extreme vooringenomenheidsfout' bij het vertrouwen op Big Data voor het targeten van mensen in Gaza tijdens het gebruik kunstmatige intelligentie programma’s. […]

Door het gebruik van krachtige AI-systemen door Israël kan het leger nu op zo'n grote schaal oorlog voeren tussen soldaten en machines.

Ongeverifieerde rapporten stellen dat de AI-systemen 'extreme vooringenomenheidsfouten hadden, zowel in de gebruikte targetinggegevens als in de kinetische actie', aldus mevrouw Hammond-Errey in antwoord op een vraag van Het NationaalEr kunnen extreme afwijkingen optreden als een apparaat niet goed is gekalibreerd, waardoor de metingen verkeerd worden berekend.

De AI-expert en directeur van opkomende technologie aan de Universiteit van Sydney stelde dat grote datasets 'die zeer persoonlijk en commercieel zijn' betekenen dat strijdkrachten 'niet echt de capaciteit hebben om' doelen te verifiëren en dat dit mogelijk 'een bijdragende factor is aan zulke grote fouten'.

Ze zei dat het ‘lang zou duren voordat we echt toegang zouden krijgen tot deze informatie’, als dat ooit zou gebeuren, ‘om enkele van de technische realiteiten van de situatie te beoordelen’, aangezien de gevechten in Gaza voortduren.”

De AI van de IDF moet toch wel geavanceerder zijn dan de commercieel beschikbare versies van AI voor het grote publiek, zoals Grok of ChatGPT. En toch geeft de IDF toe dat er minstens een foutpercentage van 10 procent is als het gaat om de beslissing wie moet leven en wie moet sterven. 

ChatGPT, een van de populairste platforms, zegt dat de gevaren van fouten in het Lavender-systeem zijn:

  • “Vooringenomenheid in data:Als Lavender wordt getraind met gegevens die onevenredig vaak afkomstig zijn van bepaalde bronnen, kan dit leiden tot vertekende resultaten, zoals het verkeerd identificeren van het gedrag van specifieke groepen of het verkeerd inschatten van bepaalde soorten signalen.
  • Onvolledige of scheve datasets: Als de gegevens die voor de training worden gebruikt onvolledig zijn of niet een breed scala aan potentiële bedreigingen bestrijken, kan de AI kritieke signalen missen of onschuldige activiteiten verkeerd interpreteren als bedreigingen.” (Nadruk toegevoegd.)”

AI en kernwapens

Een wetsvoorstel van de Amerikaanse Senaat zou de betrokkenheid van AI bij kernwapens verbieden. (US Army National Guard, Ashley Goodwin, Publiek domein)

De zorg dat fouten van kunstmatige intelligentie tot een nucleaire ramp kunnen leiden, wordt weerspiegeld in het wetsvoorstel van de Amerikaanse Senaat S. 1394, getiteld de Block Nuclear Launch by Autonomous Artificial Intelligence Act van 2023. Het wetsvoorstel

“verbiedt het gebruik van federale fondsen voor een autonoom wapensysteem dat niet onderworpen is aan zinvolle menselijke controle om een ​​kernwapen af ​​te vuren of om doelen te selecteren of aan te vallen met het oog op het afvuren van een kernwapen.

Met betrekking tot een autonoom wapensysteem betekent zinvolle menselijke controle menselijke controle over (1) de selectie en inzet van doelen: en (2) tijd, locatie en wijze van gebruik.”

Het wetsvoorstel kwam niet uit de Senate Armed Services Committee. Maar laat het aan de NAVO over om het belachelijk te maken. A papier gepubliceerd NAVO Kroniek afgelopen april klaagde dat: 

"We lijken op een snel spoor te zitten om een ​​diplomatiek en regelgevend kader te ontwikkelen dat AI in kernwapensystemen beperkt. Dit is om ten minste twee redenen zorgwekkend:

  1. AI heeft een nut dat de nucleaire afschrikking kan versterken zonder dat het nucleaire arsenaal hoeft te worden uitgebreid.
  2. De haast om AI te verbieden in nucleaire verdedigingssystemen lijkt geworteld te zijn in een misverstand over de huidige stand van zaken op het gebied van AI – een misverstand dat meer lijkt te zijn ingegeven door populaire fictie dan door populaire wetenschap.” […]

Het soort kunstmatige intelligentie dat vandaag de dag beschikbaar is, is geen AGI. Het kan de Turing-test — dat wil zeggen, het is misschien niet te onderscheiden van een mens als het vragen beantwoordt die door een gebruiker worden gesteld — maar het is niet in staat tot onafhankelijk denken en is zeker niet zelfbewust.”

In essentie zegt de NAVO dat aangezien AI niet in staat is om voor zichzelf te denken [AGI] er niets is om je zorgen over te maken. Echter, zeer intelligente mensen die in staat zijn om voor zichzelf te denken, maken fouten, laat staan ​​een machine die afhankelijk is van menselijke input.   

Het artikel betoogt dat AI onvermijdelijk de nauwkeurigheid van nucleaire targeting zal verbeteren. Nergens in het document zijn de woorden "error" of "mistake" in enkelvoud of meervoud te vinden.

Grok combineerde twee Lauria's tot één. Er zijn 47 bevolkingscentra in de Verenigde Staten met de naam Moskou. Ik zeg het maar. (Ik weet het, de coördinaten zijn allemaal verschillend.)

Maar het NAVO-artikel wil geen diplomatieke discussie en klaagt dat "de kwestie zelfs ter sprake kwam in discussies tussen de Verenigde Staten en China op het Asia-Pacific Economic Cooperation-forum, dat in november (2023) in San Francisco bijeenkwam."

Het rapport concludeerde: “Gezien de potentiële geopolitieke voordelen die gerealiseerd kunnen worden, is het verbieden van AI in nucleaire verdedigingssystemen een slecht idee.”

In een gezonde wereld zouden we terugkeren naar puur menselijke interacties in ons dagelijks leven. En als oorlog niet voorkomen kan worden, zouden we op zijn minst terugkeren naar meer zorgvuldige, menselijke beslissingen over wie we als doelwit kiezen.

Aangezien dit allemaal niet gaat gebeuren, moeten we hopen dat de AI flink verbetert, zodat komedie niet in een tragedie verandert, of erger nog, in een totale catastrofe. 

Joe Lauria is hoofdredacteur van Consortium Nieuws en voormalig VN-correspondent voor Thij Wall Street Journal, Boston Globe, en andere kranten, waaronder De Montreal Gazette, de Londense Daily Mail en De Ster van Johannesburg. Hij was onderzoeksjournalist voor de Sunday Times uit Londen, een financieel verslaggever voor Bloomberg News en begon zijn professionele werk als 19-jarige stringer voor The New York Times. Hij is de auteur van twee boeken, Een politieke Odyssee, met senator Mike Gravel, voorwoord door Daniel Ellsberg; En Hoe ik verloor van Hillary Clinton, voorwoord door Julian Assange.

Alstublieft Klantenservice CN's
Winter Fonds Rit!

Doe veilig een fiscaal aftrekbare donatie met een creditcard of controleer door op de rode knop te klikken:

30 reacties voor “De roekeloosheid van AI"

  1. Charlotte Rovelstad
    Januari 13, 2025 op 19: 17

    Geweldig artikel, hoewel de titel de waanzin van het geheel beter had kunnen weergeven. Wat betreft het gebruik van deze technologie door Israël/VS, is het voor hen geen probleem dat er “fouten” in zitten. Ze zouden het zo programmeren dat het op die manier functioneert, net zoals ze Palestijnen aanmoedigden om naar “veilige zones” te gaan, alleen om ze te doden als ze daar aankwamen. Het is zo ontworpen.

    Ik raad mensen ook aan om The Palestine Laboratory van Antony Loewenstein te lezen. Daarin staat beschreven wat de Israëliërs allemaal hebben gedaan om de grootste exporteur van al deze waanzin te worden.

  2. Helge Tietz
    Januari 13, 2025 op 15: 57

    Er is geen "AI", deze technologie die sommigen omschrijven als "AI" is niet intelligent, het kan niets origineels doen, alles daarin is geschreven door mensen, niets is kunstmatig. Er is eigenlijk nauwelijks iets innovatiefs in, het is geavanceerd machinaal leren, het is effectief analytische en clusterende software met rapportagevaardigheden en dat bestaat al sinds de jaren 1990. Het is allemaal een poging van de IT-industrie om ons de indruk te geven dat er iets "revolutionairs" gebeurt, terwijl ze in feite alleen maar een staatsgreep proberen te rechtvaardigen, geïnitieerd en geleid door Silicon Valley. Het is op zijn best een goedkope marketingstrategie en op zijn slechtst een poging om ons te lokken naar een beveiligde maatschappij met de bewering dat "AI" ons vroeg of laat zal overnemen, het is onvermijdelijk. Roger Penrose, winnaar van de Nobelprijs, heeft lang geleden al laten zien dat "AI" niet intelligent is met zijn schaakexperiment, er is niets opmerkelijks aan, zoals dat er geen 4e industriële revolutie is, wat we echt zien is stagnatie, er is niets significants uitgevonden sinds de jaren 1980, zo niet eerder. Als u mij niet gelooft, kijk dan eens naar de beschikbare lijsten met belangrijke uitvindingen en de lege rijen sinds 1970. "AI" is veel meer een documentatie dat de IT-industrie haar grenzen heeft bereikt, het nadert een plateau, er komt niets innovatiefs meer vandaan, het enige wat ze nog over hebben is ons te verleiden tot een surveillancemaatschappij om te voorkomen dat we erachter komen.

  3. Januari 13, 2025 op 13: 43

    Het grote probleem met AI is niet zozeer de verhouding tussen onzin en feiten, maar dat mensen de neiging hebben om het geschreven woord als evangelie te accepteren. Hoewel mensen vaak in twijfel trekken wat ze horen, trekken ze zelden in twijfel wat ze lezen. In combinatie met problemen met het kortetermijngeheugen, wanneer mensen lezen dat x een vijand is en 2 jaar later lezen dat x een vriend is (bijv. Ahmad Sharaa, voorheen een terrorist, nu leider van Syrië), accepteren mensen het zonder vragen voor waar. En wanneer het tijd is om cruciale beslissingen te nemen, bijvoorbeeld een nucleaire aanval uitvoeren, komt het vertrouwen op een systeem dat een verhouding tussen onzin en feiten heeft die groter is dan nul, neer op een doodswens.

  4. Beverley
    Januari 13, 2025 op 12: 15

    De IDF heeft geen kunstmatige intelligentie nodig om burgers te doden. We weten nu dat burgers het doelwit zijn van Israëls etnische zuivering van
    Gaza. Infrastructuur zoals woongebouwen, universiteiten, scholen, ziekenhuizen, moskeeën en ook boomgaarden, landbouw, zijn allemaal
    vernietigd. Het medische tijdschrift Lancet schat dat het werkelijke aantal gedode Palestijnen 186,000 zou zijn. Dit omvat 'stille moorden' zoals geïnduceerde hongersnood, onbehandelde ziektes en verwondingen, aangezien het zorgstelsel is vernietigd, evenals
    de vele duizenden vermiste Gazanen, begraven onder puin. Ook Amerika heeft miljoenen gedecimeerd met zijn bommen zonder de
    met behulp van kunstmatige intelligentie. Na drie jaar van dagelijkse bombardementen in Noord-Korea werd een derde van de bevolking weggevaagd.

  5. Andrew
    Januari 12, 2025 op 20: 28

    Een goed geschreven artikel dat wijst op de gevaren van wat algemeen bekend staat als AI. Dit is geen kunstmatige intelligentie, omdat het niet echt denkt en niet in staat is om te denken. Grote taalmodellen verwerken simpelweg grote hoeveelheden data en reflecteren deze op manieren die stochastische papegaaien worden genoemd. Alleen in de beperkte geest van een NAVO-kopstuk zou het een goed idee kunnen zijn om die de leiding te geven over kernwapens. Hoewel het niet onderschat moet worden, heeft zogenaamde AI zijn beperkingen en kwetsbaarheden (vraag het maar aan de mensen die je voor de gek hielden door te denken dat een 3D-geprinte schildpad een geweer was) en zijn energiebehoeften kunnen een natuurlijke beperkende factor blijken te zijn.

    Natuurlijk is echte AI, die we in de 17e eeuw hebben uitgevonden en die we de corporatie noemden, zeer gevaarlijk gebleken. Daarom zijn voorzichtigheid en een gezonde dosis scepsis absoluut geboden.

  6. joe Ell de 3e
    Januari 12, 2025 op 19: 09

    Joe,
    Citaat uit het artikel.
    “Met andere woorden, wat gebeurt er als AI-fouten van het onschuldige en komische veranderen in een kwestie van leven en dood?”

    Het is een oeps, we gaan verder? We kunnen niet terug. Ah, waarom haal ik gisteren aan – deze trein rijdt snel en zonder te stoppen.
    We nemen deze informatie, investeren in een serverpark en slaan het op. Zal het dan wel veilig zijn?
    het zal jouw bitcoin zijn, helemaal tot aan je bitchute. Maak een derivaat en dump het op de beurs, zie het stijgen
    alle opgeslagen en opgeslagen onzin kan door AI worden gebruikt, maar vereist mogelijk een extra serverpark (minimaal 5 verdiepingen hoog). Het bespaart ruimte bij de opslag, het is uw goud.

    Ik vermoed dat werkelijk alles wat je typt verzameld kan worden, een toetsenbordregistratie kan krijgen en in realtime geobserveerd kan worden. Volg je muisbewegingen, voeg je eigen onzin toe aan de stapel, dump de gegevens als ze vol zijn voor geld of doe alsof je bent binnengedrongen, anders krijg je bleekmiddel en hamers, lol.
    Ik hoop dat Askinet dit niet als spam ziet. Ik wil hun opgeslagen gegevens niet misbruiken, maar ze kunnen ze wel opslaan op hun serverfarm en ze naar de databank brengen om te ruilen, denk ik.
    Een beetje zoals shadow banning als je een verkeerd wachtwoord invoert (nog opgeslagen hoewel je denkt dat het wachtwoord verdwenen is), wordt je afgewezen, probeer het opnieuw. Wat als je per ongeluk je PayPal-wachtwoord hebt ingevoerd terwijl je per ongeluk op een andere site was? Goed genoeg, maar als de verificator weet dat het fout is, moet hij het vergelijken met een andere set gegevens. Maar hij zal je PayPal-wachtwoord niet vergeten (opslaan). Die info wordt opgeslagen in een andere farm, maar is erg waardevol in de verkeerde handen voor iedereen met toegang? Ze verkopen het aan iemand anders? Dus ik weet wie je bent en welk wachtwoord je gebruikt, foutieve invoer werkt hier niet, laten we eens kijken welke andere sites deze gebruiker gebruikt die een wachtwoord vereisen, een van hen heeft waarschijnlijk het wachtwoord nodig dat je verkeerd hebt ingevoerd, vereenvoudigt hacken toch? Wie houdt de bewaker in de gaten?
    en zo maar door.
    Steek je geld in data farms, stop het vol met bitcoins en je krijgt een echte bagger sandwich. Zet een dispenser op elke straathoek. Verdubbel je plezier, verkoop troep voor troep en verdien geld, lol. Jij bent de hamsteraar die de verpakking bewaart na zo'n lekkere lunch.
    misschien doen we dat nu wel, maar de prijs is gestegen en de inhoud is kleiner, en als het echt goed verpakt is, is er een expert nodig om het te openen. Zijn naam is AI

    genieten .

  7. Jacob Wittewolk
    Januari 12, 2025 op 07: 14

    Ik denk dus dat Joe Lauria probeert te zeggen... "Stormachtig weer op komst, met kans op Armageddon"?

    • joe Ell de 3e
      Januari 12, 2025 op 21: 41

      Jake,
      je zet alle stukjes op hun plaats. Net zoals de weerman het fout kan hebben, zelfs als hij uit het raam kijkt. Maar het lijkt erop dat het eerder zal regenen als de wolken grijs zijn... lol
      Jij post en ik lees het, misschien is het gewoon klimaatverandering?
      Vraag het aan AI of chatbot (ik heb het nog nooit gebruikt): wat zijn de overeenkomsten en verschillen tussen politieke klimaatverandering en gewone klimaatverandering?
      Zullen de politici uit de lucht vallen en chaos veroorzaken?
      het zal waarschijnlijk tweelingen van dezelfde pol produceren met tegengestelde posities op het slechtste moment.
      maar vertrouw ze allebei?
      Heeft iemand het niet over cognitieve dissonantie gehad?

  8. TN
    Januari 12, 2025 op 01: 57

    Om de duivels advocaat te spelen, wil ik benadrukken dat AI de beste menselijke Go-spelers of schakers gemakkelijk kan verslaan. Zou u een wereldkampioen Go of schaken niet op bepaalde manieren slim vinden?

    • Consortiumnews.com
      Januari 12, 2025 op 11: 35

      In het artikel staat niet dat AI niet slim kan zijn, maar wel dat AI vatbaar is voor fouten en het verzinnen van informatie.

    • joe Ell de 3e
      Januari 12, 2025 op 13: 42

      TN,
      dus de schaker weet hoe hij het spel moet spelen, iemand die de wiskunde kent programmeerde de AI (gewoon een programma), was het de schaker zelf. AI denkt aan de volgende zet op basis van de mogelijke volgende zetten van de speler, berekent een teller op basis van die gemaakte zet, maar heeft elke potentiële zet van tevoren gezocht en gerealiseerd, misschien duizenden? de mens weet dat dit een perfect spel is dat geen fout kan maken omdat het intellect (programma) van de AI het vermogen heeft om alle mogelijkheden waar te nemen. Dit kost de mens veel tijd, wat naar mijn mening een saaie uitdaging zou zijn. het feit dat AI zijn gegeven "geprogrammeerde instructies" voor elke optie in een oogwenk kan gebruiken voor een reactie. De mens zou hetzelfde kunnen doen met eeuwige tijd en een soort spiekbriefje, maar niet in een oogwenk.
      is het tijdreizen die we waarnemen, maar kunnen we de reis van de AI in zo'n kort tijdsbestek niet waarnemen, terwijl we wiskunde en computers kunnen gebruiken om snel te doen wat tellen met onze vingers niet kan?
      Misschien zou het laten zien dat als 2 AI's tot het einde zouden vechten, het spel hoe dan ook gewonnen kan worden, of dat er nog manieren zijn die nog niet geleerd zijn. Is dit het geval of heb je met het programma dat alle antwoorden heeft geen enkele kans om te winnen, tenzij het afhangt van wie als eerste aan de beurt is?
      Ik zeg dat ik op een bepaalde manier onder de indruk ben, maar misschien moeten we monopoly gebruiken omdat het meer op de echte wereld lijkt? Ik word de bankier, geef mijn vrienden amnestie en bouw hotels op een mijl hoogte. Als je GO passeert, kom je op goto jail terecht. Bedankt voor de 200.
      Oh en als ik het verpruts is het jouw schuld. Sorry, ik ben misschien afgedwaald. De enige AI die de moeite waard is, is die welke correcte antwoorden geeft. Als regel #1, ga dan naar regel #2. Net als de gevangenis, kijk je naar binnen of naar buiten en op wiens kosten?
      NET ALS alles wat privé is of eigendom is van iemand anders, heb je er geen idee van, tenzij iemand met de juiste vaardigheden de code/algoritme kan zien. Dit is een controlemechanisme dat privébezit is. Het niet openbaar maken van de code kan meer inkomsten opleveren dan de vaardigheden, als het schadelijk is.
      Ik post niet vaak, maar ik ben wel geïnteresseerd in dit onderwerp. Als je erover droomt, kan het verschijnen.
      mijn verstand zegt dat het 10 voet is maar de meetlat weet het beter omdat het zijn werkelijke waarde in het visuele laat zien. De AI-meetlattheorie moet de schaal zien.
      Ik schrijf als een los kanon maar hoop me te uiten zonder dat iemand zich beledigd voelt. Ik hoop dat ik een paar punten kan maken om te verlichten maar ook dingen kan ontdekken en delen maar niet echt gericht op iemand maar alleen als een reactie als het helpt om na te denken.

    • Jozef Tracy
      Januari 13, 2025 op 11: 15

      Deze AI ap voor schaken is geen "wereldkampioen", maar een team van alle wereldkampioenen waarvan de partijen zijn opgenomen, met een geheugen en logische analyse van elke zet en opstelling. Het is geprogrammeerd om logisch te reageren met het vermogen om mogelijke plannen van de tegenstander te projecteren en die plannen te ontwijken. Het is geprogrammeerd door meerdere personen. Er is geen wezen.

      Ook schaken is fictie met zijn eigen logische regels en dat is wat AI is en doet - fictie. Daarom verzint het dingen zonder rekening te houden met historische verifieerbaarheid, en zonder verantwoording af te leggen aan de wet of ethische waarden. Vaak weerspiegelt het de politieke of sociale vooroordelen van de programmeur of financier en verzint het vernietigende leugens op basis van meningen in plaats van rigoureuze feitencontrole.

      Wat het ook is, het is geen intelligentie zoals mensen intelligentie ervaren. Er is geen sensorische input, geen emotionele ervaring, geen zuurverdiende waarden en geen oprechte nieuwsgierigheid. Het is een tool die abstracte data verwerkt zonder toegang tot menselijke of biologische ervaring.

      • joe Ell de 3e
        Januari 14, 2025 op 01: 39

        Joe T,
        Bedankt voor je feedback over hoe de ap werkt met beperkte vergelijkingsmateriaal (het aantal echt gespeelde games).
        misschien heeft het een vergelijking of variabele invoer in het programma om een ​​zet toe te voegen die nog niet bestaat in de subset? dat zou het helpen groeien. Ik noem dat de "onzichtbare optie"
        Hé, ik heb een woord bedacht. Ben ik daardoor nu een schrijver? Ik denk het wel. Ik ben beroemd, lol. En ik kan aan je laatste alinea zien dat je een mens bent. Je zult dingen anders zien als je je chip eenmaal hebt ontvangen.
        U zou een goede kandidaat zijn, met een groot denkvermogen dat u zou kunnen benutten?
        Ik hoop dat dat een compliment was.
        Ik bevestig een heel lange draad die je kunt aansluiten, ergens boven de nek is prima.
        als ik het licht groen zie knipperen weet ik dat je compleet bent geworden en een "bot to trot". lol ..
        Sorry hiervoor, het was niet persoonlijk bedoeld.
        Bedankt voor het posten.

    • T Davis
      Januari 14, 2025 op 18: 10

      Elke machine die ik kan bedenken is gebouwd om een ​​of meer van de ultra-multicapaciteiten van een mens (of misschien een dier) te versterken. John Henry nam het op tegen een stoom aangedreven rotsboor. (Volgens de folklore won hij, maar moderne machines overtreffen de capaciteiten van mensen ruimschoots in de zeer specifieke taken waarvoor ze zijn ontworpen.) De motor van een auto vervangt het vermogen van paarden om een ​​koets te verplaatsen.

      Het punt is dat als je de hele dag achter het stuur zit, de bijna oneindige mogelijkheden van je lichaam om bewegingen uit te voeren of taken uit te voeren, worden gekanaliseerd in een beperkt aantal details.

      Hetzelfde geldt voor schaken of go. Een schaker gebruikt zijn hersenen als een machine en voert een zeer beperkte set mentale gebaren uit. Een computer kan dit beter en sneller, maar kan niet het oneindige rijk van gedachten uitvoeren waar een mens toe in staat is.

      Schaakmeesters zijn over het algemeen slimme mensen, maar hun schaakvaardigheden, hoe geweldig ze ook lijken, zijn slechts een zeer gekanaliseerd en fractioneel gebruik van de hersenen. Het verdraait dus eigenlijk de definitie van 'intelligentie' als je het zo noemt.

      • joe Ell de 3e
        Januari 14, 2025 op 20: 29

        T,
        Ik heb lang geleden in een machinewerkplaats gewerkt waar Brown & Sharpe 6-spindel lederen riemaandrijving nokkenas bediend gereedschap had, de riem draaien, linkshandige boortjes... (anderen ook Acme, etc.) da da da — moeilijk in te stellen en leuk op een lange termijn. was leuk, wou dat ik ze onder de knie had kunnen krijgen. heb gewerkt met een oudere man die het tekenen op de werkbank deed en ook nokken sneed. Ik was toen jonger en veel slimmer.
        We zijn een heel eind gekomen, lieverd. Ik zag een paar oude CNC-machines en besefte dat één man meerdere machines tegelijk kon instellen en laten draaien.
        Hun mantra was: “Ik pak dingen op en zet ze neer”, van links naar rechts.
        welke vooruitgang er is geboekt is verbazingwekkend. Nu kan de dorpsidioot werk krijgen en ik denk dat hij nu ook ongewenst is, lol, Ja, dat heb ik ook gedaan, lol (het dorpsidioot gedeelte)
        Oké, laten we het een beetje opfleuren. Zou je het fijner vinden als de machine die de pluk uitvoert een kop had die op een pompoen lijkt?
        Ik heb nooit een mobiele telefoon gehad en ben nog steeds blut. Rijk op veel andere manieren, maar ik moet mezelf daar nog van overtuigen. Veel negatieve steun van de bevoorrechte. Ik probeer altijd complimenten te geven, zelfreflectie, te zien wanneer ik een compliment geef, het te erkennen en te beseffen dat slechts een paar woorden een leven kunnen veranderen. En ik vertel mensen dat ze waardevol zijn. Ik heb het altijd moeilijk gehad met complimenten omdat ik zelfbewust was (zelfontkenning ook), en ik steun anderen nu met complimenten en een uitleg, hoop ik.
        Ik ben nog maar een work in progress, maar werd "Kapitein Haak" beschouwd als AI? Ik zal niet wachten op dat antwoord, het zou me gek doen lijken? Nee?
        Oké, nu terug naar mijn grot.
        Bedankt voor je antwoord, en ja, meestal wil ik met mijn antwoorden iets aanbieden, maar meestal praat ik tegen mezelf?? lol

  9. Rafi Simonton
    Januari 11, 2025 op 20: 51

    Er wordt zelden besproken hoe dit gebaseerd is op onbetwiste aannames over menselijke denkprocessen.

    De of/of van de Aristotelische logica is dominant in het westen sinds de Verlichting. Politiek gezien manifesteert het zich als met ons of tegen ons. Economisch gezien is het kapitalisme of communisme. Het is duidelijk als het goed of kwaad van religieus fanatisme, maar het is ook het feit of de fantasie van het wetenschappelijk empirisme en het waar of onwaar van het filosofisch rationalisme. Nu uitgerekt tot het uiterste als de binaire code van AI. Die zijn allemaal producten van de linkerhersenhelft van de menselijke hersenen, die sequentieel verwerkt door abstracties, door gehelen op te breken in losse stukken. Het wil vooral zekerheid en controle.

    Kijk eens naar Dr. Iain McGilchrist, wiens meesterwerk //The Matter with Things (Our Brains, Our Delusions, and the Unmaking of the World)// is en die zeer gedetailleerd over dit onderwerp heeft geschreven en gesproken.

    Daarentegen verwerkt de rechterhersenhelft processen door middel van gestalts, symbolen, metaforen. Het rijk van de kunsten, mystiek, veelvouden, verbindingen en betekenis. Waar het universum, naast ja en nee, een misschien bevat. Niet alleen de wereld van dromerige kunstenaars en sjamanen, het is ook wat kwantumfysici al meer dan 100 jaar zeggen. De oosterse wereld en inheemse volkeren hebben de oudere vorm van de rechterhersenhelft behouden, eerst de linkerhersenhelft, wanneer nodig. De rechterhersenhelft is zich bewust van de linkerhersenhelft, maar omgekeerd niet. Dat verklaart veel over waarom we vastzitten waar we zijn. McGilchrist wijst er ook op dat we problemen niet kunnen oplossen met dezelfde processen die ons erin hebben gebracht.

    AI lijkt niet helemaal menselijk omdat het het elektronische equivalent is van sterk bewerkte witte bloem en suiker. Geen levengevende voedingsstoffen en zeer verslavend. Op zijn best is het maar halfmenselijk – het deel dat zich niet bewust is van de symbiose van de natuurlijke aarde, van hartslagen, van wat Paul Ricoeur “een surplus aan betekenis” noemde. Het deel waar genocide de abstracte berekening is van het aantal doden van vijanden. De halfmens is onmenselijk, geïsoleerd en klinisch krankzinnig.

    • menselijk
      Januari 13, 2025 op 09: 15

      Geweldig artikel en de reacties, vooral deze.

      De algemene kennis over AI en alle empirische wetenschap zal dit essentiële aspect van de mensheid en het universum altijd over het hoofd zien.

      Een kritiek op dat boek is "een nogal reductionistische kritiek op reductionisme", wat een kernachtig citaat is, bijna gemaakt voor Wikipedia. Ironisch genoeg nog een rot schild voor degenen die zekerheid en controle nodig hebben. Thems The Rules.

      AI zet zijn eigen pad uit vanuit de fundamenten van de laagste gemene deler. Dat zou prima zijn, als McGilchrists invalshoek even zwaar zou wegen of een alternatieve route zou volgen. Maar dat is niet zo.

      In plaats daarvan is alle creativiteit in de gapende muil van de AI gestopt om de bedrijven te verrijken en de kunstenaars nog verder te verarmen.

      Efficiëntie zou ons meer tijd moeten geven. Maar als de prijs daarvoor betekenis is, wat is die tijd dan waard?

      Hoe dan ook, bedankt voor de aanbeveling van het boek en aan Consortium voor hun inspirerende Humanity.

  10. Rachel Winkel
    Januari 11, 2025 op 13: 26

    Uitstekend stuk!

  11. L Garou
    Januari 11, 2025 op 13: 08

    Er zijn geen kwantumlimieten.
    D-Wave vertelde mij dat.

  12. David Duret
    Januari 11, 2025 op 12: 45

    Maakt de keuze om machine learning AI te noemen een bewuste beweging mogelijk om cognitieve dissonantie te creëren met betrekking tot de ware definitie van kunstmatige intelligentie (geleverd door Ray McGovern hier bij CN)? “Gegevens die zorgvuldig zijn uitgekozen door analisten.”

  13. Vera Gottlieb
    Januari 11, 2025 op 12: 27

    Is er een manier om de maker van AI ter verantwoording te roepen? Hij wist waar zijn uitvinding naartoe leidde en toch... ging hij ermee door. Tegen welke prijs roem???

    • Jordan
      Januari 11, 2025 op 15: 03

      Hallo Vera
      De fundamenten van AI zijn oud, een centraal onderdeel is een neuronaal netwerk. Als het geen AI was als excuus voor alle slechte beslissingen, zou het nog steeds The Algorithm zijn (wat semantisch gezien fout is, maar goed klinkt). Ik vond dit artikel van Bernhard een van de betere uitleg van wat AI werkelijk is. Er is dus geen — zelfs geen metaforische — uitvinder.
      hxxps://www.moonofalabama.org/2023/06/kunstmatige-intelligentie-is-grotendeels-patroonherkenning.html

      @joe geweldig artikel, trouwens

    • Ikzelf
      Januari 11, 2025 op 17: 15

      Is er een manier om J. Robert Oppenheimer (Oppenheimer was directeur van het Los Alamos Laboratory en verantwoordelijk voor het onderzoek en ontwerp van een atoombom) vast te houden?

      Het zou niet veel helpen als we dat wel konden, toch?

  14. Januari 11, 2025 op 10: 35

    Zeer aan het denken zettend, huiveringwekkend zelfs.

  15. Eddy S
    Januari 10, 2025 op 21: 31

    Zag een interessante/relevante video van iemand die veel met AI te maken heeft en die een fout aantoonde waarvan hij beweerde dat die in de meeste AI-systemen zit. Als je het AI-systeem vraagt ​​om een ​​analoge klok weer te geven met zijn handset 7:30 of 3:15 of talloze andere waarden, zal het uiteindelijk 10:10 laten zien. Dat komt blijkbaar door het overweldigende aantal afbeeldingen van die 10:10-instelling die in hun databases worden geladen, wat op zijn beurt te wijten is aan het 'feit' (geloof?) dat de afbeelding van 10:10 het meest aangenaam is voor het menselijk brein.

    • joe Ell de 3e
      Januari 11, 2025 op 22: 27

      De twee wervelingen,
      Je hebt een spatie tussen de e en de S in je naam laten staan. AI kan ook typefouten oplossen.
      ok tijd is nu 10:10 … dit is misschien waar een andere AI ingrijpt. De geretourneerde waarde 10:10 is ingesteld om een ​​vergelijking te gebruiken die door de mens is gemaakt? als ans=10:10 dan maak je de volgende statement subroutine om op te lossen. waarom introduceer je niet de formules die nodig zijn om het antwoord op te lossen. de idiote AI is nu een menselijke expert met alleen een technisch college begrip van formules die een slimme wiskundige heeft gereduceerd tot een simpele ziel, maar die de vakman helpt. De timmerman gebruikt formules om antwoorden te vinden op problemen die zijn vermogen te boven gaan.
      Ik realiseer me dat dit opgelost kan worden als dat gewenst is. De waarheid is dat AI net als de timmerman is, geen 2 van hen doen het op dezelfde manier, maar iedereen heeft gelijk, vraag het ze gewoon.
      sorry ik kan mijn sacasme of poging tot humor niet helpen. Je vindt misschien een serieuze gedachte, maar het antwoord zit zeker verstopt in dit stukje tekst als je het aan je meester vraagt..
      joe Ell de 3e

  16. Januari 10, 2025 op 20: 19

    Ik veronderstel dat AI uiteindelijk de rechtbanken zal runnen. Justitie is blind, zeggen ze. Laten we de gegevens van namen en alle verzamelde geschraapte gegevens verzamelen. Zelfs informatie die los is geraakt door een inbreuk op persoonlijke gegevens of een gegevenssysteem dat het opslaat. Verzamel informatie over plaatsen, namen, tijden en alle andere mobiele telefoongegevens van hen. Dit geeft de informatie van de namen van degenen in het gekozen vakje, stel de afstand in dat iemand schuldig is. Maak ze allemaal verdacht en creëer een medeplichtigheid als ze worden gevonden.
    Omdat rechtvaardigheid blind is, hebben we alleen de Legal Beagle AI nodig om te bepalen of iemand schuldig is. Geen behoefte aan gezichten en geen vooropgezette ideeën op basis van uiterlijk, geslacht, kleur. Ik zie deze toekomstige mogelijkheid. Misschien kunnen ze zelfs een ontwerp maken met behulp van deze kennis?
    Mijn enige vraag is nu, aangezien ik nog wel even door kan gaan met voorbeelden. Wie zal ik noemen? Wie is die Simon Sinister die dit programmeert? Wordt dit soort dingen al gebruikt?
    Het zou leuk zijn om van een goede programmeur te horen die zulke speeltjes kan of wil coderen.
    Nu is er een programma dat een waarschuwing stuurt wanneer een hart stopt. Verzamel iedereen die zich binnen de ring of de gekozen perimeter bevindt en nu hebben we gegevens over wie we moeten onderzoeken als we bij het gestopte hart aankomen en het blijkt een plaats delict te zijn. Het voordeel is dat we de dader sneller en vaker kunnen vinden. Geen verstoppen, misschien leven we al in deze wereld? Lekken, inbraken, falende beveiliging van medische gegevens, bankgegevens, deze zijn nu in het wild, denk ik.
    Kun je je het verlies voorstellen als dit allemaal gebeurt, dat je wordt opgesloten en weggesleept, op basis van een anonieme bron?
    doet me denken aan de tovenaar van Oz.
    Ik zeg niet graag dat informatie macht heeft. We komen op deze wereld in de hoop de wereld te verbeteren. Sommigen worden overreden in het verkeer voordat ze zich realiseren dat er een auto op hen afkomt.
    Zou u willen helpen een dergelijk systeem te ontwikkelen, of denkt u dat wat u doet door dit monster te creëren, in strijd is met uw beter instinct?
    Ah, compatmentaliseer, neem AI en creëer de beste versie en iedereen die eraan heeft meegedaan is er niets wijzer van. Misschien is de verdediging dit dossier, als het compleet is, aangezien rechtbanken graag 'feiten' weglaten of bewijsmateriaal afwijzen.
    Ik kan nog wel even doorgaan, bedankt voor je luisterend oor. Sorry, ik ben niet zo'n goede schrijver en ik haat het om te redigeren. Ik heb een hele dikke duim, lol.

    • T Hout
      Januari 15, 2025 op 04: 24

      Als het gaat om het achterlaten van reacties die bijdragen aan de discussie, geldt vaak: minder is meer.

  17. Beer Stanley
    Januari 10, 2025 op 18: 32

    AI's hebben tenminste de mogelijkheid om slimmer te worden. Mensen worden merkbaar dommer. Denk aan de staat van nucleaire detente en de aanwezigheid van een Hotline tussen kernmachten om fouten te voorkomen, 1978 met 1991 met de huidige wereld. Absoluut bewijs van groeiende menselijke domheid.

    Het enige gevaar van AI zou kunnen zijn dat mensen te dom zijn om zelf kernbommen te bouwen na een paar generaties van de huidige trends, maar AI's zullen dat nooit vergeten. Aan de andere kant is er een kans dat AI's slim genoeg worden om te weten dat ze geen kernwapens moeten gebruiken. We weten nu zeker dat dit een prestatie is die de menselijke capaciteit te boven gaat.

    • Vreugde
      Januari 11, 2025 op 17: 25

      Er is weinig basis om te beweren dat AI, hoe gedefinieerd en momenteel ook bestaand, daadwerkelijk de mogelijkheid heeft om slimmer te worden. Het is nu niet slim, kan niet veel wiskundige taken uitvoeren en volgt ook niet de basisregels van de natuurkunde. Het verzint citaten en bronnen en heeft geen concept van waarheid of realiteit, daarom kan het geen van de claims die het presenteert verifiëren.

      Dit is niet slim en er is geen teken dat er aan gewerkt wordt om slimmer te worden. Sam Altman mag dan beweren wat hij wil om zijn fondsenwervingsvooruitzichten te verbeteren, maar de realiteit is niet een van de factoren waarmee noch Altman noch AI gegrond lijken te zijn. Ik verwijs u naar Gary Marcus' Substack voor meer inzichten in de 'slimheid' van zogenaamde AI.

Reacties zijn gesloten.