L'intelligenza artificiale sembra destinata a cambiare il mondo. Ma finora i suoi errori hanno permesso di uccidere persone innocenti, scrive uno dei due Joe Lauria.
By Joe Lauria (Non il meteorologo)
Speciale Notizie sul Consorzio
TNon c'è modo di invertire l'emergere dell'Intelligenza Artificiale nel suo cammino verso il dominio delle nostre vite. Dal servizio clienti a censura e la guerra, l'intelligenza artificiale sta lasciando il segno e il potenziale per un disastro è reale.
La quantità di contatti faccia a faccia, o persino di interazione voce a voce umana al telefono quando si fa affari, è in calo da anni e sta peggiorando con l'intelligenza artificiale. Ma l'intelligenza artificiale sta facendo molto di più che erodere la comunità, distruggere posti di lavoro e snervare le persone in attesa.
L'intelligenza artificiale è sempre più dietro le decisioni delle aziende di social media su quali post rimuovere perché violano alcuni vaghi standard della "comunità" (poiché distruggono la comunità), quando è ovvio che l'intelligenza artificiale è programmata per eliminare i messaggi politici dissidenti.
L’intelligenza artificiale decide anche chi sospendere o bandire da un sito di social media e sembra anche valutare i “ricorsi” alle sospensioni, che in molti casi verrebbero annullati se venissero applicate solo da un paio di occhi umani.
Il fondatore di Facebook Mark Zuckerberg ammesso questa settimana che, "Abbiamo creato molti sistemi complessi per moderare i contenuti, ma il problema con i sistemi complessi è che commettono errori". Facebook ammette di aver utilizzato sistemi di intelligenza artificiale per rimuovere post degli utenti.
"Anche se censurassero accidentalmente solo l'1% dei post, si tratterebbe di milioni di persone, e siamo arrivati a un punto in cui ci sono troppi errori e troppa censura", ha detto Zuckerberg.
Le assurde misure a cui viene applicata l’intelligenza artificiale includono un “think tank” a Washington che è gestito interamente dall’intelligenza artificiale. Rilascia le notizie del sito rapporti sul canale Centro politico della Beltway Grid che non ha un indirizzo di ufficio.
"La mancanza di un'impronta fisica di Beltway Grid a Washington, o in qualsiasi altro luogo del piano terreno dell'esistenza, deriva da qualcosa di più di una generosa politica di lavoro da casa. L'organizzazione non sembra richiedere ai suoi dipendenti di esistere", scrive il sito. Eppure sforna copiose quantità di resoconti, comunicati stampa e proposte ai giornalisti.
Sebbene questo possa rappresentare un uso estremo dell'intelligenza artificiale, l'interazione più consueta con il pubblico è afflitta da un altro problema: quanto l'intelligenza artificiale possa sbagliarsi.
Ancora abbastanza sperimentale
L'IA è chiaramente ancora in una fase sperimentale e, anche se sono inevitabili errori significativi, non ne hanno rallentato l'applicazione. Gli errori spaziano dal banale al ridicolo al pericoloso.
Di recente ho scoperto un esempio ridicolo.
Chiunque cerchi su Google il proprio profilo online troverà sicuramente altre persone con il loro nome esatto. Da tempo conosco Joe Lauria, un meteorologo televisivo per la filiale Fox di Kansas City, Missouri.
Siamo già stati confusi in passato. Solo due settimane fa, ho ricevuto un'e-mail da uno spettatore della Fox nella zona di Kansas City che elogiava Lauria per essere così ben vestito e mi chiedeva consigli su dove acquistare un abito. Ero curioso di sapere chi altro potesse essere confuso, così ho chiesto a Grok, il tanto decantato sistema di intelligenza artificiale di Elon Musk, chi fosse Joe Lauria.
Questa è la risposta Ho ottenuto:
"Joe Lauria è un professionista poliedrico, noto principalmente per il suo lavoro nel giornalismo e nella meteorologia. Ecco una panoramica della sua carriera basata sulle informazioni disponibili:
Giornalismo: Joe Lauria è un giornalista di affari esteri con sede alle Nazioni Unite dal 1990. Ha collaborato con numerose pubblicazioni, tra cui il Boston Globe, il London Daily Telegraph, il Johannesburg Star, il Montreal Gazette, il Wall Street Journal, il New York Times, il Washington Post, Salon.com e The Guardian.
È stato anche un reporter investigativo per il Sunday Times di Londra e Bloomberg News. Lauria è attualmente caporedattore di Consortium News, dove scrive di affari internazionali con un focus sul Medio Oriente. È coautore di libri con personaggi illustri come l'ex senatore statunitense Mike Gravel, concentrandosi sulla politica estera e il militarismo degli Stati Uniti.
Meteorologia: Joe Lauria è un meteorologo pluripremiato. Lavora come meteorologo del telegiornale serale per FOX4 a Kansas City dal gennaio 1995, trasmettendo le previsioni del tempo ogni sera della settimana alle 5:6, 9:10, XNUMX:XNUMX e XNUMX:XNUMX. Il suo approccio alla meteorologia include l'educazione degli spettatori su aspetti del meteo non comunemente riscontrabili nelle app meteo standard.
Prima del suo ruolo in FOX4, ha lavorato come capo meteorologo presso KOSA-TV a Midland, Texas, e in altre località come Orlando, Florida, e Kansas City, Missouri. È stato riconosciuto per il suo lavoro ricevendo il Sigillo di Approvazione sia dall'American Meteorological Society (AMS) che dalla National Weather Association (NWA). Lauria detiene anche la qualifica di Certified Broadcast Meteorologist (CBM) dall'AMS.
- Vita privata: Joe Lauria è nato a New Rochelle, New York, e attualmente risiede a Olathe, Kansas, con la moglie Jaye Lynn e i loro due gatti. Gli piacciono i ristoranti italiani, il golf ed è stato coinvolto nel servizio alla comunità attraverso seminari e discorsi sul meteo.
La duplice carriera di Joe Lauria nel giornalismo e nella meteorologia mette in luce i suoi molteplici interessi e il suo contributo alla comprensione e alla sicurezza del pubblico attraverso i resoconti meteorologici e i reportage approfonditi sugli affari internazionali.
Tanto per la cronaca, non ho gatti, non gioco a golf e non sono nato a New Rochelle (ma non così lontano nel Bronx). Ovviamente c'è molto umorismo in tutto questo. (È anche divertente che io sia entrato all'università indeciso se diventare giornalista o meteorologo. Poi ho visto quanta matematica è coinvolta nella meteorologia).
Tuttavia, il potenziale per simili assurdità in un sistema che sembra gradualmente prendere il sopravvento sul mondo non è sempre una cosa da ridere. È preoccupante che l'intelligenza artificiale di Grok abbia dato per scontato che due persone siano una, anziché ammettere semplicemente che ci sono diverse persone con lo stesso nome.
D'altro canto, Chat GPT ha fornito una dissertazione impressionante e incisiva, politicamente neutrale sul mio lavoro in risposta alla domanda "Chi è Joe Lauria?" Era quasi come se l'avessi assunto come mio agente di pubbliche relazioni. Il saggio sembra come se Chat GPT avesse trascorso mesi a leggere tutto ciò che avevo scritto, quando è stato generato in pochi secondi. Non c'era traccia nemmeno del meteorologo di Kansas City.
Tuttavia, quando ho approfondito un po' di più la sua "conoscenza" di me, mi sono reso conto che tutto si inventava dal nulla. Quando gli ho chiesto quali libri avessi scritto, invece di nominare i libri che avevo effettivamente scritto, mi è uscito un titolo completamente fittizio di un presunto libro di saggistica: L'Assange Agenda: L'eredità del fondatore di Wikileaks. Presupponeva addirittura un editore: Clarity Press.
Non esiste un libro del genere. Basandosi sulla sua conoscenza del mio reportage su Julian Assange, ha fatto una ridicola supposizione su un libro immaginario che pensava avessi scritto io. In breve, molta IA è una stronzata.
AI e guerra

I danni a Gaza. (Naaman Omar\Palestinian News & Information Agency, Wafa, per APAimages, Wikimedia Commons, CC BY-SA 3.0)
Per quanto ridicoli siano questi risultati, per quanto frustranti stiano diventando le interazioni senza esseri umani nel servizio clienti, come la rimozione di post accattivanti sui social media da parte dell'intelligenza artificiale, e per quanti posti di lavoro vengano persi a causa dell'intelligenza artificiale, la preoccupazione più straziante riguardo all'intelligenza artificiale è il suo utilizzo nella condotta della guerra.
In altre parole, cosa succede quando gli errori dell'intelligenza artificiale passano dall'essere innocui e comici a questioni di vita o di morte?
Ora La rivista ha riferito a dicembre dell'uso dell'intelligenza artificiale da parte di Israele per uccidere civili nel suo genocidio a Gaza:
"Un programma noto come 'The Gospel' genera suggerimenti per edifici e strutture in cui i militanti potrebbero operare. 'Lavender' è programmato per identificare i presunti membri di Hamas e di altri gruppi armati da assassinare, dai comandanti fino ai soldati semplici. 'Dov'è papà?' riferito segue i loro movimenti tracciando i loro telefoni per prenderli di mira, spesso nelle loro case, dove la loro presenza è considerata una conferma della loro identità. L'attacco aereo che segue potrebbe uccidere tutti i membri della famiglia del bersaglio, se non tutti gli abitanti del condominio.
Questi programmi, che le Forze di Difesa Israeliane (IDF) hanno riconosciuto di essere in fase di sviluppo, potrebbero aiutare a spiegare il ritmo della campagna di bombardamenti più devastante del XXI secolo…”
La rivista israeliana +972 e The Guardian ha diffuso la notizia ad aprile, segnalando che l'intelligenza artificiale aveva selezionato fino a 37,000 obiettivi (il numero dovrebbe essere molto più alto da aprile), semplificando un processo che prima avrebbe richiesto un'analisi umana e un'autorizzazione legale prima di poter sganciare una bomba.
Sottoposta a forti pressioni, Lavender divenne un elemento indispensabile per sganciare sempre più bombe su Gaza. The Guardian riportato:
"'Eravamo costantemente sotto pressione: 'Portateci più obiettivi'. Ci urlavano contro', ha detto un ufficiale dell'intelligence [israeliana]. 'Ci è stato detto: ora dobbiamo fottere Hamas, non importa a quale costo. Qualunque cosa possiate, bombardatela'.
Per soddisfare questa richiesta, l’IDF ha iniziato a fare molto affidamento su Lavender per generare un database di individui ritenuti aventi le caratteristiche di un PIJ [Jihad islamica palestinese] o di un militante di Hamas. […]
Dopo aver effettuato un campionamento casuale e verificato le sue previsioni, l'unità ha concluso che Lavender aveva raggiunto un tasso di precisione del 90%, hanno affermato le fonti, portando le IDF ad approvarne l'uso su vasta scala come strumento di raccomandazione degli obiettivi.
Lavender ha creato un database di decine di migliaia di individui che sono stati contrassegnati come membri prevalentemente di basso rango dell'ala militare di Hamas",
Il novanta percento non è una valutazione indipendente della sua accuratezza, ma la valutazione stessa dell'IDF. Anche se la usiamo, significa che su 100 persone che Israele prende di mira usando questo sistema, almeno 10 sono completamente innocenti per sua stessa ammissione.
Ma non stiamo parlando di 100 individui presi di mira, ma di "decine di migliaia". Fate i conti. Su 10,000 presi di mira, 1,000 sono vittime innocenti, accettabili per essere uccise dall'IDF.
Ad aprile dell'anno scorso, Israele ha sostanzialmente ammesso che 3,700 innocenti abitanti di Gaza erano stati uccisi a causa della sua IA. Questo è successo otto mesi fa. Quanti altri sono stati massacrati?
The National giornale di Abu Dhabi segnalati:
“Gli esperti di tecnologia hanno avvertito Israelel'esercito di un potenziale "errore di parzialità estremo" nell'affidarsi ai Big Data per prendere di mira le persone in Gaza mentre usando intelligenza artificiale programmi. […]
L'impiego da parte di Israele di potenti sistemi di intelligenza artificiale ha spinto il suo esercito a entrare in un territorio per una guerra avanzata mai vista prima su così larga scala tra soldati e macchine.
Rapporti non verificati affermano che i sistemi di intelligenza artificiale presentavano "un errore di distorsione estremo, sia nei dati di targeting utilizzati, sia nell'azione cinetica", ha affermato la Sig.ra Hammond-Errey in risposta a una domanda di The NationalUn errore di polarizzazione estremo può verificarsi quando un dispositivo è calibrato in modo errato, quindi calcola male le misurazioni.
L'esperto di intelligenza artificiale e direttore delle tecnologie emergenti presso l'Università di Sydney ha ipotizzato che ampi set di dati "altamente personali e commerciali" indichino che le forze armate "non hanno effettivamente la capacità di verificare" gli obiettivi e che questo possa essere "un fattore che contribuisce a errori così grandi".
Ha affermato che ci vorrà "molto tempo prima che noi possiamo realmente accedere a queste informazioni", se mai "per valutare alcune delle realtà tecniche della situazione", mentre i combattimenti a Gaza continuano".
Di sicuro l'IA dell'IDF deve essere più sofisticata delle versioni di IA disponibili in commercio per il grande pubblico, come Grok o ChatGPT. E tuttavia l'IDF ammette che c'è almeno un tasso di errore del 10 percento quando si tratta di decidere chi dovrebbe vivere e chi dovrebbe morire.
Per quel che vale, ChatGPT, uno dei più popolari, afferma che i pericoli degli errori nel sistema Lavender sono:
- “Distorsione nei dati:Se Lavender viene addestrato su dati che provengono in modo sproporzionato da determinate fonti, potrebbe portare a risultati distorti, come l'identificazione errata del comportamento di gruppi specifici o la valutazione errata di determinati tipi di segnali.
- Set di dati incompleti o distorti: Se i dati utilizzati per la formazione sono incompleti o non coprono un'ampia gamma di potenziali minacce, l'IA potrebbe perdere segnali critici o interpretare erroneamente attività innocue come minacce.” (enfasi aggiunta.)”
AI e armi nucleari

Un disegno di legge del Senato degli Stati Uniti vieterebbe il coinvolgimento dell'intelligenza artificiale nelle armi nucleari. (Guardia nazionale dell'esercito americano, Ashley Goodwin, di pubblico dominio)
La preoccupazione che gli errori dell'intelligenza artificiale possano portare a un disastro nucleare si riflette nel disegno di legge del Senato degli Stati Uniti S. 1394, intitolato "Block Nuclear Launch by Autonomous Artificial Intelligence Act" del 2023. Il disegno di legge
"vieta l'uso di fondi federali per un sistema di armi autonomo che non sia soggetto a un controllo umano significativo per lanciare un'arma nucleare o per selezionare o colpire obiettivi allo scopo di lanciare un'arma nucleare.
Per quanto riguarda un sistema di armi autonomo, il controllo umano significativo significa il controllo umano di (1) selezione e ingaggio degli obiettivi: e (2) tempo, luogo e modalità di utilizzo."
Il disegno di legge non è uscito dal Comitato per i servizi armati del Senato. Ma lascia che sia la NATO a ridicolizzarlo. Un carta pubblicato nella Revisione della NATO lo scorso aprile si lamentava che:
"Sembra che siamo sulla buona strada per sviluppare un quadro diplomatico e normativo che limiti l'IA nei sistemi di armi nucleari. Ciò è preoccupante per almeno due motivi:
- L'intelligenza artificiale ha un'utilità che rafforzerà la deterrenza nucleare senza necessariamente espandere l'arsenale nucleare.
La corsa al bando dell’intelligenza artificiale dalle difese nucleari sembra essere radicata in un malinteso sullo stato attuale dell’intelligenza artificiale, un malinteso che sembra essere più informato dalla narrativa popolare che dalla scienza popolare”. […]
Il tipo di intelligenza artificiale disponibile oggi non è AGI. Potrebbe passare il Test di Turing — vale a dire, potrebbe essere indistinguibile da un essere umano poiché risponde alle domande poste da un utente — ma non è capace di pensiero indipendente e certamente non è autocosciente."
In sostanza la NATO afferma che poiché l'IA non è in grado di pensare da sola [AGI] non c'è nulla di cui preoccuparsi. Tuttavia, gli esseri umani altamente intelligenti che sono in grado di pensare da soli commettono errori, per non parlare di una macchina che dipende dall'input umano.
Il documento sostiene che l'IA migliorerà inevitabilmente l'accuratezza del targeting nucleare. Da nessuna parte nel documento si trovano le parole "errore" o "sbaglio" al singolare o al plurale.
Grok ha unito due Lauria in una. Ci sono 47 centri abitati negli Stati Uniti con il nome Moscow. Tanto per dire. (Lo so, le coordinate sono tutte diverse.)
Ma l'articolo della NATO non vuole discussioni diplomatiche, lamentandosi che "la questione è stata sollevata persino nei dibattiti tra Stati Uniti e Cina al forum sulla cooperazione economica Asia-Pacifico, che si è riunito a San Francisco a novembre (2023)".
Il documento conclude: “Con i potenziali benefici geopolitici che si possono realizzare, vietare l’intelligenza artificiale nelle difese nucleari è una cattiva idea”.
In un mondo sano torneremmo a interazioni puramente umane nella nostra vita quotidiana e, se la guerra non può essere prevenuta, almeno torneremmo a decisioni umane più scrupolose su chi colpire.
Dal momento che niente di tutto questo accadrà, speriamo che l'intelligenza artificiale migliori notevolmente, in modo che la commedia non si trasformi in tragedia o, peggio ancora, in una catastrofe totale.
Joe Lauria è redattore capo di Notizie del Consorzio ed ex corrispondente delle Nazioni Unite per Til Wall Street Journal, il Boston Globee altri giornali, inclusi La Gazzetta di Montreal, la Londra Mail giornaliera e La Stella di Johannesburg. È stato giornalista investigativo per la Domenica Times di Londra, giornalista finanziario per Bloomberg News e ha iniziato il suo lavoro professionale come stringer di 19 anni per The New York Times. È autore di due libri, Un'odissea politica, con il senatore Mike Gravel, prefazione di Daniel Ellsberg; E Come ho perso di Hillary Clinton, prefazione di Julian Assange.
Per favore, Assistenza CN's
Inverno Fondo Unità!
Fai una donazione deducibile dalle tasse in modo sicuro con carta di credito o assegno cliccando il pulsante rosso:
Ottimo articolo, anche se il titolo avrebbe potuto riflettere meglio la follia di tutto ciò. Per quanto riguarda l'uso di questa tecnologia da parte di Israele/USA, per loro non è un problema che ci siano degli "errori". La programmerebbero per funzionare in quel modo, proprio come hanno incoraggiato i palestinesi ad andare in "zone sicure" solo per ucciderli quando ci sono arrivati. È voluto.
Vorrei anche consigliare alla gente di leggere The Palestine Laboratory di Antony Loewenstein, che espone tutto il lavoro svolto dagli israeliani per diventare i principali esportatori di tutta questa follia.
Non esiste alcuna "IA", questa tecnologia che alcuni descrivono come "IA" non è intelligente, non può fare nulla di originale, tutto ciò che contiene è scritto da esseri umani, niente è artificiale. In realtà non contiene quasi nulla di innovativo, è apprendimento automatico avanzato, è un software di analisi e clustering efficace con capacità di redazione di report e che esiste dagli anni '1990. Tutto ciò che è è il tentativo del settore IT di darci l'impressione che stia accadendo qualcosa di "rivoluzionario" quando in realtà tutto ciò che cercano di fare è giustificare un tentativo di colpo di stato, avviato e guidato dalla Silicon Valley. È nella migliore delle ipotesi una strategia di marketing a buon mercato e nella peggiore il tentativo di attirarci in una società di sicurezza con l'affermazione che "l'IA" ci prenderà prima o poi, è inevitabile. Roger Penrose, vincitore del premio Nobel, ha dimostrato molto tempo fa che "l'IA" non è intelligente con il suo esperimento di scacchi, non c'è nulla di notevole in esso come non c'è una quarta rivoluzione industriale, ciò che vediamo davvero è stagnazione, nulla di significativo è stato inventato dagli anni '4 se non prima. Se non mi credete, date un'occhiata agli elenchi disponibili delle principali invenzioni e alle righe vuote dal 1980. "AI" è molto più una documentazione del fatto che l'industria IT ha raggiunto i suoi limiti, si sta avvicinando a un plateau, non c'è più nulla di innovativo in arrivo da lì, tutto ciò che resta loro è tentarci in una società della sorveglianza per evitare che potremmo scoprirlo.
Il grande problema dell'IA non è tanto il rapporto tra stronzate e fatti, quanto il fatto che gli esseri umani hanno la tendenza ad accettare la parola scritta come vangelo. Mentre le persone mettono spesso in discussione ciò che sentono, raramente mettono in discussione ciò che leggono. Aggiunto a problemi di memoria a breve termine, quando le persone leggono che x è un nemico e 2 anni dopo leggono che x è un amico (ad esempio, Ahmad Sharaa, ex terrorista, ora leader della Siria), le persone lo accettano per quello che è senza fare domande. Quindi, quando arriva il momento di prendere decisioni critiche, ad esempio, lanciare un attacco nucleare, affidarsi a qualsiasi sistema che abbia un rapporto tra stronzate e fatti maggiore di zero equivale a un desiderio di morte.
L'IDF non ha bisogno dell'intelligenza artificiale per uccidere i civili. Ora sappiamo che i civili sono presi di mira nella pulizia etnica di Israele.
Gaza. Infrastrutture come edifici residenziali, università, scuole, ospedali, moschee, così come frutteti e agricoltura, sono tutti
distrutto. La rivista medica Lancet ha stimato che il numero effettivo di palestinesi uccisi sarebbe di 186,000. Ciò include "uccisioni silenziose" come la fame indotta, malattie e ferite non curate poiché il sistema sanitario è stato distrutto, così come
le migliaia di abitanti di Gaza dispersi, sepolti sotto le macerie. Anche l'America ha decimato milioni di persone con le sue bombe senza la
con l'aiuto dell'intelligenza artificiale. Dopo tre anni di bombardamenti quotidiani in Corea del Nord, un terzo della popolazione è stato spazzato via.
Un articolo ben scritto che sottolinea i pericoli di quella che comunemente viene chiamata IA. Questa non è intelligenza artificiale perché in realtà non pensa, ed è incapace di pensare. I Large Language Models elaborano semplicemente grandi quantità di dati e ce li riflettono in modi che sono stati definiti pappagalli stocastici. Solo nella mente limitata di un pezzo grosso della NATO potrebbe essere considerata una buona idea affidargli la responsabilità delle armi nucleari. Sebbene non debba essere sottovalutata, la cosiddetta IA ha i suoi limiti e le sue vulnerabilità (basta chiedere alle persone che hanno ingannato qualcuno facendogli credere che una tartaruga stampata in 3D fosse un fucile) e le sue esigenze di potenza potrebbero rivelarsi un fattore limitante naturale.
Naturalmente la vera intelligenza artificiale, che abbiamo inventato nel XVII secolo e chiamato corporazione, si è dimostrata molto pericolosa, per cui sono sicuramente necessari cautela e un sano scetticismo.
Joe,
Citazione dall'articolo .
“In altre parole, cosa succede quando gli errori dell’intelligenza artificiale passano dall’innocuo e comico a questioni di vita o di morte?”
È un errore, andiamo avanti? Non possiamo tornare indietro. Ah, perché tirare in ballo ieri? Questo treno si muove veloce e senza sosta.
Prendiamo queste informazioni, investiamo in una server farm, le memorizziamo, saranno sicuramente al sicuro?
sarà il tuo bitcoin direttamente nel tuo pozzo. Crea un derivato e scaricalo sul mercato azionario, guardalo salire alle stelle
Tutte le sciocchezze salvate e immagazzinate possono essere utilizzate dall'intelligenza artificiale, ma potrebbero richiedere una server farm aggiuntiva (alta almeno 5 piani), risparmiando spazio di archiviazione, è il tuo oro.
Immagino che in realtà tutto ciò che viene digitato possa essere raccolto, registrato e osservato in tempo reale. Puoi anche tracciare i movimenti del mouse, aggiungere le tue sciocchezze alla pila e, quando sono piene, scaricare i dati per soldi o fingere un'intrusione, altrimenti usa candeggina e martelli, lol.
Spero che Askinet non consideri questo come spam. Non vogliono alterare i dati salvati, ma suppongo che possano archiviarli nella loro server farm e trasferirli alla banca dati per lo scambio.
Un po' come lo shadow banning se digiti una password errata (ma salvata anche se pensi che la password sia scomparsa) ti rifiuta, riprova. E se per sbaglio hai inserito la password PayPal su un altro sito per sbaglio? Abbastanza bene, ma se il verificatore sa che è sbagliata deve confrontarla con un altro set di dati. Ma non dimenticherà (memorizzerà) la tua password PayPal. Quelle informazioni saranno archiviate in un'altra farm ma saranno molto preziose nelle mani sbagliate per chiunque abbia accesso? Le vendono a qualcun altro? Quindi so chi sei e la password che usi, l'errore di immissione non funziona qui, vediamo quali altri siti usa questo utente che richiedono una password, uno di questi probabilmente ha bisogno della password che hai inserito in modo errato, semplifica l'hacking, no? Chi controlla il guardiano?
e così via.
investi i tuoi soldi in data farm, riempili di bitcoin e ti ritroverai con un panino davvero di merda. Metti un distributore a ogni angolo di strada. Raddoppia il tuo divertimento, vendi merda per merda e incassa, lol. Sarai l'accumulatore che conserva la confezione dopo un pranzo così buono.
forse lo facciamo ora ma il prezzo è aumentato e il contenuto è più piccolo, e se è confezionato davvero bene ci vorrà un esperto per aprirlo... Il suo nome è AI
Godere .
Quindi penso che ciò che Joe Lauria sta cercando di dire è... "Tempesta in arrivo, con possibilità di Armageddon"?
Giacomo,
hai messo insieme tutti i pezzi. come se il meteorologo potesse sbagliarsi anche guardando fuori dalla finestra. ma sembra che piova più facilmente quando le nuvole sono grigie.. lol
tu pubblichi e io leggo, forse è solo il cambiamento climatico?
Chiedi all'intelligenza artificiale o al chatbot (non l'ho mai usato finora): quali sono le somiglianze e le differenze tra il cambiamento climatico politico e il semplice cambiamento climatico?
i politici cadranno dal cielo e causeranno il caos?
probabilmente produrrà gemelli dello stesso sesso con posizioni opposte nel momento peggiore.
ma fidarsi di entrambi?
Nessuno ha menzionato la dissonanza cognitiva?
Per fare l'avvocato del diavolo, vorrei sottolineare che l'intelligenza artificiale può facilmente battere i migliori giocatori umani di Go o di scacchi. Non considereresti intelligente, in un certo senso, un campione del mondo di Go o di scacchi?
L'articolo non afferma che l'intelligenza artificiale non possa essere intelligente, ma che è incline a commettere errori e a inventare informazioni.
TN,
quindi il giocatore di scacchi sa come giocare, qualcuno che conosce la matematica ha programmato l'IA (solo un programma), era lo stesso giocatore di scacchi. L'IA pensa alla mossa successiva in base alle possibili mosse successive del giocatore, calcola un contatore in base a quella mossa fatta ma ha cercato e realizzato ogni potenziale mossa in anticipo, forse migliaia? l'umano sa che questo è un gioco perfetto che non può commettere errori perché l'intelletto (programma) della capacità dell'IA di percepire? tutte le possibilità. Questo richiede molto tempo per l'umano che sarebbe una sfida noiosa imo. il fatto che l'IA possa usare le sue "istruzioni programmate" fornite per ogni opzione in un istante per una risposta. L'umano potrebbe fare la stessa cosa con il tempo eterno e una specie di promemoria ma non in un istante.
È un viaggio nel tempo di cui siamo testimoni ma non possiamo percepirlo? È un viaggio dell'intelligenza artificiale in un lasso di tempo così breve, ma possiamo usare la matematica, i computer e fare ciò che il conteggio con le dita non può fare rapidamente?
Forse se due IA si sfidassero fino alla fine, dimostrerebbero che la partita può essere vinta in ogni caso o che ci sono modi che non sono ancora stati appresi per dimostrare che uno o l'altro può vincere. È così o con il programma che ha tutte le risposte non hai alcuna possibilità di vincere, a meno che non dipenda da chi muove per primo?
Dico che sono impressionato in un certo senso, ma forse dovremmo usare il monopolio perché sembra un gioco più vicino al mondo reale? Sarò il banchiere, darò l'amnistia ai miei amici e costruirò hotel alti un miglio. Se passi dal VIA finirai in prigione, grazie per i 200.
Oh, e se sbaglio è colpa tua. Mi dispiace, forse ho deviato. L'unica IA utile è quella che restituisce le risposte corrette. Se è la regola n. 1, allora vai alla regola n. 2. Come in prigione, stai guardando dentro o fuori e a spese di chi?
COME qualsiasi cosa privata o di proprietà di qualcun altro, non ne hai idea a meno che qualcuno capace non riesca a vedere il codice/algoritmo, che è un meccanismo di controllo di proprietà privata. La mancata divulgazione può fruttare più guadagni delle competenze, se è nefasta.
Non pubblico spesso ma questo argomento mi interessa e se lo sogni può apparire.
la mia mente dice che sono 10 piedi, ma il metro lo sa meglio, in quanto mostra il suo valore effettivo nel visivo. La teoria del metro AI ha bisogno di vedere la scala.
Scrivo come un cannone sciolto ma spero di esprimermi senza che nessuno si offenda. Spero di poter fare qualche punto per illuminare ma anche scoprire cose e condividere ma non veramente diretto a nessuno ma solo come risposta se aiuta il pensiero.
Questa app AI per gli scacchi non è "un campione del mondo", ma una squadra di tutti i campioni del mondo le cui partite sono state registrate, con una memoria e un'analisi logica di ogni mossa e disposizione. È stata programmata per rispondere logicamente con la capacità di proiettare possibili piani dell'avversario e di eludere tali piani. È stata programmata da più individui. Non c'è alcun essere lì.
Anche gli scacchi sono una finzione con le sue regole logiche e questo è ciò che l'IA è e fa: finzione. Ecco perché inventa cose senza riguardo per la verificabilità storica e senza responsabilità nei confronti della legge o dei valori etici. Spesso riflette i pregiudizi politici o sociali del programmatore o del finanziatore e inventa bugie schiaccianti basate su opinioni piuttosto che su un rigoroso controllo dei fatti.
Qualunque cosa sia, non è intelligenza come l'intelligenza la sperimentano gli umani. Non c'è input sensoriale, nessuna esperienza emotiva, nessun valore duramente guadagnato e nessuna genuina curiosità. È uno strumento che elabora dati astratti senza accesso all'esperienza umana o biologica.
Joe T.,
Grazie per il tuo feedback su come funziona l'AP con comparabili limitati (la quantità di partite reali giocate)
forse ha qualche equazione o input variabile nel programma per aggiungere una mossa che non esiste ancora nel sottoinsieme? questo lo aiuterebbe a crescere. Lo chiamerò "opzione invisibile"
Ehi, ho coniato una parola, questo mi qualifica come scrittore adesso? Penso di sì. Sono famoso, lol e posso dire che sei umano dal tuo ultimo paragrafo, vedrai le cose in modo diverso una volta ricevuto il tuo chip.
saresti un buon candidato, hai grandi capacità di pensiero da sfruttare?
Spero che fosse un complimento.
Ti allego un filo molto lungo da collegare, va bene qualsiasi punto sopra il collo.
quando vedrò la luce lampeggiare di verde saprò che sei diventato completo e un "robot che trotterella". lol ..
Mi dispiace, non volevo offenderti.
Grazie per la pubblicazione.
Ogni macchina a cui riesco a pensare è costruita per amplificare una o più delle capacità ultra-multi di una persona (o, forse, di un animale). John Henry gareggiò contro una trivella a vapore. (Secondo il folklore vinse, ma le macchine moderne superano di gran lunga le capacità degli esseri umani nei compiti molto particolari per cui sono progettate.) Il motore di un'auto sostituisce la capacità dei cavalli di muovere una carrozza.
Il punto è che se passi tutto il giorno a guidare, le capacità pressoché infinite del tuo corpo di eseguire movimenti o compiti vengono incanalate in una ristretta gamma di particolari.
Lo stesso vale per gli scacchi o il go. Un giocatore di scacchi usa il suo cervello come una macchina, eseguendo un insieme molto limitato di gesti mentali. Un computer può farlo meglio e più velocemente, ma non può eseguire l'infinito regno del pensiero di cui è capace un essere umano.
I maestri di scacchi possono essere generalmente persone intelligenti, ma la loro abilità negli scacchi, per quanto possa sembrare straordinaria, è solo un uso molto incanalato e frazionato del cervello, quindi in realtà distorce gravemente la definizione di "intelligenza" chiamarla in questo modo.
T,
Tempo fa lavoravo in un'officina meccanica che aveva utensili a camme con trasmissione a cinghia in pelle a 6 mandrini Brown & Sharpe, cinghia di trasmissione, punte da trapano per mancini (anche altre Acme, ecc.) da da da — difficili da installare e divertenti a lungo termine. È stato divertente, avrei voluto saperli padroneggiare. Ho lavorato con un tizio più grande che disegnava sul banco e tagliava anche le camme. Ero più giovane allora e molto più intelligente.
Abbiamo fatto molta strada, tesoro. Ho visto alcune vecchie macchine CNC e ho capito che un solo uomo poteva impostarle e farle funzionare con diversi macchinari.
Il loro mantra era "Prendo le cose e le rimetto giù" da sinistra a destra.
i progressi fatti sono incredibili. Ora l'idiota del villaggio potrebbe trovare lavoro e suppongo, ma ormai è anche indesiderato, lol, sì, l'ho fatto anch'io, lol (la parte dell'idiota del villaggio)
Ok, rendiamolo un po' più speciale: ti sentiresti meglio se la macchina che raccoglie la patch avesse una testa che assomiglia a una zucca?
Non ho mai posseduto un cellulare e sono comunque diventato ricco in molti altri modi, ma devo ancora convincermi di questo... un sacco di supporto negativo da parte di chi ha diritto. Cerco sempre di fare complimenti, di riflettere su me stesso, di vedere quando faccio complimenti indiretti, di ammetterlo e di realizzare che solo poche parole possono cambiare una vita. E dico alle persone che sono preziose. Ho sempre avuto difficoltà con i complimenti perché ero consapevole di me stesso (anche di abnegazione), e ora sostengo gli altri con complimenti e spiegazioni, spero.
Sono solo un work in progress, ma "Capitan Uncino" è stato considerato un'intelligenza artificiale? Non starò lì ad aspettare quella risposta, mi farebbe sembrare pazzo? no?
Ok, ora torno alla mia caverna.
Grazie per aver risposto, e sì, per lo più le mie risposte mi piace offrire qualcosa ma per lo più parlo da solo?? lol
Raramente si discute di come tutto ciò si basi su presupposti indiscussi sui processi di pensiero umano.
L'o/o della logica aristotelica è stato dominante in Occidente sin dall'Illuminismo. Politicamente, si manifesta come con noi o contro di noi. Economicamente, è capitalismo o comunismo. È ovvio come il bene o il male del fanatismo religioso, ma è anche il fatto o la fantasia dell'empirismo scientifico e il vero o il falso del razionalismo filosofico. Ora esteso al suo estremo come codice binario dell'IA. Tutti prodotti dell'emisfero sinistro del cervello umano, che elabora in sequenza attraverso astrazioni, scomponendo interi in pezzi scollegati. Soprattutto, vuole certezza e controllo.
Date un'occhiata al dottor Iain McGilchrist, il cui capolavoro è //The Matter with Things (Our Brains, Our Delusions, and the Unmaking of the World)//, che ha scritto e parlato di questo argomento in modo molto dettagliato.
Al contrario, l'emisfero destro elabora per mezzo di gestalt, simboli, metafore. Il regno delle arti, del misticismo, delle molteplicità, delle connessioni e del significato. Dove l'universo, oltre al sì e al no, contiene un forse. Non solo il mondo degli artisti sognatori e degli sciamani, è anche ciò che i fisici quantistici affermano da oltre 100 anni. Il mondo orientale e i popoli indigeni hanno mantenuto la forma più antica del cervello destro prima, poi del sinistro quando necessario. Il destro è consapevole del sinistro, ma il contrario non è così. Il che spiega molto sul perché siamo bloccati dove siamo. McGilchrist sottolinea anche che non possiamo risolvere i problemi usando gli stessi processi che ci hanno portato in essi.
L'intelligenza artificiale non sembra del tutto umana perché è l'equivalente elettronico di farina bianca e zucchero altamente lavorati. Non apporta nutrienti vitali ed è altamente avvincente. Nella migliore delle ipotesi, è solo per metà umana, la parte ignara delle simbiosi della Terra naturale, dei battiti cardiaci, di ciò che Paul Ricoeur chiamava "un surplus di significato". La parte in cui il genocidio è il calcolo astratto del conteggio delle uccisioni nemiche. Il mezzo umano è disumano, isolato e clinicamente folle.
Ottimo articolo e ottimi commenti, in particolare questo.
La conoscenza comune dell'intelligenza artificiale e tutta la scienza empirica ignoreranno sempre questo aspetto essenziale dell'umanità e dell'universo.
Una critica a quel libro è "una critica piuttosto riduzionista del riduzionismo", che è una citazione concisa, quasi fatta per Wikipedia. Ironicamente un altro scudo marcio per coloro che richiedono certezza e controllo. Thems The Rules.
L'intelligenza artificiale sta tracciando il suo percorso partendo da fondamenta di minimo comune denominatore. Il che andrebbe bene, se all'angolazione di McGilchrist venisse dato lo stesso peso o una strada alternativa. Ma non è così.
Al contrario, tutta la creatività è stata convogliata nelle fauci spalancate dell'intelligenza artificiale per arricchire i maiali e impoverire ulteriormente gli artisti.
L'efficienza dovrebbe darci più tempo. Ma se il prezzo per questo è il significato, allora quanto vale quel tempo?
In ogni caso, grazie per avermi consigliato il libro e grazie al Consortium per la loro umanità stimolante.
Utilizzando Perplexity dot AI si ottiene un risultato più accurato e non viene menzionato il tizio Fox.
Ottimo pezzo!
Non ci sono limiti quantistici.
Me l'ha detto D-Wave.
La scelta di chiamare l'apprendimento automatico AI consente un movimento intenzionale per creare dissonanza cognitiva rispetto alla vera definizione di intelligenza artificiale (fornita da Ray McGovern qui su CN)? "Dati selezionati da analisti scelti a mano".
C'è un modo per ritenere responsabile il creatore dell'IA? Sapeva dove la sua invenzione lo avrebbe portato e tuttavia... ha continuato con essa. A quale costo la fama???
Ciao Vera
Le fondamenta dell'IA sono vecchie, una componente centrale è una rete neuronale. Se non fosse l'IA come scusa per tutte le cattive decisioni, sarebbe ancora The Algorithm (che è semanticamente sbagliato ma suona bene). Ho trovato questo articolo di Bernhard come una delle migliori spiegazioni di cosa sia realmente l'IA. Quindi non c'è nessun inventore, nemmeno metaforico.
hxxps://www.moonofalabama.org/2023/06/l-intelligenza-artificiale-è-principalmente-riconoscimento-di-modelli.html
@joe ottimo articolo, comunque
C'è un modo per trattenere J. Robert Oppenheimer (Oppenheimer era direttore del Los Alamos Laboratory e responsabile della ricerca e della progettazione di una bomba atomica)
Non ci aiuterebbe molto se potessimo farlo, vero?
Molto stimolante, agghiacciante.
Ho visto un video interessante/rilevante di una persona molto coinvolta nell'intelligenza artificiale che ha dimostrato un difetto che, a suo dire, è presente nella maggior parte dei sistemi di intelligenza artificiale. Se chiedi al sistema di intelligenza artificiale di visualizzare un orologio analogico con il suo ricevitore 7:30 o 3:15 o numerosi altri valori, finirà per mostrare 10:10. Apparentemente è dovuto all'enorme numero di immagini di quell'impostazione 10:10 caricate nei loro database, a sua volta dovuto al "fatto" (credenza?) che l'immagine di 10:10 è la più piacevole per il cervello umano.
I due vortici,
hai lasciato uno spazio tra la e e la S nel tuo nome. Anche l'intelligenza artificiale può risolvere gli errori di battitura.
ok, ora sono le 10:10... potrebbe essere qui che interviene un'altra IA. Il valore restituito 10:10 è impostato per usare un'equazione creata dall'uomo? se ans=10:10 allora crei la subroutine di istruzione successiva per risolvere. perché non introduci le formule necessarie per risolvere la risposta? l'idiota IA ora è un esperto umano con solo una conoscenza da college tecnico di formule che qualche brillante mathee ridotto a un sempliciotto usa ma aiuta l'artigiano. Il falegname usa le formule per trovare risposte a problemi che vanno oltre le sue capacità.
Mi rendo conto che questo può essere risolto se lo si desidera. La verità è che l'IA è come il falegname, nessuno di loro due lo fa allo stesso modo, ma tutti hanno ragione, basta chiedere a loro.
mi dispiace non posso fare a meno del mio saccasmo o tentativo di umorismo. Potresti trovare un pensiero serio, ma di sicuro la risposta, nascosta in questo pezzo di scrittura se la chiedi al tuo padrone..
Joe Ell il terzo
Immagino che alla fine l'intelligenza artificiale gestirà i tribunali. La giustizia è cieca, dicono. Otteniamo i dati dei nomi e tutti i dati raccolti e raschiati. Anche le informazioni messe a rischio da una violazione dei dati personali o di qualsiasi sistema di dati che le archivia. Raccogliamo informazioni su luoghi, nomi, orari e qualsiasi altro dato del cellulare. Questo fornisce le informazioni sui nomi di coloro che si trovano nella casella scelta, stabiliamo la distanza da cui chiunque è stato colpevole. Rendiamoli tutti sospetti e creiamo una complicità se trovata.
Quindi, poiché la giustizia è cieca, abbiamo bisogno solo dell'intelligenza artificiale Legal Beagle per stabilire la colpevolezza. Non c'è bisogno di volti e di idee preconcette basate su aspetto, genere, colore. Vedo questa possibilità futura. Forse possono anche fare una bozza usando questa conoscenza?
La mia unica domanda ora, visto che potrei continuare all'infinito con gli esempi, è questa: chi sono i nomi di chi verrà omesso? Chi è questo Simon Sinister che lo sta programmando? Questo tipo di cose è già in uso?
Sarebbe bello sentire il parere di un bravo programmatore che ha o è in grado di programmare tali giocattoli.
Ora un programma invia un avviso quando un cuore si ferma. Raccogli tutti coloro che potrebbero essere all'interno dell'anello o del perimetro scelto e ora abbiamo dati su chi guardare se quando si arriva al cuore fermato e si scopre che è una scena del crimine. In più potremmo trovare il colpevole più velocemente e anche in più casi. Niente nascondigli, forse viviamo già in questo mondo? Fughe di notizie, intrusioni, fallite salvaguardie mediche, registri bancari, suppongo che queste siano allo stato brado ora,
Riesci a immaginare la perdita se queste cose si realizzassero, verresti rinchiuso, trascinato via, basato su una fonte anonima?
mi ricorda il mago di Oz.
Odio dire che l'informazione è potente, veniamo al mondo sperando di renderlo un posto migliore, alcuni vengono investiti nel traffico prima di rendersi conto che c'è un'auto che gli sta venendo addosso.
aiuteresti a sviluppare un sistema come questo, o vorresti pensare che ciò che stai facendo creando questo mostro vada contro i tuoi migliori istinti?
Ah, compartimentalizziamo, prendiamo l'intelligenza artificiale e creiamo la sua versione migliore, ma nessuno dei partecipanti ne è più consapevole. Forse la difesa ritiene che questa documentazione sia completa, dato che ai tribunali piace omettere i "fatti" o non ammettere le prove.
Potrei continuare, grazie per il tuo orecchio. Mi dispiace, non sono un gran scrittore e odio l'editing, ho un pollice davvero grosso, lol
Spesso, quando si tratta di lasciare commenti che contribuiscono alla discussione, meno è meglio.
Almeno le IA hanno la possibilità di diventare più intelligenti. Gli umani stanno diventando notevolmente più stupidi. Si consideri lo stato di distensione nucleare e la presenza di una linea diretta tra le potenze nucleari per evitare errori, dal 1978 al 1991 con il mondo attuale. Sicuramente una prova della crescente stupidità umana.
L'unico pericolo dell'IA potrebbe essere che gli umani potrebbero essere troppo stupidi per costruire bombe nucleari da soli dopo qualche generazione di tendenze attuali, ma le IA non lo dimenticheranno mai. D'altra parte, c'è la possibilità che le IA diventino abbastanza intelligenti da sapere di non usare le armi nucleari. Ora sappiamo per certo che questo è un risultato che va oltre le capacità umane.
Ci sono pochissime basi per affermare che l'IA, indipendentemente da come sia definita e da come esista attualmente, abbia effettivamente la capacità di diventare più intelligente. Non è intelligente ora, non può svolgere molti compiti matematici, né seguire le regole basilari della fisica. Inventa citazioni e fonti, e non ha alcun concetto di verità o realtà, quindi non può verificare nessuna delle affermazioni che presenta.
Questa non è una cosa intelligente e non mostra alcun segno che si stia lavorando per diventare più intelligenti. Sam Altman può fare qualsiasi affermazione gli piaccia per rafforzare le sue prospettive di raccolta fondi, ma la realtà non è uno dei fattori su cui né Altman né AI sembrano basarsi. Vi rimando a Substack di Gary Marcus per ulteriori approfondimenti sull'"intelligenza" della cosiddetta AI.