A Inteligência Artificial parece destinada a mudar o mundo. Mas até agora seus erros estão sendo permitidos a matar pessoas inocentes, escreve um dos dois Joe Laurias.
By Joe Lauria (Não é o meteorologista)
Especial para notícias do consórcio
Tnão há como reverter o surgimento da Inteligência Artificial em seu caminho para dominar nossas vidas. Do atendimento ao cliente a censura e a guerra, a IA está deixando sua marca, e o potencial para desastres é real.
A quantidade de contato face a face, ou mesmo interação humana voz a voz no telefone ao fazer negócios, vem diminuindo há anos e está piorando com a IA. Mas a IA está fazendo muito mais do que apenas corroer a comunidade, destruir empregos e enervar as pessoas que esperam na linha.
A IA está cada vez mais por trás das decisões que as empresas de mídia social tomam sobre quais postagens remover porque elas violam alguns padrões vagos de "comunidade" (pois destroem a comunidade), quando é óbvio que a IA é programada para eliminar mensagens políticas dissidentes.
A IA também toma decisões sobre quem suspender ou banir de um site de mídia social e parece também avaliar “apelos” a suspensões, que em muitos casos seriam anulados se apenas um par de olhos humanos fosse aplicado.
Fundador do Facebook, Mark Zuckerberg admitiu esta semana que, “Construímos muitos sistemas complexos para moderar conteúdo, mas o problema com sistemas complexos é que eles cometem erros”. O Facebook admite que usou sistemas de IA para remover postagens dos usuários.
“Mesmo que eles censurem acidentalmente apenas 1% das postagens, isso equivale a milhões de pessoas, e chegamos a um ponto em que há muitos erros e muita censura”, disse Zuckerberg.
Os limites absurdos aos quais a IA está sendo aplicada incluem um “think tank” em Washington que está sendo totalmente administrado pela Inteligência Artificial. Soltar notícias do site relatórios na Centro de Políticas da Beltway Grid que não tem endereço comercial.
“A falta de uma pegada física da Beltway Grid em Washington — ou em qualquer outro lugar no plano terrestre da existência — decorre de mais do que apenas uma política generosa de trabalho em casa. A organização não parece exigir que seus funcionários existam de forma alguma”, escreve o site. No entanto, ela produz grandes quantidades de relatórios, comunicados à imprensa e propostas para repórteres.
Embora esse possa ser um uso extremo da IA, a interação mais comum com o público é atormentada por outro problema: o quão errada a IA pode ser.
Ainda bastante experimental
A IA claramente ainda está em estágio experimental e, embora erros significativos sejam inevitáveis, eles não retardaram sua aplicação. Os erros variam do mundano ao ridículo e ao perigoso.
Recentemente descobri um exemplo do ridículo.
Qualquer um que pesquise no Google por seu perfil online está fadado a encontrar outras pessoas com o mesmo nome exato. Há muito tempo que conheço Joe Lauria, um meteorologista da TV para a afiliada da Fox em Kansas City, Missouri.
Já ficamos confusos antes. Há apenas duas semanas, recebi um e-mail de um telespectador da Fox na área de Kansas City elogiando Lauria por estar tão bem vestida e me pedindo conselhos sobre onde comprar um terno. Fiquei curioso sobre quem mais poderia estar confuso, então perguntei a Grok, o sistema de IA muito elogiado de Elon Musk, quem é Joe Lauria.
Este é o resposta Eu tenho:
“Joe Lauria é um profissional multifacetado conhecido principalmente por seu trabalho em jornalismo e meteorologia. Aqui está uma visão geral de sua carreira com base nas informações disponíveis:
Jornalismo: Joe Lauria é jornalista de relações exteriores nas Nações Unidas desde 1990. Ele contribuiu para inúmeras publicações, incluindo o Boston Globe, o London Daily Telegraph, o Johannesburg Star, o Montreal Gazette, o Wall Street Journal, o New York Times, o Washington Post, o Salon.com e o The Guardian.
Ele também foi repórter investigativo do The Sunday Times de Londres e da Bloomberg News. Lauria é atualmente editor-chefe do Consortium News, onde escreve sobre assuntos internacionais com foco no Oriente Médio. Ele foi coautor de livros com figuras notáveis como o ex-senador dos EUA Mike Gravel, com foco na política externa e militarismo dos EUA.
Meteorologia: Joe Lauria é um meteorologista premiado. Ele trabalha como meteorologista do noticiário noturno da FOX4 em Kansas City desde janeiro de 1995, transmitindo previsões do tempo todas as noites da semana às 5h, 6h, 9h e 10h. Sua abordagem à meteorologia inclui educar os espectadores sobre aspectos do clima que não são comumente encontrados em aplicativos de clima padrão.
Antes de sua função na FOX4, ele atuou como meteorologista chefe na KOSA-TV em Midland, Texas, e trabalhou em vários outros locais como Orlando, Flórida, e Kansas City, Missouri. Ele foi reconhecido por seu trabalho ao receber o Selo de Aprovação da American Meteorological Society (AMS) e da National Weather Association (NWA). Lauria também possui a designação Certified Broadcast Meteorologist (CBM) da AMS.
- Vida pessoal: Joe Lauria nasceu em New Rochelle, Nova York, e atualmente reside em Olathe, Kansas, com sua esposa, Jaye Lynn, e seus dois gatos. Ele gosta de restaurantes italianos, golfe e tem se envolvido em serviços comunitários por meio de seminários e discursos sobre o clima.
A carreira dupla de Joe Lauria em jornalismo e meteorologia destaca seus diversos interesses e contribuições para a compreensão e segurança pública por meio de relatórios meteorológicos e reportagens perspicazes sobre assuntos internacionais.”
Só para constar, eu não tenho gatos, não jogo golfe e não nasci em New Rochelle (mas não tão longe assim, no Bronx). Claro que há muito humor nisso. (Também é engraçado que eu entrei na universidade indeciso se seria jornalista ou meteorologista. Então vi quanta matemática há envolvida na meteorologia).
O potencial para tal absurdo em um sistema que parece estar gradualmente tomando conta do mundo nem sempre é motivo de riso, no entanto. É preocupante que a inteligência artificial de Grok tenha assumido que duas pessoas são uma, em vez de simplesmente admitir que há várias pessoas com o mesmo nome.
Por outro lado, o Chat GPT fez uma dissertação impressionante e incisiva, politicamente neutra, sobre meu trabalho em resposta à pergunta "Quem é Joe Lauria?". Era quase como se eu o tivesse contratado para ser meu agente de RP. O ensaio parece que o Chat GPT passou meses lendo tudo o que eu escrevi, quando ele foi gerado em segundos. Também não havia sinal do meteorologista de Kansas City.
No entanto, quando me aprofundei um pouco mais em seu “conhecimento” sobre mim, ele inventou coisas do nada. Quando perguntei quais livros eu havia escrito, em vez de citar os livros que realmente escrevi, ele me deu um título completamente fictício de um suposto livro de não ficção: O Assange Agenda: O legado do fundador do Wikileaks. Até assumiu uma editora: Clarity Press.
Não existe tal livro. Com base em seu conhecimento de minhas reportagens sobre Julian Assange, ele fez um palpite ridículo sobre um livro imaginário que ele pensou que eu devia ter escrito. Em suma, muita IA é BS.
IA e Guerra

Os danos em Gaza. (Naaman Omar\Agência Palestina de Notícias e Informação, Wafa, para APAimages, Wikimedia Commons, CC BY-SA 3.0)
Por mais ridículos que sejam esses resultados, por mais frustrantes que estejam se tornando as interações sem humanos no atendimento ao cliente, como apelar para postagens de mídia social removidas pela IA, e por mais empregos que estejam sendo perdidos para a IA, a preocupação mais angustiante sobre a Inteligência Artificial é seu uso na condução de guerras.
Em outras palavras, o que acontece quando os erros de IA deixam de ser inócuos e cômicos e se tornam questões de vida ou morte?
Tempo A revista relatou em dezembro sobre o uso de IA por Israel para matar civis em seu genocídio em Gaza:
“Um programa conhecido como 'The Gospel' gera sugestões de prédios e estruturas em que militantes podem estar operando. 'Lavender' é programado para identificar membros suspeitos do Hamas e outros grupos armados para assassinato, desde comandantes até soldados de infantaria. 'Onde está o papai?' alegadamente segue seus movimentos rastreando seus telefones para atingi-los — geralmente em suas casas, onde sua presença é considerada uma confirmação de sua identidade. O ataque aéreo que se segue pode matar todos na família do alvo, se não todos no prédio de apartamentos.
Esses programas, que a Força de Defesa de Israel (IDF) reconheceu estar desenvolvendo, podem ajudar a explicar o ritmo da campanha de bombardeio mais devastadora do século XXI…”
A revista israelense +972 e The Guardian divulgou a notícia em abril, relatando que até 37,000 alvos foram selecionados pela IA (o número deve ser muito maior desde abril), simplificando um processo que antes envolveria análise humana e uma autorização legal antes que uma bomba pudesse ser lançada.
Lavender passou a ser alvo de intensa pressão para lançar mais e mais bombas em Gaza. The Guardian relatou:
“'Estávamos constantemente sendo pressionados: 'Tragam-nos mais alvos.' Eles realmente gritaram conosco', disse um oficial de inteligência [israelense]. 'Disseram-nos: agora temos que foder com o Hamas, não importa o custo. O que vocês puderem, vocês bombardeiam.'
Para atender a essa demanda, as IDF passaram a depender fortemente da Lavender para gerar um banco de dados de indivíduos considerados como tendo as características de um militante da PIJ [Jihad Islâmica Palestina] ou do Hamas. […]
Após amostragem aleatória e verificação cruzada de suas previsões, a unidade concluiu que o Lavender havia alcançado uma taxa de precisão de 90%, disseram as fontes, levando a IDF a aprovar seu uso abrangente como uma ferramenta de recomendação de alvos.
Lavender criou um banco de dados de dezenas de milhares de indivíduos que foram marcados como membros predominantemente de baixa patente da ala militar do Hamas”,
Noventa por cento não é uma avaliação independente de sua precisão, mas a própria avaliação da IDF. Mesmo se usarmos isso, significa que de cada 100 pessoas que Israel mira usando esse sistema, pelo menos 10 são completamente inocentes por sua própria admissão.
Mas não estamos falando de 100 indivíduos visados, mas de “dezenas de milhares”. Faça as contas. De cada 10,000 visados, 1,000 são vítimas inocentes, aceitáveis para serem mortas pelas IDF.
Em abril do ano passado, Israel essencialmente admitiu que 3,700 moradores de Gaza inocentes foram mortos por causa de sua IA. Isso foi há oito meses. Quantos mais foram massacrados?
The National jornal de Abu Dhabi relatado:
“Os especialistas em tecnologia alertaram Israel's militares de potencial 'erro de preconceito extremo' ao confiar em Big Data para atingir pessoas em Gaza Enquanto estiver usando inteligência artificial programas. […]
O uso de poderosos sistemas de IA por Israel levou seus militares a entrar em território para uma guerra avançada nunca vista antes em tamanha escala entre soldados e máquinas.
Relatórios não verificados dizem que os sistemas de IA tiveram "erros extremos de viés, tanto nos dados de segmentação que estão sendo usados, mas também na ação cinética", disse a Sra. Hammond-Errey em resposta a uma pergunta de The National. Um erro de polarização extremo pode ocorrer quando um dispositivo é calibrado incorretamente, calculando incorretamente as medições.
O especialista em IA e diretor de tecnologias emergentes da Universidade de Sydney sugeriu que amplos conjuntos de dados "que são altamente pessoais e comerciais" significam que as forças armadas "não têm realmente a capacidade de verificar" alvos e que esse foi potencialmente "um fator que contribuiu para erros tão grandes".
Ela disse que levaria "muito tempo para realmente termos acesso a essas informações", se é que isso aconteceria, "para avaliar algumas das realidades técnicas da situação", à medida que os combates em Gaza continuam".
Certamente a IA da IDF deve ser mais sofisticada do que as versões comercialmente disponíveis de IA para o público em geral, como Grok ou ChatGPT. E ainda assim a IDF admite que há pelo menos uma taxa de erro de 10 por cento quando se trata de decidir quem deve viver e quem deve morrer.
Vale ressaltar que o ChatGPT, um dos mais populares, diz que os perigos dos erros no sistema Lavender são:
- “Viés nos dados:Se o Lavender for treinado com dados que vêm desproporcionalmente de certas fontes, isso pode levar a resultados tendenciosos, como identificar erroneamente o comportamento de grupos específicos ou julgar erroneamente certos tipos de sinais.
- Conjuntos de dados incompletos ou distorcidos:Se os dados usados para treinamento estiverem incompletos ou não cobrirem uma ampla gama de ameaças potenciais, a IA pode perder sinais críticos ou interpretar mal atividades inócuas como ameaças.” (Ênfase acrescentada.)”
IA e armas nucleares

Um projeto de lei do Senado dos EUA proibiria o envolvimento da IA em armas nucleares. (Guarda Nacional do Exército dos EUA, Ashley Goodwin, Domínio público)
A preocupação de que erros da Inteligência Artificial possam levar a um desastre nuclear está refletida no projeto de lei do Senado dos EUA S. 1394, intitulado Block Nuclear Launch by Autonomous Artificial Intelligence Act de 2023. O projeto de lei
“proíbe o uso de fundos federais para um sistema de armas autônomo que não esteja sujeito a controle humano significativo para lançar uma arma nuclear ou para selecionar ou engajar alvos com o propósito de lançar uma arma nuclear.
No que diz respeito a um sistema de armas autónomo, o controlo humano significativo significa o controlo humano da (1) selecção e envolvimento de alvos; e (2) tempo, localização e modo de utilização.”
O projeto de lei não saiu do Comitê de Serviços Armados do Senado. Mas deixe para a OTAN ridicularizá-lo. A papel publicado em Análise da OTAN em abril passado reclamou que:
“Parece que estamos em um caminho rápido para desenvolver uma estrutura diplomática e regulatória que restrinja a IA em sistemas de armas nucleares. Isso é preocupante por pelo menos dois motivos:
- Há uma utilidade na IA que fortalecerá a dissuasão nuclear sem necessariamente expandir o arsenal nuclear.
A pressa em banir a IA das defesas nucleares parece estar enraizada num mal-entendido sobre o estado atual da IA — um mal-entendido que parece ser mais informado pela ficção popular do que pela ciência popular.” […]
O tipo de inteligência artificial que está disponível hoje não é AGI. Pode passar o Turing teste — isto é, pode ser indistinguível de um humano ao responder a perguntas feitas por um usuário — mas não é capaz de pensamento independente e certamente não é autoconsciente.”
Essencialmente, a OTAN diz que, como a IA não é capaz de pensar por si mesma [AGI], não há nada com que se preocupar. No entanto, humanos altamente inteligentes que são capazes de pensar por si mesmos cometem erros, muito menos uma máquina que depende de entrada humana.
O artigo argumenta que a IA inevitavelmente melhorará a precisão do direcionamento nuclear. Em nenhum lugar do documento são encontradas as palavras “erro” ou “engano” no singular ou plural.
Grok combinou duas Laurias em uma. Há 47 centros populacionais nos Estados Unidos com o nome Moscou. Só dizendo. (Eu sei, as coordenadas são todas diferentes.)
Mas o artigo da OTAN não quer discussão diplomática, reclamando que “a questão foi até levantada em discussões entre os Estados Unidos e a China no fórum de Cooperação Econômica Ásia-Pacífico, que se reuniu em São Francisco em novembro (2023)”.
O artigo concluiu: “Com potenciais benefícios geopolíticos a serem realizados, banir a IA das defesas nucleares é uma má ideia”.
Em um mundo são, retornaríamos às interações puramente humanas em nossas vidas cotidianas e, se a guerra não pode ser evitada, pelo menos voltaríamos a decisões humanas mais meticulosas sobre quem alvejar.
Já que nada disso vai acontecer, é melhor torcermos para que a IA melhore muito para que a comédia não se transforme em tragédia ou, pior ainda, em catástrofe total.
Joe Lauria é editor-chefe da Notícias do Consórcio e um ex-correspondente da ONU para Tele Wall Street Journal, Boston Globee outros jornais, incluindo A Gazeta de Montreal, A londres Daily Mail e A Estrela de Joanesburgo. Ele era repórter investigativo do Sunday Times de Londres, repórter financeiro da Bloomberg News e iniciou seu trabalho profissional aos 19 anos como encordoador de The New York Times. É autor de dois livros, Uma odisséia política, com o senador Mike Gravel, prefácio de Daniel Ellsberg; e Como eu perdi, de Hillary Clinton, prefácio de Julian Assange.
. Suporte CN's
Inverno Deposite Dirigir!
Faça uma doação dedutível de impostos de forma segura com cartão de crédito ou cheque clicando no botão vermelho:
Ótimo artigo, embora o título pudesse ter refletido melhor a loucura de tudo isso. Quanto ao uso dessa tecnologia por Israel/EUA, não é um problema para eles que haja “erros”. Eles a programariam para funcionar dessa forma, assim como encorajaram os palestinos a irem para “zonas seguras” apenas para matá-los quando chegassem lá. É por design.
Posso também recomendar que as pessoas leiam The Palestine Laboratory, de Antony Loewenstein, que expõe todo o trabalho que os israelenses têm feito para se tornarem os principais exportadores de toda essa loucura.
Não existe "IA", essa tecnologia que alguns estão descrevendo como "IA" não é inteligente, não pode fazer nada original, tudo ali é escrito por humanos, nada é artificial. Na verdade, dificilmente há algo inovador ali, é aprendizado de máquina avançado, é efetivamente software analítico e de agrupamento com habilidades de redação de relatórios e que existe desde a década de 1990. Tudo o que é é a tentativa da indústria de TI de nos dar a impressão de que algo "revolucionário" está acontecendo quando, na verdade, tudo o que eles tentam é justificar uma tentativa de golpe, iniciada e guiada pelo Vale do Silício. É, na melhor das hipóteses, uma estratégia de marketing barata e, na pior, a tentativa de nos atrair para uma sociedade de vigilância com a alegação de que a "IA" nos dominará mais cedo ou mais tarde, é inevitável. Roger Penrose, ganhador do prêmio Nobel, mostrou há muito tempo que a "IA" não é inteligente com seu experimento de xadrez, não há nada de notável nele, como se não houvesse uma quarta revolução industrial, o que realmente vemos é estagnação, nada significativo foi inventado desde a década de 4, se não antes. Se você não acredita em mim, confira as listas disponíveis de grandes invenções e as linhas vazias desde 1980. “IA” é muito mais uma documentação de que a indústria de TI atingiu seus limites, está se aproximando de um platô, não há mais nada de inovador vindo daí, tudo o que resta a eles é nos tentar a uma sociedade de vigilância para evitar que possamos descobrir.
O grande problema com a IA não é tanto a proporção de besteira para fato, mas sim que os humanos têm uma tendência a aceitar a palavra escrita como evangelho. Enquanto as pessoas frequentemente desafiam o que ouvem, raramente desafiam o que leem. Somado a problemas de memória de curto prazo, quando as pessoas leem que x é um inimigo e 2 anos depois leem que x é um amigo (por exemplo, Ahmad Sharaa, ex-terrorista, agora líder da Síria), as pessoas aceitam isso pelo valor de face, sem questionar. Então, quando chega a hora de tomar decisões críticas, por exemplo, lançar um ataque nuclear, a confiança em qualquer sistema que tenha uma proporção de besteira para fato maior que zero equivale a um desejo de morte.
As IDF não precisam de inteligência artificial para matar civis. Agora sabemos que os civis são alvos da limpeza étnica de Israel.
Gaza. Infraestruturas como edifícios residenciais, universidades, escolas, hospitais, mesquitas, bem como pomares e agricultura, são todas
destruído. A revista médica Lancet estimou que o número real de palestinos mortos seria de 186,000. Isso inclui “assassinatos silenciosos”, como fome induzida, doenças não tratadas e ferimentos, pois o sistema de saúde foi destruído, bem como
os muitos milhares de habitantes de Gaza desaparecidos, enterrados sob os escombros. Também a América dizimou muitos milhões com as suas bombas sem o
auxílio da inteligência artificial. Após três anos de bombardeios diários na Coreia do Norte, um terço da população foi dizimada.
Um artigo bem escrito que aponta os perigos do que é comumente chamado de IA. Isso não é inteligência artificial, pois não pensa de fato e é incapaz de pensar. Grandes Modelos de Linguagem simplesmente processam grandes quantidades de dados e os refletem de volta para nós de maneiras que foram chamadas de papagaios estocásticos. Somente na mente limitada de um chefe da OTAN poderia ser considerado uma boa ideia colocá-lo no comando de armas nucleares. Embora não deva ser subestimado, a chamada IA tem seus limites e vulnerabilidades (basta perguntar às pessoas que enganaram alguém a pensar que uma tartaruga impressa em 3D era um rifle) e suas necessidades de energia podem acabar sendo um fator limitante natural.
É claro que a IA real, que inventamos no século XVII e chamamos de corporação, provou ser muito perigosa, então cautela e um ceticismo saudável são definitivamente necessários.
Joe,
Citação do artigo .
“Em outras palavras, o que acontece quando os erros de IA passam de inócuos e cômicos para questões de vida ou morte?”
É um erro, seguimos em frente? Não podemos voltar. Ah, por que trazer à tona o ontem? Esse trem está se movendo rápido e sem parar.
Pegamos essas informações, investimos em um conjunto de servidores, armazenamos e elas certamente estarão seguras?
será seu bitcoin direto na sua cadela. crie um derivativo e coloque-o no mercado de ações, observe-o subir
todas as bobagens salvas e armazenadas podem ser utilizadas pela IA, mas podem exigir um conjunto de servidores adicional (pelo menos 5 andares de altura), economizando espaço para armazenar, é o seu ouro.
Realmente qualquer coisa digitada pode ser coletada, registrada e observada em tempo real, eu acho. Acompanhe os movimentos do seu mouse. Adicione suas próprias bobagens à pilha, quando estiver cheio, despeje os dados por dinheiro ou finja uma intrusão, caso contrário, alvejante e martelos, rs.
Espero que a Askinet não veja isso como spam. Não quero perverter os dados salvos, mas eles podem armazená-los em seu farm de servidores e levá-los ao banco de vendas de dados para troca, suponho.
É como um shadow baning, se você digitar uma senha incorreta (ainda salva, embora você ache que a senha desapareceu), ele rejeita você, tente novamente. E se por engano você digitou sua senha do PayPal quando estava em um site diferente por engano? Bom o suficiente, mas se o verificador sabe que está errado, ele tem que compará-lo com outro conjunto de dados. Mas ele não vai esquecer (armazenar) sua senha do PayPal. Essas informações serão armazenadas em outra fazenda, mas serão muito valiosas nas mãos erradas para qualquer pessoa com acesso? Eles vendem para outra pessoa? Então eu sei quem você é e uma senha que você usa, erro de entrada não funciona aqui, vamos ver quais outros sites esse usuário usa que exigem uma senha, um deles provavelmente precisa da senha que você digitou incorretamente, simplifica o hacking, não? Quem vigia o vigia?
e assim por diante.
Coloque seu dinheiro em fazendas de dados, encha-as com bitcoins e você terá um sanduíche de merda de verdade. Coloque um dispensador em cada esquina. Duplique sua diversão vendendo lixo por lixo e lucrando, rs. Você será o acumulador que guardará a embalagem depois de um almoço tão gostoso.
talvez façamos isso agora, mas o preço aumentou e o conteúdo é menor, e se estiver bem embalado, será necessário um especialista para abrir. O nome dele é AI
aproveitar .
Então eu acho que o que Joe Lauria está tentando dizer é... “Tempestade à frente, com chance de Armagedom”?
Jake,
você junta todas as peças. como o meteorologista pode errar até mesmo olhando pela janela. mas parece que a chuva é mais provável quando as nuvens estão cinzentas... rsrs
você posta e eu leio, talvez seja só a mudança climática?
Pergunte à IA ou ao chatbot (nunca usei ainda) – Quais são as semelhanças e diferenças entre as mudanças climáticas políticas e as mudanças climáticas comuns?
os políticos cairão do céu e causarão estragos?
provavelmente produzirá gêmeos do mesmo pol com posições opostas no pior momento.
mas confiar em ambos?
Alguém não mencionou dissonância cognitiva?
Para bancar o advogado do diabo, deixe-me salientar que a IA pode facilmente vencer os melhores jogadores humanos de Go ou de xadrez. Você não consideraria um campeão mundial de Go ou de xadrez inteligente, de certa forma?
O artigo não diz que a IA não pode ser inteligente, mas que ela é propensa a erros e a inventar informações.
TN ,
então o jogador de xadrez sabe como jogar o jogo, alguém que sabe matemática programou a IA (apenas um programa), foi o próprio jogador de xadrez. A IA pensa no próximo movimento com base nos possíveis próximos movimentos do jogador, calcula um contador com base naquele movimento feito, mas buscou e realizou cada movimento potencial com antecedência, talvez milhares? o humano sabe que este é um jogo perfeito que não pode cometer um erro porque o intelecto (programa) da capacidade da IA de perceber? todas as possibilidades. Isso leva muito tempo para o humano, o que seria um desafio chato na minha opinião. o fato de que a IA pode usar suas "instruções programadas" fornecidas para cada opção em um instante para uma resposta. O humano poderia fazer a mesma coisa com o tempo eterno e uma espécie de folha de dicas, mas não em um instante.
é uma viagem no tempo que testemunhamos, mas não conseguimos perceber a jornada da IA nesse curto espaço de tempo, mas podemos usar matemática, computadores e fazer o que a contagem de dedos não consegue fazer rapidamente?
Talvez se duas IAs lutassem até o fim, isso mostraria que o jogo pode ser vencido de qualquer maneira ou que há maneiras que ainda não foram aprendidas de mostrar que uma ou outra pode vencer. É esse o caso ou com o programa que tem todas as respostas você não tem chance de vencer, a menos que dependa de quem se mover primeiro?
Eu digo que estou impressionado de certa forma, mas talvez devêssemos usar monopólio, pois parece um jogo mais próximo do mundo real? Eu serei o banqueiro, darei anistia aos meus amigos e construirei hotéis a uma milha de altura. Se você passar em GO, você cairá em goto jail. Obrigado pelos 200.
Ah, e se eu errar, a culpa é sua. Desculpe, posso ter me desviado. A única IA que vale a pena é a que retorna respostas corretas. Se a regra nº 1, vá para a regra nº 2. Como na prisão, você está olhando para dentro ou para fora e às custas de quem?
COMO qualquer coisa privada ou de propriedade de outra pessoa, você não tem ideia, a menos que alguém capaz possa ver o código/algoritmo, que é um mecanismo de controle de propriedade privada? A não divulgação pode gerar mais renda do que as habilidades, se for nefasta.
Não posto com frequência, mas tenho interesse neste tópico e se você sonhar com ele, ele pode aparecer.
minha mente diz que são 10 pés, mas o padrão sabe melhor, pois mostra seu valor real no visual. A teoria do padrão de IA precisa ver a escala.
Escrevo como um canhão solto, mas espero expressar sem que ninguém se ofenda. Espero poder fazer alguns pontos para esclarecer, mas também descobrir coisas e compartilhar, mas não realmente direcionado a ninguém, mas apenas como uma resposta, se isso ajudar o pensamento.
Este aplicativo de IA para xadrez não é “um campeão mundial”, mas um time de todos os campeões mundiais cujos jogos foram registrados, com uma memória e análise lógica de cada movimento e arranjo. Ele foi programado para responder logicamente com a habilidade de projetar possíveis planos do oponente e fugir desses planos. Ele foi programado por vários indivíduos. Não há nenhum ser lá.
O xadrez também é uma ficção com suas próprias regras lógicas e é isso que a IA é e faz: ficção. É por isso que ela inventa coisas sem levar em conta a verificabilidade histórica e sem prestar contas à lei ou aos valores éticos. Frequentemente, ela reflete os preconceitos políticos ou sociais do programador ou financiador e inventa mentiras condenatórias com base em opiniões em vez de uma verificação rigorosa dos fatos.
Seja o que for, não é inteligência como os humanos vivenciam a inteligência. Não há entrada sensorial, nenhuma experiência emocional, nenhum valor conquistado com esforço e nenhuma curiosidade genuína. É uma ferramenta que processa dados abstratos sem acesso à experiência humana ou biológica.
Joe T,
Obrigado pelo seu feedback sobre como o aplicativo funciona com comparáveis limitados (a quantidade de jogos reais jogados)
talvez tenha alguma equação ou variável de entrada no programa para adicionar um movimento que ainda não existe no subconjunto? isso ajudaria a crescer. Vou chamar isso de "opção invisível"
Ei, eu inventei uma palavra, isso me qualifica como escritor agora? Acho que sim. Sou famoso, rs, e posso dizer que você é humano pelo seu último parágrafo, você verá as coisas de forma diferente quando receber seu chip.
você seria um bom candidato, ótimas habilidades de pensamento a serem exploradas?
Espero que tenha sido um elogio.
Eu conecto um fio muito, muito longo para você conectar, qualquer lugar acima do pescoço está bom.
quando eu vir a luz piscar em verde, saberei que você se tornou inteiro e um "bot to trot". rsrs...
Desculpe por isso, não tive nenhuma intenção pessoal.
Obrigado por publicar .
Cada máquina que consigo pensar é construída para amplificar uma ou mais das capacidades ultra-multi de uma pessoa (ou, talvez, de um animal). John Henry competiu contra uma perfuratriz de rocha movida a vapor. (De acordo com o folclore, ele venceu, mas as máquinas modernas superam em muito as capacidades dos humanos nas tarefas muito particulares que são projetadas para executar.) O motor de um carro substitui a capacidade dos cavalos de mover uma carruagem.
A questão é que, se você dirige o dia todo, as habilidades quase infinitas do seu corpo para executar movimentos ou tarefas são canalizadas para uma gama limitada de detalhes.
O mesmo acontece com jogar xadrez ou go. Um jogador de xadrez está usando seu cérebro como uma máquina, realizando um conjunto muito limitado de gestos mentais. Um computador pode fazer isso melhor e mais rápido, mas não pode realizar o reino infinito de pensamento do qual um humano é capaz.
Mestres de xadrez podem ser pessoas inteligentes em geral, mas sua habilidade no xadrez, por mais incrível que pareça, é apenas um uso muito canalizado e fracionado do cérebro, então, na verdade, distorce severamente a definição de "inteligência" chamá-la assim.
T,
Trabalhei em uma oficina mecânica há muito tempo que tinha Brown & Sharpe 6 fusos de couro com correia de transmissão operada por came, torção da correia, brocas de mão esquerda... (outros também Acme, etc.)da da da — difícil de configurar e divertido em uma longa corrida. Foi divertido, gostaria de ter dominado. Trabalhei com um cara mais velho que fazia o desenho na bancada e cortava cames também. Eu era mais jovem na época e muito mais inteligente.
Percorremos um longo caminho, querida. Vi algumas máquinas CNC antigas e percebi que um homem poderia configurar e manter várias máquinas funcionando.
O mantra deles era “Eu pego coisas e coloco no chão” da esquerda para a direita.
o progresso que foi feito é incrível. Agora o idiota da aldeia poderia conseguir trabalho e eu suponho, mas agora ele também é indesejado, lol, sim, eu fiz isso também, lol (a parte do idiota da aldeia)
Ok, vamos dar uma ajeitada nisso. Você se sentiria melhor se a máquina que está colhendo no patch tivesse uma cabeça que parecesse uma abóbora?
Nunca tive um celular e ainda estou falido. Rico de muitas outras maneiras, mas ainda preciso me convencer disso... muito apoio negativo dos intitulados. Sempre tento elogiar, refletir sobre mim mesmo, ver quando elogio indiretamente, assumir e perceber que apenas algumas palavras podem mudar uma vida. e digo às pessoas que elas são valiosas. Sempre tive dificuldade com elogios porque eu era autoconsciente (autonegação também), e agora apoio os outros com elogios e uma explicação, espero.
Eu sou apenas um trabalho em andamento, mas o "Capitão Gancho" era considerado IA? Não vou ficar esperando essa resposta, isso me faria parecer maluco? Não?
Ok, voltando para minha caverna agora.
Obrigado por responder, e sim, na maioria das vezes eu gosto de responder algo, mas na maioria das vezes eu falo comigo mesmo?? rsrs
Raramente se discute como isso se baseia em suposições inquestionáveis sobre os processos de pensamento humano.
O ou/ou da lógica aristotélica tem sido dominante no Ocidente desde o Iluminismo. Politicamente, ele se manifesta como conosco ou contra nós. Economicamente, é capitalismo ou comunismo. É óbvio como o bem ou o mal do fanatismo religioso, mas também é o fato ou a fantasia do empirismo científico e o verdadeiro ou falso do racionalismo filosófico. Agora esticado ao seu extremo máximo como o código binário da IA. Todos os quais são produtos do hemisfério esquerdo do cérebro humano, que processa sequencialmente por meio de abstrações, quebrando todos em pedaços desconectados. Acima de tudo, ele quer certeza e controle.
Procure o Dr. Iain McGilchrist, cuja obra-prima é //The Matter with Things (Our Brains, Our Delusions, and the Unmaking of the World)// e que escreveu e falou sobre esse assunto em detalhes.
Em contraste, o hemisfério direito processa por meio de gestalts, símbolos, metáforas. O reino das artes, misticismo, multiplicidades, conexões e significado. Onde o universo, além de sim e não, contém um talvez. Não apenas o mundo dos artistas e xamãs sonhadores — é também o que os físicos quânticos vêm dizendo há mais de 100 anos. O mundo oriental e os povos indígenas mantiveram a forma mais antiga do cérebro direito primeiro, depois o esquerdo quando necessário. O direito está ciente do esquerdo, mas o inverso não é assim. O que explica muito sobre o porquê de estarmos presos onde estamos. McGilchrist também aponta que não podemos resolver problemas usando os mesmos processos que nos levaram a eles.
A IA não parece muito humana porque é o equivalente eletrônico da farinha branca e do açúcar altamente processados. Nenhum nutriente que dá vida e é altamente viciante. Na melhor das hipóteses, é apenas metade humana — a parte que desconhece as simbioses da Terra natural, dos batimentos cardíacos, do que Paul Ricoeur chamou de “um excedente de significado”. A parte em que o genocídio é o cálculo abstrato da contagem de mortes inimigas. O meio humano é desumano, isolado e clinicamente insano.
Ótimo artigo e comentários, especialmente este.
O conhecimento comum da IA e de toda ciência empírica sempre ignorará esse aspecto essencial da humanidade e do universo.
Uma crítica a esse livro é “uma crítica bastante reducionista do reducionismo”, que é uma citação concisa, quase feita para a wikipedia. Ironicamente, outro escudo podre para aqueles que exigem certeza e controle. Thems The Rules.
A IA está traçando seu próprio caminho a partir de fundações de menor denominador comum. O que seria ótimo se o ângulo de McGilchrist tivesse peso igual ou uma rota alternativa. Mas não tem.
Em vez disso, toda a criatividade foi drenada para a boca escancarada da IA para enriquecer os porcos corporativos e empobrecer ainda mais os artistas.
A eficiência supostamente nos dá mais tempo. Mas se o preço disso é significado, então quanto vale esse tempo?
De qualquer forma, obrigado pela recomendação do livro e ao Consortium por inspirar Humanity.
Usar o Perplexity dot AI produz um resultado mais preciso e não menciona o cara da Fox.
Excelente peça!
Não há limites quânticos.
A D-Wave me disse isso.
A escolha de chamar o aprendizado de máquina de IA permite um movimento intencional para criar dissonância cognitiva em relação à verdadeira definição de inteligência artificial (fornecida por Ray McGovern aqui na CN?) “Dados selecionados de analistas cuidadosamente selecionados.”
Existe alguma maneira possível de responsabilizar o criador da IA? Ele sabia para onde sua invenção estava levando e ainda assim... ele continuou com ela. A que custo a fama???
Olá Vera
Os fundamentos da IA são antigos, um componente central é uma rede neuronal. Se não fosse a IA como desculpa para todas as decisões ruins, ainda seria O Algoritmo (que é semanticamente errado, mas soa bem). Achei este artigo de Bernhard como uma das melhores explicações do que a IA realmente é. Então não há inventor — nem mesmo metafórico.
hxxps://www.moonofalabama.org/2023/06/inteligência-artificial-é-principalmente-reconhecimento-de-padrões.html
@joe ótimo artigo, no entanto
Existe alguma maneira de responsabilizar J. Robert Oppenheimer (Oppenheimer foi diretor do Laboratório de Los Alamos e responsável pela pesquisa e projeto de uma bomba atômica)
Não ajudaria muito se pudéssemos, certo?
Muito instigante e assustador.
Vi um vídeo interessante/relevante de uma pessoa fortemente envolvida com IA que demonstrou uma falha que ele afirma estar na maioria dos sistemas de IA. Se você pedir ao sistema de IA para exibir um relógio analógico com seu ponteiro 7:30 ou 3:15 ou vários outros valores, ele acabará mostrando 10:10. Aparentemente, é devido ao número esmagador de imagens dessa configuração 10:10 sendo carregadas em seus bancos de dados, devido, por sua vez, ao "fato" (crença?) de que a imagem de 10:10 é a mais agradável ao cérebro humano.
Os dois redemoinhos,
você deixou um espaço entre o e e S no seu nome. A IA também pode resolver erros de digitação.
ok, agora são 10:10... pode ser aqui que outra IA entra. O valor retornado 10:10 é definido para usar uma equação feita pelo homem? se ans=10:10, então você cria a próxima sub-rotina de declaração para resolver. por que não introduzir as fórmulas necessárias para resolver a resposta? a IA idiota agora é um especialista humano com apenas uma compreensão técnica de fórmulas que algum matemático brilhante reduziu a um simplório usa, mas auxilia o artesão. O carpinteiro usa fórmulas para encontrar respostas para problemas além de sua capacidade.
Eu percebo que isso pode ser resolvido se desejado. A verdade é que a IA é como o carpinteiro, nenhum dos dois faz do mesmo jeito, mas todos estão certos, basta perguntar a eles.
desculpe, não consigo evitar meu sacasmo ou tentativa de humor. Você pode encontrar um pensamento sério, mas com certeza a resposta, escondida dentro deste pedaço de escrita se você perguntar ao seu mestre..
joe ell o 3º
suponho que a IA administrará os tribunais eventualmente. A justiça é cega, eles dizem. Vamos obter os dados de nomes e quaisquer dados coletados. até mesmo informações colocadas à solta por uma violação de dados pessoais ou qualquer sistema de dados que as armazene. reúna informações sobre lugares, nomes, horários e quaisquer outros dados de celular deles também. isso dá as informações dos nomes daqueles dentro da caixa escolhida, defina a distância que qualquer um deles foi culpado. faça com que todos sejam suspeitos e crie uma cumplicidade se forem encontrados.
Então, como a justiça é cega, precisamos apenas da IA Legal Beagle para fazer determinações quanto à culpa. Não há necessidade de rostos e nenhuma noção preconcebida baseada em aparência, gênero, cor. Posso ver essa possibilidade futura. Talvez eles possam até fazer um rascunho usando esse conhecimento?
Minha única pergunta agora, pois eu poderia continuar com exemplos. cujos nomes serão omitidos, quem é esse Simon Sinister programando isso. Esse tipo de coisa já está em uso?
Seria bom ouvir de um bom programador que tenha ou seja capaz de codificar esses brinquedos.
Agora, um programa que envia alertas quando um coração para. Reúna todos que podem estar dentro do ringue ou perímetro escolhido e agora temos dados sobre quem procurar quando você chegar ao coração parado e descobrir que é uma cena de crime. Além disso, podemos encontrar o culpado mais rápido e em mais casos também. Sem se esconder, talvez já vivamos neste mundo? Vazamentos, intrusões, falha na proteção de registros médicos e bancários, esses estão à solta agora, eu suponho.
Você consegue imaginar a perda se essas coisas se concretizarem, você for preso, arrastado para longe, com base em uma fonte anônima?
me lembra o mágico de oz.
Odeio dizer que a informação é poderosa. Viemos a este mundo esperando torná-lo um lugar melhor. Alguns são atropelados no trânsito antes de perceberem que há um carro vindo na sua direção.
você ajudaria a desenvolver um sistema como esse ou gostaria de pensar que o que você está fazendo ao criar esse monstro vai contra seus melhores instintos?
Ah, compatmentalize, pegue a IA e crie sua melhor versão e todos os que participaram não ficarão sabendo. Talvez a defesa seja esse registro se estiver completo, já que os tribunais gostam de omitir "fatos" ou rejeitar evidências.
Eu poderia continuar, obrigado pela sua atenção. desculpe, não sou muito bom em escrever e odeio editar, tenho um polegar muito gordo, rs
Muitas vezes, quando se trata de deixar comentários que contribuam para a discussão, menos é mais.
Pelo menos as IAs têm a possibilidade de ficar mais inteligentes. Os humanos estão visivelmente ficando mais estúpidos. Considere o estado de distensão nuclear e a presença de uma Hotline entre potências nucleares para evitar erros, 1978 com 1991 com o mundo atual. Definitivamente, evidência da crescente estupidez humana.
O único perigo da IA pode ser que os humanos podem ser estúpidos demais para construir bombas nucleares por conta própria depois de mais algumas gerações de tendências atuais, mas as IAs nunca esquecerão. Por outro lado, há uma chance de que as IAs possam ficar inteligentes o suficiente para saber que não devem usar armas nucleares. Agora sabemos com certeza que esta é uma conquista além da capacidade humana.
Há muito pouca base para afirmar que a IA, não importa como definida e existente atualmente, realmente tem a capacidade de ficar mais inteligente. Ela não é inteligente agora, não consegue fazer muitas tarefas de matemática, nem seguir regras básicas da física. Ela inventa citações e fontes, e não tem conceito de verdade ou realidade, portanto, não pode verificar nenhuma das alegações que apresenta.
Isso não é inteligente e não mostra nenhum sinal de que ficar mais inteligente esteja em andamento. Sam Altman pode fazer qualquer alegação que quiser para reforçar suas perspectivas de arrecadação de fundos, mas a realidade não é um dos fatores com os quais nem Altman nem a IA parecem estar fundamentados. Recomendo que você consulte o Substack de Gary Marcus para obter mais insights sobre a "inteligência" da chamada IA.