Os perigos militares da IA

Funcionários do Pentágono reconhecem que levará algum tempo até que generais-robôs comandem um grande número de tropas dos EUA e armas autônomas em batalha, escreve Michael T. Klare. Mas eles têm vários projetos para testar e aperfeiçoar.

Funcionários do Departamento de Defesa dos EUA visitam a empresa de inteligência artificial Shield AI em San Diego em setembro de 2020. (DoD/Lisa Ferdinando)

By Michael T. Klare 
TomDispatch.com

A É horrível imaginar um mundo em que máquinas governadas pela inteligência artificial (IA) substituem sistematicamente os seres humanos na maioria das funções empresariais, industriais e profissionais.

Afinal, como nos alertam cientistas da computação proeminentes, os sistemas governados por IA são propenso a erros críticos e “alucinações” inexplicáveis, resultando em resultados potencialmente catastróficos.

Mas existe um cenário ainda mais perigoso que se pode imaginar a partir da proliferação de máquinas superinteligentes: a possibilidade de que essas entidades não-humanas acabem por lutar entre si, destruindo toda a vida humana no processo.

A noção de que computadores superinteligentes podem enlouquecer e massacrar humanos tem sido, claro, há muito tempo um elemento básico da cultura popular. No profético Filme 1983 Jogos de Guerra, um supercomputador conhecido como WOPR (que significa Resposta ao Plano de Operação de Guerra e, não surpreendentemente, pronunciado “whopper”) quase provoca uma guerra nuclear catastrófica entre os Estados Unidos e a União Soviética antes de ser desativado por um hacker adolescente (interpretado por Matthew Broderick).

O ESB ( Terminator A franquia de filmes, começando com o filme original de 1984, também imaginou um supercomputador autoconsciente chamado “Skynet” que, como o WOPR, foi projetado para controlar as armas nucleares dos EUA, mas opta por exterminar a humanidade, vendo-nos como uma ameaça à sua existência.

Embora antes confinado ao reino da ficção científica, o conceito de supercomputadores matando humanos tornou-se agora uma possibilidade distinta no mundo real do futuro próximo. Além de desenvolver uma ampla variedade de “Autônomo”, ou dispositivos robóticos de combate, as principais potências militares também estão correndo para criar sistemas automatizados de tomada de decisão no campo de batalha, ou o que poderia ser chamado de “generais robôs. "

Em guerras num futuro não muito distante, esses sistemas alimentados por IA poderiam ser utilizados para entregar ordens de combate aos soldados americanos, ditando onde, quando e como matarão as tropas inimigas ou dispararão contra os seus oponentes. Em alguns cenários, os decisores robóticos podem até acabar por exercer controlo sobre as armas atómicas da América, permitindo-lhes potencialmente desencadear uma guerra nuclear que resultará na morte da humanidade.

Anúncio em outdoor do Terminator Dark Fate 2019 em Nova York. (Brecht Bug, Flickr, CC BY-NC-ND 2.0)

Agora, respire por um momento. A instalação de um sistema de comando e controle (C2) alimentado por IA como este pode parecer uma possibilidade distante. No entanto, o Departamento de Defesa dos EUA está a trabalhar arduamente para desenvolver o hardware e software necessários de uma forma sistemática e cada vez mais rápida.

Na sua apresentação orçamental para 2023, por exemplo, a Força Aérea solicitou $ 231 milhões desenvolver o Sistema avançado de gerenciamento de campo de batalha (ABMS), uma rede complexa de sensores e computadores habilitados para IA, projetada para coletar e interpretar dados sobre operações inimigas e fornecer aos pilotos e às forças terrestres um menu de opções de ataque ideais.

À medida que a tecnologia avança, o sistema será capaz de enviar instruções de “fogo” diretamente aos “atiradores”, contornando em grande parte o controle humano.

“Uma ferramenta de troca de dados máquina a máquina que oferece opções de dissuasão, ou de rampa [uma demonstração de força militar] ou engajamento precoce”, foi como Will Roper, secretário adjunto da Força Aérea para aquisição, tecnologia e logística, descrito o sistema ABMS em uma entrevista de 2020.

Sugerindo que “precisamos mudar o nome” à medida que o sistema evolui, Roper acrescentou: “Acho que a Skynet está fora, por mais que eu adorasse fazer isso como uma coisa de ficção científica. Só não acho que podemos ir até lá.”

E embora ele não possa ir para lá, é exatamente para onde o resto de nós pode, de fato, estar indo.

Veja bem, isso é apenas o começo. Na verdade, o ABMS da Força Aérea pretende constituir o núcleo de uma constelação maior de sensores e computadores que irão conectar todos os Forças de combate dos EUA, o Sistema Conjunto de Comando e Controle de Todos os Domínios (JADC2, pronunciado “Jad-C-two”). “O JADC2 pretende permitir que os comandantes tomem melhores decisões, coletando dados de vários sensores, processando os dados usando algoritmos de inteligência artificial para identificar alvos e, em seguida, recomendando a arma ideal… para atacar o alvo”, disse o Serviço de Pesquisa do Congresso. relatado em 2022.

Dezembro de 2019: Testando equipamentos de Sistemas Avançados de Gerenciamento de Batalha a bordo do destróier USS Thomas Hudner como parte de um exercício de força conjunta. (Serviço de Distribuição de Informação Visual de Defesa, Domínio Público)

IA e o gatilho nuclear

Inicialmente, o JADC2 será projetado para coordenar operações de combate entre forças americanas “convencionais” ou não nucleares. Eventualmente, porém, espera-se que conectar com os sistemas nucleares de comando, controle e comunicações (NC3) do Pentágono, dando potencialmente aos computadores um controle significativo sobre o uso do arsenal nuclear americano.

“JADC2 e NC3 estão interligados”, disse o General John E. Hyten, vice-presidente do Estado-Maior Conjunto. indicado em uma entrevista de 2020. Como resultado, acrescentou em pentágono típico, “NC3 tem de informar JADC2 e JADC2 tem de informar NC3”.

Não é necessária muita imaginação para imaginar um momento num futuro não muito distante em que uma crise de algum tipo - digamos, um confronto militar entre EUA e China no Mar da China Meridional ou perto de Taiwan - provoque combates cada vez mais intensos entre forças aéreas opostas. e forças navais.

Imagine então o JADC2 ordenando o intenso bombardeamento de bases inimigas e sistemas de comando na própria China, desencadeando ataques recíprocos às instalações dos EUA e uma decisão relâmpago do JADC2 de retaliar com armas nucleares tácticas, desencadeando um há muito temido holocausto nuclear.

A possibilidade de cenários de pesadelo deste tipo resultarem no início acidental ou não intencional de uma guerra nuclear há muito que preocupa os analistas da comunidade de controlo de armas. Mas a crescente automatização dos sistemas militares C2 gerou ansiedade não apenas entre eles, mas também entre os altos funcionários da segurança nacional.

Tão cedo quanto Em 2019, quando questionei o tenente-general Jack Shanahan, então diretor do Centro Conjunto de Inteligência Artificial do Pentágono, sobre uma possibilidade tão arriscada, ele respondeu, “Você não encontrará nenhum defensor mais forte da integração de capacidades de IA em grande escala no Departamento de Defesa, mas há uma área em que faço uma pausa, e tem a ver com comando e controle nuclear.”

Esta “é a decisão humana final que precisa ser tomada” e por isso “temos que ter muito cuidado”. Dada a “imaturidade” da tecnologia, acrescentou, precisamos de “muito tempo para testar e avaliar [antes de aplicar a IA ao NC3]”.

Nos anos que se seguiram, apesar de tais avisos, o Pentágono tem avançado com o desenvolvimento de sistemas C2 automatizados.

Na sua apresentação orçamental para 2024, o Departamento de Defesa solicitadas 1.4 mil milhões de dólares para o JADC2, a fim de “transformar a capacidade de combate, proporcionando vantagens de informação à velocidade da relevância em todos os domínios e parceiros”. Uh-oh! E então, solicitou outros US$ 1.8 bilhão para outros tipos de pesquisa de IA militar.

Exercício ABMS, ou “onramp”, na Joint Base Andrews, Maryland, setembro de 2020. (USAAF, Daniel Hernández)

Os responsáveis ​​do Pentágono reconhecem que levará algum tempo até que generais robôs comandem um grande número de tropas dos EUA (e armas autónomas) em batalha, mas já lançaram vários projectos destinados a testar e aperfeiçoar precisamente essas ligações. Um exemplo é o Exército Convergência do Projeto, envolvendo uma série de exercícios de campo projetados para validar sistemas de componentes ABMS e JADC2.

Em um teste realizado em agosto de 2020 no Yuma Proving Ground, no Arizona, por exemplo, o Exército usou uma variedade de sensores aéreos e terrestres para rastrear forças inimigas simuladas e depois processar esses dados usando computadores habilitados para IA na Base Conjunta de Lewis. McChord no estado de Washington.

Esses computadores, por sua vez, emitiram instruções de fogo para a artilharia terrestre em Yuma. “Essa sequência inteira foi supostamente concluída em 20 segundos”, disse mais tarde o Serviço de Pesquisa do Congresso. relatado.

Menos se sabe sobre o equivalente de IA da Marinha, o “Project Overmatch”, já que muitos aspectos da sua programação foram mantidos em segredo. De acordo com o almirante Michael Gilday, chefe de operações navais, o Overmatch é Pretendido “para permitir uma Marinha que fervilha o mar, proporcionando efeitos letais e não letais sincronizados de perto e de longe, em todos os eixos e em todos os domínios.” Pouco mais foi revelado sobre o projeto.

Almirante Michael Gilday em 2020. (DoD, Lisa Ferdinando)

‘Flash Wars’ e extinção humana

Apesar de todo o sigilo em torno desses projetos, você pode pensar em ABMS, JADC2, Convergence e Overmatch como blocos de construção para uma futura mega-rede de supercomputadores semelhante à Skynet, projetada para comandar todas as forças dos EUA, incluindo as nucleares, em forças armadas. combate.

Quanto mais o Pentágono se mover nessa direcção, mais perto chegaremos de um momento em que a IA possui poder de vida ou morte sobre todos os soldados americanos, juntamente com as forças opostas e quaisquer civis apanhados no fogo cruzado.

Tal perspectiva deveria ser motivo de grande preocupação. Para começar, considere o risco de erros e erros de cálculo cometidos pelos algoritmos que estão no centro de tais sistemas. Como os principais cientistas da computação nos alertaram, esses algoritmos são capaz de erros notavelmente inexplicáveis ​​e, para usar o termo da IA ​​do momento, “alucinações” – isto é, resultados aparentemente razoáveis ​​que são inteiramente ilusórios.

Nestas circunstâncias, não é difícil imaginar tais computadores “alucinando” um ataque inimigo iminente e iniciando uma guerra que de outra forma poderia ter sido evitada.

E esse não é o pior dos perigos a considerar. Afinal de contas, há a probabilidade óbvia de que os adversários da América equiparão igualmente as suas forças com generais robôs. Por outras palavras, é provável que as guerras futuras sejam travadas por um conjunto de sistemas de IA contra outro, ambos ligados ao armamento nuclear, com resultados totalmente imprevisíveis – mas potencialmente catastróficos.

Não se sabe muito (pelo menos de fontes públicas) sobre os esforços russos e chineses para automatizar os seus sistemas militares de comando e controlo, mas pensa-se que ambos os países estão a desenvolver redes comparáveis ​​à JADC2 do Pentágono.

Já em 2014, de facto, a Rússia inaugurou um Centro de Controlo de Defesa Nacional (NDCC) em Moscovo, um posto de comando centralizado para avaliar ameaças globais e iniciar qualquer acção militar considerada necessária, seja de natureza não nuclear ou nuclear.

Assim como o JADC2, o NDCC é projetado coletar informações sobre os movimentos do inimigo de diversas fontes e fornecer aos oficiais superiores orientação sobre possíveis respostas.

Diz-se que a China está a prosseguir um empreendimento ainda mais elaborado, embora semelhante, sob a rubrica de “Guerra de Precisão Multi-Domínio” (MDPW).

De acordo com o relatório de 2022 do Pentágono sobre os desenvolvimentos militares chineses, as suas forças armadas, o Exército de Libertação Popular, estão a ser treinadas e equipadas para utilizar sensores e redes de computadores habilitados para IA para “identificar rapidamente as principais vulnerabilidades no sistema operacional dos EUA e depois combinar forças conjuntas em todo o mundo”. domínios para lançar ataques de precisão contra essas vulnerabilidades.”

Imagine, então, uma guerra futura entre os EUA e a Rússia ou a China (ou ambas), na qual o JADC2 comanda todas as forças dos EUA, enquanto o NDCC da Rússia e o MDPW da China comandam as forças desses países. Considere também que todos os três sistemas provavelmente sofrerão erros e alucinações.

Quão seguros estarão os humanos quando os generais robôs decidirem que é hora de “vencer” a guerra detonando seus inimigos?

Se isto lhe parece um cenário estranho, pense novamente, pelo menos de acordo com a liderança da Comissão de Segurança Nacional sobre Inteligência Artificial, uma empresa mandatada pelo Congresso que foi presidida por Eric Schmidt, ex-chefe do Google, e Robert Work, ex-secretário adjunto. de defesa.

“Embora a Comissão acredite que sistemas de armas autônomos e habilitados para IA, adequadamente projetados, testados e utilizados, trarão benefícios militares e até mesmo humanitários substanciais, o uso global descontrolado de tais sistemas corre o risco potencial de escalada não intencional de conflitos e instabilidade de crise”, afirmou. afirmou no seu Relatório Final.

Tais perigos poderiam surgir, afirmou, “devido às complexidades desafiadoras e não testadas de interação entre sistemas de armas autônomos e habilitados para IA no campo de batalha” – isto é, quando a IA luta contra a IA.

Embora isto possa parecer um cenário extremo, é inteiramente possível que sistemas opostos de IA possam desencadear uma catastrófica “guerra relâmpago” – o equivalente militar de um “flash crash” em Wall Street, quando enormes transações realizadas por algoritmos de negociação super-sofisticados provocam vendas em pânico antes operadores humanos podem restaurar a ordem.

No infame “Flash Crash” de 6 de Maio de 2010, as negociações conduzidas por computador precipitaram uma queda de 10% no valor do mercado de acções. De acordo com o Paul Scharre, do Centro para uma Nova Segurança Americana, que primeiro estudou o fenómeno, “o equivalente militar de tais crises” em Wall Street surgiria quando os sistemas de comando automatizados das forças opostas “ficassem presos numa cascata de combates crescentes”.

Em tal situação, observou ele, “armas autônomas poderiam levar à morte acidental e à destruição em escalas catastróficas num instante”.

Actualmente, não existem praticamente quaisquer medidas em vigor para evitar uma catástrofe futura deste tipo ou mesmo conversações entre as grandes potências para conceber tais medidas. No entanto, como observou a Comissão Nacional de Segurança sobre Inteligência Artificial, tais medidas de controlo de crises são urgentemente necessárias para integrar “disparadores de escalada automatizada” em tais sistemas “que impediriam a escalada automatizada de conflitos”.

Caso contrário, alguma versão catastrófica da Terceira Guerra Mundial parece demasiado possível. Dada a perigosa imaturidade de tal tecnologia e a relutância de Pequim, Moscovo e Washington em impor quaisquer restrições à transformação da IA ​​em armas, o dia em que as máquinas poderão decidir aniquilar-nos poderá chegar muito mais cedo do que imaginamos e a extinção da humanidade poderá ser o danos colaterais de tal guerra futura.

Michael T. Klare, um TomDispatch regular, é professor emérito de estudos sobre paz e segurança mundial em cinco faculdades no Hampshire College e pesquisador visitante sênior na Associação de Controle de Armas. É autor de 15 livros, sendo o mais recente Todo o inferno: a perspectiva do Pentágono sobre as mudanças climáticas. Ele é um dos fundadores do Comitê para uma Política Sã entre EUA e China.

Este artigo é de TomDispatch.com.

As opiniões expressas são exclusivamente do autor e podem ou não refletir as de Notícias do Consórcio.

25 comentários para “Os perigos militares da IA"

  1. JohnB
    Julho 15, 2023 em 13: 01

    Como eu teria resolvido o incidente do K129?
    Como a IA teria trabalhado os quatro submarinos com torpedos com ponta nuclear entre FA e Cuba em outubro de 62 até a resolução?

    Por que não vemos jogos de guerra ao vivo para provar a sua superioridade?

  2. Arco Stanton
    Julho 14, 2023 em 08: 17

    Depois de ler isso, aposto que o Holoceno terminará neste século.

    A humanidade está dormindo e caminhando para o esquecimento.
    Algumas pessoas que sofreram lavagem cerebral estão garantindo que o 'Fim dos Dias' aconteça…

  3. trolls estão chegando
    Julho 13, 2023 em 15: 26

    Exatamente a IA é um reflexo dos humanos e seus desenvolvedores são as piores pessoas em torno das elites ricas de 1%…

  4. CaseyG
    Julho 13, 2023 em 14: 47

    “E a morte não terá domínio…”

    Isso porque nós, juntamente com toda a VIDA no planeta, estaremos mortos.

  5. Eric Siverson
    Julho 13, 2023 em 13: 24

    Você sabia que os dois países mais cristãos do mundo têm o maior número de armas atômicas? E de alguma forma eles parecem mais opostos um ao outro. Por que . Parece bastante estranho que os cristãos devam odiar mais os irmãos cristãos. Portanto, concordo que a inteligência militar deve ser inteligência artificial. que tolos somos, o cristianismo prega a paz, por que não tentamos a inteligência cristã.

  6. Julho 13, 2023 em 11: 51

    A Rússia já não possui tal sistema para uma guerra nuclear geral? Acredito que o Perimiter é um sistema de reconhecimento de padrões concebido para lançar todas as suas armas nucleares (na direcção da Europa e dos EUA) no caso de um ataque decapitante em Moscovo. Saúde!

  7. Roberto Emmett
    Julho 13, 2023 em 09: 49

    (1 comentário! Puta merda)

    Algoritmos “capazes de erros notavelmente inexplicáveis”
    (de acordo com especialistas em informática… ah, não se preocupe, pagaremos nossos próprios especialistas para refutar isso)… coloque o proverbial “o que poderia dar errado?” neste espaço… tudo se tornará conhecido no final quando…

    Fornecer vantagem de informação na “velocidade de relevância em todos os domínios e parceiros” acontece… Parabéns! Você ganha o jackpot maluco! …É como apostar na velocidade da insanidade… Você gastará seu lucro imundo instantaneamente ou pelo menos frações de segundo antes que seu inimigo o faça?

    Pela foto do Almirante: Você está certo. Não consigo lidar com a verdade. Porque é muito maluco... a menos que você esteja totalmente interessado no Armagedom, o que não desconsidero nem por um momento (e que aparentemente é para isso que você está "amando" esses novos "braços")...

    “E a noite volta para o céu cravejado de círculos
    As estrelas se acomodam lentamente, na solidão elas mentem
    'Até que o universo exploda como uma estrela cadente é levantada
    Os planetas estão paralisados, as montanhas estão maravilhadas
    Mas todos eles brilham mais com o brilho da chama
    Com a velocidade da insanidade, então ele morre.”

    Phil Ochs de “Crucificação” c.1965

  8. susan
    Julho 13, 2023 em 08: 54

    Seriamente? Os humanos estão criando IA à sua própria imagem – então que tal 'Os perigos militares dos humanos'? Basta dar uma olhada em nosso mundo hoje. A IA não é o problema (ainda), os humanos são…

    • Valerie
      Julho 13, 2023 em 16: 41

      “Os humanos estão criando IA à sua própria imagem”

      Então, afinal, pode haver algo naquela coisa de “Deus criou o homem à sua própria imagem”. E então progredirá para que a IA crie “algo” à sua própria imagem. Até que não fiquemos com nada além de imagens. Mas sim, Susan, os humanos são o problema, eu concordo.

  9. Duane M.
    Julho 13, 2023 em 08: 10

    Obrigado a Michael Klare e CN por publicarem este ensaio informativo e aterrorizante. A tecnologia é um servo útil, mas um mestre terrível. Estamos prestes a descobrir o quão terrível isso pode ser.

  10. Paulo Citro
    Julho 13, 2023 em 06: 40

    Cada avanço tecnológico que os humanos criaram nós nos transformamos em uma arma. Não há dúvida de que faremos isso também com a IA. Fomos capazes de nos conter com a energia atómica porque é difícil fabricar armas nucleares. Não é assim com a IA. Cada país terá forças armadas assistidas por IA e haverá uma corrida armamentista inevitável. Nosso futuro não parece bom.

  11. LetsgetOnWithTheShow
    Julho 13, 2023 em 06: 36

    “Afinal, como nos alertam cientistas da computação proeminentes, os sistemas governados por IA são propensos a erros críticos e “alucinações” inexplicáveis, resultando em resultados potencialmente catastróficos.”

    Devido à “inteligência artificial” nunca existir nem “balas mágicas”, mas provavelmente manterá alguns “lucravelmente envolvidos” no oxímoro “retificações constantes”.

  12. primeira pessoainfinito
    Julho 13, 2023 em 00: 13

    Bem, mais uma catástrofe para acabar com todas as catástrofes. Se não são OVNIs, é a aventura final da inteligência humana castrada em pura mentira. Com todos esses cenários apocalípticos, é difícil imaginar que os cenários apocalípticos não fossem o objetivo de tudo isso. Quero dizer, o que alimentará todos esses dispositivos de IA? De onde virão esses “soldados” que não são IA e que devem aguardar instruções da IA? Não há mais soldados aguardando a oportunidade de travar guerras no nível assumido por esta narrativa. E os próprios soldados da IA ​​não têm nada a ver com as fronteiras nacionais. Eles não teriam qualquer lealdade por qualquer razão palpável, ou então os cenários pintados aqui (e em outros lugares, continuamente) não poderiam ocorrer. Talvez apenas o poder corporativo global possa salvar-nos destes saqueadores da IA. Talvez apenas o poder corporativo global possa criá-los. Imagine os nomes que podemos chamar desses bandidos de IA. Como sempre, o ódio poderia criar uma nova igualdade. Acho que talvez seja hora de parar de falar sobre o que poderia acontecer e começar a falar sobre fazer algo para que outra coisa aconteça: algo que não precise de robôs ou de bem-estar corporativo ou de danos perpetuados à maioria das pessoas na Terra que não são robôs e não os estão fabricando.

  13. Lois Gagnon
    Julho 12, 2023 em 23: 07

    Que tal substituirmos a competição entre as nações pela cooperação? Não há mais necessidade de todos esses gastos insanos em armamentos tecnologicamente mais sofisticados que, com toda probabilidade, acabarão com a vida na Terra. A trajetória atual é simplesmente maluca.

    • Valerie
      Julho 13, 2023 em 16: 24

      Lois, é uma ideia maravilhosa, mas acho que sabemos que isso não vai acontecer. No entanto, a sua última frase lembrou-me um cartoon de Gary Larson do Far Side, no qual um paciente está deitado no divã do psiquiatra, aparentemente balbuciando e o psiquiatra escreveu nas suas notas “simplesmente maluco”. Parece que temos uma abordagem coletiva “simplesmente maluca” em relação ao nosso futuro.

  14. Rudy Haugeneder
    Julho 12, 2023 em 22: 52

    É de se perguntar se cada sistema de IA falará uma linguagem diferente que compreenderá automática e totalmente o adversário. Muito improvável, não importa quais números sejam usados.

  15. Patrick Powers
    Julho 12, 2023 em 19: 29

    “Os sistemas governados por IA são propensos a erros críticos e “alucinações” inexplicáveis, resultando em resultados potencialmente catastróficos.”

    Eu diria que os sistemas políticos humanos naturais são muito mais propensos a isso. Na verdade, tornou-se a norma.

  16. Julho 12, 2023 em 17: 32

    Nosso futuro acabará se parecendo com “O Exterminador do Futuro”, “Matrix” / “A Segunda Renascença” (de “Animatrix”) ou “Colossus: O Projeto Forbin” (o último dos três é menos conhecido e o o mais antigo deles, mas é mais ou menos o que aconteceria se WOPR / “Joshua” de “WarGames” não precisasse de nenhum convencimento humano de que “o único movimento vencedor é não jogar”, formasse uma mente coletiva com a União Soviética/Rússia equivalente baseado em supercomputador e resolveu resolver o problema diretamente com suas próprias mãos)?

    Esperançosamente, o resultado será mais banal do que os retratados nessas histórias, mas é provável que seja muito problemático de qualquer maneira.

  17. Valerie
    Julho 12, 2023 em 16: 58

    Do artigo:

    “o dia em que as máquinas poderão escolher nos aniquilar poderá chegar muito mais cedo do que imaginamos e a extinção da humanidade poderá ser o dano colateral de tal guerra futura.”

    Penso que estamos a ter um desempenho bastante adequado nesse aspecto no que diz respeito ao colapso climático. Quando estes “generais robôs” aparecerem, já poderemos ter uma “terra arrasada”.

  18. Drew Hunkins
    Julho 12, 2023 em 16: 55

    Isso funcionará tão bem quanto todos os “carros autônomos” que vemos começando a ser lançados em Frisco, Las Vegas e outros lugares.

    • Valerie
      Julho 12, 2023 em 17: 14

      Eu tenho que rir, Drew. Não tenho ideia sobre carros “autônomos” ou como eles funcionam, mas imagino que ninguém sentado no banco do motorista, caso contrário, isso derrotaria o objeto. Então eu me pergunto se há um manequim ou uma boneca inflável ou um robô ou algo naquele assento para substituir o humano? LOL, mas honestamente não sei nada sobre eles.

      • Drew Hunkins
        Julho 13, 2023 em 10: 28

        Também não sei muito sobre eles, mas tenho acompanhado moderadamente as notícias que documentam algum caos que vêm causando em certas cidades. Deus nos ajude.

        • Valerie
          Julho 13, 2023 em 16: 07

          “Caos”. Eu gosto disso. Pode chegar a um ponto em que todos os carros autônomos se transformem em “Christines” (à la Stephen King) e matem todos antes que a IA tenha a chance de decolar. Oh A ironia.

    • Harold
      Julho 13, 2023 em 01: 44

      Sim, Drew, a piada de Groucho Marx sobre a “inteligência militar” ser uma contradição em termos foi atualizada para Inteligência Artificial. Pelo que posso perceber, a inteligência do Partido da Guerra é totalmente artificial. Não há inteligência genuína em ação em lugar algum.

      • Drew Hunkins
        Julho 13, 2023 em 10: 29

        Ha! Certo.

Comentários estão fechados.