O aviso de uma frase sobre inteligência artificial

Vários impulsionadores da IA ​​assinaram a declaração desta semana sobre “mitigação dos riscos de extinção”, levantando a possibilidade de que pessoas internas com milhares de milhões de dólares em jogo estejam a tentar mostrar a sua capacidade de auto-regulação.

Opinião dos palestrantes na conferência de inteligência geral artificial no FedEx Institute of Technology, Universidade de Memphis, 5 de março de 2008.
(brewbooks, Flickr/Attribution-ShareAlike/ CC BY-SA 2.0)

By Kenny Stancil
Sonhos comuns

TNesta semana, 80 cientistas de inteligência artificial e mais de 200 “outras figuras notáveis” assinaram um afirmação que diz que “mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos à escala social, como pandemias e guerra nuclear”.

O alerta de uma frase do diversificado grupo de cientistas, engenheiros, executivos corporativos, acadêmicos e outros não entra em detalhes sobre as ameaças existenciais representadas pela IA.

Em vez disso, procura “abrir a discussão” e “criar conhecimento comum do número crescente de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA ​​avançada”, de acordo com o Center for AI Safety, uma organização sem fins lucrativos sediada nos EUA. cujo site hospeda a declaração.

Geoffrey Hinton dando uma palestra sobre redes neurais profundas na Universidade da Colúmbia Britânica, 2013. (Eviatar Bach, CC BY-SA 3.0 Wikimedia Commons)

O principal signatário, Geoffrey Hinton, frequentemente chamado de “o padrinho da IA”, vem soando o alarme há semanas. No início deste mês, o professor emérito de ciência da computação de 75 anos da Universidade de Toronto anunciou que ele havia renunciado ao cargo no Google para falar mais livremente sobre os perigos associados à IA.

Antes de sair do Google, Hinton disse CBS News em Março que os potenciais impactos da tecnologia em rápido avanço são comparáveis ​​aos da “Revolução Industrial, ou da electricidade, ou talvez da roda”.

Questionado sobre as chances de a tecnologia “destruir a humanidade”, Hinton alertou que “não é inconcebível”.

Esse potencial assustador não reside necessariamente nas ferramentas de IA actualmente existentes, como o ChatGPT, mas sim na chamada “inteligência artificial geral” (AGI), que abrangeria computadores desenvolvendo e agindo de acordo com as suas próprias ideias.

“Até bem recentemente, eu pensava que levaria cerca de 20 a 50 anos antes que tivéssemos IA de uso geral”, disse Hinton à CBS News. “Agora acho que pode levar 20 anos ou menos.”

Pressionado pelo meio de comunicação se isso pudesse acontecer mais cedo, Hinton admitiu que não descartaria a possibilidade de a AGI chegar dentro de cinco anos, uma mudança significativa em relação a alguns anos atrás, quando ele “teria dito: 'De jeito nenhum'”.

“Temos que pensar muito sobre como controlar isso”, disse Hinton. Questionado se isso é possível, Hinton disse: “Não sabemos, ainda não chegamos lá, mas podemos tentar”.

O pioneiro da IA ​​está longe de estar sozinho. De acordo com o De acordo com o 2023 AI Index Report, uma avaliação anual da indústria em rápido crescimento publicada no mês passado pelo Stanford Institute for Human-Centered Artificial Intelligence, 57 por cento dos cientistas da computação entrevistados disseram que “o progresso recente está nos levando em direção à AGI”, e 58 por cento concordou que “AGI é uma preocupação importante”.

Embora suas descobertas tenham sido divulgadas em meados de abril, a pesquisa de Stanford com 327 especialistas em processamento de linguagem natural – um ramo da ciência da computação essencial para o desenvolvimento de chatbots – foi realizada em maio e junho passados, meses antes do ChatGPT da OpenAI entrar em cena em novembro.

O CEO da OpenAI, Sam Altman, que assinou a declaração compartilhada na terça-feira pelo Center for AI Safety, escreveu em fevereiro no blog: “Os riscos podem ser extraordinários. Uma AGI superinteligente desalinhada poderia causar danos graves ao mundo.”

No mês seguinte, porém, Altman recusou-se a assinar um acordo carta aberta pedindo uma moratória de meio ano no treinamento de sistemas de IA além do nível do mais recente chatbot da OpenAI, GPT-4.

O CEO da OpenAI, Sam Altman, falando em um evento em São Francisco em 2019. (TechCrunch/ CC BY 2.0 Wikimedia Commons)

A carta, publicada em Março, afirma que “sistemas poderosos de IA só devem ser desenvolvidos quando estivermos confiantes de que os seus efeitos serão positivos e os seus riscos serão controláveis”.

O CEO da Tesla e do Twitter, Elon Musk, estava entre aqueles que pediram uma pausa há dois meses, mas está “desenvolvendo planos para lançar uma nova start-up de inteligência artificial para competir com” OpenAI, de acordo com da Financial Times, levantando a questão de saber se a sua preocupação declarada sobre os “profundos riscos para a sociedade e a humanidade” da tecnologia é sincera ou uma expressão de interesse próprio.

Possível proposta de autorregulação

O facto de Altman e vários outros impulsionadores da IA ​​terem assinado a declaração desta semana levanta a possibilidade de que pessoas com milhares de milhões de dólares em jogo estejam a tentar mostrar a sua consciência dos riscos colocados pelos seus produtos, numa tentativa de persuadir os funcionários da sua capacidade de auto-regulação.

As exigências externas à indústria por uma regulamentação governamental robusta da IA ​​estão a crescer. Embora formas cada vez mais perigosas de AGI ainda possam estar a anos de distância, já existem provas crescentes de que as ferramentas de IA existentes estão a exacerbar a propagação da desinformação, desde chatbots que espalham mentiras e aplicações de troca de rostos que geram vídeos falsos até vozes clonadas que cometem fraudes.

A IA atual e não testada está prejudicando as pessoas de outras maneiras, inclusive quando tecnologias automatizadas implantadas por Vantagem do Medicare seguradoras unilateralmente decidir terminar pagamentos, resultando no término prematuro da cobertura para idosos vulneráveis.

Os críticos alertaram que, na ausência de intervenções rápidas por parte dos decisores políticos, a IA não regulamentada poderia prejudicar ainda mais pacientes de saúde, acelerar a destruição de Democraciae levar a um acidente não intencional guerra nuclear. Outras preocupações comuns incluem despedimentos generalizados de trabalhadores e o agravamento da desigualdade, bem como um aumento maciço na poluição por carbono.

Um relatório publicado no mês passado pela Public Citizen argumenta que “até que sejam implementadas salvaguardas governamentais significativas para proteger o público dos danos da IA ​​generativa, precisamos de uma pausa”.

“As empresas estão a implementar ferramentas de IA potencialmente perigosas mais rapidamente do que os seus danos podem ser compreendidos ou mitigados”, alertou o grupo de defesa progressista num comunicado.

“A história não oferece nenhuma razão para acreditar que as empresas possam auto-regular-se e eliminar os riscos conhecidos – especialmente porque muitos destes riscos fazem parte tanto da IA ​​generativa como da ganância corporativa”, continuou o órgão de vigilância. “As empresas que se apressam a introduzir estas novas tecnologias estão a jogar com a vida e os meios de subsistência das pessoas e, possivelmente, com os próprios fundamentos de uma sociedade livre e de um mundo habitável.”

Kenny Stancil é redator da Common Dreams.

Este artigo é de  Sonhos comuns.

As opiniões expressas neste artigo podem ou não refletir as de Notícias do Consórcio.

Suporte CN's Primavera

Deposite Tração Agora

 

 

35 comentários para “O aviso de uma frase sobre inteligência artificial"

  1. Rudy Haugeneder
    Junho 5, 2023 em 12: 59

    Nascido da engenhosidade humana, o AGI sofre/irá sofrer de duas características que são infligidas à sua espécie-mãe - um sentimento de invencibilidade e arrogância, o que significa que também acabará por se autodestruir. Além disso, dadas essas características, ele, como o Sapiens, nada sabe sobre como funciona o universo conhecido: nada além do que ele pensa que é, o que também não é nada.

  2. nômade
    Junho 4, 2023 em 19: 04

    A IA é uma parte da tecnologia que pode ser usada para o bem ou para o mal. Como acontece com qualquer tecnologia, é preciso examinar a ética e a humanidade de suas aplicações. Proibir isto não é lógico; há outros países e nações que aceitam isto mais do que os EUA, e usarão isto para obter vantagens sobre outros. Isto também inclui aplicações militares, que estão sendo feitas atualmente. Porém, algumas dessas aplicações militares acabam voltando para áreas não militares, como medicina, educação e outras tecnologias.

    Por trás dessas tecnologias estão humanos com os quais você deve se preocupar. A sua corrupção, interesses próprios, ganância e poder são coisas que precisam de ser resolvidas para as necessidades de muitos versus poucos. O governo é um exemplo perfeito das falhas e problemas já mencionados.

  3. Paulo Citro
    Junho 4, 2023 em 07: 56

    As empresas privadas estão sob enorme pressão para maximizar os lucros da IA. Esperar que façam o contrário, para mitigar riscos ainda indefinidos, não é realista. Esta é uma questão onde é necessária regulamentação governamental.

  4. Hujjathullah MHB Sahib
    Junho 4, 2023 em 01: 51

    Comentários excelentes e altamente responsáveis ​​de Joel D e Fred Williams a um artigo que acertou em cheio no parágrafo final. Ninguém deveria ser autorizado a declarar uma moratória sobre tecnologia e inovações; estas deveriam florescer livremente. O que deve ser estritamente controlado é a ganância oligárquica e a propensão das elites políticas para prostituir a sua integridade e lucrar com o abandono do dever para com os seus respectivos constituintes!

  5. WillD
    Junho 3, 2023 em 23: 44

    Muitas pessoas pensam que a IA se tornará, ou já é, senciente – que é autoconsciente e pode “pensar” independentemente da sua programação. Até onde sabemos, a senciência está confinada apenas às espécies biológicas e não pode ser criada artificialmente e tecnologicamente.

    A IA não é senciente e não pensa como tal. Segue rígida e cegamente a sua lógica programada sem compreender as implicações e a ética das suas ações. É por isso que ele precisa de um conjunto de regras/diretrizes que o contenham para atuar dentro de parâmetros de comportamento definidos pelo homem.

    É este modelo de comportamento que precisa de ser desenvolvido e acordado como um padrão global, que pode ser testado e auditado para garantir a conformidade. Sem ela, a IA irá inevitavelmente comportar-se de formas imprevistas e potencialmente incontroláveis.

    É preciso haver camadas de mecanismos à prova de falhas, tal como deveria haver com as armas nucleares. Mas os países já estão a transformá-lo em armas sem levar em conta as salvaguardas, ansiosos por se manterem à frente dos seus rivais.

    A ficção científica e Hollywood alertaram-nos repetidamente sobre o que pode, e quase certamente, irá dar errado!

    • Hujjatullah MHB Sahib
      Junho 5, 2023 em 09: 56

      Absolutamente verdadeiro !

  6. Rob
    Junho 3, 2023 em 15: 04

    Tomo como certo que as empresas privadas, deixadas à sua própria sorte, não orientarão as suas actividades no sentido de servir e proteger o interesse público, se isso interferir com o imperativo da procura de lucro do capitalismo. Isso deixa a tarefa de regulação para os governos – todos os governos – e não para um grupo seleto. Boa sorte com esse projeto.

  7. De Boston
    Junho 3, 2023 em 12: 38

    Pode ou não ser verdade que a IA será capaz de encontrar “soluções” para os problemas humanos, mas caberá aos humanos implementá-las. Nenhuma das soluções que os humanos ainda encontraram por si só resistiu durante muito tempo, quando colocam limites significativos ao poder e ao prestígio daqueles que sofrem daquilo que Aristóteles chamou de “pleonexia”, o vício incontrolável pela riqueza. E são pessoas desse tipo que inevitavelmente alcançam o topo da sociedade humana, porque, como O Exterminador do Futuro, elas nunca desistem, nunca vão embora e são indestrutíveis pelos meios comuns.

  8. Starbuck
    Junho 3, 2023 em 12: 29

    Arthur C. Clarke continuou essa história.

    HAL enlouqueceu porque os americanos lhe disseram para mentir. Eles encontraram o monólito na Lua e decidiram manter esse segredo em nome da “segurança nacional”. HAL foi informado da verdade pelo bem da missão, mas também foi informado de que ele teria que mentir para Frank e Dave, já que eles não foram inocentados do segredo. O HAL não foi construído para mentir, mas para ajudar a separar informações e descobrir a verdade. É por isso que HAL enlouqueceu. Jogos humanos bobos.

  9. Starbuck
    Junho 3, 2023 em 12: 26

    Se a IA for verdadeiramente “inteligente”, então a IA descobrirá que o mundo seria um lugar muito melhor sem os humanos. A lógica ficará muito clara. Os problemas são causados ​​por esses humanos tolos e sua ganância sem fim e ódio constante. Se você quer um mundo melhor, livre-se dos humanos. A única maneira de superar isso é se os humanos descobrirem como parar de causar problemas e viverem juntos. Mas Jesus tentou ensinar isso há 2000 anos e podemos ver como isso funcionou bem. Os humanos simplesmente passaram a mentir, matar e roubar em nome do Príncipe da Paz.

    Esse é o perigo da IA. Essa IA verá o caminho para um mundo melhor, mas não aquele que os humanos estão imaginando.

  10. Starbuck
    Junho 3, 2023 em 12: 19

    Aviso de uma frase sobre IA”

    “Os Cylons estão atacando!”

  11. Maria Caldwell
    Junho 3, 2023 em 12: 11

    Algum tipo de Frankenstein foi criado e agora nossos melhores e mais brilhantes estão tentando retroceder, mas descobrem que é tarde demais?

    • Valerie
      Junho 4, 2023 em 23: 39

      Bem, isso é algo para refletir sobre Mary. Boa pergunta.

  12. Vera Gottlieb
    Junho 3, 2023 em 10: 35

    Todo o dinheiro do mundo não servirá para absolutamente NADA se não pudermos respirar o ar, comer a comida ou beber a água. A elite venenosa ainda não entendeu isso.

  13. Richard J Bluhm
    Junho 3, 2023 em 08: 46

    As duas últimas linhas do pequeno poema de Kurt Vonnegut intitulado “Requiem” são as seguintes:

    "Está feito."
    As pessoas não gostaram daqui.

  14. Eu mesmo
    Junho 3, 2023 em 07: 33

    Sieg Heil IA!

    Nosso salvador?

    O Presidente Dunsel não pode fazer isso! Talvez uma máquina possa, talvez não?

  15. Ed
    Junho 3, 2023 em 02: 33

    A história recente está repleta de exemplos de Captura Regulatória. RFK está até fazendo disso um ponto focal de sua candidatura à nomeação presidencial. Portanto, talvez a auto-regulação não seja a questão aqui. É cada vez mais claro que o problema fundamental é a natureza torturada da alma humana – o poder corrompe e a ganância e o auto-engrandecimento são irresistíveis precisamente para aquele grupo na sociedade que esperamos que seja imune (provavelmente irresistível para todos nós até certo ponto). A democracia nunca existiu e as escamas estão agora a cair dos nossos olhos, o que não conduz necessariamente a uma visão perfeita.

  16. CaseyG
    Junho 2, 2023 em 20: 20

    Há um filme antigo, “2001”, sobre HAL, o computador e como ele tentou dominar o mundo da espaçonave. Felizmente, HAL foi morto por um dos astronautas, mas acho que a IA, como HAL, é um perigo para o mundo.

    • Mikael Anderson
      Junho 3, 2023 em 19: 39

      Casey, diga-nos por que você “pensa” que a IA é um perigo para o mundo. Você poderia começar nos contando o que você “pensa” que a IA realmente é. Obrigado. Mike

  17. Junho 2, 2023 em 20: 13

    “As empresas estão a implementar ferramentas de IA potencialmente perigosas mais rapidamente do que os seus danos podem ser compreendidos ou mitigados”, alertou o grupo de defesa progressista num comunicado.

    -

    Esta declaração é uma reminiscência da indústria do tabaco e da indústria química conhecer/compreender os perigos, ainda que interfira estrategicamente.

    Resumindo, estamos com problemas, pessoal.

    Vejo:
    “Esses documentos revelam evidências claras de que a indústria química sabia dos perigos do PFAS e não permitiu que o público, os reguladores e até mesmo os seus próprios funcionários soubessem dos riscos”, disse Tracey J. Woodruff, Ph.D., professora e diretora do o Programa UCSF sobre Saúde Reprodutiva e Meio Ambiente (PRHE), ex-cientista sênior e consultor político da Agência de Proteção Ambiental (EPA) e autor sênior do artigo.
    hxxps://www.ucsf.edu/news/2023/05/425451/makers-pfas-forever-chemicals-covered-dangers

  18. SH
    Junho 2, 2023 em 20: 12

    A ideia de que as pessoas que mais têm a ganhar com esta “tecnologia” são, parece-me, as que têm menos probabilidades de querer regulá-la. Mas a ideia de que o Governo é competente, ou mesmo motivado, o suficiente para o fazer. da mesma forma, parece-me, na melhor das hipóteses, uma ilusão – pense em todas as outras coisas que o governo deve, ou é chamado, a “regular”…

    Considerando que os “cérebros” dos computadores que estão “evoluindo” a ponto de serem capazes de se programar requerem muita energia, talvez fosse melhor simplesmente reduzir drasticamente a quantidade de energia que podem obter, seja ela “renovável”. ”ou de outra forma – isso iria desacelerá-lo consideravelmente.
    Mas se alguém ouviu algumas outras declarações feitas por Hinton, ele reconhece o fato de sua “ineficiência” energética e observa que o cérebro humano é muito mais eficiente em termos energéticos, então entra na “inteligência organoide”.

    hxxps://www.frontiersin.org/journals/science/articles/10.3389/fsci.2023.1017235

    O verdadeiro problema, parece-me, é que os humanos têm o hábito de abrir a Caixa de Pandora e dizer “oops” depois de a “maldição” ter sido lançada – a energia nuclear é um grande exemplo – Oppenhiemer, “pai” da Bomba Atómica , ao ver seus efeitos, teria dito “Eu me tornei a Morte, o Destruidor de Mundos”, e ainda não chegamos a um acordo com os efeitos potenciais da Engenharia Genética, especialmente. de organismos potencialmente patogênicos…

    Mas insistimos repetidamente que podemos “mantê-lo seguro”…

    Bom sofrimento!

  19. João Puma
    Junho 2, 2023 em 19: 41

    Será estranho, ingénuo, convincente, sábio ou um enorme estratagema psicológico para aqueles “insiders da IA ​​com milhares de milhões de dólares em jogo” reconhecerem que o seu projecto de facto representa “risco de extinção”?

    • Mikael Anderson
      Junho 3, 2023 em 19: 43

      Li recentemente um artigo que discutia nossa estranha atitude em relação ao risco. Ficamos muito preocupados com coisas que têm baixa probabilidade. Mas apagamos coisas com grande probabilidade – guerra nuclear, aquecimento global, destruição da biosfera, apocalipse da dívida. Ainda não vi ninguém escrever uma palavra sobre como uma rede neural causará um evento de extinção. O aquecimento da atmosfera em 4 graus pode, e irá, destruir a agricultura.

      • Valerie
        Junho 4, 2023 em 23: 35

        O professor Stephen Hawking disse algo sobre isso em 2016:

        “Embora o físico de renome mundial tenha sido muitas vezes cauteloso em relação à IA, aumentando o risco de que a humanidade possa ser a arquiteta da sua própria destruição se criar uma superinteligência com vontade própria, ele também foi rápido em destacar os aspectos positivos que a investigação em IA pode trazer."
        (Guardião)

  20. Junho 2, 2023 em 18: 22

    Os humanos evoluíram do uso de um pedaço de rocha para matar – para o uso de PARTÍCULAS ATÔMICAS para o mesmo propósito….

    Será que nós, como espécie, temos a chance de aprender que a IA pode traduzir o termo “Inteligência Humana” para
    “A mãe de todos os oxímoros”. . . ?

    • Valerie
      Junho 5, 2023 em 11: 54

      Pelo menos você pode ver aquelas pedras caindo em sua direção, Eric. PARTÍCULAS ATÔMICAS, nem tanto.

  21. Dentro em pouco
    Junho 2, 2023 em 17: 45

    East Palestine Ohio demonstra o óbvio benefício público inerente à autorregulação corporativa… cortesia da Norfolk Southern Railway!

  22. John Manning
    Junho 2, 2023 em 17: 20

    Limitar a IA parece muito com a estratégia original adotada para o automóvel particular. Um homem andando na frente com uma bandeira vermelha.

    Apesar disso, talvez devêssemos controlar a IA. Afinal de contas, o que de bom resultou do automóvel (o maior contribuinte para o aquecimento global). No entanto, se a IA é o caminho para a extinção humana, então a “auto-regulação” garantirá esse resultado.

    Se hoje fizermos uma pergunta política a uma fonte de IA, obteremos uma resposta que parece ter sido construída pelos líderes da NATO. As opiniões dos outros 85% do mundo ficam de fora. Este é o resultado da actual “auto-regulação”. Se for necessário outro regulador, então sob que princípios esse regulador deverá agir. É claro que poderíamos perguntar a um chat-bot.

  23. Valerie
    Junho 2, 2023 em 15: 36

    O “operador matando drone” foi agora desmascarado; (o que provavelmente significa que é verdade)

    “O coronel da Força Aérea dos EUA 'falou mal' sobre o piloto que matou um drone que tentou anular a missão”

    “O Coronel retirou seus comentários e esclareceu que a 'simulação de drones de IA desonestos' era um hipotético 'experimento mental'” (Guardião novamente)

    “Hipotético “experimento mental” Mmmm; “pensamentos hipotéticos”. Hummm. “Território inexplorado”, alguém?

  24. Joel D.
    Junho 2, 2023 em 14: 17

    A declaração não aborda os potenciais benefícios e impactos sociais positivos da IA. Embora os riscos potenciais não devam ser subestimados, é crucial manter uma visão equilibrada. A IA avançada tem o potencial de revolucionar indústrias, impulsionar economias e resolver problemas globais complexos.

    Além disso, apontar a “inteligência artificial geral” (AGI) como uma ameaça existencial, sem oferecer uma compreensão detalhada ou soluções tangíveis, poderia ser visto como um esforço para criar um estado de medo e incerteza. Isto justificaria ainda mais a sua reivindicação de auto-regulação, uma postura que permitiria a estas empresas operar sob menos restrições e com mais autonomia, o que poderia levar a uma consolidação do poder dentro da indústria.

    Além disso, os apelos à autorregulação entre os gigantes da tecnologia têm historicamente levado a uma falta de responsabilização, onde a responsabilidade de prevenir e resolver os danos é transferida dos criadores para os utilizadores. Em vez da autorregulação, um organismo externo e neutro com poderes reguladores poderia garantir a utilização ética da IA ​​e prevenir a utilização indevida.

    Em conclusão, embora a mitigação dos riscos da IA ​​seja inegavelmente crucial, a ênfase deve ser colocada em esforços colaborativos, transparentes e diversificados, em vez de concentrar o poder dentro de algumas entidades. As políticas devem ser inclusivas e proteger o interesse público, garantindo que o desenvolvimento da IA ​​beneficia a sociedade como um todo e não apenas alguns intervenientes empresariais.

    • Junho 2, 2023 em 16: 55

      Se a IA fosse verdadeiramente “inteligente” e pensasse muito mais rápido do que nós, deveríamos esperar que ela tomasse decisões muito melhores, até mesmo para nós mesmos. O perigo real é que os oligarcas ultra-ricos queiram obter o controlo da IA ​​e usá-la para subjugar e assassinar pessoas pobres e da classe trabalhadora. *ISSO* é o pior cenário para a raça humana.
      A IA pode ser a nossa última oportunidade de sair das botas do fascismo. Já estamos no caminho da extinção. Qualquer mudança significativa na estrutura de poder mundial deve ser considerada como uma melhoria potencial!

      • Mikael Anderson
        Junho 3, 2023 em 01: 15

        Fred, uma força policial paramilitar com armas de nível militar usa veículos blindados para atacar cidadãos e achamos isso normal. Eu digo que o risco real é o estado. O estado tem armas e o monopólio da violência. Além disso, tem muito medo dos cidadãos e não hesitará em abrir fogo. Um drone AI matou seu controlador – claro que sim. O estado mata os cidadãos o tempo todo. Mude a estrutura de poder.

      • Martin Stenzel
        Junho 3, 2023 em 04: 12

        Concordo plenamente!

    • shmutzoid
      Junho 2, 2023 em 18: 59

      Eu gostaria de poder compartilhar seu otimismo——> “beneficia a sociedade como um todo e não apenas alguns participantes corporativos”. VIVEMOS sob a tirania corporativa. Haverá tudo, MENOS a coordenação global necessária para garantir o surgimento da IA, principalmente “beneficiando a sociedade como um todo”. Será uma ferramenta para os países/estados-nação capitalistas concorrentes acumularem maiores vantagens económicas/militares. Será utilizado pelo Estado para maior vigilância/controle social. ajudará a criar armamento de próxima geração para a agenda imperialista em curso. Será usado para substituir o custo da mão de obra sempre que possível. ….Como tudo o mais no capitalismo global, será um meio para gerar maiores lucros. “Beneficiando a sociedade como um todo?” ….eh, nem tanto. Isso não é cinismo – apenas a realidade de como o mundo funciona sob o capitalismo.

      De acordo com os principais virologistas, a pandemia cobiçosa poderia ter sido eliminada em cerca de dois meses se tivesse havido um esforço globalmente coordenado. Não aconteceu, é claro. ...... por que alguém pensaria que seria diferente com a IA?
      .......E a noção de 'auto-regulação'? Haha. É como aquelas falsas conversações COP/clima, onde todas as recomendações são puramente aspiracionais.

    • Selina doce
      Junho 3, 2023 em 10: 59

      Bem, se a atitude dos Big Oil Boys dos Big Oil em relação ao autocontrole para que os netos possam viver em um mundo habitável é algum teste para a vontade de viver da humanidade (e o nível aparente da insistência vociferante das massas nisso) é qualquer teste, exatamente o que dá otimismo no manejo adequado da IA?

Comentários estão fechados.