Plusieurs promoteurs de l'IA ont signé cette semaine la déclaration sur l'atténuation des risques d'extinction, évoquant la possibilité que des initiés avec des milliards de dollars en jeu tentent de démontrer leur capacité d'autorégulation.
By Kenny Stancil
Common Dreams
TCette semaine, 80 scientifiques en intelligence artificielle et plus de 200 « autres personnalités notables » ont signé un déclaration qui dit que « l’atténuation du risque d’extinction dû à l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle sociétale tels que les pandémies et la guerre nucléaire ».
L’avertissement en une phrase lancé par un groupe diversifié de scientifiques, d’ingénieurs, de dirigeants d’entreprise, d’universitaires et d’autres n’entre pas dans le détail des menaces existentielles posées par l’IA.
Au lieu de cela, il cherche à « ouvrir le débat » et à « créer une connaissance commune du nombre croissant d'experts et de personnalités publiques qui prennent également au sérieux certains des risques les plus graves de l'IA avancée », selon le Center for AI Safety, une organisation à but non lucratif basée aux États-Unis. dont le site Web héberge la déclaration.
Le principal signataire Geoffrey Hinton, souvent appelé « le parrain de l’IA », tire la sonnette d’alarme depuis des semaines. Plus tôt ce mois-ci, le professeur émérite d'informatique de l'Université de Toronto, âgé de 75 ans, annoncé qu'il avait démissionné de son poste chez Google afin de parler plus librement des dangers liés à l'IA.
Avant de quitter Google, Hinton dit CBS Nouvelles en mars, que les impacts potentiels de l'évolution rapide de la technologie sont comparables à « la révolution industrielle, ou à l'électricité, ou peut-être à la roue ».
Interrogé sur les chances que la technologie « anéantisse l’humanité », Hinton a prévenu que « ce n’est pas inconcevable ».
Ce potentiel effrayant ne réside pas nécessairement dans les outils d'IA actuellement existants tels que ChatGPT, mais plutôt dans ce que l'on appelle « l'intelligence générale artificielle » (AGI), qui engloberait les ordinateurs développant et agissant selon leurs propres idées.
"Jusqu'à tout récemment, je pensais qu'il faudrait entre 20 et 50 ans avant que nous ayons une IA à usage général", a déclaré Hinton à CBS News. "Maintenant, je pense que cela pourrait prendre 20 ans ou moins."
Pressé par le média de savoir si cela pouvait arriver plus tôt, Hinton a admis qu'il n'exclurait pas la possibilité qu'AGI arrive d'ici cinq ans, un changement significatif par rapport à il y a quelques années, lorsqu'il « aurait dit : « Pas question ».
« Nous devons réfléchir sérieusement à la manière de contrôler cela », a déclaré Hinton. Lorsqu'on lui a demandé si cela était possible, Hinton a répondu : « Nous ne savons pas, nous n'y sommes pas encore allés, mais nous pouvons essayer. »
Le pionnier de l’IA est loin d’être seul. D’après Dans le rapport 2023 AI Index, une évaluation annuelle de l'industrie en croissance rapide publiée le mois dernier par l'Institut de Stanford pour l'intelligence artificielle centrée sur l'humain, 57 % des informaticiens interrogés ont déclaré que « les progrès récents nous amènent vers l'AGI », et 58 % a convenu que « l’AGI est une préoccupation importante ».
Bien que ses conclusions aient été publiées à la mi-avril, l'enquête de Stanford auprès de 327 experts en traitement du langage naturel - une branche de l'informatique essentielle au développement des chatbots - a été menée en mai et juin derniers, des mois avant l'irruption du ChatGPT d'OpenAI en novembre.
Le PDG d'OpenAI, Sam Altman, qui a signé la déclaration partagée mardi par le Center for AI Safety, a écrit dans un communiqué de février. blog récents: « Les risques pourraient être extraordinaires. Un AGI superintelligent mal aligné pourrait causer de graves dommages au monde.
Le mois suivant, cependant, Altman refusa de signer un lettre ouverte appelant à un moratoire de six mois sur la formation des systèmes d'IA au-delà du niveau du dernier chatbot d'OpenAI, GPT-4.
La lettre, publiée en mars, indique que « des systèmes d’IA puissants ne devraient être développés qu’une fois que nous serons sûrs que leurs effets seront positifs et que leurs risques seront gérables ».
Elon Musk, PDG de Tesla et de Twitter, faisait partie de ceux qui ont appelé à une pause il y a deux mois, mais il « élabore des plans pour lancer une nouvelle start-up d’intelligence artificielle pour concurrencer » OpenAI, selon le Financial Times, soulevant la question de savoir si sa préoccupation déclarée concernant les « risques profonds pour la société et l'humanité » que représente la technologie est sincère ou s'il s'agit d'une expression d'intérêt personnel.
Offre possible d’autorégulation
Le fait qu'Altman et plusieurs autres promoteurs de l'IA aient signé la déclaration de cette semaine soulève la possibilité que des initiés avec des milliards de dollars en jeu tentent de montrer leur conscience des risques posés par leurs produits dans le but de persuader les responsables de leur capacité à s'autoréguler.
Les trois règles de la robotique d'Isaac Asimov pleinement justifiées : un drone militaire américain contrôlé par l'IA a tué son opérateur lors d'un test simulé https://t.co/sjM5zuJwzH
– Yanis Varoufakis (@yanisvaroufakis) Le 2 juin 2023
Les demandes extérieures au secteur en faveur d’une réglementation gouvernementale stricte de l’IA se multiplient. Même si des formes toujours plus dangereuses d’AGI pourraient encore se produire dans quelques années, il existe déjà de plus en plus de preuves que les outils d’IA existants exacerbent la propagation de la désinformation, depuis les chatbots crachant des mensonges jusqu’aux applications d’échange de visage générant de fausses vidéos jusqu’aux voix clonées commettant des fraudes.
L’IA actuelle, non testée, nuit aux gens d’autres manières, notamment lorsque les technologies automatisées déployées par Avantage Medicare les assureurs unilatéralement décider de mettre fin paiements, entraînant la fin prématurée de la couverture des personnes âgées vulnérables.
Les critiques ont averti qu’en l’absence d’interventions rapides de la part des décideurs politiques, une IA non réglementée pourrait nuire davantage. patients de soins de santé, hâter la destruction de La démocratie, et conduire à un événement involontaire guerre nucléaire. Parmi les autres préoccupations courantes figurent les licenciements généralisés, l’aggravation des inégalités ainsi que l’augmentation massive de la pollution par le carbone.
Un rapport publié le mois dernier par Public Citizen soutient que « jusqu’à ce que des mesures gouvernementales significatives soient mises en place pour protéger le public des méfaits de l’IA générative, nous avons besoin d’une pause ».
« Les entreprises déploient des outils d’IA potentiellement dangereux plus rapidement que leurs méfaits ne peuvent être compris ou atténués », a averti le groupe de défense progressiste dans un communiqué.
« L’histoire n’offre aucune raison de croire que les entreprises peuvent s’autoréguler pour éliminer les risques connus – d’autant plus que bon nombre de ces risques font autant partie de l’IA générative que de la cupidité des entreprises », a poursuivi l’organisme de surveillance. « Les entreprises qui se précipitent pour introduire ces nouvelles technologies jouent avec la vie et les moyens de subsistance des gens, et sans doute avec les fondements mêmes d'une société libre et d'un monde vivable. »
Kenny Stancil est rédacteur pour Common Dreams.
Cet article est de Rêves communs.
Les opinions exprimées dans cet article peuvent ou non refléter celles de Nouvelles du consortium.
Assistance CN's Printemps
Contrôleur par chaîne Aujourd'hui
Né de l'ingéniosité humaine, AGI souffre/sera de deux traits dont son espèce parent est infligée : un sentiment d'invincibilité et d'arrogance, ce qui signifie qu'il finira également par s'autodétruire. De plus, compte tenu de ces caractéristiques, comme Sapiens, il ne sait rien du fonctionnement de l’univers connu : rien d’autre que ce qu’il pense être, qui, lui aussi, n’est rien.
L’IA fait partie de la technologie qui peut être utilisée pour le meilleur ou pour le pire. Comme pour toute technologie, il faut se pencher sur l’éthique et les sciences humaines de ses applications. Interdire cela n’est pas logique ; Il existe d’autres pays et nations qui acceptent davantage cela que les États-Unis, et ils l’utiliseront pour leur avantage sur les autres. Cela inclut également les applications militaires, ce qui est actuellement en cours. Cependant, certaines de ces applications militaires finissent par revenir dans des domaines non militaires tels que la médecine, l’éducation et d’autres technologies.
Derrière ces technologies se cachent des humains dont vous devez vous soucier. Leur corruption, leurs intérêts personnels, leur cupidité et leur pouvoir sont des problèmes qui doivent être résolus pour les besoins du plus grand nombre et ceux de quelques-uns. Le gouvernement est un parfait exemple des défauts et des problèmes déjà mentionnés.
Les entreprises privées subissent une pression énorme pour maximiser les profits de l’IA. Il est irréaliste de s’attendre à ce qu’ils agissent autrement, pour atténuer des risques encore indéfinis. C’est une question qui nécessite une réglementation gouvernementale.
Commentaires superbes et hautement responsables de Joel D et Fred Williams sur un article qui l'a bien expliqué dans le dernier paragraphe. Personne ne devrait être autorisé à décréter un moratoire sur la technologie et les innovations, celles-ci devraient fleurir librement. Ce qui doit être strictement contrôlé, c'est la cupidité oligarchique et la propension des élites politiques à prostituer leur intégrité et à profiter de leur manquement à leurs devoirs envers leurs constituants respectifs !
Beaucoup de gens pensent que l’IA deviendra, ou est déjà, sensible – qu’elle est consciente d’elle-même et peut « penser » indépendamment de sa programmation. Pour autant que nous le sachions, la sensibilité est confinée aux espèces biologiques uniquement et ne peut pas être créée artificiellement par la technologie.
L’IA n’est pas sensible et ne pense pas en tant que telle. Il suit de manière rigide et aveugle sa logique programmée sans comprendre les implications et l’éthique de ses actions. C'est pourquoi il a besoin d'un ensemble de règles/directives qui le contiennent pour fonctionner dans le cadre de paramètres de comportement définis par l'homme.
C'est ce modèle de comportement qui doit être développé et adopté en tant que norme mondiale, qui peut être testée et auditée pour garantir sa conformité. Sans cela, l’IA se comportera inévitablement de manière imprévue et potentiellement incontrôlable.
Il doit y avoir plusieurs niveaux de mécanismes de sécurité, tout comme il est censé y en avoir avec les armes nucléaires. Mais déjà, les pays l’utilisent comme une arme sans se soucier des garanties, désireux de garder une longueur d’avance sur leurs rivaux.
La science-fiction et Hollywood nous ont prévenus à maintes reprises de ce qui pourrait mal se passer, et qui se passera presque certainement !
Absolument vrai !
Je considère comme acquis que les entreprises privées, livrées à elles-mêmes, n'orienteront pas leurs activités vers le service et la protection de l'intérêt public, si cela risque d'interférer avec l'impératif de recherche du profit du capitalisme. Cela laisse la tâche de réglementation aux gouvernements – à tous les gouvernements – et non à quelques privilégiés. Bonne chance avec ce projet.
Il est peut-être vrai ou non que l’IA sera capable de trouver des « solutions » aux problèmes humains, mais il appartiendra aux humains de les mettre en œuvre. Aucune des solutions que les humains ont jusqu’à présent trouvées seules n’a duré longtemps, lorsqu’elles imposent des limites significatives au pouvoir et au prestige de ceux qui souffrent de ce qu’Aristote appelait la « pléonexie », la dépendance incontrôlable à la richesse. Et ce sont des gens de ce type qui se frayent inévitablement un chemin jusqu’au sommet de la société humaine, car, comme The Terminator, ils n’abandonnent jamais, ils ne s’en vont jamais et ils sont indestructibles par les moyens ordinaires.
Arthur C. Clarke a continué cette histoire.
HAL est devenu fou parce que les Américains lui ont dit de mentir. Ils avaient trouvé le monolithe sur la lune et avaient décidé de garder ce secret au nom de la « sécurité nationale ». On a dit à HAL la vérité pour le bien de la mission, mais on lui a également dit qu'il devait mentir à Frank et Dave puisqu'ils n'étaient pas autorisés à révéler le secret. HAL n'a pas été conçu pour mentir, mais pour aider à trier les informations afin de découvrir la vérité. C'est pourquoi HAL est devenu fou. Jeux humains idiots.
Si l’IA est vraiment « intelligente », alors elle comprendra que le monde serait bien plus agréable sans les humains. La logique deviendra très claire. Les problèmes sont causés par ces humains stupides, leur cupidité sans fin et leur haine constante. Si vous voulez un monde meilleur, débarrassez-vous des humains. La seule façon d’aller au-delà de cela est si les humains parviennent à trouver un moyen d’arrêter de causer des problèmes et de vivre ensemble. Mais Jésus a essayé d’enseigner cela il y a 2000 ans et nous pouvons voir à quel point cela a bien fonctionné. Les humains se sont mis à mentir, à tuer et à voler au nom du Prince de la Paix.
C'est le danger de l'IA. Cette IA verra le chemin vers un monde meilleur, mais pas celui que les humains imaginent.
Un avertissement en une phrase sur l’IA »
« Les Cylons attaquent ! »
Une sorte de Frankenstein a-t-elle été créée et maintenant nos meilleurs et plus brillants tentent de revenir en arrière, mais il est trop tard pour le découvrir ?
Eh bien, c'est quelque chose à méditer, Mary. Bonne question.
Tout l'argent du monde ne servira absolument à RIEN si nous ne pouvons pas respirer l'air, manger de la nourriture ou boire de l'eau. L’élite venimeuse ne l’a toujours pas compris.
Les deux derniers vers du petit poème de Kurt Vonnegut intitulé « Requiem » sont les suivants :
"C'est fait."
Les gens n’aimaient pas ça ici.
Sieg Heil IA !
Notre sauveur ?
Le président Dunsel ne peut pas le faire ! Peut-être qu’une machine le peut, peut-être pas ?
L’histoire récente regorge d’exemples de capture réglementaire. RFK en fait même un point central de sa candidature à l’investiture présidentielle. Alors peut-être que l’autorégulation n’est pas le problème ici. Il est de plus en plus clair que le problème fondamental réside dans la nature torturée de l’âme humaine – le pouvoir corrompt, l’avidité et l’autoglorification sont irrésistibles précisément pour ce groupe de la société dont nous espérons être immunisés (probablement irrésistibles pour nous tous dans une certaine mesure). La démocratie n'a jamais existé et les écailles tombent désormais de nos yeux, ce qui ne conduit pas nécessairement à une vue parfaite.
Il y a un vieux film, « 2001 », sur HAL, l'ordinateur et comment il a tenté de conquérir le monde des vaisseaux spatiaux. Heureusement, HAL a été tué par l'un des astronautes, mais je pense que l'IA, comme HAL, constitue un danger pour le monde.
Casey, s'il vous plaît, dites-nous pourquoi vous « pensez » que l'IA est un danger pour le monde. Pourriez-vous s’il vous plaît commencer par nous dire ce qu’est réellement, selon vous, l’IA. Merci. Mik
« Les entreprises déploient des outils d’IA potentiellement dangereux plus rapidement que leurs méfaits ne peuvent être compris ou atténués », a averti le groupe de défense progressiste dans un communiqué.
-
Cette déclaration n’est pas sans rappeler le fait que l’industrie du tabac et de la chimie connaît/comprend les dangers tout en intervenant stratégiquement.
En fin de compte, nous sommes en difficulté, les amis.
Voir:
"Ces documents révèlent des preuves claires que l'industrie chimique était au courant des dangers des PFAS et n'a pas informé le public, les régulateurs et même ses propres employés des risques", a déclaré Tracey J. Woodruff, Ph.D., professeur et directrice de le programme UCSF sur la santé reproductive et l'environnement (PRHE), ancien scientifique principal et conseiller politique à l'Environmental Protection Agency (EPA) et auteur principal de l'article.
hxxps://www.ucsf.edu/news/2023/05/425451/makers-pfas-forever-chemicals-covered-dangers
L’idée selon laquelle ceux qui ont le plus à gagner de cette « technologie » sont, me semble-t-il, les moins susceptibles de vouloir la réglementer. Mais l’idée que le gouvernement est suffisamment compétent, voire motivé, pour le faire. cela me semble également être, au mieux, un vœu pieux – pensez à toutes les autres choses que le gouvernement est censé, ou est appelé, à « réglementer »…
Considérant que les « cerveaux » informatiques qui « évoluent » au point de pouvoir se programmer eux-mêmes nécessitent énormément d’énergie, il serait peut-être préférable de simplement réduire drastiquement la quantité d’énergie qu’ils peuvent obtenir, qu’elle soit « renouvelable ». » ou autrement – cela le ralentirait considérablement.
Mais si l’on a écouté d’autres déclarations faites par Hinton, il reconnaît le fait de leur « inefficacité » énergétique et observe que le cerveau humain est beaucoup plus efficace en termes d’énergie, alors entrez dans « l’intelligence organoïde ».
hxxps://www.frontiersin.org/journals/science/articles/10.3389/fsci.2023.1017235
Le vrai problème, me semble-t-il, c'est que les humains ont l'habitude d'ouvrir la boîte de Pandore et de dire « oups » une fois que la « malédiction » s'est envolée – l'énergie nucléaire en est un excellent exemple – Oppenhiemer, « père » de la bombe atomique , après avoir vu ses effets, aurait déclaré "Je suis devenu la Mort, le Destructeur des Mondes", et nous n'avons pas encore accepté les effets potentiels du génie génétique, en particulier. d’organismes potentiellement pathogènes…
Mais nous insistons encore et encore sur le fait que nous pouvons « le garder en sécurité »…
Bon sang!
Est-ce étrange, naïf, convaincant, sage ou un stratagème psychologique massif pour ces « initiés de l’IA avec des milliards de dollars en jeu » de reconnaître que leur projet présente effectivement un « risque d’extinction » ?
J'ai lu récemment un article qui traitait de notre étrange attitude face au risque. Nous sommes très inquiets des choses qui ont une faible probabilité. Mais nous effaçons très probablement des choses – guerre nucléaire, réchauffement climatique, destruction de la biosphère, apocalypse de la dette. Je n’ai encore vu personne écrire un mot sur la façon dont un réseau de neurones va provoquer un événement d’extinction. Réchauffer l’atmosphère de 4 degrés peut, et le fera, en détruisant l’agriculture.
Le professeur Stephen Hawking en a parlé en 2016 :
« Même si le physicien de renommée mondiale s’est souvent montré prudent à l’égard de l’IA, soulevant le risque que l’humanité soit l’architecte de sa propre destruction si elle créait une superintelligence dotée d’une volonté propre, il n’a pas tardé à souligner les points positifs que la recherche sur l’IA peut amener."
(Gardien)
Les humains ont évolué, passant de l’utilisation d’un morceau de roche pour tuer à l’utilisation de PARTICULES ATOMIQUES dans le même but….
En tant qu'espèce, avons-nous une chance d'apprendre un jour que l'IA pourrait traduire le terme « Intelligence humaine » en
"La mère de tous les oxymores". . . ?
Au moins tu peux voir ces rochers se précipiter vers toi Eric. PARTICULES ATOMIQUES, pas tellement.
East Palestine Ohio démontre l’avantage public évident inhérent à l’autorégulation des entreprises… avec l’aimable autorisation du Norfolk Southern Railway !
Limiter l’IA ressemble beaucoup à la stratégie originale adoptée pour la voiture particulière. Un homme marchant devant avec un drapeau rouge.
Malgré cela, nous devrions peut-être contrôler l’IA. Après tout, à quoi a servi l’automobile (le plus grand contributeur humain au réchauffement climatique). Cependant, si l’IA est la voie menant à l’extinction de l’humanité, alors « l’autorégulation » garantira ce résultat.
Si vous posez aujourd’hui une question politique à une source d’IA, vous obtenez une réponse qui semble avoir été construite par les dirigeants de l’OTAN. Les opinions des 85 % restants de la population mondiale sont laissées de côté. C’est le résultat de l’actuelle « autorégulation ». Si un autre régulateur est nécessaire, selon quels principes ce régulateur devrait-il agir ? On pourrait bien sûr interroger un chat-bot.
Le « drone tueur d’opérateur » a maintenant été démystifié ; (ce qui veut probablement dire que c'est vrai)
"Le colonel de l'armée de l'air américaine s'est mal exprimé à propos du pilote qui a tué un drone qui tentait d'ignorer sa mission"
"Le colonel a rétracté ses commentaires et a précisé que la 'simulation de drone IA malveillant' était une hypothétique 'expérience de pensée'" (Gardien encore)
« Expérience de pensée » hypothétique Mmmm ; « pensées hypothétiques ». Mmmmm. "Territoire inexploré", ça vous dit ?.
La déclaration ne parvient pas à aborder les avantages potentiels et les impacts sociétaux positifs de l’IA. Même s’il ne faut pas minimiser les risques potentiels, il est essentiel de conserver une vision équilibrée. L’IA avancée a le potentiel de révolutionner les industries, de stimuler les économies et de résoudre des problèmes mondiaux complexes.
De plus, désigner « l’intelligence générale artificielle » (IAG) comme une menace existentielle sans offrir une compréhension détaillée ni des solutions tangibles pourrait être considéré comme une tentative visant à créer un état de peur et d’incertitude. Cela justifierait encore davantage leur revendication d’autorégulation, une position qui permettrait à ces entreprises d’opérer sous moins de contraintes et avec plus d’autonomie, ce qui pourrait conduire à une consolidation du pouvoir au sein du secteur.
En outre, les appels à l’autorégulation parmi les géants de la technologie ont historiquement conduit à un manque de responsabilité, où la responsabilité de prévenir et de remédier aux préjudices est transférée des créateurs aux utilisateurs. Au lieu d’une autorégulation, un organisme externe neutre doté de pouvoirs de régulation pourrait garantir l’utilisation éthique de l’IA et prévenir les abus.
En conclusion, même si l’atténuation des risques liés à l’IA est indéniablement cruciale, l’accent devrait être mis sur des efforts collaboratifs, transparents et diversifiés plutôt que sur une concentration du pouvoir au sein de quelques entités. Les politiques doivent être inclusives et protéger l’intérêt public, en veillant à ce que le développement de l’IA profite à la société dans son ensemble et pas seulement à quelques entreprises.
Si l’IA était véritablement « intelligente » et pensait beaucoup plus vite que nous, nous devrions nous attendre à ce qu’elle prenne de bien meilleures décisions, même pour nous-mêmes. Le véritable danger est que les oligarques ultra-riches veulent prendre le contrôle de l’IA et l’utiliser pour soumettre et assassiner les pauvres et la classe ouvrière. *CELA* est le pire scénario pour la race humaine.
L’IA est peut-être notre dernière chance de sortir du fascisme. Nous sommes déjà sur la voie de l'extinction. Tout changement significatif dans la structure du pouvoir mondial doit être considéré comme une amélioration potentielle !
Fred, une force de police paramilitaire dotée d'armes de qualité militaire, utilise des véhicules blindés pour attaquer les citoyens et nous pensons que c'est normal. Je dis que le vrai risque, c'est l'État. L’État possède des armes et le monopole de la violence. De plus, il a très peur des citoyens et n'hésitera pas à ouvrir le feu. Un drone IA a tué son contrôleur – bien sûr. L’État tue constamment les citoyens. Changer la structure du pouvoir.
Je suis tout à fait d'accord!
J'aimerais pouvoir partager votre optimisme——> « profite à la société dans son ensemble et pas seulement à quelques acteurs de l'entreprise ». Nous vivons sous la tyrannie des entreprises. Il y aura tout, SAUF la coordination mondiale nécessaire pour garantir que l'émergence de l'IA « profite principalement à la société dans son ensemble ». Ce sera un outil permettant aux pays/États-nations capitalistes concurrents d’acquérir un plus grand avantage économique/militaire. Il sera utilisé par l’État pour une plus grande surveillance/contrôle social. cela contribuera à créer des armes de nouvelle génération pour le programme impérialiste en cours. Il servira à remplacer le coût de la main-d'œuvre dans la mesure du possible. ….Comme tout le reste dans le capitalisme mondial, ce sera un moyen de générer des profits accrus. « Bénéficiant à la société dans son ensemble ? ….eh, pas tellement. Il ne s’agit pas là de cynisme, mais simplement de la réalité du fonctionnement du monde sous le capitalisme.
Selon des virologues de premier plan et de principe, la pandémie de covid aurait pu être éliminée en deux mois environ s'il y avait eu un effort coordonné à l'échelle mondiale. Cela ne s'est pas produit, bien sûr. …… pourquoi penserait-on que ce serait différent avec l'IA ?
…….Et la notion d'« autorégulation » ? Haha. Cela ressemble à ces fausses négociations COP/climat, où toutes les recommandations sont purement ambitieuses.
Eh bien, si l'attitude des Big Rich Boys envers le pétrole envers la retenue afin que les petits-enfants puissent vivre dans un monde vivable est un test de la volonté de vivre de l'humanité (et le niveau apparent de l'insistance véhémente des masses à ce sujet) est un test, Qu’est-ce qui donne exactement de l’optimisme quant à la bonne gestion de l’IA ?