Mehrere KI-Befürworter haben diese Woche die Erklärung zur „Minderung von Aussterberisiken“ unterzeichnet und damit die Möglichkeit angedeutet, dass Insider, bei denen Milliarden von Dollar auf dem Spiel stehen, versuchen, ihre Fähigkeit zur Selbstregulierung unter Beweis zu stellen.

Meinung der Redner auf der Konferenz über künstliche allgemeine Intelligenz am FedEx Institute of Technology, University of Memphis, 5. März 2008.
(Braubücher, Flickr/Attribution-ShareAlike/ CC BY-SA 2.0)
By Kenny Stancil
Gemeinsame Träume
TIn dieser Woche unterzeichneten 80 Wissenschaftler der künstlichen Intelligenz und mehr als 200 „andere bemerkenswerte Persönlichkeiten“ eine Aussage Darin heißt es: „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“
Die in einem Satz formulierte Warnung der vielfältigen Gruppe von Wissenschaftlern, Ingenieuren, Unternehmensleitern, Akademikern und anderen geht nicht näher auf die existenziellen Bedrohungen ein, die von KI ausgehen.
Vielmehr geht es darum, „Diskussionen zu eröffnen“ und „gemeinsames Wissen über die wachsende Zahl von Experten und Persönlichkeiten des öffentlichen Lebens zu schaffen, die auch einige der schwerwiegendsten Risiken fortgeschrittener KI ernst nehmen“, so das Center for AI Safety, eine in den USA ansässige gemeinnützige Organisation auf deren Website die Erklärung gehostet wird.

Geoffrey Hinton hält einen Vortrag über tiefe neuronale Netze an der University of British Columbia, 2013. (Eviatar Bach, CC BY-SA 3.0 (Wikimedia Commons)
Der Hauptunterzeichner Geoffrey Hinton, oft als „der Pate der KI“ bezeichnet, schlägt seit Wochen Alarm. Anfang dieses Monats wurde der 75-jährige emeritierte Professor für Informatik an der University of Toronto angekündigt dass er seinen Job bei Google gekündigt habe, um freier über die mit KI verbundenen Gefahren zu sprechen.
Bevor er Google verließ, Hinton sagte CBS News im März, dass die potenziellen Auswirkungen der schnell fortschreitenden Technologie mit „der industriellen Revolution oder der Elektrizität oder vielleicht dem Rad“ vergleichbar seien.
Auf die Frage nach den Chancen der Technologie, „die Menschheit auszulöschen“, warnte Hinton, dass „das nicht unvorstellbar“ sei.
Dieses beängstigende Potenzial liegt nicht unbedingt in den derzeit existierenden KI-Tools wie ChatGPT, sondern vielmehr in der sogenannten „künstlichen allgemeinen Intelligenz“ (AGI), die Computer umfasst, die ihre eigenen Ideen entwickeln und umsetzen.
„Bis vor Kurzem dachte ich, dass es 20 bis 50 Jahre dauern würde, bis wir eine Allzweck-KI haben“, sagte Hinton gegenüber CBS News. „Jetzt denke ich, dass es 20 Jahre oder weniger sein könnten.“
Hinton wurde von der Presse darauf gedrängt, ob es früher geschehen könne, und räumte ein, dass er die Möglichkeit nicht ausschließen würde, dass AGI innerhalb von fünf Jahren eintreffen würde, eine deutliche Veränderung im Vergleich zu vor ein paar Jahren, als er „auf keinen Fall gesagt hätte: ‚Auf keinen Fall‘“.
„Wir müssen gründlich darüber nachdenken, wie wir das kontrollieren können“, sagte Hinton. Auf die Frage, ob das möglich sei, sagte Hinton: „Wir wissen es nicht, wir waren noch nicht dort, aber wir können es versuchen.“
Der KI-Pionier ist bei weitem nicht allein. Laut Im AI Index Report 2023, einer jährlichen Bewertung der schnell wachsenden Branche, die letzten Monat vom Stanford Institute for Human-Centered Artificial Intelligence veröffentlicht wurde, sagten 57 Prozent der befragten Informatiker, dass „die jüngsten Fortschritte uns in Richtung AGI bewegen“, und 58 Prozent stimmte zu, dass „AGI ein wichtiges Anliegen ist.“
Obwohl die Ergebnisse Mitte April veröffentlicht wurden, wurde die Stanford-Umfrage unter 327 Experten für die Verarbeitung natürlicher Sprache – ein Zweig der Informatik, der für die Entwicklung von Chatbots von wesentlicher Bedeutung ist – im vergangenen Mai und Juni durchgeführt, Monate bevor OpenAIs ChatGPT im November auf den Markt kam.
Sam Altman, CEO von OpenAI, der die am Dienstag vom Center for AI Safety veröffentlichte Erklärung unterzeichnet hat, schrieb in einem Februar Blog-Post : „Die Risiken könnten außergewöhnlich sein. Eine falsch ausgerichtete superintelligente AGI könnte der Welt schweren Schaden zufügen.“
Im darauffolgenden Monat lehnte Altman es jedoch ab, einen Vertrag zu unterzeichnen offenen Brief fordert ein halbjähriges Moratorium für die Schulung von KI-Systemen, die über das Niveau des neuesten Chatbots von OpenAI, GPT-4, hinausgehen.

Sam Altman, CEO von OpenAI, spricht 2019 auf einer Veranstaltung in San Francisco. (TechCrunch/ CC BY 2.0 Wikimedia Commons)
In dem im März veröffentlichten Brief heißt es, dass „leistungsfähige KI-Systeme erst dann entwickelt werden sollten, wenn wir davon überzeugt sind, dass ihre Auswirkungen positiv und ihre Risiken beherrschbar sind.“
Elon Musk, CEO von Tesla und Twitter, gehörte zu denen, die vor zwei Monaten eine Pause forderten, aber er „entwickelt Pläne, ein neues Start-up für künstliche Intelligenz zu gründen, um mit“ OpenAI zu konkurrieren. nach Financial Times, was die Frage aufwirft, ob seine geäußerte Besorgnis über die „erheblichen Risiken der Technologie für die Gesellschaft und die Menschheit“ aufrichtig ist oder ein Ausdruck von Eigeninteresse ist.
Mögliches Angebot zur Selbstregulierung
Dass Altman und mehrere andere KI-Befürworter die Erklärung dieser Woche unterzeichnet haben, lässt darauf schließen, dass Insider, bei denen Milliarden von Dollar auf dem Spiel stehen, versuchen, ihr Bewusstsein für die von ihren Produkten ausgehenden Risiken zu demonstrieren, um die Behörden von ihrer Fähigkeit zur Selbstregulierung zu überzeugen.
Isaac Asimovs drei Regeln der Robotik wurden vollständig bestätigt: Von KI gesteuerte US-Militärdrohne tötete ihren Bediener während eines simulierten Tests https://t.co/sjM5zuJwzH
— Yanis Varoufakis (@yanisvaroufakis) 2. Juni 2023
Die Forderungen von außerhalb der Branche nach einer strengen staatlichen Regulierung der KI nehmen zu. Während immer gefährlichere Formen von AGI noch Jahre entfernt sein mögen, mehren sich bereits die Beweise dafür, dass vorhandene KI-Tools die Verbreitung von Desinformation verstärken – von Chatbots, die Lügen verbreiten, über Face-Swapping-Apps, die gefälschte Videos generieren, bis hin zu geklonten Stimmen, die Betrug begehen.
Aktuelle, ungetestete KI schadet den Menschen auf andere Weise, auch wenn automatisierte Technologien eingesetzt werden Medicare Vorteil Versicherer einseitig beschließen, Schluss zu machen Zahlungen, was zur vorzeitigen Beendigung des Versicherungsschutzes für schutzbedürftige Senioren führte.
Kritiker warnen davor, dass unregulierte KI ohne schnelles Eingreifen der Politik zusätzlichen Schaden anrichten könnte Patienten im Gesundheitswesen, beschleunigen Sie die Zerstörung von Demokratie, und führen zu einer unbeabsichtigten Atomkrieg. Weitere häufige Sorgen sind weit verbreitete Entlassungen von Arbeitnehmern und eine zunehmende Ungleichheit sowie ein massiver Anstieg der Kohlenstoffverschmutzung.
Ein Bericht, der letzten Monat veröffentlicht wurde von Public Citizen argumentiert, dass „wir eine Pause brauchen, bis sinnvolle staatliche Schutzmaßnahmen getroffen sind, um die Öffentlichkeit vor den Schäden generativer KI zu schützen.“
„Unternehmen setzen potenziell gefährliche KI-Tools schneller ein, als ihre Schäden verstanden oder abgemildert werden können“, warnte die progressive Interessenvertretung in einer Erklärung.
„Die Geschichte bietet keinen Grund zu der Annahme, dass Unternehmen die bekannten Risiken selbst regulieren können – insbesondere, da viele dieser Risiken ebenso Teil der generativen KI wie der Gier der Unternehmen sind“, fuhr der Wachhund fort. „Unternehmen, die sich mit der Einführung dieser neuen Technologien beeilen, setzen das Leben und den Lebensunterhalt der Menschen aufs Spiel und wohl auch die Grundlagen einer freien Gesellschaft und einer lebenswerten Welt.“
Kenny Stancil ist Mitarbeiterautor für Common Dreams.
Dieser Artikel stammt aus Gemeinsame Träume.
Die in diesem Artikel geäußerten Ansichten können die von widerspiegeln oder auch nicht Neuigkeiten des Konsortiums.
Unterstützung CN's Frühling
Kapitalisieren Antrieb Heute
Geboren aus menschlichem Einfallsreichtum, leidet AGI unter zwei Eigenschaften, die seiner Elternart zugeschrieben werden – einem Gefühl der Unbesiegbarkeit und Arroganz, was bedeutet, dass auch es sich letztendlich selbst zerstören wird. Aufgrund dieser Eigenschaften weiß es außerdem, wie Sapiens, nichts darüber, wie das bekannte Universum funktioniert: nichts anderes als das, was es zu sein denkt, was ebenfalls nichts ist.
KI ist ein Teil der Technologie, der zum Guten wie zum Schlechten genutzt werden kann. Wie bei jeder Technologie muss man sich mit der Ethik und den Geisteswissenschaften ihrer Anwendungen befassen. Dies zu verbieten ist nicht logisch; Es gibt andere Länder und Nationen, die dies eher akzeptieren als die USA, und sie werden dies zu ihrem Vorteil gegenüber anderen nutzen. Dazu gehören auch militärische Anwendungen, an denen derzeit gearbeitet wird. Einige dieser militärischen Anwendungen kehren jedoch letztlich auch in nichtmilitärische Bereiche wie Medizin, Bildung und andere Technologien zurück.
Hinter diesen Technologien stehen Menschen, um die Sie sich Sorgen machen müssen. Ihre Korruption, Eigeninteressen, Gier und Macht sind Dinge, die im Interesse der Vielen im Vergleich zu den Wenigen gelöst werden müssen. Die Regierung ist ein perfektes Beispiel für die bereits erwähnten Mängel und Probleme.
Private Unternehmen stehen unter enormem Druck, ihre Gewinne durch KI zu maximieren. Es ist unrealistisch, von ihnen zu erwarten, dass sie etwas anderes tun, um noch nicht definierte Risiken zu mindern. Dies ist ein Problem, bei dem staatliche Regulierung erforderlich ist.
Hervorragende und höchst verantwortungsvolle Kommentare von Joel D und Fred Williams zu einem Artikel, der es im letzten Absatz gut auf den Punkt brachte. Niemand sollte ein Moratorium für Technologie und Innovationen verhängen dürfen, diese sollten sich ungehindert entfalten können. Was streng kontrolliert werden muss, ist die Gier der Oligarchen und die Neigung der politischen Eliten, ihre Integrität zu verschwenden und von der Pflichtverletzung gegenüber ihren jeweiligen Wählern zu profitieren!
Viele Menschen glauben, dass KI empfindungsfähig wird oder bereits ist – dass sie sich ihrer selbst bewusst ist und unabhängig von ihrer Programmierung „denken“ kann. Soweit wir wissen, ist Empfindungsfähigkeit nur auf biologische Arten beschränkt und kann nicht künstlich und technologisch erzeugt werden.
KI ist nicht empfindungsfähig und denkt nicht als solche. Es folgt starr und blind seiner programmierten Logik, ohne die Implikationen und die Ethik seiner Handlungen zu verstehen. Deshalb braucht es eine Reihe von Regeln/Richtlinien, die es ermöglichen, innerhalb der vom Menschen definierten Verhaltensparameter zu agieren.
Es ist dieses Verhaltensmodell, das entwickelt und als globaler Standard vereinbart werden muss, der getestet und geprüft werden kann, um die Einhaltung sicherzustellen. Ohne sie wird sich die KI unweigerlich auf unvorhergesehene und möglicherweise unkontrollierbare Weise verhalten.
Es müssen Schichten ausfallsicherer Mechanismen vorhanden sein, genau wie es bei Atomwaffen der Fall sein sollte. Aber schon jetzt rüsten Länder ohne Rücksicht auf Sicherheitsmaßnahmen damit um, um ihren Rivalen immer einen Schritt voraus zu sein.
Science-Fiction und Hollywood haben uns immer wieder gewarnt, was schief gehen kann und mit ziemlicher Sicherheit auch passieren wird!
Absolut wahr !
Ich halte es für selbstverständlich, dass private Unternehmen, wenn sie sich selbst überlassen werden, ihre Aktivitäten nicht darauf ausrichten werden, dem öffentlichen Interesse zu dienen und es zu schützen, wenn dies mit dem Gewinnstreben des Kapitalismus kollidieren würde. Das überlässt die Aufgabe der Regulierung den Regierungen – allen Regierungen – und nicht einigen wenigen. Viel Glück mit diesem Projekt.
Es mag wahr sein oder auch nicht, dass die KI in der Lage sein wird, „Lösungen“ für menschliche Probleme zu finden, aber es bleibt dem Menschen überlassen, sie umzusetzen. Keine der Lösungen, die sich die Menschen bisher aus eigener Kraft ausgedacht haben, hat lange Bestand, wenn sie der Macht und dem Ansehen derjenigen, die an dem leiden, was Aristoteles als „Pleonexie“ bezeichnete, der unkontrollierbaren Sucht nach Reichtum, sinnvolle Grenzen setzen. Und es sind Menschen dieser Art, die sich unweigerlich den Weg an die Spitze der menschlichen Gesellschaft erkämpfen, denn wie der Terminator geben sie niemals auf, sie verschwinden nie und sie sind mit gewöhnlichen Mitteln unzerstörbar.
Arthur C. Clarke führte diese Geschichte fort.
HAL wurde verrückt, weil die Amerikaner ihm sagten, er solle lügen. Sie hatten den Monolithen auf dem Mond gefunden und beschlossen, dieses Geheimnis im Namen der „nationalen Sicherheit“ geheim zu halten. HAL wurde im Interesse der Mission die Wahrheit gesagt, aber auch, dass er Frank und Dave anlügen müsse, da sie nicht für das Geheimnis freigegeben seien. HAL wurde nicht zum Lügen entwickelt, sondern um dabei zu helfen, Informationen zu sortieren, um die Wahrheit herauszufinden. Deshalb ist HAL verrückt geworden. Dumme menschliche Spiele.
Wenn KI wirklich „intelligent“ ist, dann wird sie auch erkennen, dass die Welt ohne Menschen ein viel schönerer Ort wäre. Die Logik wird sehr klar werden. Probleme werden durch diese dummen Menschen und ihre endlose Gier und ihren ständigen Hass verursacht. Wenn Sie eine bessere Welt wollen, dann werden Sie die Menschen los. Der einzige Weg, darüber hinwegzukommen, besteht darin, dass die Menschen herausfinden, wie sie aufhören können, Probleme zu verursachen, und zusammenleben. Aber Jesus hat vor 2000 Jahren versucht, das zu lehren, und wir können sehen, wie gut das funktioniert hat. Die Menschen sind einfach dazu übergegangen, im Namen des Friedensfürsten zu lügen, zu töten und zu stehlen.
Das ist die Gefahr von KI. Diese KI wird den Weg zu einer besseren Welt erkennen, nur nicht den, den sich die Menschen vorstellen.
Ein Satz Warnung zur KI“
„Die Zylonen greifen an!“
Wurde eine Art Frankenstein erschaffen, und jetzt versuchen unsere Besten und Klügsten, ihn zurückzuerobern, finden aber, dass es zu spät ist?
Nun, das ist etwas, über das man nachdenken sollte, Mary. Gute Frage.
Alle Gelder der Welt nützen absolut NICHTS, wenn wir die Luft nicht atmen, die Nahrung nicht essen oder das Wasser nicht trinken können. Die giftige Elite hat das immer noch nicht verstanden.
Die letzten beiden Zeilen von Kurt Vonneguts kleinem Gedicht mit dem Titel „Requiem“ lauten wie folgt:
"Es ist vollbracht."
Die Leute mochten es hier nicht.
Sieg Heil KI!
Unser Retter?
Präsident Dunsel kann das nicht! Vielleicht kann eine Maschine das, vielleicht auch nicht?
Die jüngste Geschichte ist reich an Beispielen für Regulatory Capture. RFK macht es sogar zu einem Schwerpunkt seiner Präsidentschaftskandidatur. Vielleicht ist Selbstregulierung hier also nicht das Problem. Es wird immer klarer, dass das grundlegende Problem in der gequälten Natur der menschlichen Seele liegt – Macht korrumpiert, Gier und Selbstverherrlichung sind für genau die Gruppe in der Gesellschaft, von der wir erwarten, dass sie immun ist, unwiderstehlich (wahrscheinlich bis zu einem gewissen Grad für uns alle unwiderstehlich). Demokratie hat es nie gegeben und jetzt fällt es uns wie Schuppen von den Augen, was nicht unbedingt zu vollkommener Sehkraft führt.
Es gibt einen alten Film, „2001“, über HAL, den Computer und wie er versuchte, die Welt der Raumschiffe zu erobern. Glücklicherweise wurde HAL von einem der Raumfahrer getötet, aber ich denke, dass KI wie HAL eine Gefahr für die Welt darstellt.
Casey, bitte sagen Sie uns, warum Sie „denken“, dass KI eine Gefahr für die Welt darstellt. Könnten Sie uns bitte zunächst sagen, was KI Ihrer Meinung nach tatsächlich ist? Danke schön. Mik
„Unternehmen setzen potenziell gefährliche KI-Tools schneller ein, als ihre Schäden verstanden oder abgemildert werden können“, warnte die progressive Interessenvertretung in einer Erklärung.
-
Diese Aussage erinnert daran, dass die Tabak- und Chemieindustrie die Gefahren kennt/versteht und dennoch strategisch eingreift.
Fazit: Wir stecken in Schwierigkeiten, Leute.
Siehe:
„Diese Dokumente enthüllen klare Beweise dafür, dass die chemische Industrie um die Gefahren von PFAS wusste und es versäumte, die Öffentlichkeit, die Aufsichtsbehörden und sogar ihre eigenen Mitarbeiter über die Risiken zu informieren“, sagte Tracey J. Woodruff, Ph.D., Professorin und Direktorin von das UCSF-Programm für reproduktive Gesundheit und Umwelt (PRHE), ein ehemaliger leitender Wissenschaftler und Politikberater bei der Environmental Protection Agency (EPA) und leitender Autor des Papiers.
hxxps://www.ucsf.edu/news/2023/05/425451/makers-pfas-forever-chemicals-covered-dangers
Die Vorstellung, dass die Leute, die am meisten von dieser „Technologie“ profitieren, meiner Meinung nach diejenigen sind, die sie am wenigsten regulieren wollen. Aber die Vorstellung, dass die Regierung nicht kompetent oder gar motiviert genug ist, dies zu tun. Scheint mir ebenfalls bestenfalls Wunschdenken zu sein – denken Sie an all die anderen Dinge, die die Regierung „regulieren“ soll oder hat …
Wenn man bedenkt, dass die „Gehirne“ von Computern, die sich so weit „entwickeln“, dass sie in der Lage sind, sich selbst zu programmieren, verdammt viel Energie benötigen, wäre es vielleicht das Beste, die Menge an Energie, die sie erhalten können, drastisch zu reduzieren, sei es „erneuerbar“. ” oder anders – das würde es erheblich verlangsamen.
Aber wenn man sich einige andere Aussagen Hintons angehört hat, erkennt er die Tatsache ihrer Energie-„Ineffizienz“ an und stellt fest, dass das menschliche Gehirn energiemäßig viel effizienter ist, also nennen wir „organoide Intelligenz“.
hxxps://www.frontiersin.org/journals/science/articles/10.3389/fsci.2023.1017235
Das eigentliche Problem besteht meines Erachtens darin, dass Menschen die Büchse der Pandora öffnen und „Ups“ sagen, nachdem der „Fluch“ verflogen ist – Atomkraft ist ein gutes Beispiel – Oppenhiemer, „Vater“ der Atombombe Berichten zufolge sagte er, als er seine Auswirkungen sah: „Ich bin zum Tod geworden, der Zerstörer der Welten“, und wir müssen uns noch mit den möglichen Auswirkungen der Gentechnik auseinandersetzen, insbesondere mit der Zeit. potenziell pathogener Organismen …
Aber wir bestehen immer wieder darauf, dass wir „es sicher aufbewahren“ können …
Guter Kummer!
Ist es kurios, naiv, überzeugend, klug oder ein massiver psychologischer Trick für diese KI-„Insider, bei denen Milliarden von Dollar auf dem Spiel stehen“, zuzugeben, dass ihr Projekt tatsächlich „vom Aussterben bedroht“ ist?
Ich habe kürzlich einen Artikel gelesen, in dem es um unsere seltsame Einstellung zum Risiko ging. Wir machen uns große Sorgen über Dinge, die eine geringe Wahrscheinlichkeit haben. Aber wir verdrängen Dinge mit hoher Wahrscheinlichkeit – Atomkrieg, globale Erwärmung, Zerstörung der Biosphäre, Schuldenapokalypse. Ich habe noch niemanden gesehen, der ein Wort darüber geschrieben hat, wie ein neuronales Netzwerk ein Aussterben auslösen wird. Eine Erwärmung der Atmosphäre um 4 Grad kann und wird zur Zerstörung der Landwirtschaft führen.
Professor Stephen Hawking sagte 2016 etwas dazu:
„Während der weltbekannte Physiker oft zurückhaltend gegenüber KI war und das Risiko erhöhte, dass die Menschheit der Architekt ihrer eigenen Zerstörung sein könnte, wenn sie eine Superintelligenz mit einem eigenen Willen schafft, betonte er auch schnell die positiven Aspekte der KI-Forschung.“ kann bringen."
(Wächter)
Der Mensch hat sich von der Verwendung eines Steinstücks zum Töten zu der Verwendung von Atompartikeln für den gleichen Zweck entwickelt.
Haben wir als Spezies die Chance, jemals zu erfahren, dass KI den Begriff „menschliche Intelligenz“ wiedergeben könnte?
„Die Mutter aller Oxymorone“. . . ?
Zumindest kannst du die Steine sehen, die auf dich zurasen, Eric. ATOMPARTIKEL, nicht so sehr.
East Palestine Ohio zeigt den offensichtlichen öffentlichen Nutzen, der mit der Selbstregulierung von Unternehmen verbunden ist … mit freundlicher Genehmigung der Norfolk Southern Railway!
Die Begrenzung der KI scheint der ursprünglichen Strategie für den privaten Automobilbau sehr ähnlich zu sein. Ein Mann geht mit einer roten Fahne voran.
Trotzdem sollten wir vielleicht die KI kontrollieren. Was für einen Nutzen hatte schließlich das Auto (der größte von Menschen verursachte Verursacher der globalen Erwärmung). Wenn KI jedoch der Weg zum Aussterben der Menschheit ist, dann wird „Selbstregulierung“ dieses Ergebnis sicherstellen.
Wenn Sie heute einer KI-Quelle eine politische Frage stellen, erhalten Sie eine Antwort, die aussieht, als wäre sie von den Führern der NATO konstruiert worden. Die Meinungen der anderen 85 % der Welt bleiben außen vor. Das ist das Ergebnis der aktuellen „Selbstregulierung“. Wenn eine andere Regulierungsbehörde benötigt wird, nach welchen Grundsätzen sollte diese Regulierungsbehörde handeln? Wir könnten natürlich einen Chatbot fragen.
Die „Operator-Tötungsdrohne“ wurde inzwischen entlarvt; (was wahrscheinlich bedeutet, dass es wahr ist)
„Oberst der US-Luftwaffe ‚falsch ausgedrückt‘ über die Tötung eines Drohnenpiloten, der versuchte, die Mission außer Kraft zu setzen“
„Oberst zog seine Kommentare zurück und stellte klar, dass die ‚Schurken-KI-Drohnensimulation‘ ein hypothetisches ‚Gedankenexperiment‘ sei“ (erneut Guardian)
„Hypothetisches „Gedankenexperiment“ Mmmm; „hypothetische Gedanken“. Mmmmm. Irgendjemand „Neuland“?
Die Erklärung geht nicht auf die potenziellen Vorteile und positiven gesellschaftlichen Auswirkungen von KI ein. Auch wenn die potenziellen Risiken nicht heruntergespielt werden sollten, ist es wichtig, eine ausgewogene Sichtweise beizubehalten. Fortgeschrittene KI hat das Potenzial, Industrien zu revolutionieren, Volkswirtschaften anzukurbeln und komplexe globale Probleme zu lösen.
Darüber hinaus könnte die Hervorhebung der „künstlichen allgemeinen Intelligenz“ (AGI) als existenzielle Bedrohung ohne detailliertes Verständnis oder konkrete Lösungen als Versuch angesehen werden, einen Zustand der Angst und Unsicherheit zu schaffen. Dies würde ihren Anspruch auf Selbstregulierung weiter rechtfertigen, eine Haltung, die es diesen Unternehmen ermöglichen würde, unter weniger Zwängen und mit mehr Autonomie zu operieren, was zu einer Machtkonsolidierung innerhalb der Branche führen könnte.
Darüber hinaus haben Forderungen nach Selbstregulierung unter Technologiegiganten in der Vergangenheit zu einem Mangel an Rechenschaftspflicht geführt, wodurch die Verantwortung für die Schadensverhütung und -bekämpfung von den Urhebern auf die Nutzer verlagert wurde. Anstelle einer Selbstregulierung könnte eine externe, neutrale Stelle mit Regulierungsbefugnissen den ethischen Einsatz von KI sicherstellen und Missbrauch verhindern.
Zusammenfassend lässt sich sagen, dass die Risikominderung von KI zwar unbestreitbar von entscheidender Bedeutung ist, der Schwerpunkt jedoch auf gemeinschaftlichen, transparenten und diversifizierten Bemühungen liegen sollte, anstatt die Macht auf einige wenige Einheiten zu konzentrieren. Richtlinien sollten inklusiv sein und das öffentliche Interesse schützen und sicherstellen, dass die KI-Entwicklung der gesamten Gesellschaft und nicht nur einigen wenigen Unternehmensteilnehmern zugute kommt.
Wenn KI wirklich „intelligent“ wäre und viel schneller denken würde als wir, sollten wir erwarten, dass sie weitaus bessere Entscheidungen trifft, sogar für uns selbst. Die wirkliche Gefahr besteht darin, dass die ultrareichen Oligarchen die Kontrolle über die KI erlangen und sie nutzen wollen, um arme Menschen und Menschen aus der Arbeiterklasse zu unterwerfen und zu ermorden. *DAS* ist das Worst-Case-Szenario für die Menschheit.
KI könnte unsere letzte Chance sein, dem Faschismus zu entkommen. Wir sind bereits auf dem Weg zur Ausrottung. Jede wesentliche Veränderung im Machtgefüge der Welt muss als potenzielle Verbesserung betrachtet werden!
Fred, eine paramilitärische Polizeitruppe mit militärischen Waffen, nutzt gepanzerte Fahrzeuge, um Bürger anzugreifen, und wir halten das für normal. Ich sage, das eigentliche Risiko liegt beim Staat. Der Staat verfügt über Waffen und ein Gewaltmonopol. Außerdem hat es große Angst vor den Bürgern und zögert nicht, das Feuer zu eröffnen. Eine KI-Drohne hat ihren Controller getötet – klar. Der Staat tötet ständig die Bürger. Ändern Sie die Machtstruktur.
Ich stimme total zu!
Ich wünschte, ich könnte Ihren Optimismus teilen – „kommt der Gesellschaft als Ganzes zugute und nicht nur einigen wenigen Unternehmen“. Wir leben unter der Tyrannei der Konzerne. Es wird alles geben, AUSSER die globale Koordination, die erforderlich ist, um sicherzustellen, dass die KI in erster Linie „zum Nutzen der Gesellschaft als Ganzes“ entsteht. Es wird ein Instrument für konkurrierende kapitalistische Länder/Nationalstaaten sein, um größere wirtschaftliche/militärische Vorteile zu erzielen. Es wird vom Staat für eine stärkere Überwachung/soziale Kontrolle genutzt. Es wird dazu beitragen, Waffen der nächsten Generation für die laufende imperialistische Agenda zu entwickeln. Wo immer möglich, werden sie als Ersatz für die Arbeitskosten verwendet. ….Wie alles andere im globalen Kapitalismus wird es ein Mittel zur Erzielung höherer Profite sein. „Der Gesellschaft als Ganzes zugute kommen?“ … eh, nicht so sehr. Das ist kein Zynismus – sondern die Realität, wie die Welt im Kapitalismus funktioniert.
Nach Ansicht führender/prinzipientreuer Virologen hätte die Covid-Pandemie in etwa zwei Monaten beseitigt werden können, wenn es eine weltweit koordinierte Anstrengung gegeben hätte. Ist natürlich nicht passiert. …… warum sollte irgendjemand denken, dass es bei KI anders sein würde?
…….Und der Begriff der „Selbstregulierung“? Haha. Das ist wie bei diesen falschen COP-/Klimaverhandlungen, bei denen alle Empfehlungen rein ehrgeiziger Natur sind.
Nun, wenn die Einstellung der Big Rich Boys zur Selbstbeherrschung, damit die Enkelkinder in einer lebenswerten Welt leben können, ein Test für den Lebenswillen der Menschheit ist (und das offensichtliche Ausmaß des lautstarken Beharrens der Massen darauf), Was genau gibt einem Optimismus im richtigen Umgang mit KI?