Es ist an der Zeit, dass der Kongress schwierige Fragen zur Automatisierung der Entscheidungsfindung im Kampf stellt, bevor er Milliarden von Steuergeldern in das Unternehmen steckt, schreibt Michael T. Klare.

Preston Dunlap, Chefarchitekt der Luftwaffe, informiert Militärführer während der ersten Live-Demonstration eines fortschrittlichen Gefechtsmanagementsystems auf der Eglin Air Force Base, Florida, am 18. Dezember 2019. (US Air Force, Joshua J. Garcia)
By Michael T. Klare
TomDispatch.com
With Covid-19 handlungsunfähig erschreckende Zahlen Die Anzahl der US-Soldaten und moderne Waffen erweisen sich als immer tödlicher, so das amerikanische Militär sich auf Immer häufiger werden intelligente Roboter eingesetzt, um gefährliche Kampfeinsätze durchzuführen. Solche Geräte, im Militär bekannt als „autonome WaffensystemeDazu gehören Roboterwachen, Schlachtfeldüberwachungsdrohnen und autonome U-Boote.
Mit anderen Worten, Robotergeräte ersetzen bisher lediglich Standardwaffen auf konventionellen Schlachtfeldern. Jetzt jedoch versucht das Pentagon in einem großen Vertrauensvorschuss, diesen Prozess auf eine völlig neue Ebene zu heben – indem es nicht nur gewöhnliche Soldaten und ihre Waffen, sondern möglicherweise auch Admirale und Generäle durch Robotersysteme ersetzt.
Zugegebenermaßen befinden sich diese Systeme noch in der Entwicklungsphase, aber das Pentagon treibt ihre künftige Einführung jetzt aus Gründen der nationalen Dringlichkeit voran. Jede Komponente eines modernen Generalstabs – einschließlich Kampfplanung, Informationsbeschaffung, Logistik, Kommunikation und Entscheidungsfindung – soll nach den neuesten Plänen des Pentagons auf komplexe Anordnungen von Sensoren, Computern und Software übertragen werden.
All dies wird dann in ein „System der Systeme“ integriert, das jetzt als „System der Systeme“ bezeichnet wird das Joint All-Domain Command-and-Control, oder JADC2 (da Akronyme nach wie vor die Essenz des Militärlebens sind). Letztendlich könnte dieses System-Amalgam tatsächlich die meisten Funktionen übernehmen, die derzeit von amerikanischen Generälen und ihren leitenden Stabsoffizieren wahrgenommen werden.
Die Idee, Maschinen zur Entscheidungsfindung auf Befehlsebene einzusetzen, ist natürlich nicht völlig neu. Es hat in Wahrheit lange auf sich warten lassen. Während des Kalten Krieges, nach der Einführung von Interkontinentalraketen (ICBMs) mit extrem kurzen Flugzeiten, begannen sowohl Militärstrategen als auch Science-Fiction-Autoren, sich mechanische Systeme vorzustellen, die solche Atomwaffen im Falle einer menschlichen Handlungsunfähigkeit steuern könnten.
In Stanley Kubricks satirischem Film von 1964 Dr. StrangeloveBeispielsweise enthüllt der fiktive russische Führer Dimitri Kissov, dass die Sowjetunion eine „Weltuntergangsmaschine“ installiert hat, die in der Lage ist, alles menschliche Leben auszulöschen, die automatisch explodieren würde, sollte das Land von amerikanischen Atomstreitkräften angegriffen werden.
Die Versuche wahnsinniger antisowjetischer Offiziere der US-Luftwaffe, einen Krieg mit Moskau zu provozieren, haben dann Erfolg, diese Maschinerie in Gang zu setzen und so die Vernichtung der Menschen herbeizuführen. Tatsächlich installierten die Sowjets aus Angst vor einem solchen Überraschungsangriff später ein halbautomatisches Vergeltungssystem synchronisiert „Perimeter“ wurde entwickelt, um sowjetische Interkontinentalraketen abzufeuern, falls die Sensoren nukleare Explosionen erkennen und die gesamte Kommunikation aus Moskau zum Schweigen gebracht würde.
Einige Analysten glauben, dass eine aktualisierte Version von Perimeter immer noch in Betrieb ist und uns in einer allzu realen Version einer Strangelov-Welt zurücklässt.

Modell des Kriegsraums, der für Stanley Kubricks Dr. Strangelove gebaut wurde.
(China-Krise, CC BY-SA 3.0, Wikimedia Commons)
In einer weiteren Science-Fiction-Version solcher automatisierten Befehlssysteme, dem Film von 1983 WarGames, in dem Matthew Broderick einen jugendlichen Hacker spielt, stellte einen Supercomputer namens War Operations Plan Response oder WOPR (ausgesprochen „Whopper“) dar, der beim North American Aerospace Command installiert ist (NORAD) Hauptsitz in Colorado.
Als sich der Broderick-Charakter hineinhackt und anfängt, ein seiner Meinung nach „World War III“ genanntes Spiel zu spielen, kommt der Computer zu dem Schluss, dass tatsächlich ein sowjetischer Angriff im Gange ist, und startet eine nukleare Vergeltungsreaktion. Obwohl fiktiv, stellt der Film viele Aspekte des nuklearen Kommando-, Kontroll- und Kommunikationssystems (NC3) der USA dar, das damals und heute noch hochautomatisiert war.
Solche Geräte, sowohl reale als auch eingebildete, waren nach heutigen Maßstäben relativ primitiv und konnten lediglich feststellen, dass ein Atomangriff im Gange war, und eine katastrophale Reaktion anordnen. Jetzt, als Ergebnis enormer Verbesserungen in künstliche Intelligenz (KI) und maschinelles Lernen können Maschinen riesige Mengen an Sensordaten sammeln und auswerten, wichtige Trends und Muster schnell erkennen und möglicherweise Kampfeinheiten Befehle erteilen, wo und wann sie angreifen sollen.
Zeitkompression und menschliche Fehlbarkeit
Der Ersatz von Menschen durch intelligente Maschinen auf höheren Führungsebenen wird nach Ansicht von US-Strategen immer wichtiger, da mit der zunehmenden Geschwindigkeit ein exponentielles Wachstum der Sensorinformationen einhergeht Die Kriegsführung macht es für Menschen nahezu unmöglich, den Überblick über entscheidende Entwicklungen auf dem Schlachtfeld zu behalten.
Wenn sich Zukunftsszenarien als zutreffend erweisen, könnten sich Gefechte, die sich einst über Tage oder Wochen abspielten, innerhalb von Stunden oder sogar Minuten abspielen, während Gefechtsfeldinformationen in Form zahlreicher Datenpunkte einströmen und die Stabsoffiziere überfordern. Es wird behauptet, dass nur fortschrittliche Computer so viele Informationen verarbeiten und innerhalb des erforderlichen Zeitrahmens fundierte Kampfentscheidungen treffen könnten.
Eine solche Zeitkomprimierung und Erweiterung der Sensordaten kann auf jede Form des Kampfes zutreffen, insbesondere aber auf den schrecklichsten von allen, den Atomkrieg. Als Interkontinentalraketen das Hauptmittel eines solchen Kampfes waren, hatten die Entscheidungsträger zwischen dem Abschuss einer Rakete und dem Moment der Detonation bis zu 30 Minuten Zeit, um festzustellen, ob es sich um einen möglichen Angriff handelte oder lediglich um eine falsche Satellitenmessung (was auch der Fall war). kommen manchmal vor während des Kalten Krieges).
Das hört sich vielleicht nicht nach viel Zeit an, aber mit der kürzlichen Einführung von Hyperschallraketen, könnten solche Beurteilungszeiten auf bis zu fünf Minuten schrumpfen. Unter solchen Umständen ist selbst von den aufmerksamsten Entscheidungsträgern zu erwarten, dass sie sich ein fundiertes Urteil über die Art eines potenziellen Angriffs bilden. Daher (für einige) der Reiz automatisierter Entscheidungssysteme.
„Die Komprimierung der Angriffszeit hat die Führungsspitze Amerikas in eine Situation gebracht, in der das bestehende NC3-System möglicherweise nicht schnell genug reagiert“, sagten die Militäranalysten Adam Lowther und Curtis McGiffin argumentierte at Krieg auf den Felsen, eine sicherheitsorientierte Website. „Daher kann es notwendig sein, ein auf künstlicher Intelligenz basierendes System mit vorgegebenen Reaktionsentscheidungen zu entwickeln, das strategische Kräfte mit einer solchen Geschwindigkeit erkennt, entscheidet und lenkt, dass die Herausforderung der Angriffszeitkomprimierung die Vereinigten Staaten nicht in eine unmögliche Lage bringt.“ .“

Wache über das optische Visiersystem im Gefechtsinformationszentrum, während der Lenkwaffenzerstörer USS Mustin Routineoperationen in der Taiwanstraße durchführt, 18. August 2020. (US Navy, Cody Beam)
Diese Vorstellung, dass ein mit künstlicher Intelligenz betriebenes Gerät – im Wesentlichen eine intelligentere Version der Weltuntergangsmaschine oder des WOPR – in der Lage sein sollte, das Verhalten des Feindes zu bewerten und dann auf der Grundlage „vorab festgelegter Reaktionsoptionen“ über das Schicksal der Menschheit zu entscheiden, hat natürlich einiges hervorgebracht Unbehagen in der Gemeinschaft der Militäranalytiker (wie es auch für den Rest von uns der Fall sein sollte).
Dennoch argumentieren amerikanische Strategen weiterhin, dass die Beurteilung und Entscheidungsfindung auf dem Schlachtfeld – sowohl bei konventioneller als auch bei nuklearer Kriegsführung – zunehmend an Maschinen delegiert werden sollte.
„KI-gestützte Geheimdienstsysteme bieten möglicherweise die Möglichkeit, große Datenbestände aus verschiedenen Quellen und geografischen Standorten zu integrieren und zu sortieren, um Muster zu erkennen und nützliche Informationen hervorzuheben“, so der Congressional Research Service bekannt in einer Zusammenfassung der Pentagon-Denkweise vom November 2019. „Mit zunehmender Komplexität von KI-Systemen“, heißt es weiter, „könnten KI-Algorithmen auch in der Lage sein, Kommandeuren ein Menü praktikabler Handlungsoptionen auf der Grundlage einer Echtzeitanalyse des Gefechtsfelds bereitzustellen, was wiederum eine schnellere Anpassung an komplexe Ereignisse ermöglicht.“ ”
Der Schlüsselwortlaut dort ist „ein Menü praktikabler Handlungsoptionen, das auf einer Echtzeitanalyse des Schlachtfelds basiert.“ Dies könnte den Eindruck erwecken, dass menschliche Generäle und Admirale (ganz zu schweigen von ihrem Oberbefehlshaber) immer noch die ultimativen Entscheidungen über Leben und Tod sowohl für ihre eigenen Streitkräfte als auch für den Planeten treffen werden.
Angesichts dieser zu erwartenden Verkürzung der Angriffszeit in künftigen hochintensiven Kämpfen mit China und/oder Russland haben Menschen jedoch möglicherweise nicht mehr die Zeit oder die Fähigkeit, den Kampfraum selbst zu analysieren, und werden sich daher für solche Bewertungen auf KI-Algorithmen verlassen. Infolgedessen könnten menschliche Kommandeure einfach Entscheidungen unterstützen, die von Maschinen getroffen wurden – und so am Ende überflüssig werden.
Robotergeneräle erschaffen

Maj. Mark Budgeon spricht am 7. Juli 2020 zu einer Meilensteinvorführung des Virtual Reality Program Trainer bei StrikeWerx in Bossier City, Louisiana. (US Air Force, Ted Daigle)
Ungeachtet aller Bedenken, die sie hinsichtlich ihrer künftigen Arbeitsplatzsicherheit haben mögen, schreiten die obersten Generäle Amerikas zügig voran, um den automatisierten Befehlsmechanismus JADC2 zu entwickeln und einzusetzen. Unter der Aufsicht der Luftwaffe erweist es sich als ein computergesteuertes Amalgam von Geräten zum Sammeln von Echtzeitinformationen über feindliche Streitkräfte aus einer großen Anzahl von Sensorgeräten (Satelliten, Bodenradargeräte, elektronische Horchposten usw.), zum Verarbeiten dieser Daten in verwertbare Kampfinformationen und zum Bereitstellen präziser Angriffsanweisungen für jede Kampfeinheit und Waffensystem, das in einen Konflikt verwickelt ist – unabhängig davon, ob es der Armee, der Marine, der Luftwaffe, dem Marine Corps oder dem neu gegründeten Space Force and Cyber Command gehört.
Woraus das JADC2 genau bestehen wird, ist nicht allgemein bekannt, teils weil viele seiner Komponentensysteme noch immer geheim gehalten werden und teils weil sich ein Großteil der wesentlichen Technologie noch in der Entwicklungsphase befindet. Die Luftwaffe ist mit der Überwachung des Projekts betraut und arbeitet mit ihm zusammen Lockheed Martin und andere große Verteidigungsunternehmen, um Schlüsselelemente des Systems zu entwerfen und zu entwickeln.
Ein solcher Baustein ist das Advanced Battle Management System (ABMS), ein Datenerfassungs- und -verteilungssystem beabsichtigt um Kampfpiloten mit aktuellen Daten über feindliche Positionen zu versorgen und sie bei ihren Kampfhandlungen zu unterstützen. Ein anderer Schlüsselkomponente ist das integrierte Luft- und Raketenabwehr-Gefechtskommandosystem (IBCS) der Armee, das Radarsysteme mit Flugabwehr- und Raketenabwehrraketen verbinden und ihnen präzise Schussanweisungen geben soll.
Im Laufe der Zeit werden die Luftwaffe und ihre zahlreichen Auftragnehmer versuchen, ABMS und IBCS in ein riesiges Systemnetzwerk zu integrieren, das alle Sensoren, Schützen und Kommandeure der Streitkräfte des Landes verbindet – ein militärisches System.Internet der Dinge“, wie einige es ausgedrückt haben.
Um dieses Konzept zu testen und ein Beispiel dafür zu geben, wie es in der Zukunft funktionieren könnte, führte die Armee eine durch Übung mit scharfer Artillerie diesen August in Deutschland unter Verwendung von Komponenten (oder Faksimiles) des zukünftigen JADC2-Systems.
In der ersten Phase des Tests wurden Satellitenbilder von (vermutlichen) russischen Truppenpositionen an ein Bodenterminal der Armee gesendet, wo ein KI-Softwareprogramm namens Prometheus die Daten durchsuchte, um feindliche Ziele auszuwählen.
Als nächstes berechnete ein anderes KI-Programm namens SHOT die optimale Übereinstimmung der verfügbaren Waffen der Armee mit den beabsichtigten Zielen und sendete diese Informationen zusammen mit den genauen Schusskoordinaten an das Advanced Field Artillery Tactical Data System der Armee (AFATDS) für sofortiges Handeln, bei dem menschliche Kommandeure entscheiden konnten, ob sie es umsetzen möchten oder nicht. Während der Übung hatten diese menschlichen Kommandeure die mentale Freiheit, einen Moment über die Angelegenheit nachzudenken; In einem Schießkrieg könnten sie einfach alles den Maschinen überlassen, wie es die Entwickler des Systems offensichtlich auch so beabsichtigen.
Für die Zukunft plant die Armee im Rahmen einer Initiative namens „ Projektkonvergenz. Nach dem, was öffentlich darüber gesagt wurde, wird Convergence immer komplexere Übungen mit Satelliten, mit dem ABMS-System ausgerüsteten Luftwaffenjägern, Helikoptern der Armee, Drohnen, Artilleriegeschützen und taktischen Fahrzeugen durchführen. Letztendlich wird all dies die zugrunde liegende „Architektur“ des JADC2 bilden, die jedes militärische Sensorsystem mit jeder Kampfeinheit und jedem Waffensystem verbindet – so dass den Generälen nichts anderes übrig bleibt, als tatenlos zuzuschauen.
Warum Roboter-Generäle etwas falsch machen könnten

Mitglieder des Army Cyber Protection Teams im Jahr 2017 während einer „Surge Week“, die erstmals von Software- und Systementwicklern im Silicon Valley genutzt wurde, um Benutzerfeedback zur Systemfunktionalität zu sammeln. (Armee der vereinigten Staaten)
Angesichts der Komplexität der modernen Kriegsführung und der Herausforderung der Zeitkomprimierung in zukünftigen Kämpfen ist der Drang amerikanischer Strategen, menschliche Kommandeure durch Roboter zu ersetzen, sicherlich verständlich.
Robotergeneräle und -admirale könnten theoretisch in der Lage sein, in kurzer Zeit enorme Mengen an Informationen zu verarbeiten, während sie gleichzeitig die verbündeten und feindlichen Streitkräfte im Auge behalten und optimale Wege entwickeln, um feindlichen Bewegungen auf einem zukünftigen Schlachtfeld entgegenzuwirken. Es gibt jedoch viele gute Gründe, an der Zuverlässigkeit von Roboter-Entscheidungsträgern und der Weisheit, sie anstelle menschlicher Beamter einzusetzen, zu zweifeln.
Zunächst einmal stecken viele dieser Technologien noch in den Kinderschuhen und fast alle sind anfällig dafür Störungen Das ist weder leicht vorherzusehen noch zu verstehen. Und vergessen Sie nicht, dass selbst fortgeschrittene Algorithmen von erfahrenen Fachleuten getäuscht oder „gefälscht“ werden können.
Darüber hinaus fehlt KI-gestützten Entscheidungssystemen im Gegensatz zu Menschen die Fähigkeit, Absichten oder Kontexte zu beurteilen. Deutet beispielsweise ein plötzlicher Truppenaufmarsch des Gegners auf einen bevorstehenden Angriff, einen Bluff oder einfach nur auf eine normale Truppenrotation hin?
Menschliche Analysten können ihr Verständnis der aktuellen politischen Situation und der beteiligten Akteure als Orientierungshilfe für ihre Einschätzung der Lage nutzen. Maschinen verfügen nicht über diese Fähigkeit und könnten das Schlimmste annehmen und militärische Aktionen einleiten, die hätten vermieden werden können.
Ein solches Problem wird durch das „Training“, das solche Entscheidungsalgorithmen durchlaufen, wenn sie an militärische Situationen angepasst werden, nur noch verschärft. So wie sich Gesichtserkennungssoftware bewährt hat verdorben durch eine übermäßige Abhängigkeit von Bildern weißer Männer im Trainingsprozess – wodurch sie beispielsweise weniger gut darin sind, afroamerikanische Frauen zu erkennen – sind militärische Entscheidungsalgorithmen wahrscheinlich verzerrt durch eine übermäßige Abhängigkeit von den kampforientierten Szenarien, die von amerikanischen Militärfachleuten für Trainingszwecke ausgewählt wurden.
"Worst-Case-Denken„ist eine natürliche Neigung solcher Offiziere – denn wer möchte schon unvorbereitet auf einen möglichen feindlichen Überraschungsangriff gefasst sein? – und solche Vorurteile werden zweifellos Teil der „Menüs tragfähiger Handlungsoptionen“ werden, die von Entscheidungsrobotern bereitgestellt werden.
Sobald solche Vorurteile in Entscheidungsalgorithmen integriert werden, könnten sie sich wiederum bei künftigen Zusammenstößen zwischen US-amerikanischen und russischen Truppen in Europa oder amerikanischen und chinesischen Streitkräften in Asien als äußerst gefährlich erweisen. Ein Zusammenstoß dieser Art könnte schließlich jederzeit aufgrund eines Missverständnisses oder eines lokalen Vorfalls entstehen, der schnell an Dynamik gewinnt – zum Beispiel ein plötzlicher Zusammenstoß zwischen US-amerikanischen und chinesischen Kriegsschiffen vor Taiwan oder zwischen amerikanischen und russischen Patrouillen in einem von ihnen die baltischen Staaten.
Möglicherweise hatte keine Seite die Absicht, einen umfassenden Konflikt auszulösen, und die Staats- und Regierungschefs beider Seiten könnten normalerweise versuchen, einen Waffenstillstand auszuhandeln. Aber denken Sie daran, dass dies nicht mehr nur menschliche Konflikte sein werden. Nach einem solchen Vorfall könnte das JADC2 eine feindliche Bewegung erkennen, die seiner Ansicht nach eine unmittelbare Gefahr für die alliierten Streitkräfte darstellt, und so sofort einen umfassenden Angriff amerikanischer Flugzeuge, Raketen und Artillerie starten, wodurch der Konflikt eskaliert und jede Chance ausgeschlossen wird einer baldigen Verhandlungslösung.
Solche Aussichten werden wirklich beängstigend, wenn es um den Ausbruch eines Atomkrieges geht. Man kann sich kaum vorstellen, dass ein Konflikt zwischen den Großmächten als Atomkrieg beginnen würde, aber es ist viel einfacher, sich ein Szenario vorzustellen, in dem die Großmächte – nachdem sie in einen konventionellen Konflikt verwickelt waren – einen Punkt erreichen, an dem die eine oder andere Seite darüber nachdenkt der Einsatz von Atomwaffen, um eine Niederlage abzuwenden.
Die amerikanische Militärdoktrin hat dies tatsächlich getan immer durchgehalten die Möglichkeit, sogenannte taktische Atomwaffen als Reaktion auf einen massiven sowjetischen (jetzt russischen) Angriff in Europa einzusetzen. Die russische Militärdoktrin ist weit verbreitet angenommen, enthält ähnliche Optionen. Unter solchen Umständen könnte ein zukünftiges JADC2 feindliche Bewegungen als Signal für die Vorbereitung eines Nuklearstarts fehlinterpretieren und einen Präventivschlag der US-Atomstreitkräfte anordnen und damit den Dritten Weltkrieg auslösen.
Krieg ist eine abscheuliche, brutale Aktivität, und angesichts der fast zwei Jahrzehnte gescheiterten Konflikte, die unter dem Etikett „Krieg gegen den Terror“ geführt wurden und Tausende amerikanische Todesopfer (sowohl körperlich als auch geistig) forderten, ist es leicht zu verstehen, warum Roboter-Enthusiasten so sind Ich bin so gespannt darauf, wie eine andere Mentalität die amerikanische Kriegsführung übernimmt.
Zunächst streiten sie sich, insbesondere in a Pandemiewelt, dass es nur human ist, menschliche Soldaten auf dem Schlachtfeld durch Roboter zu ersetzen und so die menschlichen Verluste zu verringern (zumindest unter den Kombattanten). Diese Behauptung befasst sich natürlich nicht mit dem Argument dass Robotersoldaten und Drohnenflugzeuge nicht in der Lage sind, auf dem Schlachtfeld zwischen Kombattanten und Nichtkombattanten zu unterscheiden, und dass daher nicht darauf vertraut werden kann, dass sie die Kriegsgesetze oder das humanitäre Völkerrecht einhalten – die, zumindest theoretisch, Zivilisten vor unnötigem Schaden schützen – und sollte also verboten werden.
So schwierig dies auch auf zukünftigen Schlachtfeldern sein mag, das Ersetzen von Generälen und Admiralen durch Roboter ist eine ganz andere Sache.
Es kommt nicht nur zu heftigen rechtlichen und moralischen Auseinandersetzungen, da das Überleben großer Zivilbevölkerungen durch computergestützte Kampfentscheidungen gefährdet werden könnte, es gibt auch keine Garantie dafür, dass amerikanische GIs in den darauffolgenden Schlachten weniger Verluste erleiden würden.
Vielleicht ist es dann an der Zeit, dass der Kongress einige schwierige Fragen zur Zweckmäßigkeit einer Automatisierung der Entscheidungsfindung im Kampf stellt, bevor dieses Land Milliarden zusätzlicher Steuergelder in ein Unternehmen steckt, das, wie wir wissen, tatsächlich zum Ende der Welt führen könnte Es.
Vielleicht ist es auch für die Staats- und Regierungschefs Chinas, Russlands und dieses Landes an der Zeit, den Einsatz von Hyperschallraketen und anderen Waffen einzuschränken oder zu verbieten, die Entscheidungen über Leben und Tod der Menschheit auf nur wenige Minuten verkürzen und so die Automatisierung rechtfertigen solch schicksalhafte Urteile.
Michael T. Klare, a TomDispatch regelmäßig, ist emeritierter Fünf-College-Professor für Friedens- und Weltsicherheitsstudien am Hampshire College und Senior Visiting Fellow der Arms Control Association. Er ist Autor von 15 Büchern, das neueste davon ist Die Hölle bricht los: Die Perspektive des Pentagons auf den Klimawandel (Metropolitan Books).
Dieser Artikel stammt aus TomDispatch.com.
Die geäußerten Ansichten sind ausschließlich die des Autors und können die des Autors widerspiegeln oder auch nicht Neuigkeiten des Konsortiums.
Bitte kontaktieren Sie uns, wenn Sie Probleme im Zusammenhang mit dieser Website haben oder Beitragen zu Nachrichten des Konsortiums
anlässlich seines 25-jährigen Jubiläums
Sicher spenden mit PayPal HIER.
Oder sicher per Kreditkarte oder Scheck, indem Sie auf den roten Button klicken:
Es gibt diesen alten Film „2001: Odyssee im Weltraum“, in dem der Computer HAL versucht, die Kontrolle zu übernehmen. Aber die antike Geschichte hat eine noch bessere Geschichte. Als das Orakel von Delphi Krösus sagte, dass eine große Nation fallen würde, wenn er sie angreifen würde, dachte er, das seien großartige Neuigkeiten – und so griff er an. Kyros der Große gewann jedoch, und Krösus erfuhr, dass seine eigene große Nation untergehen musste, und leider ist Amerika eine sehr Krösus-ähnliche Nation. :(
Alle Generäle in einem Imperium sind Roboter. Lebend oder robotisch ist eine nutzlose Unterscheidung.
Ein kleiner Schritt für den Militär-, Industrie-, Sicherheits- und Medienkomplex und ein großer Schritt für Skynet.
Man fragt sich, was es eigentlich bedeutet, einen Krieg zu gewinnen, wenn Vergeltung die Zerstörung der Menschheit zur Folge hat.
Wir konnten nicht einmal die Knicke aus der F-35 herausbekommen. Wie können die Technos sicherstellen, dass die von der KI gesteuerten Kriegsquellen nicht schrecklich schief gehen? Der Wahnsinn ist außer Kontrolle
Es ist, als wäre der militärisch-industrielle Komplex ein Computerprogramm, das mit dem Ziel programmiert wurde, so viel amerikanisches Steuergeld wie möglich zu verschwenden. Es ist in diesem Spiel fantastisch und paradoxerweise effizient. Die Steuerzahler sind jedes Mal die Verlierer dieses Kriegsszenarios.
Die Entscheidungsfindung durch Militärroboter wird zweifellos auf Algorithmen basieren, die die Vormachtstellung und den Ausnahmestatus Amerikas (kein Gesetz unterworfen) als Grundlage nehmen.
Es macht auch künftig Kriegsverbrechen mit Maschinen verantwortlich und nicht den Schurkenstaat, der sie geschaffen hat – eine erschreckende Aussicht.
„Amerikanische GIs“ ist eine veraltete und unangemessene Phrase.
Seine Verwendung erinnert an die Vorstellung von Bürgersoldaten im Zweiten Weltkrieg, an Bill Mauldins sentimentale Soldaten.
Aber das ist heute überhaupt nicht das, was es in Amerika gibt.
Sie haben eine Söldnerarmee, mörderisch gut ausgerüstet und sogar nach besonders mörderischen Gesichtspunkten wie Spezialeinheiten organisiert.
Wissen Sie, die Spezialeinheiten, die in Vietnam nachts loszogen und auf dem Bauch in die Dörfer krochen, um den Eiderenten und Beamten des Dorfes mit Messern die Kehlen durchzuschneiden?
Es hieß Operation Phoenix und mindestens 40 Menschen wurden auf diese Weise getötet.
Ganz zu schweigen davon, die Maschinen der Zukunft zu stoppen. Wie wäre es, wenn wir einfach das Töten und die Zerstörung stoppen würden, die Sie jetzt fast überall so häufig anrichten?
Angemessener Kommentar, den Sie abgeben.
Die Realität ist jedoch, dass es einfach zu viel Geld gibt, als dass das Töten aufhören könnte. Eine einzelne Tomahawk-Marschflugkörper kostet über eine Million Dollar pro Einheit. Bei einem völlig wirkungslosen Raketenangriff auf Syrien beispielsweise gab Amerika mindestens fünfzig Millionen Dollar aus. Diese Raketen mussten wieder aufgefüllt werden, und Boeing hat bei diesem einen einzigen Angriff – entschuldigen Sie das Wortspiel – einen Riesenerfolg erzielt.
Es wird Frieden geben, wenn der Krieg keinen Gewinn mehr bringt.
Erinnern Sie sich immer wieder daran: „Es ist nur ein Film.“
Das ist es aber nicht, oder?