Die Rücksichtslosigkeit der KI

Shares
1

Künstliche Intelligenz scheint dazu bestimmt, die Welt zu verändern. Doch bis jetzt werden ihre Fehler zum Tod unschuldiger Menschen zugelassen, schreibt einer von zwei Joe Laurias.

Fernsehwettermann Joe Lauria. (Fox 4 News Kansas City/YouTube)

By Joe Lauria (Nicht der Wettermann)
Speziell zu Consortium News

Tie Entwicklung der künstlichen Intelligenz, die unser Leben dominieren wird, ist nicht mehr umkehrbar. Vom Kundenservice bis hin zu Zensur und Krieg hinterlässt die KI ihre Spuren und das Katastrophenpotenzial ist real. 

Der Anteil persönlicher Kontakte oder sogar zwischenmenschlicher Interaktionen am Telefon im Geschäftsleben nimmt seit Jahren ab und wird durch KI noch schlimmer. Doch KI untergräbt nicht nur die Gemeinschaft, vernichtet Arbeitsplätze und vernervt Menschen, die in der Warteschleife warten.

Künstliche Intelligenz steht immer häufiger hinter den Entscheidungen von Social-Media-Unternehmen, welche Beiträge entfernt werden, weil sie gegen vage „Community“-Standards verstoßen (da sie die Community zerstören), obwohl die KI offensichtlich darauf programmiert ist, abweichende politische Botschaften auszusortieren. 

KI entscheidet auch darüber, wer von einer Social-Media-Site gesperrt oder ausgeschlossen wird, und scheint auch „Einsprüche“ gegen Sperrungen zu prüfen, die in vielen Fällen aufgehoben würden, wenn nur ein menschliches Auge darauf blicken würde.

Facebook-Gründer Mark Zuckerberg zugelassen diese Woche: „Wir haben viele komplexe Systeme zur Moderation von Inhalten gebaut, aber das Problem mit komplexen Systemen ist, dass sie Fehler machen.“ Facebook gibt zu, dass es KI-Systeme verwendet hat, um entfernen Beiträge von Benutzern.

„Selbst wenn sie versehentlich nur 1 % der Beiträge zensieren, sind das Millionen von Menschen, und wir haben einen Punkt erreicht, an dem es einfach zu viele Fehler und zu viel Zensur gibt“, sagte Zuckerberg.

Zu den absurden Ausmaßen, in denen KI angewendet wird, gehört ein „Think Tank“ in Washington, der vollständig mit künstlicher Intelligenz betrieben wird. Drop-Site-News Berichte auf die Beltway Grid-Politikzentrum das keine Büroadresse hat.

„Das Fehlen einer physischen Präsenz von Beltway Grid in Washington – oder sonst wo auf der irdischen Ebene – resultiert aus mehr als nur einer großzügigen Homeoffice-Regelung. Die Organisation scheint von ihren Mitarbeitern überhaupt nicht zu verlangen, dass sie überhaupt existieren“, heißt es auf der Website. Dennoch produziert sie Unmengen an Berichten, Pressemitteilungen und Pitches an Reporter.

Obwohl dies ein extremer Einsatz von KI sein mag, ist die üblichere Interaktion mit der Öffentlichkeit mit einem anderen Problem behaftet: wie falsch KI sein kann.

Immer noch ziemlich experimentell

KI befindet sich offensichtlich noch in der Versuchsphase und obwohl erhebliche Fehler unvermeidlich sind, haben sie ihre Anwendung nicht gebremst. Die Fehler reichen von banal über lächerlich bis gefährlich.

Ich habe kürzlich ein lächerliches Beispiel entdeckt. 

Wer bei Google nach seinem Online-Profil sucht, wird zwangsläufig andere Personen mit genau demselben Namen finden. Ich kenne Joe Lauria schon lange, einen TV-Wettermann für den Fox-Partnersender in Kansas City, Missouri. 

Wir waren schon einmal verwirrt. Erst vor zwei Wochen erhielt ich eine E-Mail von einem Fox-Zuschauer aus der Gegend von Kansas City, der Lauria für ihr gutes Kleid lobte und mich um Rat bat, wo er einen Anzug kaufen könne. Ich war neugierig, wer sonst noch verwirrt sein könnte, also fragte ich Grok, Elon Musks vielgepriesenes KI-System, wer Joe Lauria ist. 

Dies ist die Antwort Ich habe:

„Joe Lauria ist ein vielseitiger Profi, der vor allem für seine Arbeit im Journalismus und in der Meteorologie bekannt ist. Hier ist ein Überblick über seine Karriere basierend auf verfügbaren Informationen:

  • Journalismus: Joe Lauria ist seit 1990 als Außenjournalist bei den Vereinten Nationen tätig. Er hat für zahlreiche Publikationen geschrieben, darunter den Boston Globe, den London Daily Telegraph, den Johannesburg Star, die Montreal Gazette, das Wall Street Journal, die New York Times, die Washington Post, Salon.com und The Guardian.

  • Er war außerdem investigativer Reporter für die Londoner Sunday Times und Bloomberg News. Lauria ist derzeit Chefredakteur von Consortium News, wo er über internationale Angelegenheiten mit Schwerpunkt auf dem Nahen Osten schreibt. Er hat gemeinsam mit namhaften Persönlichkeiten wie dem ehemaligen US-Senator Mike Gravel Bücher über die US-Außenpolitik und den Militarismus verfasst.

  • Meteorologie: Joe Lauria ist ein preisgekrönter Meteorologe. Seit Januar 4 arbeitet er als Meteorologe für die Abendnachrichten von FOX1995 in Kansas City und sendet jeden Abend um 5, 6, 9 und 10 Uhr Wettervorhersagen. Sein meteorologischer Ansatz besteht darin, die Zuschauer über Aspekte des Wetters aufzuklären, die in Standard-Wetter-Apps normalerweise nicht zu finden sind.

  • Vor seiner Tätigkeit bei FOX4 war er Chefmeteorologe bei KOSA-TV in Midland, Texas, und arbeitete an verschiedenen anderen Standorten wie Orlando, Florida, und Kansas City, Missouri. Für seine Arbeit erhielt er das Gütesiegel der American Meteorological Society (AMS) und der National Weather Association (NWA). Lauria besitzt außerdem die Zertifizierung als Certified Broadcast Meteorologist (CBM) der AMS.

  • Privatleben: Joe Lauria wurde in New Rochelle, New York, geboren und lebt derzeit mit seiner Frau Jaye Lynn und ihren beiden Katzen in Olathe, Kansas. Er geht gerne in italienische Restaurants, spielt Golf und engagiert sich ehrenamtlich durch Wetterseminare und Vorträge.

Joe Laurias Doppelkarriere als Journalist und Meteorologe unterstreicht seine vielfältigen Interessen und Beiträge zum öffentlichen Verständnis und zur Sicherheit durch Wetterberichte und aufschlussreiche Berichterstattung über internationale Angelegenheiten.“

Nur zur Info: Ich habe keine Katzen, spiele kein Golf und bin nicht in New Rochelle geboren (aber nicht so weit weg in der Bronx). Natürlich steckt da eine Menge Humor drin. (Lustig ist auch, dass ich an die Universität ging, ohne zu wissen, ob ich Journalist oder Meteorologe werden wollte. Dann habe ich gesehen, wie viel Mathematik in der Meteorologie steckt.)

Das Potenzial für solchen Unsinn in einem System, das nach und nach die Welt zu übernehmen scheint, ist jedoch nicht immer eine lustige Angelegenheit. Es ist beunruhigend, dass Groks künstliche Intelligenz davon ausging, dass zwei Personen eins sind, anstatt einfach zuzugeben, dass es mehrere Personen mit demselben Namen gibt.

Andererseits lieferte Chat GPT eine beeindruckende und scharfsinnige, politisch neutrale Abhandlung über meine Arbeit als Antwort auf die Frage „Wer ist Joe Lauria?“. Es war fast so, als hätte ich ihn als meinen PR-Agenten engagiert. Der Aufsatz klingt, als hätte Chat GPT Monate damit verbracht, alles zu lesen, was ich geschrieben hatte, obwohl er in Sekundenschnelle erstellt wurde. Auch vom Wettermann aus Kansas City fehlte jede Spur.

Als ich jedoch etwas tiefer in sein „Wissen“ über mich eintauchte, erfand es Dinge aus der Luft gegriffen. Als ich fragte, welche Bücher ich geschrieben hätte, nannte es mir statt der tatsächlichen Bücher den völlig fiktiven Titel eines angeblichen Sachbuchs: Der Assange Agenda: Das Vermächtnis des Wikileaks-Gründers. Es wurde sogar ein Verlag angenommen: Clarity Press.

Ein solches Buch gibt es nicht. Basierend auf seinem Wissen über meine Berichterstattung über Julian Assange hat es eine absurde Vermutung über ein erfundenes Buch angestellt, das ich seiner Meinung nach geschrieben haben muss. Kurz gesagt: Vieles über KI ist Blödsinn.   

KI und Krieg

Die Schäden im Gazastreifen.  (Naaman Omar\Palestinian News & Information Agency, Wafa, für APAimages, Wikimedia Commons, CC BY-SA 3.0)

So lächerlich diese Ergebnisse auch sind, so frustrierend menschenlose Interaktionen im Kundenservice werden, etwa wenn ansprechende Social-Media-Beiträge durch KI gelöscht werden, und so viele Arbeitsplätze durch KI verloren gehen, die noch erschütterndere Sorge im Zusammenhang mit künstlicher Intelligenz ist ihr Einsatz in der Kriegsführung. 

Mit anderen Worten: Was passiert, wenn KI-Fehler nicht mehr nur harmlos und komisch sind, sondern eine Frage von Leben und Tod darstellen?

Uhrzeit Das Magazin berichtete im Dezember über den Einsatz künstlicher Intelligenz durch Israel zur Tötung von Zivilisten im Zuge des Völkermords im Gazastreifen:

„Ein Programm namens ‚The Gospel‘ generiert Vorschläge für Gebäude und Strukturen, in denen Militante operieren könnten. ‚Lavender‘ ist darauf programmiert, mutmaßliche Mitglieder der Hamas und anderer bewaffneter Gruppen zu identifizieren und zu ermorden, vom Kommandeur bis hin zum Fußsoldaten. ‚Wo ist Papa?‘ Berichten zufolge verfolgt ihre Bewegungen, indem sie ihre Telefone orten, um sie gezielt anzugreifen – oft bis zu ihren Häusern, wo ihre Anwesenheit als Bestätigung ihrer Identität angesehen wird. Der darauf folgende Luftangriff könnte alle Familienmitglieder des Ziels töten, wenn nicht sogar alle im Wohnhaus.

Diese Programme, deren Entwicklung die Israelischen Verteidigungsstreitkräfte (IDF) zugegeben haben, könnten helfen, das Tempo der verheerendsten Bombardierungskampagne des 21. Jahrhunderts zu erklären …“

Das israelische Magazin +972 und The Guardian Im April wurde die Geschichte bekannt gegeben, als berichtet wurde, dass bis zu 37,000 Ziele durch künstliche Intelligenz ausgewählt worden seien (seit April dürften es noch viel mehr sein). Dadurch wurde ein Prozess rationalisiert, der zuvor eine menschliche Analyse und eine rechtliche Genehmigung erforderte, bevor eine Bombe abgeworfen werden konnte.

Lavender wurde zunehmend unter Druck gesetzt, immer mehr Bomben auf Gaza abzuwerfen. The Guardian berichtet:

„,Wir wurden ständig unter Druck gesetzt: ,Bringt uns mehr Ziele.‘ Sie haben uns richtig angeschrien‘, sagte ein [israelischer] Geheimdienstoffizier. ,Uns wurde gesagt: Jetzt müssen wir Hamas fertigmachen, koste es, was es wolle. Was immer ihr könnt, bombardiert ihr.‘ 

Um dieser Nachfrage gerecht zu werden, verließen sich die israelischen Streitkräfte in hohem Maße auf Lavender, um eine Datenbank mit Personen zu erstellen, denen die Merkmale eines PIJ [Palästinensischer Islamischer Dschihad] oder eines Hamas-Militanten zugeschrieben wurden. […]

Nach einer Stichprobennahme und einer Gegenprüfung der Vorhersagen sei die Einheit zu dem Schluss gekommen, dass Lavender eine Trefferquote von 90 Prozent erreicht habe, hieß es in den Quellen. Dies habe die israelischen Streitkräfte dazu veranlasst, den flächendeckenden Einsatz des Mittels als Instrument zur Zielempfehlung zu genehmigen.

Lavender erstellte eine Datenbank mit Zehntausenden von Personen, die überwiegend als Mitglieder niedrigen Ranges des militärischen Flügels der Hamas gekennzeichnet waren“,

Neunzig Prozent sind keine unabhängige Bewertung der Genauigkeit, sondern die eigene Einschätzung der israelischen Streitkräfte. Selbst wenn wir diese Zahl verwenden, bedeutet das, dass von 100 Menschen, die Israel mithilfe dieses Systems angreift, nach eigenem Eingeständnis mindestens 10 völlig unschuldig sind. 

Aber wir reden hier nicht von 100 gezielten Personen, sondern von „Zehntausenden“. Rechnen Sie nach. Von 10,000 gezielten Personen sind 1,000 unschuldige Opfer, deren Tötung für die israelischen Streitkräfte akzeptabel ist. 

Im April letzten Jahres gab Israel im Wesentlichen zu, dass 3,700 unschuldige Gaza-Bewohner aufgrund seiner KI getötet worden waren. Das war vor acht Monaten. Wie viele weitere wurden abgeschlachtet?

The National Zeitung aus Abu Dhabi berichtet:

„Technologieexperten warnen Israel's Militär von potenziellen "extremen Voreingenommenheitsfehlern" bei der Nutzung von Big Data für die gezielte Ansprache von Menschen in Gaza bei der Verwendung von künstliche Intelligenz Programme. […]

Der Einsatz leistungsstarker KI-Systeme hat Israels Militär dazu veranlasst, in ein Gebiet fortgeschrittener Kriegsführung vorzudringen, wie es sie in diesem Ausmaß zwischen Soldaten und Maschinen noch nie gegeben hat.

Unbestätigten Berichten zufolge hatten die KI-Systeme „extreme Fehler, sowohl bei den verwendeten Zieldaten als auch bei der kinetischen Aktion“, sagte Frau Hammond-Errey als Antwort auf eine Frage von The National. Wenn ein Gerät falsch kalibriert ist und deshalb Messungen falsch berechnet, kann es zu extremen Verzerrungsfehlern kommen.

Der KI-Experte und Direktor für neue Technologien an der Universität Sydney wies darauf hin, dass die Streitkräfte aufgrund umfangreicher Datensätze, „die höchst persönlich und kommerziell sind“, „eigentlich nicht in der Lage sind, Ziele zu verifizieren“, und dass dies möglicherweise „ein Faktor sei, der zu derart großen Fehlern beiträgt“.

Sie sagte, es werde ‚lange dauern, bis wir wirklich Zugang zu diesen Informationen bekämen‘, wenn überhaupt, ‚um einige der technischen Realitäten der Situation einzuschätzen‘, während die Kämpfe in Gaza weitergehen.“

Die KI der israelischen Streitkräfte muss doch ausgefeilter sein als kommerziell erhältliche KI-Versionen für die breite Öffentlichkeit wie Grok oder ChatGPT. Und dennoch räumt die israelische Armee ein, dass es bei der Entscheidung, wer leben und wer sterben soll, eine Fehlerquote von mindestens 10 Prozent gibt. 

ChatGPT, einer der beliebtesten Anbieter, sagt, dass Fehler im Lavender-System folgende Gefahren bergen:

  • „Verzerrung in den Daten: Wenn Lavender mit Daten trainiert wird, die überproportional häufig aus bestimmten Quellen stammen, kann dies zu verzerrten Ergebnissen führen, z. B. zur falschen Identifizierung des Verhaltens bestimmter Gruppen oder zur Fehleinschätzung bestimmter Signaltypen.
  • Unvollständige oder verzerrte Datensätze: Wenn die für das Training verwendeten Daten unvollständig sind oder kein breites Spektrum potenzieller Bedrohungen abdecken, kann die KI kritische Signale übersehen oder harmlose Aktivitäten als Bedrohung missverstehen.“ (Hervorhebung hinzugefügt.)“

KI und Atomwaffen

Ein Gesetzentwurf des US-Senats würde den Einsatz künstlicher Intelligenz bei der Herstellung von Atomwaffen verbieten. (US Army National Guard, Ashley Goodwin, Gemeinfrei)

Die Besorgnis, dass Fehler der künstlichen Intelligenz zu einer nuklearen Katastrophe führen könnten, spiegelt sich in einem Gesetzentwurf des US-Senats wider S. 1394, mit dem Titel „Block Nuclear Launch by Autonomous Artificial Intelligence Act of 2023“. Der Gesetzentwurf

„verbietet die Verwendung von Bundesmitteln für ein autonomes Waffensystem, das keiner sinnvollen menschlichen Kontrolle unterliegt, um eine Atomwaffe abzufeuern oder Ziele zum Zwecke des Abfeuerns einer Atomwaffe auszuwählen oder anzugreifen.

In Bezug auf ein autonomes Waffensystem bedeutet sinnvolle menschliche Kontrolle die menschliche Kontrolle über (1) die Auswahl und den Einsatz der Ziele und (2) Zeit, Ort und Art des Einsatzes.“

Der Gesetzesentwurf kam nicht durch den Streitkräfteausschuss des Senats. Aber überlassen wir es der NATO, ihn lächerlich zu machen. Krepppapier veröffentlicht NATO-Rückblick letzten April beklagte sich, dass: 

„Wir scheinen auf dem besten Weg zu sein, einen diplomatischen und regulatorischen Rahmen zu entwickeln, der die KI in Nuklearwaffensystemen einschränkt. Dies ist aus mindestens zwei Gründen besorgniserregend:

  1. KI bietet einen Nutzen, der die nukleare Abschreckung stärken kann, ohne notwendigerweise das Atomwaffenarsenal zu erweitern.
  2. Die Eile, KI aus der nuklearen Verteidigung zu verbannen, scheint in einem Missverständnis über den aktuellen Stand der KI zu wurzeln – einem Missverständnis, das eher auf populärer Fiktion als auf populärer Wissenschaft zu beruhen scheint.“ […]

Die Art der künstlichen Intelligenz, die heute verfügbar ist, ist keine AGI. Sie kann die Turing-Test – das heißt, es ist möglicherweise nicht von einem Menschen zu unterscheiden, wenn es die Fragen eines Benutzers beantwortet – aber es ist nicht zu eigenständigem Denken fähig und verfügt ganz sicher nicht über ein Selbstbewusstsein.“

Im Wesentlichen sagt die NATO, dass es keinen Grund zur Sorge gibt, da KI nicht in der Lage ist, selbst zu denken (AGI). Allerdings machen hochintelligente Menschen, die selbst denken können, Fehler, ganz zu schweigen von einer Maschine, die von menschlichem Input abhängig ist.   

Das Papier argumentiert, dass KI zwangsläufig die Zielgenauigkeit von Atomwaffen verbessern wird. Nirgendwo im Dokument sind die Wörter „Fehler“ oder „Irrtum“ im Singular oder Plural zu finden.

Grok hat zwei Laurias zu einem kombiniert. In den Vereinigten Staaten gibt es 47 Ballungszentren mit dem Namen Moskau. Nur mal so nebenbei. (Ich weiß, die Koordinaten sind alle unterschiedlich.)

Der NATO-Artikel will jedoch keine diplomatischen Gespräche und beklagt: „Das Thema wurde sogar bei den Gesprächen zwischen den Vereinigten Staaten und China auf dem Forum für asiatisch-pazifische Wirtschaftskooperation angesprochen, das im November (2023) in San Francisco tagte.“

Das Papier kommt zu dem Schluss: „Angesichts der potenziellen geopolitischen Vorteile, die sich daraus ergeben, ist ein Verbot der KI in der nuklearen Verteidigung keine gute Idee.“

In einer vernünftigen Welt würden wir in unserem Alltagsleben zu rein menschlichen Interaktionen zurückkehren und wenn sich Kriege schon nicht verhindern lassen, dann zumindest zu sorgfältigeren, menschlicheren Entscheidungen darüber zurückkehren, wer als Ziel gewählt wird.

Da nichts davon passieren wird, sollten wir besser auf enorme Verbesserungen der KI hoffen, damit aus der Komödie keine Tragödie oder – noch schlimmer – eine totale Katastrophe wird. 

Joe Lauria ist Chefredakteur von Nachrichten des Konsortiums und ein ehemaliger UN-Korrespondent für Ter Wall Street Journal, Boston Globeund andere Zeitungen, darunter Die Montreal Gazette, das Londoner Tägliche Post und Das Star von Johannesburg. Er war investigativer Reporter für die Sunday Times aus London, Finanzreporter für Bloomberg News und begann seine berufliche Tätigkeit als 19-jähriger Streicher für Die New York Times. Er ist Autor zweier Bücher, Eine politische Odyssee, mit Senator Mike Gravel, Vorwort von Daniel Ellsberg; Und Wie ich verloren habe von Hillary Clinton, Vorwort von Julian Assange.

Bitte kontaktieren Sie uns, wenn Sie Probleme im Zusammenhang mit dieser Website haben oder Unterstützung CN's
Winter Kapitalisieren Fahrt!

Machen Sie eine steuerlich absetzbare Spende sicher per Kreditkarte oder Scheck, indem Sie auf den roten Button klicken:

31 Kommentare für „Die Rücksichtslosigkeit der KI"

  1. Charlotte Rovelstad
    Januar 13, 2025 bei 19: 17

    Toller Artikel, obwohl der Titel den Wahnsinn des Ganzen besser hätte widerspiegeln können. Was den Einsatz dieser Technologie durch Israel/USA angeht, ist es für sie kein Problem, dass es „Fehler“ gibt. Sie würden es so programmieren, dass es so funktioniert, genau wie sie Palästinenser ermutigt haben, in „sichere Zonen“ zu gehen, nur um sie dort zu töten. Das ist Absicht.

    Ich möchte den Leuten auch die Lektüre von „The Palestine Laboratory“ von Antony Loewenstein empfehlen. Darin wird die ganze Arbeit dargelegt, die die Israelis geleistet haben, um zum führenden Exporteur dieses ganzen Wahnsinns zu werden.

  2. Helge Tietz
    Januar 13, 2025 bei 15: 57

    Es gibt keine „KI“. Diese Technologie, die manche als „KI“ bezeichnen, ist nicht intelligent, sie kann nichts Originelles leisten, alles darin ist von Menschen geschrieben, nichts ist künstlich. Tatsächlich ist darin kaum etwas Innovatives enthalten, es handelt sich um fortgeschrittenes maschinelles Lernen, im Grunde genommen um Analyse- und Clustersoftware mit Berichtsschreibfähigkeiten, und das gibt es schon seit den 1990er Jahren. Es ist lediglich der Versuch der IT-Industrie, uns den Eindruck zu vermitteln, dass etwas „Revolutionäres“ passiert, während sie in Wirklichkeit nur einen Putschversuch rechtfertigen will, der von Silicon Valley initiiert und geleitet wird. Bestenfalls ist es eine billige Marketingstrategie und schlimmstenfalls der Versuch, uns in eine Überwachungsgesellschaft zu locken, mit der Behauptung, dass die „KI“ uns früher oder später übernehmen wird, das sei unvermeidlich. Der Nobelpreisträger Roger Penrose hat mit seinem Schachexperiment schon vor langer Zeit gezeigt, dass die „KI“ nicht intelligent ist. Daran ist nichts Bemerkenswertes, genauso wie es keine vierte industrielle Revolution gibt. Was wir wirklich sehen, ist Stagnation. Seit den 4er Jahren, wenn nicht sogar schon früher, wurde nichts Bedeutendes erfunden. Wer mir nicht glaubt, der wirft einen Blick auf die verfügbaren Listen der wichtigsten Erfindungen und die leeren Zeilen seit 1980. „KI“ ist vielmehr eine Dokumentation dafür, dass die IT-Industrie an ihre Grenzen gestoßen ist, dass sie sich einem Plateau nähert, dass nichts Innovatives mehr von dort kommt und dass ihnen nur noch bleibt, uns in eine Überwachungsgesellschaft zu locken, damit wir nichts herausfinden.

  3. Januar 13, 2025 bei 13: 43

    Das große Problem mit der KI ist nicht so sehr das Verhältnis von Bullshit zu Fakten, sondern vielmehr die Tendenz des Menschen, das geschriebene Wort für bare Münze zu nehmen. Während Menschen häufig das Gehörte infrage stellen, stellen sie selten das Gelesene infrage. Zusammen mit Problemen mit dem Kurzzeitgedächtnis nehmen Menschen es für bare Münze, ohne Fragen zu stellen, wenn sie lesen, dass x ein Feind ist und zwei Jahre später, dass x ein Freund ist (z. B. Ahmad Sharaa, früher ein Terrorist, jetzt Führer Syriens). Wenn es dann an der Zeit ist, kritische Entscheidungen zu treffen, z. B. einen Atomschlag zu starten, kommt das Vertrauen in ein System, dessen Verhältnis von Bullshit zu Fakten größer als null ist, einem Todeswunsch gleich.

  4. Beverley
    Januar 13, 2025 bei 12: 15

    Die israelischen Streitkräfte brauchen keine künstliche Intelligenz, um Zivilisten zu töten. Wir wissen jetzt, dass Zivilisten das Ziel der ethnischen Säuberung Israels sind.
    Gaza. Infrastruktur wie Wohngebäude, Universitäten, Schulen, Krankenhäuser, Moscheen sowie Obstgärten und Landwirtschaft sind
    zerstört. Die medizinische Fachzeitschrift Lancet schätzt, dass die tatsächliche Zahl der getöteten Palästinenser 186,000 beträgt. Dazu zählen „stille Tötungen“ wie Hungertod, unbehandelte Krankheiten und Wunden, da das Gesundheitssystem zerstört wurde, sowie
    die vielen tausend Gaza-Bewohner, die vermisst und unter Trümmern begraben sind. Auch Amerika hat mit seinen Bomben viele Millionen Menschen dezimiert, ohne
    Mithilfe künstlicher Intelligenz. Nach drei Jahren täglicher Bombardierungen in Nordkorea wurde ein Drittel der Bevölkerung ausgelöscht.

  5. Martin
    Januar 12, 2025 bei 20: 28

    Ein gut geschriebener Artikel, der auf die Gefahren dessen hinweist, was gemeinhin als KI bezeichnet wird. Dies ist keine künstliche Intelligenz, da sie nicht wirklich denkt und nicht in der Lage ist, zu denken. Große Sprachmodelle verarbeiten einfach große Datenmengen und spiegeln sie auf eine Art und Weise an uns zurück, die als stochastische Papageien bezeichnet wurde. Nur im begrenzten Verstand eines NATO-Führers könnte es als gute Idee angesehen werden, ihm die Verantwortung für Atomwaffen zu übertragen. Obwohl sie nicht unterschätzt werden sollte, hat die sogenannte KI ihre Grenzen und Schwachstellen (fragen Sie einfach die Leute, die einem vorgegaukelt haben, eine 3D-gedruckte Schildkröte sei ein Gewehr) und ihr Energiebedarf könnte sich als natürlicher begrenzender Faktor herausstellen.

    Natürlich hat sich die echte KI, die wir im 17. Jahrhundert erfunden und „Unternehmen“ genannt haben, als sehr gefährlich erwiesen, daher sind auf jeden Fall Vorsicht und eine gesunde Skepsis geboten.

  6. Joe Ell der Dritte
    Januar 12, 2025 bei 19: 09

    Joe,
    Zitat aus dem Artikel.
    „Mit anderen Worten: Was passiert, wenn KI-Fehler nicht mehr harmlos und komisch sind, sondern eine Frage von Leben und Tod darstellen?“

    Das ist ein Hoppla, wir machen weiter? Es gibt kein Zurück. Ach, warum von gestern reden – dieser Zug fährt schnell und ohne Unterbrechung.
    Wir nehmen diese Informationen, investieren in eine Serverfarm, speichern sie. Sind sie nicht sicher?
    es wird Ihr Bitcoin sein, direkt in Ihrem Schlampenschacht. Erstellen Sie ein Derivat und werfen Sie es auf den Aktienmarkt, sehen Sie zu, wie es in die Höhe schießt
    der ganze gespeicherte und aufbewahrte Unsinn kann von der KI genutzt werden, erfordert aber möglicherweise eine zusätzliche Serverfarm (mindestens 5 Stockwerke hoch). Das spart Lagerplatz, es ist Ihr Gold.

    Ich schätze, wirklich alles, was eingegeben wird, kann in Echtzeit erfasst, protokolliert und beobachtet werden. Verfolgen Sie Ihre Mausbewegungen. Legen Sie Ihren eigenen Unsinn auf den Stapel, und wenn er voll ist, werfen Sie die Daten gegen Bargeld weg oder täuschen Sie einen Einbruch vor. Ansonsten Bleiche und Hämmer, lol.
    Ich hoffe, Askinet betrachtet dies nicht als Spam. Ich möchte die dort gespeicherten Daten nicht verfälschen, aber sie können sie in ihrer Serverfarm speichern und sie zum Handel an die Datenverkaufsbank weitergeben, nehme ich an.
    So ähnlich wie Shadow Banning. Wenn Sie ein falsches Passwort eingeben (das aber gespeichert wurde, obwohl Sie denken, das Passwort sei verschwunden), werden Sie abgelehnt. Versuchen Sie es erneut. Was, wenn Sie Ihr PayPal-Passwort versehentlich auf einer anderen Site eingegeben haben? Gut genug, aber wenn der Prüfer weiß, dass es falsch ist, muss er es mit einem anderen Datensatz vergleichen. Aber er wird Ihr PayPal-Passwort nicht vergessen (speichern). Diese Information wird auf einer anderen Farm gespeichert, ist aber in den falschen Händen für jeden mit Zugriff ziemlich wertvoll? Sie verkaufen es an jemand anderen? Also, ich weiß, wer Sie sind und welches Passwort Sie verwenden. Ein Eingabefehler funktioniert hier nicht. Mal sehen, welche anderen Sites dieser Benutzer verwendet, die ein Passwort erfordern. Eine davon benötigt wahrscheinlich das Passwort, das Sie falsch eingegeben haben. Das vereinfacht das Hacken, oder? Wer überwacht den Wächter?
    und so weiter und so fort.
    Stecken Sie Ihr Geld in Datenfarmen, stopfen Sie es mit Bitcoins voll, und Sie bekommen ein echt beschissenes Sandwich. Stellen Sie an jede Straßenecke einen Automaten. Verdoppeln Sie Ihren Spaß, indem Sie Mist für Mist verkaufen und kassieren Sie, lol. Sie werden der Hamsterer sein, der nach so einem schönen Mittagessen die Verpackung aufbewahrt.
    vielleicht machen wir das jetzt, aber der Preis ist gestiegen und der Inhalt ist kleiner, und wenn es wirklich gut verpackt ist, braucht man einen Experten, um es zu öffnen. Sein Name ist AI

    genießen .

  7. Jacob Whitecloud
    Januar 12, 2025 bei 07: 14

    Ich glaube also, dass Joe Lauria Folgendes sagen möchte: „Stürmisches Wetter voraus, mit der Chance auf Armageddon“?

    • Joe Ell der Dritte
      Januar 12, 2025 bei 21: 41

      Jürgen ,
      Sie setzen alle Teile zusammen. Als ob der Wettermann sich irren könnte, selbst wenn er aus dem Fenster schaut. Aber es scheint wahrscheinlicher zu regnen, wenn die Wolken grau sind ... lol
      Sie posten, und ich lese es. Vielleicht ist es einfach der Klimawandel?
      Fragen Sie eine KI oder einen Chatbot (ich habe ihn noch nie verwendet): Was sind die Ähnlichkeiten und Unterschiede zwischen dem politischen Klimawandel und dem schlichten Klimawandel?
      werden die Politiker vom Himmel fallen und Chaos anrichten?
      es wird wahrscheinlich zum ungünstigsten Zeitpunkt Zwillinge desselben Politikers mit entgegengesetzten Positionen hervorbringen.
      aber ihnen beiden vertrauen?
      hat nicht jemand kognitive Dissonanz erwähnt?

  8. TN
    Januar 12, 2025 bei 01: 57

    Um des Teufels Advokat zu spielen, möchte ich darauf hinweisen, dass KI die besten menschlichen Go- oder Schachspieler problemlos schlagen kann. Würden Sie einen Go- oder Schachweltmeister nicht in gewisser Weise als schlau bezeichnen?

    • Konsortiumnews.de
      Januar 12, 2025 bei 11: 35

      In dem Artikel heißt es nicht, dass KI nicht intelligent sein kann, sondern dass sie fehleranfällig ist und Informationen fälscht.

    • Joe Ell der Dritte
      Januar 12, 2025 bei 13: 42

      TN ,
      also der Schachspieler weiß, wie man das Spiel spielt, jemand, der sich mit Mathematik auskennt, hat die KI programmiert (nur ein Programm), war es der Schachspieler selbst. Die KI denkt über den nächsten Zug nach, basierend auf den möglichen nächsten Zügen des Spielers, berechnet einen Konter basierend auf dem gemachten Zug, hat aber jeden möglichen Zug im Voraus gesucht und realisiert, vielleicht Tausende? Der Mensch weiß, dass dies ein perfektes Spiel ist, bei dem kein Fehler passieren kann, weil der Intellekt (das Programm) der KI die Fähigkeit hat, alle Möglichkeiten wahrzunehmen. Dies kostet den Menschen viel Zeit, was meiner Meinung nach eine langweilige Herausforderung wäre. Die Tatsache, dass die KI ihre gegebenen „programmierten Anweisungen“ für jede Option sofort für eine Antwort verwenden kann. Der Mensch könnte dasselbe mit ewiger Zeit und einer Art Spickzettel tun, aber nicht sofort.
      Sind es Zeitreisen, die wir miterleben, aber die Reise der KI in diesem kurzen Zeitrahmen nicht wahrnehmen können, bei denen wir aber Mathematik und Computer nutzen und Dinge tun können, die mit dem Fingerzählen nicht schnell möglich sind?
      Wenn zwei KIs bis zum Ende gegeneinander antreten würden, würde sich vielleicht zeigen, dass das Spiel auf jeden Fall gewonnen werden kann oder dass es Wege gibt, die noch nicht erlernt sind und die zeigen, dass nur einer von beiden gewinnen kann. Ist das der Fall, oder haben Sie mit dem Programm, das auf alle Antworten weiß, keine Chance zu gewinnen, es sei denn, es kommt darauf an, wer zuerst zieht?
      Ich sage, ich bin in gewisser Weise beeindruckt, aber vielleicht sollten wir Monopoly nehmen, da es ein Spiel zu sein scheint, das der realen Welt näher kommt? Ich werde der Bankier sein, meinen Freunden Amnestie gewähren und meilenhohe Hotels bauen. Wenn Sie über Los gehen, landen Sie im Gefängnis. Danke für die 200.
      Oh, und wenn ich es vermassle, ist es Ihre Schuld. Tut mir leid, ich bin vielleicht vom Thema abgekommen. Die einzige KI, die etwas bringt, ist die, die richtige Antworten liefert. Wenn Regel Nr. 1, dann gehen Sie zu Regel Nr. 2. Wie im Gefängnis, schauen Sie hinein oder hinaus und auf wessen Kosten?
      WIE bei allem, was privat ist oder jemand anderem gehört, haben Sie keine Ahnung, es sei denn, jemand Kompetenter kann den Code/Algorithmus sehen, der ein Kontrollmechanismus in Privatbesitz ist? Die Geheimhaltung kann im Falle einer Schandtat mehr Einkommen bringen als die Fähigkeiten.
      Ich poste nicht oft, interessiere mich aber für dieses Thema und wenn Sie davon träumen, kann es wahr werden.
      meiner Meinung nach sind es 10 Fuß, aber der Maßstab weiß es besser, da er den tatsächlichen Wert visuell anzeigt. Die KI-Maßstabtheorie muss den Maßstab kennen.
      Ich schreibe wie ein unberechenbares Geschütz, aber ich hoffe, mich ausdrücken zu können, ohne dass sich jemand beleidigt fühlt. Ich hoffe, ich kann ein paar Punkte ansprechen, die aufklären, aber auch Dinge entdecken und teilen, aber nicht wirklich an irgendjemanden gerichtet, sondern nur als Antwort, wenn es zum Nachdenken anregt.

    • Josef Tracy
      Januar 13, 2025 bei 11: 15

      Diese KI-App für Schach ist kein „Weltmeister“, sondern ein Team aller Weltmeister, deren Spiele aufgezeichnet wurden, mit einem Gedächtnis und einer logischen Analyse jedes Zuges und jeder Aufstellung. Sie wurde so programmiert, dass sie logisch reagiert und mögliche Pläne des Gegners voraussehen und diesen Plänen ausweichen kann. Sie wurde von mehreren Personen programmiert. Es gibt dort kein Wesen.

      Auch Schach ist eine Fiktion mit eigenen logischen Regeln, und genau das ist und tut KI: Fiktion. Deshalb erfindet sie Dinge, ohne Rücksicht auf historische Überprüfbarkeit und ohne Rechenschaftspflicht gegenüber Gesetzen oder ethischen Werten. Oft spiegelt sie die politischen oder sozialen Vorurteile des Programmierers oder Geldgebers wider und erfindet vernichtende Lügen, die auf Meinungen statt auf gründlicher Faktenprüfung beruhen.

      Was auch immer es ist, es ist keine Intelligenz, wie Menschen Intelligenz erleben. Es gibt keine sensorischen Eingaben, keine emotionalen Erfahrungen, keine hart erarbeiteten Werte und keine echte Neugier. Es ist ein Werkzeug, das abstrakte Daten verarbeitet, ohne Zugang zu menschlicher oder biologischer Erfahrung.

      • Joe Ell der Dritte
        Januar 14, 2025 bei 01: 39

        Joe T ,
        Vielen Dank für Ihr Feedback, wie die App mit begrenzten Vergleichswerten (der Anzahl tatsächlich gespielter Spiele) funktioniert.
        Vielleicht gibt es im Programm eine Gleichung oder Variableneingabe, um eine Bewegung hinzuzufügen, die in der Teilmenge noch nicht existiert? Das würde helfen, sie zu vergrößern. Ich nenne das die „ungesehene Option“
        Hey, ich habe ein Wort geprägt, qualifiziert mich das jetzt als Schriftsteller? – Ich denke schon – ich bin berühmt, lol, und an deinem letzten Absatz kann ich erkennen, dass du ein Mensch bist. Du wirst die Dinge anders sehen, sobald du deinen Chip erhältst.
        Sie wären ein guter Kandidat, dessen großartige Denkfähigkeiten es zu nutzen gilt?
        Ich hoffe, das war ein Kompliment.
        Ich lege ein sehr langes Kabel bei, das Sie einstecken können. Eine beliebige Stelle oberhalb des Halses ist in Ordnung.
        wenn ich sehe, dass das Licht grün blinkt, weiß ich, dass du ganz bist und ein „Bot zum Traben“ bist. lol …
        Das tut mir leid, es war nichts Persönliches beabsichtigt.
        Danke fürs Posten.

    • T. Davis
      Januar 14, 2025 bei 18: 10

      Jede Maschine, die mir einfällt, ist so konstruiert, dass sie eine oder mehrere der überaus vielseitigen Fähigkeiten eines Menschen (oder vielleicht eines Tieres) verstärkt. John Henry trat gegen einen dampfbetriebenen Gesteinsbohrer an. (Der Legende nach gewann er, aber moderne Maschinen übertreffen die Fähigkeiten des Menschen bei den sehr speziellen Aufgaben, für die sie entwickelt wurden, bei weitem.) Der Motor eines Autos ersetzt die Fähigkeit von Pferden, eine Kutsche zu bewegen.

      Der Punkt ist, wenn Sie den ganzen Tag Auto fahren, dann werden die nahezu unbegrenzten Fähigkeiten Ihres Körpers, Bewegungen auszuführen oder Aufgaben zu erledigen, auf einen engen Bereich von Einzelheiten kanalisiert.

      Dasselbe gilt für Schach oder Go. Ein Schachspieler verwendet sein Gehirn als Maschine und führt eine sehr begrenzte Anzahl geistiger Gesten aus. Ein Computer kann das besser und schneller, aber er kann nicht die unendlichen Gedankenwelten des Menschen bewältigen.

      Schachmeister mögen im Allgemeinen intelligente Menschen sein, doch so beeindruckend ihr Schachtalent auch erscheinen mag, es beruht lediglich auf einer sehr kanalisierten und begrenzten Nutzung ihres Gehirns, sodass es die Definition von „Intelligenz“ erheblich verzerrt, wenn man es so nennt.

      • Joe Ell der Dritte
        Januar 14, 2025 bei 20: 29

        T,
        Ich habe vor langer Zeit in einer Maschinenwerkstatt gearbeitet, die 6-Spindel-Lederriemenantriebe von Brown & Sharpe mit Nockensteuerung hatte, mit Riemendrehung, Linksbohrern … (andere auch Acme usw.) da da da – schwer einzurichten und auf lange Sicht spaßig. hat Spaß gemacht, wünschte, ich hätte sie gemeistert. habe mit einem älteren Kerl gearbeitet, der die Zeichnungen auf der Werkbank gemacht und auch Nocken geschnitten hat. Ich war damals jünger und viel schlauer.
        Wir haben es weit gebracht, Baby. Ich habe mir einige ältere CNC-Maschinen angesehen und festgestellt, dass ein Mann mehrere Leute einstellen und am Laufen halten konnte.
        Ihr Mantra war: „Ich hebe Dinge auf und lege sie wieder ab“, von links nach rechts.
        Es ist erstaunlich, welche Fortschritte gemacht wurden. Jetzt könnte der Dorftrottel Arbeit bekommen, und ich nehme an, aber mittlerweile ist er auch unerwünscht, lol. Ja, das habe ich auch gemacht, lol (der Teil mit dem Dorftrottel)
        Ok, lassen Sie uns das ein wenig aufpeppen. Würden Sie sich besser fühlen, wenn die Maschine, die das Pflaster aufnimmt, einen Kopf hätte, der wie ein Kürbis aussieht?
        Ich habe nie ein Handy besessen und bin trotzdem pleite. In vielerlei Hinsicht reich, aber ich muss mich selbst noch davon überzeugen … viel negative Unterstützung von den Anspruchsvollen. Ich versuche immer, Komplimente zu machen, mich selbst zu reflektieren, zu sehen, wann ich ein zweideutiges Kompliment mache, es zuzugeben und zu erkennen, dass nur wenige Worte ein Leben verändern können. Und ich sage den Leuten, dass sie wertvoll sind. Ich hatte immer Schwierigkeiten mit Komplimenten, weil ich mir meiner selbst bewusst war (auch Selbstverleugnung), und ich hoffe, dass ich jetzt andere mit Komplimenten und einer Erklärung unterstütze.
        Ich bin noch in der Entwicklungsphase, aber wurde „Captain Hook“ als KI betrachtet? Auf diese Antwort werde ich nicht warten, das würde mich wie einen Verrückten aussehen lassen? Nein?
        Ok, jetzt zurück in meine Höhle.
        Danke für die Antwort, und ja, meistens gebe ich in meinen Antworten gerne etwas an, aber meistens rede ich mit mir selbst?? lol

  9. Rafi Simonton
    Januar 11, 2025 bei 20: 51

    Selten wird diskutiert, dass dies auf unhinterfragten Annahmen über menschliche Denkprozesse beruht.

    Das Entweder-oder der aristotelischen Logik ist im Westen seit der Aufklärung vorherrschend. Politisch manifestiert es sich als „für uns oder gegen uns“. Ökonomisch ist es „Kapitalismus oder Kommunismus“. Es ist offensichtlich als das Gute oder Böse des religiösen Fanatismus, aber es ist auch die Tatsache oder Fantasie des wissenschaftlichen Empirismus und das Wahre oder Falsche des philosophischen Rationalismus. Jetzt auf die Spitze getrieben als der Binärcode der KI. All dies sind Produkte der linken Hemisphäre des menschlichen Gehirns, die sequenziell Abstraktionen verarbeitet, indem sie Ganzes in unzusammenhängende Teile zerlegt. Vor allem aber will sie Gewissheit und Kontrolle.

    Suchen Sie nach Dr. Iain McGilchrist, dessen Meisterwerk „The Matter with Things (Our Brains, Our Delusions, and the Unmaking of the World)“ heißt und der sehr ausführlich über dieses Thema geschrieben und gesprochen hat.

    Im Gegensatz dazu verarbeitet die rechte Hemisphäre mithilfe von Gestalten, Symbolen und Metaphern. Das Reich der Künste, der Mystik, der Vielfältigkeit, der Verbindungen und der Bedeutung. Wo das Universum neben Ja und Nein auch ein Vielleicht enthält. Nicht nur die Welt der verträumten Künstler und Schamanen – das sagen auch Quantenphysiker seit über 100 Jahren. Die östliche Welt und die indigenen Völker haben zunächst die ältere Form der rechten Gehirnhälfte beibehalten und dann bei Bedarf die linke. Die rechte ist sich der linken bewusst, aber umgekehrt ist das nicht der Fall. Das erklärt viel darüber, warum wir dort feststecken, wo wir sind. McGilchrist weist auch darauf hin, dass wir Probleme nicht mit denselben Prozessen lösen können, die uns in sie hineingebracht haben.

    KI erscheint nicht ganz menschlich, weil sie das elektronische Äquivalent von hochverarbeitetem Weißmehl und Zucker ist. Sie enthält keine lebensspendenden Nährstoffe und macht stark süchtig. Bestenfalls ist sie nur halb menschlich – der Teil, der sich der Symbiosen der natürlichen Erde, der Herzschläge und dessen, was Paul Ricoeur als „Bedeutungsüberschuss“ bezeichnete, nicht bewusst ist. Der Teil, für den Völkermord die abstrakte Berechnung der Anzahl der getöteten Feinde ist. Der Halbmensch ist unmenschlich, isoliert und klinisch verrückt.

    • human
      Januar 13, 2025 bei 09: 15

      Toller Artikel und Kommentare, insbesondere dieser.

      Dieser wesentliche Aspekt der Menschheit und des Universums wird im allgemeinen Wissen über künstliche Intelligenz und in der gesamten empirischen Wissenschaft immer außer Acht gelassen.

      Eine Kritik an diesem Buch lautet: „Eine ziemlich reduktionistische Kritik des Reduktionismus“, ein markiges Zitat, das fast für Wikipedia gemacht wäre. Ironischerweise ein weiteres schäbiges Schutzschild für diejenigen, die Sicherheit und Kontrolle brauchen. So sind die Regeln.

      Die KI geht ihren eigenen Weg auf der Grundlage des kleinsten gemeinsamen Nenners. Das wäre in Ordnung, wenn McGilchrists Ansatz gleich viel Gewicht hätte oder ein alternativer Weg gewählt würde. Aber das ist nicht der Fall.

      Stattdessen wurde die gesamte Kreativität in den weit aufgerissenen Schlund der KI gesaugt, um die Großkonzerne zu bereichern und die Künstler noch mehr zu verarmen.

      Effizienz soll uns mehr Zeit verschaffen. Aber wenn der Preis dafür Bedeutung ist, was ist diese Zeit dann wert?

      Danke jedenfalls für die Buchempfehlung und an das Konsortium für die inspirierende Menschlichkeit.

  10. Eichelhäher
    Januar 11, 2025 bei 14: 53

    Using Perplexity dot AI yields a more accurate result, and doesn’t mention the Fox guy.

  11. Rachel Winkel
    Januar 11, 2025 bei 13: 26

    Ausgezeichnetes Stück!

  12. L Garou
    Januar 11, 2025 bei 13: 08

    Es gibt keine Quantengrenzen.
    D-Wave hat es mir gesagt.

  13. David Duret
    Januar 11, 2025 bei 12: 45

    Ermöglicht die Entscheidung, maschinelles Lernen als KI zu bezeichnen, eine gezielte Bewegung zur Schaffung kognitiver Dissonanz hinsichtlich der wahren Definition künstlicher Intelligenz (bereitgestellt von Ray McGovern hier bei CN)? „Rosinenpicker-Daten von handverlesenen Analysten.“

  14. Vera Gottlieb
    Januar 11, 2025 bei 12: 27

    Gibt es eine Möglichkeit, den Erfinder der KI zur Verantwortung zu ziehen? Er wusste, wohin seine Erfindung führen würde, und trotzdem … hat er damit weitergemacht. Zu welchem ​​Preis des Ruhms???

    • Jordanien
      Januar 11, 2025 bei 15: 03

      Hallo Vera
      Die Grundlagen der KI sind alt, eine zentrale Komponente ist ein neuronales Netzwerk. Wäre KI nicht die Ausrede für all die schlechten Entscheidungen, wäre sie immer noch Der Algorithmus (was semantisch falsch ist, aber gut klingt). Ich fand diesen Artikel von Bernhard als eine der besseren Erklärungen, was KI wirklich ist. Es gibt also keinen – nicht einmal metaphorischen – Erfinder.
      hxxps://www.moonofalabama.org/2023/06/artificial-intelligence-is-mostly-pattern-recognition.html

      @joe toller Artikel, trotzdem

    • Ich mich
      Januar 11, 2025 bei 17: 15

      Gibt es eine Möglichkeit, J. Robert Oppenheimer festzuhalten (Oppenheimer war Direktor des Los Alamos-Laboratoriums und verantwortlich für die Forschung und Entwicklung einer Atombombe)

      Es würde nicht viel helfen, wenn wir könnten, oder?

  15. Januar 11, 2025 bei 10: 35

    Es regt sehr zum Nachdenken an, auf eine erschreckende Art und Weise.

  16. Eddie S
    Januar 10, 2025 bei 21: 31

    Habe ein interessantes/relevantes Video von einer Person gesehen, die sich intensiv mit KI beschäftigt und einen Fehler demonstriert hat, der seiner Meinung nach in den meisten KI-Systemen vorhanden ist. Wenn Sie das KI-System auffordern, eine analoge Uhr mit der Einstellung 7:30 oder 3:15 oder zahlreichen anderen Werten anzuzeigen, wird es am Ende 10:10 anzeigen. Dies liegt anscheinend an der überwältigenden Anzahl von Bildern dieser 10:10-Einstellung, die in ihre Datenbanken geladen werden, was wiederum auf die „Tatsache“ (den Glauben?) zurückzuführen ist, dass das Bild von 10:10 für das menschliche Gehirn am angenehmsten ist.

    • Joe Ell der Dritte
      Januar 11, 2025 bei 22: 27

      Die beiden Wirbel,
      Sie haben in Ihrem Namen zwischen dem e und dem S ein Leerzeichen gelassen. KI kann auch Tippfehler beheben.
      ok, es ist jetzt 10:10 Uhr … hier könnte eine andere KI eingreifen. Der zurückgegebene Wert 10:10 ist so eingestellt, dass eine Gleichung verwendet wird, die von Menschenhand erstellt wurde? Wenn ans=10:10, erstellen Sie die nächste Anweisungssubroutine zum Auflösen. Warum führen Sie nicht die Formeln ein, die zum Auflösen der Antwort erforderlich sind? Die schwachsinnige KI ist jetzt ein menschlicher Experte mit nur einem technischen Hochschulverständnis von Formeln, die ein kluger Mathematiker auf die Verwendung durch einen Einfaltspinsel reduziert hat, aber sie hilft dem Handwerker. Der Zimmermann verwendet Formeln, um Antworten auf Probleme zu finden, die über seine Fähigkeiten hinausgehen.
      Mir ist klar, dass dies auf Wunsch gelöst werden kann. Die Wahrheit ist, dass KI wie der Zimmermann ist. Keine zwei machen es auf die gleiche Weise, aber alle haben Recht, fragen Sie sie einfach.
      entschuldigen Sie, ich kann meinen Sarkasmus oder meinen Versuch, witzig zu sein, nicht unterdrücken. Sie finden vielleicht einen ernsten Gedanken, aber die Antwort verbirgt sich mit Sicherheit in diesem Textstück, wenn Sie Ihren Meister fragen …
      Joe Ell der Dritte

  17. Januar 10, 2025 bei 20: 19

    ich nehme an, dass KI irgendwann die Gerichte bestimmen wird. Die Justiz ist blind, sagt man. Lasst uns die Namens- und alle abgeschöpften Daten sammeln. Sogar Informationen, die durch einen Verstoß gegen den Datenschutz oder ein Datensystem, das diese Daten speichert, in die Öffentlichkeit gelangt sind. Sammeln wir Informationen über Orte, Namen, Zeiten und auch alle anderen Handydaten von ihnen. Dadurch erhält man die Namen der Personen innerhalb des ausgewählten Felds und kann bestimmen, ab wann jemand schuldig war. Machen Sie sie alle verdächtig und legen Sie eine Mittäterschaft fest, falls sie erwischt werden.
    Da die Justiz blind ist, brauchen wir nur die KI Legal Beagle, um Schuld zu ermitteln. Gesichter sind nicht nötig und es gibt keine vorgefassten Meinungen aufgrund von Aussehen, Geschlecht oder Hautfarbe. Ich sehe diese Möglichkeit für die Zukunft. Vielleicht können sie mit diesem Wissen sogar einen Entwurf erstellen?
    Meine einzige Frage jetzt, da ich mit Beispielen ewig weitermachen könnte. Wessen Namen werde ich weglassen? Wer ist dieser Simon Sinister, der das programmiert? Wird dieses Zeug schon verwendet?
    Es wäre schön, von einem guten Programmierer zu hören, der solche Spielzeuge programmieren kann oder kann.
    Jetzt gibt es ein Programm, das Alarm sendet, wenn ein Herz aufhört zu schlagen. Es versammelt alle, die sich innerhalb des Rings oder des gewählten Umkreises befinden könnten, und wir haben jetzt Daten darüber, wen wir im Auge behalten müssen, wenn wir bei dem Herzstillstand ankommen und es sich herausstellt, dass es sich um einen Tatort handelt. Außerdem können wir den Täter schneller finden und es gibt auch mehr Fälle. Kein Versteckspiel, vielleicht leben wir ja schon in dieser Welt? Lecks, Einbrüche, fehlgeschlagene Sicherung von Kranken- und Bankunterlagen, diese Dinge sind jetzt wohl in der freien Wildbahn,
    können Sie sich den Verlust vorstellen, wenn diese Dinge eintreten und Sie eingesperrt und verschleppt werden, basierend auf einer anonymen Quelle?
    erinnert mich an den Zauberer von Oz.
    Ich muss leider sagen, dass Informationen Macht haben können. Wir kommen in der Hoffnung auf die Welt, sie zu einem besseren Ort zu machen. Manche werden im Verkehr überfahren, bevor sie merken, dass ein Auto auf sie zufährt.
    würden Sie helfen, ein solches System zu entwickeln, oder möchten Sie lieber glauben, dass das, was Sie mit der Erschaffung dieses Monsters tun, gegen Ihren gesunden Menschenverstand verstößt?
    Ach, komprimieren Sie, nehmen Sie KI und erstellen Sie die beste Version davon, und keiner der Beteiligten ist klüger. Vielleicht dient dieser Bericht der Verteidigung, wenn er vollständig ist, da Gerichte gerne „Tatsachen“ weglassen oder Beweise nicht zulassen.
    Ich könnte weitermachen. Danke fürs Zuhören. Tut mir leid, ich bin kein großer Autor und hasse das Redigieren. Ich habe einen echt dicken Daumen, lol

    • T Holz
      Januar 15, 2025 bei 04: 24

      Wenn es darum geht, Kommentare zu hinterlassen, die zur Diskussion beitragen, gilt oft: weniger ist mehr.

  18. Bär Stanley
    Januar 10, 2025 bei 18: 32

    Zumindest haben KIs die Möglichkeit, intelligenter zu werden. Menschen werden merklich dümmer. Man denke nur an die nukleare Entspannung und die Existenz einer Hotline zwischen Atommächten, um Fehler zu vermeiden, 1978 mit 1991 mit der heutigen Welt. Definitiv ein Beweis für die wachsende menschliche Dummheit.

    Die einzige Gefahr der KI könnte darin bestehen, dass Menschen nach ein paar weiteren Generationen der aktuellen Trends zu dumm sein könnten, um selbst Atombomben zu bauen, aber KIs werden das nie vergessen. Andererseits besteht die Chance, dass KIs intelligent genug werden, um zu wissen, dass sie keine Atomwaffen einsetzen dürfen. Wir wissen jetzt mit Sicherheit, dass dies eine Leistung ist, die über die menschlichen Fähigkeiten hinausgeht.

    • Freude
      Januar 11, 2025 bei 17: 25

      Es gibt kaum eine Grundlage für die Behauptung, dass KI, wie auch immer sie definiert wird und wie sie derzeit existiert, tatsächlich die Fähigkeit hat, intelligenter zu werden. Sie ist jetzt noch nicht intelligent, kann weder viele mathematische Aufgaben lösen noch grundlegende physikalische Regeln befolgen. Sie erfindet Zitate und Quellen und hat kein Konzept von Wahrheit oder Realität. Daher kann sie keine der Behauptungen, die sie aufstellt, überprüfen.

      Das ist nicht schlau und zeigt auch nicht, dass er in der Lage ist, intelligenter zu werden. Sam Altman kann alles behaupten, was er will, um seine Aussichten auf Spenden zu verbessern, aber die Realität scheint weder Altman noch KI zu begründen. Für weitere Einblicke in die „Intelligenz“ der sogenannten KI verweise ich auf Gary Marcus‘ Substack.

Kommentarfunktion ist abgeschaltet.