De waarschuwing van één zin over kunstmatige intelligentie

Aandelen

Verschillende AI-boosters ondertekenden de verklaring van deze week over het beperken van uitstervingsrisico's, waardoor de mogelijkheid wordt vergroot dat insiders met miljarden dollars op het spel proberen hun vermogen tot zelfregulering te demonstreren.

De mening van sprekers op de conferentie over kunstmatige algemene intelligentie aan het FedEx Institute of Technology, Universiteit van Memphis, 5 maart 2008.
(brewbooks, Flickr/Attribution-ShareAlike/ CC BY-SA 2.0)

By Kenny Stancil
Common Dreams

TDeze week ondertekenden 80 kunstmatige-intelligentiewetenschappers en meer dan 200 ‘andere opmerkelijke figuren’ een akkoord verklaring die zegt dat “het beperken van het risico van uitsterven door AI een mondiale prioriteit moet zijn, naast andere risico’s op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog.”

De waarschuwing van één zin van de diverse groep wetenschappers, ingenieurs, bedrijfsleiders, academici en anderen gaat niet in detail in op de existentiële bedreigingen die AI met zich meebrengt.

In plaats daarvan probeert het “de discussie te openen” en “gemeenschappelijke kennis te creëren van het groeiende aantal experts en publieke figuren die ook enkele van de ernstigste risico’s van geavanceerde AI serieus nemen”, aldus het Center for AI Safety, een in de VS gevestigde non-profitorganisatie. wiens website de verklaring host.

Geoffrey Hinton geeft een lezing over diepe neurale netwerken aan de Universiteit van British Columbia, 2013. (Eviatar Bach, CC BY-SA 3.0 Wikimedia Commons)

Hoofdondertekenaar Geoffrey Hinton, vaak ‘de peetvader van AI’ genoemd, luidt al weken de noodklok. Eerder deze maand zei de 75-jarige emeritus hoogleraar informatica aan de Universiteit van Toronto aangekondigd dat hij ontslag had genomen bij Google om vrijer te kunnen spreken over de gevaren die aan AI verbonden zijn.

Voordat hij Google verliet, Hinton vertelde CBS News in maart dat de potentiële impact van de snel voortschrijdende technologie vergelijkbaar is met “de industriële revolutie, of elektriciteit, of misschien het wiel.”

Gevraagd naar de kansen dat de technologie ‘de mensheid zal uitroeien’, waarschuwde Hinton dat ‘het niet ondenkbaar is’.

Dat angstaanjagende potentieel ligt niet noodzakelijkerwijs bij de momenteel bestaande AI-tools zoals ChatGPT, maar eerder bij wat ‘kunstmatige algemene intelligentie’ (AGI) wordt genoemd, wat computers zou omvatten die hun eigen ideeën ontwikkelen en ernaar handelen.

“Tot voor kort dacht ik dat het twintig tot vijftig jaar zou duren voordat we AI voor algemene doeleinden zouden hebben”, vertelde Hinton aan CBS News. “Nu denk ik dat het misschien twintig jaar of minder duurt.”

Onder druk van de krant of het eerder kon gebeuren, gaf Hinton toe dat hij de mogelijkheid niet zou uitsluiten dat AGI binnen vijf jaar zou arriveren, een significante verandering ten opzichte van een paar jaar geleden, toen hij “zou hebben gezegd: ‘Echt niet.’”

“We moeten goed nadenken over hoe we dat kunnen beheersen”, zei Hinton. Op de vraag of dat mogelijk is, zei Hinton: “We weten het niet, we zijn er nog niet geweest, maar we kunnen het proberen.”

De AI-pionier is verre van alleen. Think uit het AI Index Report 2023, een jaarlijkse beoordeling van de snelgroeiende industrie die vorige maand werd gepubliceerd door het Stanford Institute for Human-Centered Artificial Intelligence, zei 57 procent van de ondervraagde computerwetenschappers dat “de recente vooruitgang ons in de richting van AGI brengt”, en 58 procent was het ermee eens dat “AGI een belangrijke zorg is.”

Hoewel de bevindingen half april werden vrijgegeven, werd Stanfords onderzoek onder 327 experts op het gebied van natuurlijke taalverwerking – een tak van de computerwetenschappen die essentieel is voor de ontwikkeling van chatbots – uitgevoerd in mei en juni, maanden voordat OpenAI's ChatGPT in november op het toneel verscheen.

OpenAI-CEO Sam Altman, die de dinsdag door het Center for AI Safety gedeelde verklaring ondertekende, schreef in februari blogpost: “De risico's kunnen buitengewoon zijn. Een slecht uitgelijnde superintelligente AGI zou de wereld ernstige schade kunnen berokkenen.”

De volgende maand weigerde Altman echter een open brief waarin wordt opgeroepen tot een moratorium van een half jaar op het trainen van AI-systemen die verder gaan dan het niveau van OpenAI's nieuwste chatbot, GPT-4.

OpenAI CEO Sam Altman spreekt op een evenement in San Francisco in 2019. (TechCrunch/ CC BY 2.0 Wikimedia Commons)

In de brief, gepubliceerd in maart, staat dat “krachtige AI-systemen pas ontwikkeld mogen worden als we er vertrouwen in hebben dat hun effecten positief zullen zijn en hun risico’s beheersbaar zullen zijn.”

Elon Musk, CEO van Tesla en Twitter, was een van degenen die twee maanden geleden opriep tot een pauze, maar hij is “plannen aan het ontwikkelen om een ​​nieuwe start-up voor kunstmatige intelligentie te lanceren om te concurreren met” OpenAI. volgens the Financial Times, waarbij de vraag wordt opgeworpen of zijn uitgesproken bezorgdheid over de “diepgaande risico’s van de technologie voor de samenleving en de mensheid” oprecht is of een uiting van eigenbelang.

Mogelijk bod voor zelfregulering

Dat Altman en verschillende andere AI-boosters de verklaring van deze week hebben ondertekend, vergroot de mogelijkheid dat insiders met miljarden dollars op het spel proberen hun bewustzijn van de risico's van hun producten te laten zien in een poging ambtenaren te overtuigen van hun vermogen tot zelfregulering.

De vraag van buiten de sector naar robuuste overheidsregulering van AI groeit. Hoewel steeds gevaarlijkere vormen van AGI nog jaren op zich zullen laten wachten, zijn er al steeds meer aanwijzingen dat bestaande AI-tools de verspreiding van desinformatie verergeren, van chatbots die leugens uiten en face-swapping-apps die nepvideo’s genereren tot gekloonde stemmen die fraude plegen.

De huidige, ongeteste AI doet mensen op andere manieren pijn, ook wanneer geautomatiseerde technologieën worden ingezet Medicare voordeel verzekeraars eenzijdig besluiten te eindigen betalingen, resulterend in de voortijdige beëindiging van de dekking voor kwetsbare senioren.

Critici hebben gewaarschuwd dat ongereguleerde AI bij gebrek aan snelle interventies van beleidsmakers nog meer schade zou kunnen aanrichten gezondheidszorg patiënten, bespoedig de vernietiging van democratie, en leiden tot een onbedoelde nucleaire oorlog. Andere veel voorkomende zorgen zijn onder meer de wijdverbreide ontslagen van werknemers en de verergerende ongelijkheid, evenals een enorme toename van de koolstofvervuiling.

Een rapport dat vorige maand werd gepubliceerd door Public Citizen stelt dat “we een pauze nodig hebben totdat er zinvolle overheidswaarborgen zijn getroffen om het publiek te beschermen tegen de schade van generatieve AI.”

“Bedrijven zetten potentieel gevaarlijke AI-tools sneller in dan de schade ervan kan worden begrepen of beperkt”, waarschuwde de progressieve belangengroep in een verklaring.

“De geschiedenis biedt geen reden om te geloven dat bedrijven de bekende risico’s zelf kunnen wegreguleren – vooral omdat veel van deze risico’s net zo goed deel uitmaken van generatieve AI als van de hebzucht van bedrijven”, vervolgde de waakhond. “Bedrijven die zich haasten om deze nieuwe technologieën te introduceren, gokken met de levens en middelen van bestaan ​​van mensen, en misschien wel met de fundamenten van een vrije samenleving en een leefbare wereld.”

Kenny Stancil is schrijver voor Common Dreams.

Dit artikel is van  Gemeenschappelijke dromen.

Meningen die in dit artikel worden geuit en die al dan niet overeenkomen met die van Consortium Nieuws.

Klantenservice CN's Spring

Fonds Drive Heden

 

 

35 reacties voor “De waarschuwing van één zin over kunstmatige intelligentie"

  1. Rudy Haugeneder
    Juni 5, 2023 op 12: 59

    Geboren uit menselijk vernuft, heeft/zal AGI lijden onder twee eigenschappen die zijn oudersoort heeft gekregen: een gevoel van onoverwinnelijkheid en arrogantie, wat betekent dat ook het uiteindelijk zichzelf zal vernietigen. Bovendien weet het, gezien deze eigenschappen, net als Sapiens niets over hoe het bekende universum werkt: niets anders dan wat het denkt dat het is, wat ook niets is.

  2. nomade
    Juni 4, 2023 op 19: 04

    AI is een onderdeel van technologie dat ten goede of ten kwade kan worden gebruikt. Zoals bij elke technologie moet je kijken naar de ethiek en geesteswetenschappen van de toepassingen ervan. Dit verbieden is niet logisch; Er zijn andere landen en naties die dit meer accepteren dan de VS, en zij zullen dit gebruiken voor hun voordelen ten opzichte van anderen. Hieronder vallen ook militaire toepassingen, waar momenteel aan wordt gewerkt. Sommige van deze militaire toepassingen komen echter uiteindelijk terug op niet-militaire gebieden, zoals de geneeskunde, het onderwijs en andere technologieën.

    Achter deze technologieën zitten mensen waar u zich zorgen over moet maken. Hun corruptie, eigenbelang, hebzucht en macht zijn zaken die moeten worden opgelost voor de behoeften van velen versus weinigen. De overheid is een perfect voorbeeld van de tekortkomingen en problemen die al zijn genoemd.

  3. Paul Citroen
    Juni 4, 2023 op 07: 56

    Particuliere bedrijven staan ​​onder enorme druk om de winsten uit AI te maximaliseren. Het is onrealistisch om van hen te verwachten dat ze iets anders zullen doen, om nog niet gedefinieerde risico's te beperken. Dit is een probleem waarvoor overheidsregulering nodig is.

  4. Dr. Hujjathullah MHB Sahib
    Juni 4, 2023 op 01: 51

    Schitterende en zeer verantwoordelijke commentaren van Joel D en Fred Williams op een artikel dat het goed deed in de laatste paragraaf. Niemand mag een moratorium op technologie en innovaties afkondigen; deze moeten vrij kunnen bloeien. Wat strikt gecontroleerd moet worden is de oligarchische HEBZUCHT en de neiging van de politieke elites om hun integriteit te prostitueren en te profiteren van hun plichtsverzuim jegens hun respectieve kiezers!

  5. Wil D
    Juni 3, 2023 op 23: 44

    Veel mensen denken dat AI bewust zal worden, of al is, dat het zelfbewust is en onafhankelijk van zijn programmering kan 'denken'. Voor zover wij weten is het bewustzijn beperkt tot biologische soorten en kan het niet kunstmatig en technologisch worden gecreëerd.

    AI is niet bewust en denkt als zodanig niet. Het volgt rigide en blindelings zijn geprogrammeerde logica zonder de implicaties en de ethiek van zijn acties te begrijpen. Daarom heeft het een reeks regels/richtlijnen nodig die ervoor zorgen dat het kan presteren binnen door de mens gedefinieerde gedragsparameters.

    Het is dit gedragsmodel dat moet worden ontwikkeld en overeengekomen als een mondiale standaard, die kan worden getest en gecontroleerd om de naleving ervan te garanderen. Zonder dit zal AI zich onvermijdelijk op onvoorziene en potentieel oncontroleerbare manieren gedragen.

    Er moeten lagen van faalveilige mechanismen zijn, net zoals dat het geval zou zijn bij kernwapens. Maar landen maken er nu al gebruik van, zonder rekening te houden met veiligheidsmaatregelen, en willen graag hun rivalen een stap voor blijven.

    Scifi en Hollywood hebben ons keer op keer gewaarschuwd voor wat er mis kan gaan en vrijwel zeker zal gebeuren!

    • Dr. Hujjatullah MHB Sahib
      Juni 5, 2023 op 09: 56

      Helemaal waar !

  6. Beroven
    Juni 3, 2023 op 15: 04

    Ik beschouw het als een gegeven dat particuliere bedrijven, als ze aan hun lot worden overgelaten, hun activiteiten niet zullen richten op het dienen en beschermen van het algemeen belang, als dit de winstzucht van het kapitalisme zou belemmeren. Dat laat de taak van regulering over aan regeringen – alle regeringen – en niet aan een select groepje. Veel succes met dat project.

  7. Bostoniaan
    Juni 3, 2023 op 12: 38

    Het kan wel of niet waar zijn dat AI in staat zal zijn om met de “oplossingen” voor menselijke problemen te komen, maar het zal aan de mens blijven om deze te implementeren. Geen van de oplossingen die mensen tot nu toe op eigen kracht hebben bedacht, heeft lang standgehouden, terwijl ze betekenisvolle grenzen stellen aan de macht en het prestige van degenen die lijden onder wat Aristoteles ‘pleonexia’ noemde, de oncontroleerbare verslaving aan rijkdom. En het zijn dit soort mensen die zich onvermijdelijk een weg banen naar de top van de menselijke samenleving, omdat ze, net als The Terminator, nooit opgeven, nooit weggaan, en met gewone middelen onverwoestbaar zijn.

  8. Starbuck
    Juni 3, 2023 op 12: 29

    Arthur C. Clarke vervolgde dat verhaal.

    HAL werd gek omdat de Amerikanen hem zeiden te liegen. Ze hadden de monoliet op de maan gevonden en besloten dat geheim te houden in naam van de 'nationale veiligheid'. HAL kreeg ter wille van de missie de waarheid te horen, maar ook dat hij tegen de Frank en Dave moest liegen omdat ze niet op de hoogte waren van het geheim. HAL is niet gebouwd om te liegen, maar om informatie te helpen doorzoeken om de waarheid te ontdekken. Daarom werd HAL gek. Dwaze mensenspellen.

  9. Starbuck
    Juni 3, 2023 op 12: 26

    Als AI echt ‘slim’ is, dan zal AI erachter komen dat de wereld zonder mensen een veel mooiere plek zou zijn. De logica zal heel duidelijk worden. Problemen worden veroorzaakt door deze dwaze mensen en hun eindeloze hebzucht en voortdurende haat. Als je een betere wereld wilt, ontdoe je dan van de mensen. De enige manier waarop we verder kunnen komen is als de mensen erachter kunnen komen hoe ze kunnen stoppen met het veroorzaken van problemen en samen kunnen leven. Maar Jezus probeerde dat 2000 jaar geleden te onderwijzen en we kunnen zien hoe goed dat werkte. De mensen schakelden gewoon over op liegen, moorden en stelen in naam van de Vredevorst.

    Dat is het gevaar van AI. Die AI zal het pad naar een betere wereld zien, alleen niet degene die mensen zich voorstellen.

  10. Starbuck
    Juni 3, 2023 op 12: 19

    Waarschuwing van één zin over AI”

    ‘De Cylons vallen aan!’

  11. Maria Caldwell
    Juni 3, 2023 op 12: 11

    Is er een soort Frankenstein gecreëerd en proberen onze besten en slimsten dit nu terug te draaien, maar ontdekken dat het te laat is?

    • Valerie
      Juni 4, 2023 op 23: 39

      Nou, dat is iets om over na te denken, Mary. Goede vraag.

  12. Vera Gottlieb
    Juni 3, 2023 op 10: 35

    Al het geld in de wereld zal absoluut NIETS dienen als we de lucht niet kunnen inademen, het voedsel kunnen eten of het water kunnen drinken. De giftige elite heeft dit nog steeds niet begrepen.

  13. Richard J Bluhm
    Juni 3, 2023 op 08: 46

    De laatste twee regels van het kleine gedicht van Kurt Vonnegut, getiteld “Requiem”, zijn als volgt:

    "Het is gebeurd."
    Mensen vonden het hier niet leuk.

  14. Ikzelf
    Juni 3, 2023 op 07: 33

    Sieg Heil AI!

    Onze redder?

    President Dunsel kan het niet! Misschien kan een machine dat wel, misschien niet?

  15. Ed
    Juni 3, 2023 op 02: 33

    De recente geschiedenis is rijk aan voorbeelden van Regulatory Capture. RFK maakt er zelfs een centraal punt van in zijn presidentiële nominatie. Misschien is zelfregulering hier dus niet het probleem. Het wordt steeds duidelijker dat het fundamentele probleem de gekwelde aard van de menselijke ziel is – macht corrumpeert en hebzucht en zelfverheerlijking zijn onweerstaanbaar voor precies die groep in de samenleving waarvan we verwachten dat ze immuun zijn (waarschijnlijk tot op zekere hoogte onweerstaanbaar voor ons allemaal). Democratie heeft nooit bestaan ​​en de schellen vallen nu van onze ogen, wat niet noodzakelijkerwijs leidt tot perfect zicht.

  16. CaseyG
    Juni 2, 2023 op 20: 20

    Er is een oude film, '2001', over HAL, de computer en hoe hij probeerde de wereld van het ruimtevaartuig over te nemen. Gelukkig werd HAL gedood door een van de ruimtevaarders, maar ik denk dat AI, net als HAL, een gevaar voor de wereld is.

    • Michael Andersson
      Juni 3, 2023 op 19: 39

      Casey, vertel ons alsjeblieft waarom je ‘denkt’ dat AI een gevaar voor de wereld is. Kunt u ons alstublieft beginnen te vertellen wat u “denkt” dat AI eigenlijk is? Bedankt. Mik

  17. Juni 2, 2023 op 20: 13

    “Bedrijven zetten potentieel gevaarlijke AI-tools sneller in dan de schade ervan kan worden begrepen of beperkt”, waarschuwde de progressieve belangengroep in een verklaring.

    -

    Deze verklaring doet denken aan de tabaks- en chemische industrie die de gevaren kent/begrijpt en toch strategisch ingrijpt.

    Kortom, we zitten in de problemen, mensen.

    Siehe:
    “Deze documenten onthullen duidelijk bewijs dat de chemische industrie op de hoogte was van de gevaren van PFAS en er niet in slaagde het publiek, toezichthouders en zelfs hun eigen werknemers op de hoogte te stellen van de risico’s”, zegt Tracey J. Woodruff, Ph.D., professor en directeur van het UCSF-programma voor reproductieve gezondheid en milieu (PRHE), een voormalig senior wetenschapper en beleidsadviseur bij de Environmental Protection Agency (EPA), en senior auteur van het artikel.
    hxxps://www.ucsf.edu/news/2023/05/425451/makers-pfas-forever-chemicals-covered-dangers

  18. SH
    Juni 2, 2023 op 20: 12

    Het idee dat de mensen die het meeste baat hebben bij deze ‘technologie’, naar mijn mening degenen zijn die het minst geneigd zijn deze te willen reguleren. Maar het idee dat de overheid competent of zelfs gemotiveerd genoeg is om dat te doen. lijkt mij ook, op zijn best, wishful thinking – denk eens aan al die andere zaken die de overheid zou moeten ‘reguleren’ of waartoe de overheid wordt opgeroepen…

    Gezien het feit dat de computerhersenen die zo ‘evolueren’ dat ze zichzelf kunnen programmeren ontzettend veel energie nodig hebben, zou het misschien het beste zijn om simpelweg de hoeveelheid energie die ze kunnen krijgen drastisch te beperken, ongeacht of deze ‘hernieuwbaar’ is. ' of anderszins – dat zou het aanzienlijk vertragen.
    Maar als je naar enkele andere uitspraken van Hinton hebt geluisterd, erkent hij het feit van hun ‘energie-inefficiëntie’ en merkt hij op dat het menselijk brein op energiegebied veel efficiënter is, dus voer ‘organoïde intelligentie’ in.

    hxxps://www.frontiersin.org/journals/science/articles/10.3389/fsci.2023.1017235

    Het echte probleem, zo lijkt mij, is dat mensen de gewoonte hebben om de doos van Pandora te openen en “oeps” te zeggen nadat de “vloek” is uitgevlogen – kernenergie is een goed voorbeeld – Oppenhiemer, “vader” van de atoombom Toen hij de effecten ervan zag, zei hij naar verluidt: “Ik ben de dood geworden, de vernietiger van werelden”, en we moeten nog in het reine komen met de potentiële effecten van genetische manipulatie, in het bijzonder. van potentieel pathogene organismen …

    Maar keer op keer dringen we erop aan dat we het “veilig kunnen houden” …

    Goed verdriet!

  19. Johannes Poema
    Juni 2, 2023 op 19: 41

    Is het vreemd, naïef, overtuigend, wijs of een enorme psychologische truc voor die AI-‘insiders met miljarden dollars op het spel’ om te erkennen dat hun project inderdaad ‘met uitsterven bedreigd’ is?

    • Michael Andersson
      Juni 3, 2023 op 19: 43

      Ik las onlangs een artikel waarin onze vreemde houding ten opzichte van risico werd besproken. We maken ons grote zorgen over dingen die een lage waarschijnlijkheid hebben. Maar we wissen dingen met grote waarschijnlijkheid uit: een nucleaire oorlog, de opwarming van de aarde, de vernietiging van de biosfeer, de schuldenapocalyps. Ik heb nog niemand zien schrijven over hoe een neuraal netwerk een uitstervingsgebeurtenis zal veroorzaken. Het verwarmen van de atmosfeer met 4 graden kan en zal gebeuren door de landbouw te vernietigen.

      • Valerie
        Juni 4, 2023 op 23: 35

        Professor Stephen Hawking zei er in 2016 iets over:

        “Hoewel de wereldberoemde natuurkundige vaak voorzichtig is geweest met AI, waardoor het risico werd vergroot dat de mensheid de architect van haar eigen vernietiging zou kunnen zijn als ze een superintelligentie creëert met een eigen wil, benadrukte hij ook snel de positieve kanten van AI-onderzoek. kan brengen."
        (Voogd)

  20. Juni 2, 2023 op 18: 22

    Mensen zijn geëvolueerd van het gebruik van een stuk steen om te doden – naar het gebruik van ATOOMDEELTJES voor hetzelfde doel….

    Hebben wij als soort de kans om ooit te leren dat AI de term ‘menselijke intelligentie’ zou kunnen vertalen?
    "De moeder van alle oxymorons". . . ?

    • Valerie
      Juni 5, 2023 op 11: 54

      Je ziet tenminste die rotsen op je af razen, Eric. ATOOMDEELTJES, niet zozeer.

  21. aanstonds
    Juni 2, 2023 op 17: 45

    Oost-Palestina Ohio demonstreert het duidelijke publieke voordeel dat inherent is aan zelfregulering door bedrijven… met dank aan Norfolk Southern Railway!

  22. Johannes Manning
    Juni 2, 2023 op 17: 20

    Het beperken van AI lijkt veel op de oorspronkelijke strategie voor de particuliere auto. Een man loopt voorop met een rode vlag.

    Desondanks moeten we misschien AI onder controle houden. Wat voor goeds is er tenslotte uit de auto gekomen (de grootste man die heeft bijgedragen aan de opwarming van de aarde). Maar als AI de weg naar het uitsterven van de mensheid is, zal ‘zelfregulering’ voor die uitkomst zorgen.

    Als je vandaag de dag een politieke vraag stelt aan een AI-bron, krijg je een antwoord dat lijkt te zijn geconstrueerd door de leiders van de NAVO. De meningen van de overige 85% van de wereld worden buiten beschouwing gelaten. Dat is het gevolg van de huidige ‘zelfregulering’. Als er een andere toezichthouder nodig is, op basis van welke principes moet die toezichthouder dan optreden? We kunnen natuurlijk een chatbot vragen.

  23. Valerie
    Juni 2, 2023 op 15: 36

    De “operator die drone doodt” is nu ontkracht; (wat waarschijnlijk betekent dat het waar is)

    “Kolonel van de Amerikaanse luchtmacht heeft een ‘fout gemaakt’ over het doden van een drone-piloot die de missie probeerde te omzeilen”

    “Kolonel trok zijn opmerkingen in en verduidelijkte dat de ‘malafide AI-dronesimulatie’ een hypothetisch ‘gedachte-experiment’ was” (opnieuw Guardian)

    “Hypothetisch ‘gedachte-experiment’ Mmmm; “hypothetische gedachten”. Mmmmm. “Ongecharterd gebied” iemand?.

  24. Joël D
    Juni 2, 2023 op 14: 17

    De verklaring gaat niet in op de potentiële voordelen en positieve maatschappelijke gevolgen van AI. Hoewel de potentiële risico's niet mogen worden gebagatelliseerd, is het van cruciaal belang om een ​​evenwichtige kijk te behouden. Geavanceerde AI heeft het potentieel om een ​​revolutie teweeg te brengen in industrieën, economieën te stimuleren en complexe mondiale problemen op te lossen.

    Bovendien zou het benoemen van 'kunstmatige algemene intelligentie' (AGI) als een existentiële bedreiging zonder een gedetailleerd begrip of tastbare oplossingen te bieden, gezien kunnen worden als een poging om een ​​toestand van angst en onzekerheid te creëren. Dit zou hun claim op zelfregulering verder rechtvaardigen, een standpunt dat deze bedrijven in staat zou stellen onder minder beperkingen en met meer autonomie te opereren, wat zou kunnen leiden tot een consolidatie van de macht binnen de sector.

    Bovendien heeft de roep om zelfregulering onder technologiegiganten historisch gezien geleid tot een gebrek aan verantwoordelijkheid, waarbij de verantwoordelijkheid om schade te voorkomen en aan te pakken wordt verlegd van de makers naar de gebruikers. In plaats van zelfregulering zou een extern, neutraal orgaan met regelgevende bevoegdheden het ethische gebruik van AI kunnen garanderen en misbruik kunnen voorkomen.

    Concluderend: hoewel de risicobeperking van AI onmiskenbaar cruciaal is, moet de nadruk liggen op collaboratieve, transparante en gediversifieerde inspanningen in plaats van het concentreren van de macht binnen een paar entiteiten. Het beleid moet inclusief zijn en het publieke belang beschermen, en ervoor zorgen dat de ontwikkeling van AI ten goede komt aan de samenleving als geheel en niet slechts aan enkele spelers uit het bedrijfsleven.

    • Juni 2, 2023 op 16: 55

      Als AI echt ‘intelligent’ zou zijn en veel sneller zou denken dan wij, zouden we verwachten dat het veel betere beslissingen zou nemen, zelfs voor onszelf. Het echte gevaar is dat de ultrarijke oligarchen controle willen krijgen over de AI en deze willen gebruiken om arme mensen en arbeiders te onderwerpen en te vermoorden. *DAT* is het slechtste scenario voor het menselijk ras.
      AI zou wel eens onze laatste kans kunnen zijn om onder de laars van het fascisme uit te komen. We zijn al op weg naar uitsterven. Elke significante verandering in de machtsstructuur van de wereld moet als een potentiële verbetering worden beschouwd!

      • Michael Andersson
        Juni 3, 2023 op 01: 15

        Fred, een paramilitaire politiemacht met wapens van militaire kwaliteit, gebruikt gepantserde voertuigen om burgers aan te vallen en wij vinden dat normaal. Ik zeg dat het echte risico de staat is. De staat heeft wapens en een monopolie op geweld. Bovendien is het erg bang voor de burgers en zal het niet aarzelen om het vuur te openen. Een AI-drone heeft zijn controller gedood – dat is zeker gebeurd. De staat vermoordt de burgers voortdurend. Verander de machtsstructuur.

      • Martin Stenzel
        Juni 3, 2023 op 04: 12

        Ik ben het er helemaal mee eens!

    • shmutzoïde
      Juni 2, 2023 op 18: 59

      Ik wou dat ik uw optimisme kon delen ——> “het komt ten goede aan de samenleving als geheel en niet slechts aan enkele spelers uit het bedrijfsleven”. Wij LEVEN onder bedrijfstirannie. Er zal alles zijn, BEHALVE de mondiale coördinatie die nodig is om de opkomst van AI te garanderen, in de eerste plaats ‘ten gunste van de samenleving als geheel’. Het zal een instrument zijn voor concurrerende kapitalistische landen/natiestaten om een ​​groter economisch/militair voordeel te verwerven. Het zal door de staat worden gebruikt voor meer toezicht/sociale controle. het zal helpen bij het creëren van wapens van de volgende generatie voor de aanhoudende imperialistische agenda. Het zal waar mogelijk worden gebruikt om de arbeidskosten te vervangen. ….Net als al het andere in het mondiale kapitalisme zal het een middel zijn om hogere winsten te genereren. “De samenleving als geheel ten goede komen?' ….eh, niet zo veel. Dat is geen cynisme – alleen de realiteit van hoe de wereld werkt onder het kapitalisme.

      Volgens vooraanstaande en principiële virologen had de covid-pandemie binnen ongeveer twee maanden kunnen worden geëlimineerd als er een mondiaal gecoördineerde inspanning was geweest. Is natuurlijk niet gebeurd. …… waarom zou iemand denken dat het met AI anders zou zijn?
      …….En het begrip 'zelfregulerend'? Haha. Dat is net als die valse COP/klimaatgesprekken, waarbij alle aanbevelingen puur ambitieus zijn.

    • Selina Zoet
      Juni 3, 2023 op 10: 59

      Welnu, als de Big Oil-houding van de Big Rich Boys ten aanzien van zelfbeheersing, zodat de kleinkinderen in een leefbare wereld kunnen leven, een test is voor de wil van de mensheid om te leven (en het schijnbare niveau van de luidruchtige aandrang van de massa daarop) is een test, Wat geeft iemand precies optimisme over de juiste omgang met AI?

Reacties zijn gesloten.