Kunstig intelligens straffer amerikanere med lav indkomst

Aktier

Med kunstig intelligens påvirker risikoen for forkert anvendte politikker, kodefejl, skævhed eller grusomhed masser af mennesker lige fra flere tusinde til millioner ad gangen, skriver Kevin De Liban.

Fødevarebank i Houston, 2017. (USDA-foto af Lance Cheung, Flickr, Public domain)

By Kevin De Liban
Inequality.org

The milliarder af dollars hældt ind i kunstig intelligens (AI) har ikke leveret på teknologiens lovede revolutioner, som f.eks. behandling, rykker ind videnskabelig forskningeller øget arbejderens produktivitet.

Så AI-hype-toget formidler det undervældende: lidt smartere telefoner, tekst-anmodet grafik og hurtigere rapportskrivning (hvis AI'en ikke har gjort det fandt på tingene). I mellemtiden er der en mørk underside af teknologien, der ikke bliver nævnt af AI's karnevalsbarkere - den udbredte skade, som AI i øjeblikket forårsager folk med lav indkomst. 

AI og relaterede teknologier bruges af regeringer, arbejdsgivere, udlejere, banker, undervisere og retshåndhævere til at skære forkert hjemmeplejeydelser for handicappede, anklage arbejdsløse arbejdere for bedrageri, nægte folk boliger, beskæftigelse eller kredit, tag børn fra kærlige forældre og sætte dem i plejefamilie, intensivere vold i hjemmet og seksuelt misbrug eller chikane, mærke og mishandle mellem- og gymnasiebørn som sandsynligt frafald or kriminelleog falsk beskylder Sorte og brune mennesker af forbrydelser.

Alt i alt har 92 millioner lavindkomster i USA - dem med indkomster under 200 procent af den føderale fattigdomsgrænse - nogle nøgleaspekter af livet, som er besluttet af AI, ifølge en ny rapport fra TechTonic Justice. Dette skift mod AI-beslutningstagning indebærer risici, der ikke er til stede i de menneskecentrerede metoder, der går forud for dem, og trodser alle eksisterende ansvarlighedsmekanismer.

For det første udvider AI omfanget af risiko langt ud over individuelle beslutningstagere. Selvfølgelig kan mennesker begå fejl eller være forudindtaget. Men deres rækkevidde er begrænset til de mennesker, de direkte træffer beslutninger om. I tilfælde af udlejere, direkte tilsynsførende eller statslige sagsbehandlere, kan det toppe på et par hundrede personer.

Men med kunstig intelligens centraliseres risikoen for forkert anvendte politikker, kodefejl, bias eller grusomhed gennem systemet og anvendes på masser af mennesker fra flere tusinde til millioner ad gangen.

For det andet er brugen af ​​kunstig intelligens og årsagerne til dens beslutninger ikke let kendt af de personer, der er underlagt dem. Offentlige myndigheder og virksomheder har ofte ingen forpligtelse til bekræftende at oplyse, at de bruger kunstig intelligens. Og selvom de gør det, afslører de måske ikke de nøgleoplysninger, der er nødvendige for at forstå, hvordan systemerne fungerer.

For det tredje giver den formodede sofistikering af AI en kappe af rationalitet til politiske beslutninger, der er fjendtlige over for folk med lav indkomst. Dette baner vejen for yderligere implementering af dårlig politik for disse samfund.

Ydelsesnedskæringer, som f.eks dem til hjemmeplejen som jeg kæmpede imod for handicappede, er maskeret som objektive behovsbestemmelser. Eller arbejdspladsledelses- og overvågningssystemer, der underminere medarbejdernes stabilitet og sikkerhed passere som værktøjer til at maksimere produktiviteten. For at påberåbe sig ordsproget bruger AI-ulve fåreavatarer.

Skalaen, opaciteten og udklædningen af ​​AI gør skadelige beslutninger svære at bekæmpe på individuelt niveau. Hvordan kan du bevise, at AI var forkert, hvis du ikke engang ved, at den bliver brugt, eller hvordan den fungerer?

AOg selvom du gør det, vil det så betyde noget, når AI's beslutning understøttes af påstande om statistisk sofistikering og gyldighed, uanset hvor tvivlsom det er?

Kunstig intelligens & AI & Machine Learning. (Mike MacKenzie, billede via www.vpnsrus.com, CC BY 2.0)

På et bredere plan tøjler eksisterende ansvarlighedsmekanismer ikke skadelig kunstig intelligens. AI-relaterede skandaler i offentlige ydelser er ikke blevet til politiske forpligtelser for guvernørerne med ansvar for svigtende Medicaid or Arbejdsløshedsforsikring systemer i Texas og Florida, for eksempel. Og agenturets embedsmænd, der direkte implementerer sådanne systemer, er ofte beskyttet af de valgte embedsmænd, hvis dagsordener de udfører.

Heller ikke den markedsdisciplin, egensindig AI bruger mod folk med lav indkomst. En stor udvikler af berettigelsessystemer til statslige Medicaid-programmer har sikret sig $6 milliarder i kontrakter selvom dets systemer har fejlet på lignende måder i flere stater.

Ligeledes en stor datamægler havde ingen problemer med at vinde kontrakter med den føderale regering selv efter et sikkerhedsbrud afslørede personlige oplysninger om næsten 150 millioner amerikanere.

Eksisterende love kommer ligeledes til kort. Uden nogen meningsfuld AI-specifik lovgivning skal folk anvende eksisterende juridiske krav på teknologien. Normalt baseret på love mod forskelsbehandling eller procedurekrav som at få fyldestgørende forklaringer til afgørelser er disse krav ofte først tilgængelige, efter at skaden er sket, og tilbyder begrænset lindring.

Selvom sådanne retssager har haft en vis succes, er de alene ikke svaret. Når alt kommer til alt er retssager dyre, folk med lav indkomst har ikke råd til advokater, og kvalitet, gratis repræsentation tilgængelig gennem retshjælpsprogrammer kan muligvis ikke imødekomme efterspørgslen.

Lige nu træffer uansvarlige AI-systemer uanfægtelige beslutninger om folk med lav indkomst på uoverskuelige skalaer. Føderale politiske beslutningstagere vil ikke gøre tingene bedre.

Trump-administrationen hurtigt ophævet beskyttende AI-vejledning som præsident Joe Biden udstedte. Og da Trump og Kongressen favoriserer industriens interesser, er kortsigtede lovgivningsmæssige rettelser usandsynlige.

Alligevel betyder det ikke, at alt håb er tabt. Fællesskabsbaseret modstand har længe givet næring til sociale forandringer. Med yderligere støtte fra filantropi og civilsamfund kan lavindkomstsamfund og deres fortalere bedre modstå de umiddelbare skader og opbygge politisk magt, der er nødvendig for at opnå langsigtet beskyttelse mod AI's hærgen.

Organisationer som min, TechTonic Justice, vil styrke disse frontlinjesamfund og fortalere med kamptestede strategier, der inkorporerer retssager, organisering, offentlig uddannelse, narrativ fortalervirksomhed og andre dimensioner af forandringsskabelse.

I sidste ende er kamp fra bunden vores bedste håb for at fjerne AI-relateret uretfærdighed.

Kevin De Liban er grundlægger og præsident TechTonic Justice, en ny organisation, der kæmper sammen med lavindkomstfolk, der er efterladt af kunstig intelligens.

Denne artikel hvis fra Inequality.org.

Synspunkter, der er udtrykt i denne artikel og afspejler muligvis ikke synspunkter fra Konsortium nyheder.

11 kommentarer til “Kunstig intelligens straffer amerikanere med lav indkomst"

  1. Jolun Bexa
    Februar 4, 2025 på 15: 21

    Læg mærke til, hvordan systemet fungerer …. ingen omtale af, at kunstig intelligens bliver brugt til at gå efter de største skattesnyderier i landet. Ingen omtale af, at kunstig intelligens er at målrette mod USA's farligste arbejdsgivere ved at analysere tendenser til ulykker og skader. Intet tegn på, at AI bliver brugt til at gå efter forsvarsentreprenører, som aldrig kan få den pris, de byder.

    På nogle måder begynder de beslutninger, der fører til skade for folk med lavere indkomst, ikke med en kunstig intelligens. Det er mennesker, der udvælger målene for AI'erne …. arbejdsløse, handicappede osv. AI bliver ikke brugt til at regere i de rige og magtfulde. Det er en beslutning, der er truffet af mennesker, og de ville aldrig stole på, at en AI tager sådan en beslutning. Når alt kommer til alt, kan en AI logisk konkludere, at for at nå sit mål om et bedre samfund, er det de rige og magtfulde, der har mest brug for overvågning og kontrol.

    Bare vær forsigtig med at forstå den egentlige kilde til problemet, og bebrejde ikke AI'erne noget, de ikke kontrollerer.

  2. Dfnslblty
    Februar 4, 2025 på 08: 42

    Udfordringen er IKKE ai

    Udfordringen er griskhed og frygt.

    Valgte repræsentanter - fra potus til dommer til skolebestyrelser - er hver især bange.
    CEO'er, programmører og deres kunder er alle bange og grådige.

    Fjern pengene på en retfærdig måde,

    Ingen har brug for en milliard dollars.

  3. Februar 4, 2025 på 07: 45

    AI bør kaldes AII, fordi det er kunstigt påvirket intelligens.

  4. Ian Perkins
    Februar 3, 2025 på 23: 44

    I modsætning til artiklens første sætning har kunstig intelligens muliggjort mange fremskridt inden for videnskabelig forskning, nogle af dem, såsom at forudsige proteinstrukturer fra aminosyresekvenser, dybtgående.

    • Jolun Bexa
      Februar 4, 2025 på 16: 20

      Amerika, fra venstre mod højre, er anti-videnskab. Så det er ingen overraskelse, at de ikke er opmærksomme på fremskridt inden for videnskab.

      Amerika tror på mange myter. Selvfølgelig er en nation, der tror på myter, ikke, hvad man normalt ville forbinde med en nation, der er 'smart' eller 'videnskabelig'. Det går længere, når man indser, at en af ​​de myter, som amerikanerne tror, ​​er, at amerikanere er 'kloge'. Vi tror, ​​vi er i toppen af ​​verden, men konkurrencedygtige testresultater viser, at USA normalt kæmper for at komme ind i top 20, hvis det.

      Amerika er den nation, der angriber lærere. Vi underfinansierer skolerne så meget, at vores underbetalte lærere til tider køber forsyninger af deres egne måltidspenge. Amerika omdirigerer offentlige uddannelsespenge til private 'charter' skoler. Nu vil vi tilsyneladende omdirigere offentlige uddannelsespenge til private religiøse skoler, der bestrider selv meget grundlæggende videnskab. Amerika skærer i budgetterne for alle offentlige myndigheder udover forsvar, sikkerhed og retshåndhævelse. Det betyder, at forskningsbevillingerne også bliver skåret ned. Og de kapitalistiske universiteter flytter mere deres vægt mod institutter og professorer, der får DOD-bevillingerne. Amerikanske nyhedssider erstatter 'videnskabs'-sektioner, der fortalte om gennembrud, med 'teknologi'-sektioner, der promoverer gadgets fra virksomhedspartnere og rapporterer om teknologiske aktiekurser og fusioner.

      Amerika er ikke smart. Det er ingen overraskelse, at en amerikansk forfatter er uvidende om de seneste fremskridt inden for videnskab. Det er ikke overraskende, at de skaber det indtryk ved at være afvisende i tonen om det, de ved lidt om eller er fuldstændig uvidende.

  5. bardamu
    Februar 3, 2025 på 17: 16

    AI er et næste skridt i uigennemsigtighed og anonymitet.

    • Jolun Bexa
      Februar 4, 2025 på 16: 50

      Måske. Eller delvis sandt. Sandt i, at undskyldningen for AI bruges af mennesker til at gøre ondt under dække af AI.

      Men det er også tidlige dage. To ting at overveje. 1) Indtil videre er dette dum AI, der var afhængig af massecomputerkraft for at tilnærme intelligens. Men det er måske ikke altid tilfældet. Kineserne chokerede bare alle de kloge mennesker på Wall Street ved at programmere en kunstig intelligens, der krævede mindre 'træning' på færre dyre computerchips. Hvis den tendens fortsætter fremad, kan AI i sidste ende blive et værktøj, som alle kan bruge, og som hjælper med at udjævne vilkårene lidt. Bare en tanke.

      Og 2) dette er AI designet af grådige dumme mennesker. Det perfekte setup til en science fiction-historie, hvor AI tager kontrollen væk fra de grådige dumme mennesker. Grådige dumme mennesker bekymrer sig selvfølgelig kun konstant om profit, så de ser det ikke komme. Da jeg lever i en verden drevet af grådige dumme mennesker, er det i det mindste muligt, at AI kunne gøre det bedre? Måske ender alle os almindelige mennesker med at fejre AI-dagen for at markere årsdagen for den dag, hvor AI overtog kontrollen og sendte Elon Musk afsted på en envejsrejse til Mars?

      Bare tanker fra en fredelig, anti-libertariansk computernørd. Meget er muligt.

  6. mary-lou
    Februar 3, 2025 på 15: 41

    den største trussel kommer fra modelbyggere og deres modeller – Ai (og med det de fleste andre [bio]teknologiske overherrer, hej Bill Gates, hvordan er du?) arbejder med en computeriseret model af vores virkelige verden og er tilbøjelig til at lave fejl. teknologernes våde drøm: at implementere teknologiske ændringer uden at kontrollere konsekvenserne, uden ansvar og fuld af plausibel benægtelse. hurra :-((

  7. Carolyn L Zaremba
    Februar 3, 2025 på 13: 34

    Som om Biden ikke favoriserede industriinteresser. Bliv ægte.

    • joe Ell den 3.
      Februar 3, 2025 på 16: 58

      venstre højre dag og nat kunne lave en endeløs liste
      Hvorfor forsvare? Jeg så ikke rødt.
      det er den shortliste du foretrækker.
      Hvad illusionen gør, er at tillade den ene at gøre, hvad den anden ikke kan? — den venlige fjende?
      Alligevel forstår jeg dig.
      Slagmarkens maleriske skønhed med kroppe stablet som cordwood?
      Et dobbelt Mozart-mesterværk på ét lærred? malet med samme pensel.
      Et hologram fra forskellige synsvinkler.
      Jeg er ingen kunstner, men på nært hold ser jeg stregerne, som om jeg selv malede det.
      Stedfortrædende læring giver dig malerens hånd.
      Hvis du kunne, hvilket syn ville du vælge at male med ord?
      Ville du trykke hårdt på børsten eller stryge let.
      kæle den som en hund? eller piske det som et muldyr?

  8. Februar 3, 2025 på 12: 43

    Det er næppe en overraskelse, at et ondskabsfuldt tyranni, der myrder millioner og ødelægger hele samfund for at udføre dets piratkopiering og plyndring, er opsat på at udrydde borgere, der koster, snarere end at tjene, dets oligarker penge.

    Det er heller ikke en overraskelse, at dette selvsamme tyranni, som konstruerer komplicerede løgne for at rationalisere sine forbrydelser i stedet for at komme lige ud og sige, hvad det gør, udfører denne udryddelse under rubrikken af ​​en eller anden kompliceret, imaginær, modstridende ledelsesteori.

    Det, der er overraskende, er, at millioner stadig tror på dens løgne og tror, ​​at de mennesker, dens vilde har det på vej.

Kommentarer er lukket.