Artificiell intelligens straffar låginkomstamerikaner

aktier

Med AI påverkar riskerna för felaktigt tillämpade policyer, kodningsfel, partiskhet eller grymhet massor av människor från flera tusen till miljoner åt gången, skriver Kevin De Liban.

Matbankstam i Houston, 2017. (USDA Foto av Lance Cheung, Flickr, Public domain)

By Kevin De Liban
Inequality.org

The miljarder dollar hälls i artificiell intelligens (AI) har inte levererat på teknikens utlovade revolutioner, som bättre medicinsk behandling, avancerar in vetenskaplig forskningeller ökat arbetarens produktivitet.

Så, AI-hypetåget förmedlar det underväldigande: lite smartare telefoner, textuppmanad grafik och snabbare rapportskrivning (om AI inte har gjort det hittade på saker). Samtidigt finns det en mörk undersida av tekniken som inte nämns av AI:s karnevalsbarkare – den utbredda skada som AI för närvarande orsakar låginkomsttagare. 

AI och relaterad teknik används av regeringar, arbetsgivare, hyresvärdar, banker, utbildare och brottsbekämpande myndigheter för att felaktigt skära ned vård i hemmet för funktionshindrade, anklaga arbetslösa arbetare för bedrägeri, neka människor bostäder, sysselsättning, eller kredit, ta barn från kärleksfulla föräldrar och sätta dem i fosterhem, intensifiera våld i hemmet och sexuella övergrepp eller trakasserier, märka och misshandla mellan- och gymnasiebarn som sannolikt bortfall or brottslingaroch anklagar falskt Svarta och bruna människor av brott.

Allt som allt har 92 miljoner låginkomsttagare i USA – de med inkomster mindre än 200 procent av den federala fattigdomsgränsen – någon nyckelaspekt av livet som AI beslutat, enligt en ny rapport från TechTonic Justice. Denna förändring mot AI-beslutsfattande medför risker som inte finns i de människocentrerade metoder som föregår dem och trotsar alla befintliga ansvarsmekanismer.

För det första utökar AI omfattningen av risker långt bortom enskilda beslutsfattare. Visst, människor kan göra misstag eller vara partiska. Men deras räckvidd är begränsad till de personer de direkt fattar beslut om. I fall av hyresvärdar, direkta arbetsledare eller statliga handläggare, kan det toppa på några hundra personer.

Men med AI centraliseras riskerna för felaktigt tillämpade policyer, kodningsfel, partiskhet eller grymhet genom systemet och tillämpas på massor av människor från flera tusen till miljoner åt gången.

För det andra är användningen av AI och skälen till dess beslut inte lätt kända av de personer som är föremål för dem. Statliga myndigheter och företag har ofta ingen skyldighet att bekräfta att de använder AI. Och även om de gör det kanske de inte avslöjar den nyckelinformation som behövs för att förstå hur systemen fungerar.

För det tredje, den förmodade sofistikeringen av AI ger en mantel av rationalitet åt politiska beslut som är fientliga mot låginkomsttagare. Detta banar väg för ytterligare genomförande av dålig politik för dessa samhällen.

Förmånsnedskärningar, som t.ex de till hemtjänst som jag kämpade emot för funktionshindrade, maskeras som objektiva behovsbestämningar. Eller arbetsplatsledning och övervakningssystem som undergräva de anställdas stabilitet och säkerhet passera som verktyg för att maximera produktiviteten. För att åberopa ordspråket använder AI-vargar fåravatarer.

AI:s skala, opacitet och kostym gör skadliga beslut svåra att bekämpa på individuell nivå. Hur kan du bevisa att AI hade fel om du inte ens vet att den används eller hur den fungerar?

AOch även om du gör det, kommer det att spela någon roll när AI:s beslut backas upp av påståenden om statistisk sofistikering och giltighet, oavsett hur tveksamt?

Artificiell intelligens & AI & maskininlärning. (Mike MacKenzie, bild via www.vpnsrus.com, CC BY 2.0)

På en bredare nivå begränsar inte befintliga ansvarsmekanismer skadlig AI. AI-relaterade skandaler i allmännyttiga system har inte förvandlats till politiska skyldigheter för de guvernörer som ansvarar för misslyckade Medicaid or Arbetslöshetsförsäkring system i Texas och Florida, till exempel. Och byråns tjänstemän som direkt implementerar sådana system skyddas ofta av de valda tjänstemännen vars agenda de verkställer.

Inte heller den marknadsdisciplin som egensinnig AI använder mot låginkomsttagare. En stor utvecklare av behörighetssystem för statliga Medicaid-program har säkrat 6 miljarder dollar i kontrakt även om dess system har misslyckats på liknande sätt i flera tillstånd.

Likaså en stor datamäklare hade inga problem att vinna kontrakt med den federala regeringen även efter att ett säkerhetsbrott avslöjat personlig information om nästan 150 miljoner amerikaner.

Befintliga lagar brister på samma sätt. Utan någon meningsfull AI-specifik lagstiftning måste människor tillämpa befintliga rättsliga anspråk på tekniken. Vanligtvis baserat på lagar mot diskriminering eller procedurkrav som att få adekvata förklaringar för beslut är dessa anspråk ofta tillgängliga först efter att skadan har inträffat och erbjuder begränsad lindring.

Även om sådana rättegångar har haft viss framgång, är de ensamma inte svaret. När allt kommer omkring är rättegångar dyra, låginkomsttagare har inte råd med advokater och högkvalitativ, kostnadsfri representation tillgänglig via rättshjälpsprogram kanske inte kan möta efterfrågan.

Just nu fattar oansvariga AI-system obestridliga beslut om låginkomsttagare i outgrundliga skalor. Federala beslutsfattare kommer inte att göra saker bättre.

Trump-administrationen snabbt upphävt skyddande AI-vägledning som president Joe Biden utfärdade. Och, med Trump och kongressen som gynnar industriintressen, är kortsiktiga lagstiftningsåtgärder osannolika.

Ändå betyder det inte att allt hopp är ute. Samhällsbaserat motstånd har länge underblåst social förändring. Med ytterligare stöd från filantropin och det civila samhället kan låginkomstsamhällen och deras förespråkare bättre motstå de omedelbara skadorna och bygga politisk makt som behövs för att uppnå långsiktigt skydd mot AI:s härjningar.

Organisationer som min, TechTonic Justice, kommer att stärka dessa frontlinjegemenskaper och förespråkare med stridstestade strategier som inkluderar rättstvister, organisering, offentlig utbildning, berättande förespråkande och andra dimensioner av förändringsarbete.

I slutändan är kamp från grunden vårt bästa hopp för att få bukt med AI-relaterade orättvisor.

Kevin De Liban är grundaren och presidenten TechTonic Justice, en ny organisation som kämpar tillsammans med låginkomsttagare som lämnats efter av artificiell intelligens.

Denna artikel om från Inequality.org.

Synpunkter som uttrycks i den här artikeln och kanske eller kanske inte återspeglar de från Nyheter om konsortiet.

11 kommentarer för “Artificiell intelligens straffar låginkomstamerikaner"

  1. Jolun Bexa
    Februari 4, 2025 vid 15: 21

    Lägg märke till hur systemet fungerar …. inget omnämnande av att AI används för att gå efter de största skattefusken i landet. Inget nämnt att AI är att rikta in sig på USA:s farligaste arbetsgivare genom att analysera olycks- och skadetrender. Inget tecken på att AI används för att gå efter försvarsentreprenörer som aldrig kan få det pris de bjuder.

    På vissa sätt börjar inte de beslut som leder till skada för människor med lägre inkomster med en AI. Det är människor som väljer målen för AI:erna... arbetslösa, funktionshindrade, etc. AI används inte för att regera i de rika och mäktiga. Det är ett beslut som tas av människor, och de skulle aldrig lita på en AI för att fatta ett sådant beslut. När allt kommer omkring kan en AI logiskt dra slutsatsen att för att uppnå sitt mål om ett bättre samhälle är det de rika och mäktiga som mest behöver tillsyn och kontroller.

    Var bara noga med att förstå den verkliga källan till problemet, och skyll inte på AI:erna för något de inte kontrollerar.

  2. Dfnslblty
    Februari 4, 2025 vid 08: 42

    Utmaningen är INTE ai

    Utmaningen är girighet och rädsla.

    Förtroendevalda – från potus till domare till skolstyrelser – är alla rädda.
    VD:ar, programmerare och deras kunder är alla rädda och giriga.

    Ta bort pengarna på ett rättvist sätt,

    Ingen behöver en miljard dollar.

  3. Februari 4, 2025 vid 07: 45

    AI borde kallas AII eftersom det är artificiellt påverkad intelligens.

  4. Ian Perkins
    Februari 3, 2025 vid 23: 44

    I motsats till artikelns första mening har artificiell intelligens möjliggjort många framsteg inom vetenskaplig forskning, några av dem, som att förutsäga proteinstrukturer från aminosyrasekvenser, djupgående.

    • Jolun Bexa
      Februari 4, 2025 vid 16: 20

      Amerika, från vänster till höger, är antivetenskap. Så det är ingen överraskning att de inte ägnar någon uppmärksamhet åt framsteg inom vetenskapen.

      Amerika tror på många myter. Naturligtvis är en nation som tror på myter inte vad man normalt skulle associera med en nation som är "smart" eller "vetenskaplig". Det går längre när man inser att en av myterna som amerikaner tror är att amerikaner är "smarta". Vi tror att vi är i toppen av världen, men konkurrenskraftiga testresultat visar att USA vanligtvis kämpar för att komma in bland de 20 bästa, om så är fallet.

      Amerika är nationen som attackerar lärare. Vi underfinansierar skolorna så att våra underbetalda lärare ibland köper förnödenheter från sina egna måltidspengar. Amerika avleder offentlig utbildning pengar till privata "charter" skolor. Nu kommer vi tydligen att avleda offentliga utbildningspengar till privata religiösa skolor som bestrider till och med mycket grundläggande vetenskap. Amerika skär ner budgetarna för varje statlig myndighet förutom försvar, säkerhet och brottsbekämpning. Det innebär att forskningsanslagen också skärs ned. Och de kapitalistiska universiteten flyttar sin tyngdpunkt mer mot institutioner och professorer som får DOD-anslag. Amerikanska nyhetssajter ersätter "vetenskapliga" sektioner som berättade om genombrott med "teknologiska" sektioner som marknadsför prylar från företagspartners och rapporterar om tekniska aktiekurser och fusioner.

      Amerika är inte smart. Det är ingen överraskning att en amerikansk författare är omedveten om de senaste framstegen inom vetenskapen. Ingen överraskning att de skapar det intrycket genom att vara avvisande i tonen om det som de vet lite om eller är helt okunniga.

  5. bardamu
    Februari 3, 2025 vid 17: 16

    AI är nästa steg i opacitet och anonymitet.

    • Jolun Bexa
      Februari 4, 2025 vid 16: 50

      Kanske. Eller delvis sant. Sant i det att ursäkten för AI används av människor för att göra ont under täckmantel av AI.

      Men det är också tidiga dagar. Två saker att tänka på. 1) Hittills är detta dum AI som förlitade sig på massdatorkraft för att approximera intelligens. Men det kanske inte alltid är fallet. Kineserna chockade precis alla smarta människor på Wall Street genom att programmera en AI som krävde mindre "träning" på färre dyra datorchips. Om den trenden fortsätter och framåt kan AI så småningom bli ett verktyg som alla kan använda och som hjälper till att jämna ut spelplanen lite. Bara en tanke.

      Och 2) detta är AI designad av giriga dumma människor. Den perfekta inställningen till en science fiction-historia där AI:n tar kontrollen från de giriga dumma människorna. Giriga dumma människor oroar sig förstås bara konstant för vinst, så de ser det inte komma. Eftersom jag lever i en värld som drivs av giriga dumma människor, är det åtminstone möjligt att AI skulle kunna göra det bättre? Kanske alla vi vanliga människor slutar med att fira AI-dagen för att markera årsdagen av den dag då AI tog kontroll och skickade iväg Elon Musk på en enkelresa till Mars?

      Bara tankar från en fridfull, anti-libertarian datornörd. Mycket är möjligt.

  6. mary-lou
    Februari 3, 2025 vid 15: 41

    det största hotet kommer från modellbyggare och deras modeller – Ai (och med det de flesta andra [bio]tech-överherrar, hej Bill Gates, hur mår du?) arbetar med en datoriserad modell av vår verkliga värld och är benägen att göra misstag. teknikernas våta dröm: att genomföra tekniska förändringar utan att kontrollera konsekvenserna, utan ansvar och full av rimlig förnekelse. hurra :-((

  7. Carolyn L Zaremba
    Februari 3, 2025 vid 13: 34

    Som om Biden inte gynnade industriintressen. Bli verklig.

    • joe Ell den 3:e
      Februari 3, 2025 vid 16: 58

      vänster höger dag och natt kan göra en oändlig lista
      Varför försvara? Jag såg inte rött.
      det är den kortlista du föredrar.
      Vad illusionen gör är att tillåta en att göra vad den andra inte kan? — den vänliga fienden?
      Ändå förstår jag dig.
      Slagfältets pittoreska skönhet med kroppar staplade som cordwood?
      Ett dubbelt Mozart-mästerverk på en duk? målad med samma pensel.
      Ett hologram från olika synvinklar.
      Jag är ingen konstnär men på nära håll ser jag strecken som om jag målade den själv.
      Vicarious learning ger dig målarnas hand.
      Om du kunde, vilken syn skulle du välja att måla med ord?
      Skulle du trycka hårt på borsten eller stryka lätt.
      Pet det som en hund? eller piska den som en mula?

  8. Februari 3, 2025 vid 12: 43

    Det är knappast en överraskning att ett ondskefullt tyranni som mördar miljoner och demolerar hela samhällen för att utföra sin piratkopiering och plundring är angelägen om att utrota medborgare som kostar, snarare än att tjäna, dess oligarker pengar.

    Det är inte heller en överraskning att detta samma tyranni, som konstruerar utarbetade lögner för att rationalisera sina brott snarare än att komma rakt ut och säga vad det gör, genomför denna utrotning under rubriken av någon komplicerad, imaginär, motsägelsefull ledningsteori .

    Vad som är förvånande är att miljoner fortfarande tror på dess lögner och tror att de människor som det är vildar har det på väg.

Kommentarer är stängda.