Opinion

Andrew Yang: Artificiell intelligens hotar inte i sig

Utan avgör vem som får makt över arbete och politik, staten kallar det säkerhet och bygger licensplikt som gynnar karteller medan öppna verktyg gör individer farligt produktiva

Bilder

Extended interview: Andrew Yang reflects on 2020 campaign and warns of looming AI consequences Extended interview: Andrew Yang reflects on 2020 campaign and warns of looming AI consequences cbsnews.com
Mark Cuban said people who use AI either use it to learn everything or to avoid learning.
                            
                              Tom Williams/CQ-Roll Call, Inc via Getty Images Mark Cuban said people who use AI either use it to learn everything or to avoid learning. Tom Williams/CQ-Roll Call, Inc via Getty Images businessinsider.com

Andrew Yang är tillbaka på sin gamla käpphäst – varningen för att artificiell intelligens kommer att möblera om både arbetslivet och politiken – men den mer intressanta frågan är inte om tekniken är ”farlig”. Frågan är: farlig för vem.

I en längre intervju med CBS återvänder Yang till sina argument från presidentvalskampanjen 2020: att automatisering och artificiell intelligens kommer att slå ut arbetstillfällen snabbare än att institutionerna hinner ställa om. Han gör samtidigt reklam för en ny bok om sina politiska erfarenheter. Den washingtonska versionen av berättelsen är förutsägbar: ”Artificiell intelligens är på väg, alltså måste staten agera.”

Ett bättre lackmustest är mer obekvämt: blir artificiell intelligens en produktivitetsförstärkare för enskilda människor, eller ett verktyg för licenser och karteller i institutionernas händer?

Affärstidningen Business Insider, med hänvisning till Mark Cuban, fångar vägskälet kärnfullt. Cuban säger att det finns ”två typer” av användare av stora språkmodeller: de som använder artificiell intelligens för att ”lära sig allt”, och de som använder den för att ”slippa lära sig något”. Det är inte bara en självhjälpssentens; det är en maktteori. Om tekniken gör en kompetent individ dramatiskt mer kapabel – snabbare efterforskningar, bättre texter, billigare prototyper – då sprids hävstången ut. En skarp aktör kan göra sådant som förr krävde en hel avdelning.

Men om artificiell intelligens blir en krycka som avkvalificerar användare, då koncentreras makten till de organisationer som kontrollerar modellerna, beräkningskraften, spridningen och efterlevnaden. Dagordningen om ”säker” artificiell intelligens – ofta presenterad som välvillig riskhantering – kan lätt bli en regleringsvallgrav: obligatoriska granskningar, registrering av modeller, kontrollerad åtkomst och ansvarssystem som små aktörer inte har råd med. Utfallet är välbekant: en handfull godkända leverantörer, ett ”ansvarsfullt” gränssnitt och ett ständigt övervakat tillstånd att förnya.

Yang dras instinktivt mot nationella program – mest känt medborgarlön – eftersom han läser omvälvningen som ett samhällsproblem som kräver samhälleliga motåtgärder. Men byråkratier reagerar på tekniska chocker genom att skydda dem som redan sitter säkert, inte genom att maximera människors handlingsfrihet. När samma institutioner som knappt förmår leverera fungerande digitala tjänster lovar att certifiera vilka modeller som är ”säkra”, skriver ironin sig själv. Den svenska parallellen är lätt att se: när myndigheter som kämpar med sina egna it-system vill bli grindvakter för nästa tekniksprång.

Den verkliga skiljelinjen går inte mellan för och emot artificiell intelligens, utan mellan öppet och inhägnat. Öppna verktyg låter människor lära, bygga och konkurrera. Inhägnade verktyg – inslagna i regeluppfyllelse, påbjudna märkningar och ”missbruksregler” som upprätthålls av centraliserade plattformar – gör tekniken till en kontrollerad nyttighet.

Cubans dikotomi handlar i grunden om karaktär: använder du maskinen för att vidga din kompetens, eller för att lägga ut den på entreprenad? Men den politiska ekonomin handlar om drivkrafter: låter vi människor äga och köra kraftfulla modeller, eller bygger vi ett system där du bara får tillgång till intelligens som en tjänst – uppmätt, övervakad och återkallelig?

Om Yang har rätt i att artificiell intelligens kommer att störa allt, då blir striden om vem som får använda den fritt också striden om huruvida nästa produktivitetsboom tillfaller medborgarna – eller den legitimerade klass som lovar att förvalta den åt dem.