Teknik

USA och Israel genomför nästan 900 anfall mot Iran på tolv timmar

Nya målsystem med artificiell intelligens kortar vägen från underrättelse till avfyrning och Anthropic-modellen Claude uppges ingå i planeringen, ansvarskedjan splittras mellan operatör jurist leverantör och modellbolag när ett skolträffat anfall utreds

Bilder

Academics say AI is collapsing the time required for military decision-making. Photograph: Majid Asgaripour/Reuters Academics say AI is collapsing the time required for military decision-making. Photograph: Majid Asgaripour/Reuters theguardian.com
After OpenAI finalized its Pentagon contract, employees began sharing their views online.
                            
                                  
                              Florian Gaertner/Photothek via Getty Images After OpenAI finalized its Pentagon contract, employees began sharing their views online. Florian Gaertner/Photothek via Getty Images businessinsider.com

Under de första tolv timmarna av de amerikansk-israeliska angreppen mot Iran avfyrades nära 900 attacker, enligt The Guardian. Samtidigt varnar forskare för att nya system för målangivning med stöd av artificiell intelligens krymper tiden mellan att ett mål identifieras och att ett vapen avlossas. I samma rapportering uppges att Anthropics språkmodell Claude användes av USA:s militär i planeringen, som del av en bredare strävan att ”förkorta dödandekedjan” från underrättelse till juridiskt godkännande till insats.

Den stora förändringen är inte att maskiner på egen hand har börjat starta krig, utan att de nu kan föreslå kompletta anfallspaket snabbare än människor hinner granska dem ordentligt. The Guardian beskriver system som sammanför drönarfilm, avlyssnad kommunikation och mänskliga källor, rangordnar mål och rekommenderar vapen, samtidigt som de håller reda på lager, tillgång och tidigare utfall. Verktyg byggda av Palantir ska dessutom använda ”automatisk slutledning” för att bedöma den juridiska grunden för en attack. Därmed flyttas den mänskliga rollen från att bygga ett underlag till att kontrollera ett färdigt förslag — och just kontrollen är det som lättast pressas ihop när tempot skruvas upp.

Forskare som The Guardian citerar kallar detta ”beslutsförträngning”: ju snabbare systemet kan spotta ur sig trovärdiga planer, desto större blir trycket att godkänna dem snabbt, särskilt när motståndaren kan flytta resurser eller slå tillbaka inom minuter. David Leslie vid Queen Mary University of London varnar för ”kognitiv avlastning”, där den mänsklige beslutsfattaren känner mindre personligt ansvar eftersom det mödosamma analysarbetet redan tycks vara gjort någon annanstans.

Styrningsproblemet är att ansvaret splittras exakt när följderna koncentreras. Om en rekommendation med stöd av artificiell intelligens leder till ett katastrofalt misstag löper ansvarskedjan genom minst fyra aktörer: den militäre operatören som tryckte ”godkänn”, juristen som skrev under, leverantören som byggde ihop systemet och modellbolaget vars modellvikter formade svaret. Var och en kan med viss trovärdighet hävda att man bara var ett led i en process — ett klassiskt institutionellt upplägg där risker sprids medan konsekvenserna hamnar på en plats och i ett ögonblick.

Denna oklarhet krockar nu med den kommersiella politiken kring tillgång till modeller. Business Insider rapporterar att anställda och tidigare anställda på OpenAI offentligt debatterar företagets avtal med Pentagon: vissa kräver större öppenhet, andra hävdar att kontraktet innehåller starka begränsningar mot inhemsk massövervakning och helt självstyrande dödliga vapensystem. Sam Altman har sagt att OpenAI arbetar med Pentagon för att lägga till formuleringar efter kritik. Den interna striden handlar inte bara om etik, utan om vem som blir sittande med svartepetter när ett hemligstämplat system misslyckas inför offentligheten.

På lördagen uppgav iranska statliga medier att 165 personer, många barn, dödades när en robot träffade en skola i södra Iran, till synes nära en militärförläggning. Förenta nationerna kallade det en grov kränkning av den humanitära rätten, och USA:s militär sade att man undersökte uppgifterna. Attacken utreds nu efter att målangivningskedjan marknadsförts som snabbare än någonsin.