Det farliga med AI är människan
Share
AI-utvecklingen går i ett tempo som gör att många inte hinner med. Nya modeller släpps, nya användningar dyker upp, och gränsen mellan experiment och samhällsinfrastruktur blir allt suddigare.
Samtidigt växer en oro: att det här kan bli vår tids största systemskifte, och att vi inte längre vet vem som faktiskt styr utvecklingen, eller vem som tar ansvar när det går fel.
Thabo Motsieloa satte sig ner med Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet, för att prata mindre om domedagsscenarier och mer om den konkreta maktfrågan bakom tekniken.
Det är lätt att prata om AI som om vi stod inför ett plötsligt teknikskifte som “händer” med oss. Som om framtiden redan var skriven.
Professor Virginia Dignum vill vända på perspektivet. Hon forskar om ansvarsfull AI vid Umeå universitet och leder AI Policy Lab, med ett ben i forskningen och ett i policyvärlden. Hon sitter också i FN:s High-Level Advisory Body on AI och arbetar nära frågor om styrning och ansvar.
I Zeitgeist Sweden pratar hon mindre om science fiction och mer om vardag: hur AI-system redan påverkar beslut om allt från information och uppmärksamhet till resurser, riskbedömningar och möjligheter i samhället.
En av hennes återkommande poänger är att den stora risken inte är att AI “vaknar”, utan att människor och organisationer använder AI för att flytta makt, ansvar och kontroll. (RISE)
“Skräp in, skräp ut” – och konsekvenserna blir mänskliga
I grunden handlar mycket om data. Stora språkmodeller och andra AI-system tränas på enorma mängder material. Det gör dem kraftfulla, men också sårbara: systemet lär sig mönster från historien, inklusive våra blinda fläckar.
Det märks extra tydligt när AI används i miljöer där fel slår hårt. Ett ofta diskuterat exempel är riskbedömningsverktyget COMPAS i USA, som ProPublica visade kunde ge systematiskt snedvridna utfall – bland annat genom att svarta personer oftare felaktigt flaggades som “hög risk”. Verktyget används som beslutsunderlag i rättssystemet, vilket gör att felaktigheter kan få verkliga konsekvenser.
Poängen här är inte att “AI är ond”, utan att den speglar och förstärker det den matas med, och att ansvar aldrig kan outsourcas till en modell.
Språk är inte förståelse
Dignum återkommer också till en mer grundläggande missuppfattning: att flytande språk lätt förväxlas med förståelse.
Språkmodeller kan vara imponerande på att skriva, sammanfatta och föreslå. Men de “vet” inte vad som är sant på samma sätt som en människa gör. De bygger sannolikheter utifrån mönster. Det gör dem användbara, men också riskabla att behandla som en auktoritet, ett slags facit.
När allt blir “standard”
En annan risk hon lyfter handlar om kultur och språk. Om systemen tränas mest på engelskspråkigt material från USA och Europa så kommer de också, nästan automatiskt, att bära med sig just den tyngdpunkten.
Det kan låta abstrakt, men effekten är konkret: små språk, lokala referenser, minoritetskulturer och alternativa perspektiv får sämre stöd, tunnare representation och lägre kvalitet. Det skapar en sorts standardisering av vad som känns “normalt” i text, ton, värderingar och exempel.
Jobben: mindre domedag, mer omställning
Dignum har länge argumenterat för att jobbdiskussionen ofta hamnar fel. Historiskt försvinner yrken och roller, nya uppstår, men omställningen drabbar ojämnt. Det är inte bara en teknikfråga, utan en fråga om utbildning, kompetens, trygghetssystem och vem som bär kostnaden när samhället ställer om.
Så vad gör man?
Dignums linje är inte “stoppa AI”, utan: sluta prata om AI som magi och börja behandla det som infrastruktur.
Det innebär bland annat:
- Att kräva ansvar och transparens där systemen används i känsliga sammanhang
- Att bygga och använda mer specialiserade modeller för tydliga ändamål, i stället för att tro att en modell passar allt
- Att investera i språk, data och kompetens som speglar fler än den största marknaden
- Att policy, lagstiftning och institutioner hänger med i den verkliga användningen, inte i reklambroschyren
Det är i den riktningen samtalet rör sig: bort från hype och skräck, mot den svårare frågan om styrning, ansvar och mänskliga värden.
Se hela avsnittet med Virginia Dignum i Zeitgeist Sweden:
STÖD PODDEN
Zeitgeist Sweden är en podcast som försöker förstå samtiden. Vi är oberoende och utan politiska agendor. Om du uppskattar det vi gör och vill att vi ska kunna fortsätta:
Dela avsnittet med någon som borde höra det
Prenumerera och slå på notiser
Lämna en kommentar – vi läser allt
Det går också bra att stötta via Swish på nr 123 302 74 89
Varje stöd, stort som litet, gör skillnad.