Vetenskap & Hälsa

Vetenskap & hälsa

Om farorna med superintelligens

2021-11-05
bilden illustrerar en framtida apokalyps. I bakgrunden ses ruinen av ett flervåningshus och i förgrunden en krigisk robot.
Bild: iStock/mikkelwilliam

Artificiell intelligens används och gör redan nytta inom flera olika områden, det har vi många exempel på i den här tidningen. Samtidigt har flera kända forskare, bland annat fysikern Stephen Hawking, varnat för riskerna med en superintelligent AI som skulle kunna ta över och utplåna mänskligheten.

Porträttbild av Kalle Åström. Han har grått kortklippt hår, rektangulära glasögon med mörka bågar och är klädd i vit skjorta, mörkblå slips och grå kavaj.
Karl (Kalle) Åström, professor i matematik vid LTH, Lunds universitet. Foto: Apelöga

Vetenskap & hälsa har frågat Kalle Åström, professor i matematik vid Lunds universitet, vad han anser om farorna.

– Det finns risker med all AI, även den snäva, säger Kalle Åström som forskar inom datorseende och maskininlärning.

Som exempel nämner han faran med hur multinationella företag hanterar persondata, vilket hotar den personliga integriteten, och att AI kan bidra till maktkoncentration. Eller faran om AI:n tränas med fel data, vilket i förlängningen kan leda till ökad diskriminering. För att det som Stephen Hawking varnade för ska kunna inträffa krävs smartare AI, generell AI som ett första steg mot så kallad artificiell superintelligens.

Svårt att formulera livets mening

– Mänskligheten kan få stor nytta av generell AI men den stora frågan är hur vi ska försäkra oss om att den inte utplånar oss. Vi och AI:n måste vara överens om vad som är AI:ns övergripande mål. Det måste vara att alltid verka för det som är bra för mänskligheten. Men att formulera ett sådant mål, som alltid gynnar oss i alla lägen, är mycket svårt. För vad är meningen med livet? Och hur kan vi gardera oss mot att det uppstår situationer som vi inte har tänkt på och där AI:n kan kringgå det formulerade målet?

Samtidigt som det är mycket svårt att formulera mål för något som ännu inte existerar, är det av yttersta vikt att ha en lösning på plats innan den generella AI:n har blivit verklighet. Här kan forskning kring så kallad alignment spela en viktig roll. Alignment handlar om att se till att den allra första superintelligenta maskinen som utvecklas har mål och drivkrafter som gynnar mänskligheten och är i linje med den framtid vi vill ha.

Inom kort eller betydligt längre tid

– Jag är optimistisk och tror att vi kommer att lösa det. Men för att vi ska göra det behövs mer forskning och mer resurser behöver satsas på AI-alignment, säger Kalle Åström och fortsätter:

– De mest optimistiska rösterna talar om en generell AI inom tio år men det tror jag är för tidigt. Jag uppskattar att det kommer att ta betydligt längre tid. Kanske 30 eller 40 år, men det kan ta betydligt längre tid. Oavsett när det inträffar måste vi ha en lösning på plats som hindrar AI:n från att ta över.

Text: EVA BARTONEK ROXÅ