Vetenskap & Hälsa

Vetenskap & hälsa

AI kan både hjälpa och stjälpa förtroendet för vården

2021-11-05

Med AI får läkare ett kraftfullt och tidsbesparande beslutsstöd. Men läkaren bör också förstå och kunna förklara datorns beslut för patienten, annars kan tilliten äventyras. Viktigt är också vilka data AI:n lärs upp med, så att vi inte förstärker dagens orättvisor.

Bild på Stefan Larsson i halvfigur. Han står halvvänd mot kameran med korsade armar. Han har brunt kortklippt hår, runda glasögon med mörka bågar och är klädd i mörkblå kavaj och en ljuspullover
– Det tycks krävas ett flervetenskapligt förhållningssätt för att bygga bra AI-produkter, menar Stefan Larsson. Foto: Sara Arnald

Stefan Larsson är forskare vid Lunds tekniska högskola inom området teknik och social förändring och intresserar sig speciellt för hur autonoma, det vill säga självständiga och självlärande beslutssystem, påverkar samhället och individen. Han driver och deltar i flera projekt, varav några har koppling till medicin. I dessa väger forskare nytta mot risker när AI ska upptäcka tumörer på digitala röntgenbilder, välja behandling vid akut bröstsmärta och dra slutsatser ur omfattande register om människors hälsa.

Nyckelfrågor är tillförlitlighet, transparens, representativitet, ansvarsfördelning och tillit. Målet är att komplettera människans goda sidor med maskinens supersökförmågor.

Bygger på tillit

En fråga som ligger Stefan Larsson varmt om hjärtat är tillit och människors upplevelser. Inte minst i vårdsektorn är tillit ett nyckelbegrepp.

– Hela upplägget bygger på tillit. Patienten, som ofta befinner sig i en väldigt svag och utsatt position, tillåter behandlingar och ingrepp som kan upplevas väldigt inkräktande och som utförs av personer som på grund av sin profession befinner sig i en stark position. Patienten behöver inte nödvändigtvis förstå grunderna till alla beslut, men det kräver en grundläggande tillit i vårdupplägget och till läkarens kompetens och bedömningsförmåga, säger Stefan Larsson.

Äventyras tilliten när verktygen successivt blir än mer svårbedömda för vanligt folk? Här pågår mycket forskning. Enligt Stefan Larsson behöver kanske inte varje patient förstå vad som ligger bakom varje datorgenererad rekommendation, men det blir ändå viktigt att hen har förtroende för läkaren.

– Transparens är ett element i förtroendebyggandet. Vi försöker förstå var i processen det är viktigast med transparens, förklarbarhet i ett enskilt besluts motiv eller granskningsbarhet i hela systemet?

När det gäller externa granskningar lär de blir fler framöver, åtminstone inom offentlig sektor, tror Stefan Larsson. Sådana blir lättare att genomföra ju mer digitaliserade besluten blir samtidigt som metoderna för att finna mönster blir kraftfullare. Som en följd kan kritiken mot etablerade eller tidigare sätt att ta beslut inom vården komma att öka, spår han.

Social bias

En annan återkommande fråga i dessa och andra projekt är partiskhet, eller ”social bias”, som begreppet kommit att kallas. Medvetenheten om denna risk för systematisk snedvridning i relation till AI och maskininlärning är förhållandevis ny, enligt Stefan Larsson.

Det var bara för fyra år sedan en amerikansk studie kom fram till att kommersiella mjukvaror för ansiktsigenkänning visade sig fungera mycket mer precist om ansiktet hörde till en vit man jämfört med en mörkhyad kvinna.

En annan studie har visat att mjukvara för att upptäcka hudcancer fungerar bättre på ljus än mörk hy. En tredje har visat hur amerikanska domstolars användande av en riskbedömningsalgoritm på felaktiga grunder per automatik bedömde risken för återfallsförbrytelser vara högre bland afroamerikaner än vita amerikaner.

– Dessa studier har bidragit till att etiska, kulturella och samhällsvetenskapliga frågor vävs in i ett tidigare skede. Det går inte längre att i slutfasen komma på att, ”just det, det vore bra med en etiker i projektet”. Det tycks krävas ett flervetenskapligt förhållningssätt för att bygga bra AI-produkter. Speciellt de som tillämpas i ett samspel med samhällsstrukturer.

Kan förstärka orättvisor

I takt med att program blir allt bättre på att spegla någorlunda rättvisande, hur verkligheten ser ut, uppstår nästa problem: Vill vi reproducera skevheter i samhället, även om de råkar vara korrekta? Vill vi ha riktade jobbannonser om högavlönade jobb till män som ju oftare söker högavlönade jobb och har högre lön? Konsekvensen av en korrekt spegling av sakernas tillstånd blir att AI inte bara speglar orättvisor, utan rentav riskerar att förstärka dem.

– Det är knepigare, eller en fråga av en annan karaktär. Det är en normativ fråga som inte bör lämnas till tekniska utvecklare utan i stället komma in tidigare i utvecklingsprocessen. De som utvecklar nya produkter måste börja fundera på vilken typ av samhälle de vill bidra till.

Text: KRISTINA LINDGÄRDE