Bias i datasæt kan gøre kliniske risikomodeller upræcise – og det er et etisk problem

Sygdom og behandling 26. maj 2022 4 min Assistant Professor Kristin M. Kostick-Quenet Skrevet af Kristian Sjøgren

Risikomodeller bliver oftere og oftere benyttet til at risikovurdere patienter. Disse modeller er i stigende grad baseret på kunstig intelligens og machine learning-algoritmer, der virker ved brug af store datasæt for at lave forudsigelser. Men datasættene er ofte ikke dækkene, og derfor kan selve modellerne blive upræcise. Det er kendt for at udgøre både et klinisk og etisk problem, siger forsker.

Interesseret i Sygdom og behandling? Vi kan holde dig opdateret helt gratis

Kunstig intelligens er i færd med at omkalfatre sundhedssystemet, fordi algoritmer hjælper læger og patienter med at træffe livsvigtige beslutninger i forhold til valg af behandling.

Algoritmerne er dog ikke bedre end de data, som de er baseret på, og hvis der er bias i datasættene, kan der også komme det i algoritmernes anbefalinger.

Det repræsenterer ifølge et nyt studie et både klinisk, etisk og lovmæssigt dilemma.

”Hovedbudskabet er, at selvom der ikke ser ud til at være bias i et givent datasæt ved første øjekast, kan der godt forekomme race-bias længere opstrøms i de faktorer, der har indflydelse på, om bestemte patienter er inkluderet i disse datasæt. Dette kan dreje sig om kliniske eller sociale faktorer eller eksplicit bias fra sundhedsprofessionelle involveret i beslutninger vedrørende behandling. Der er ingen lovgivning, der pålægger udviklere af algoritmerne eller klinikerne at sikre, at datasættene er inkluderende og uden bias, og det gør, at brugen af algoritmerne i praksis kan være uetisk eller utilsigtet skadelig i det værst tænkelige tilfælde,” fortæller en af forskerne bag studiet, adjunkt Kristin M. Kostick-Quenet fra Baylor College of Medicine i Houston, Texas.

Forskningen er offentliggjort i The Journal of Law, Medicine, and Ethics.

Algoritmer spiller større rolle i kliniske beslutninger

Baggrunden for studiet er udviklingen af en algoritme, som hjælper personer med svært hjertesvigt at træffe beslutninger vedrørende at få indopereret en mekanisk hjertepumpe (LVAD).

Beslutningen er svær, fordi den mekaniske hjertepumpe både kan redde liv, men samtidig kommer med behov for at ændre visse aspekter af ens livsstil, som for nogle patienter kan påvirke deres selvopfattede livskvalitet. Eksempelvis er mange mennesker med en mekanisk hjertepumpe afhængig af hjemmehjælp, som kan påvirke deres følelse af uafhængighed og autonomi. Endvidere kan personen med en mekanisk hjertepumpe betragte det som en byrde resten af livet at gå rundt med et batteribælte og at være forsigtig i forhold til, om batteriet bliver afkoblet fra hjertepumpen med potentielt set fatale konsekvenser.

Algoritmen udnytter et væld af tilgængelige data på tidligere patienter, der har fået indopereret en LVAD, til at afgøre, om den enkelte patient er i høj risiko for at dø efter indsættelsen af hjertepumpen.

At kende til disse individuelle estimater kan ifølge Kristin M. Kostick-Quenet hjælpe læger og patienter med at træffe informerede beslutninger i forhold til at få indsat implantatet.

”Her er det vigtigt, at der i data bliver taget højde for potentiel bias, eksempelvis at mænd eller sorte måske har højere gennemsnitlig risiko for hjertesvigt end kvinder eller hvide. Da vi kiggede i den nationale database for LVAD, fandt vi, at der ikke var forskelle i LVAD-udfald ud fra race, og at blandt andet race ikke ser ud til at være en faktor i forhold til databias,” forklarer Kristin M. Kostick-Quenet.

Bias kan findes i dataindsamlingen

Ifølge Kristin M. Kostick-Quenet er det dog ikke hele historien.

Forfatterne til studiet argumenterer for, at undersøgelser af bias i datasæt kan være vildledende og dække over kilder til bias dybere i data, eksempelvis i forhold til hvem der modtager en LVAD til at starte med.

Som eksempel har forskning vist, at sorte har større risiko for at udvikle hjertesvigt. Altså kunne man forvente, at flere sorte får indopereret en mekanisk hjertepumpe.

Omvendt kan forskellige faktorer forhindre sorte i at blive betragtet som ”gode” kandidater til en LVAD. Det kan eksempelvis dreje sig om, at det er en forudsætning for at være kandidat til at få indopereret en hjertepumpe, at man har nogen til at tage sig af en i hjemmet. Derfor kan raceforskelle i forhold til hjemlige forhold bidrage til, at sorte sjældnere end hvide kommer i betragtning til en LVAD.

Kliniske faktorer spiller måske også en rolle i, hvor ofte sorte eller hvide får tilbudt en LVAD. Forskellige komorbiditeter er måske oftere forekommende hos sorte end hvide på grund af strukturelle eller andre opstrømsbetingelser, hvilket igen kan resultere i, at de sjældnere får tilbudt en LVAD.

”Når vi kigger opstrøms i datasættene, kan der godt være racemæssige forskelle i, hvem der bliver inkluderet i datasættene, så hvide i højere grad end sorte bliver inkluderet. Men der er ingen lovgivning på området til at sikre, at det bliver taget i betragtning, når algoritmer bliver udviklet og brugt i praksis,” siger Kristin M. Kostick-Quenet.

Repræsenterer ikke alle patienter

Det er ifølge Kristin M. Kostick-Quenet et problem, når algoritmer, der skal assistere i kliniske beslutninger, er mangelfulde, hvilket resulterer i manglende inklusion i datasættene.

Sat på spidsen og i eksemplet med den mekaniske hjertepumpe er det nødvendigt for patienterne at blive præsenteret for, hvad der vil ske, hvis de får indopereret en hjertepumpe, og hvad der vil ske, hvis de ikke gør.

Drejer det sig om en sort kvinde i 30'erne med svært hjertesvigt, er forudsigelser baseret på en risikoberegner, som ikke er bygget på data, der repræsenterer hendes demografi, nok næppe relevante.

”Altså er risikovurderingen måske ikke i stand til at tage personer som hende i betragtning. Men det er umuligt at vide, fordi patienter som hende måske aldrig bliver tilbudt en LVAD og ville aldrig blive inkluderet i datasæt til at dokumentere udfaldet af LVAD for hende. Forudsigelser, der er lavet på begrænsede eller ikke-repræsentative datasæt, er derfor muligvis ikke relevante for hende. Det er et både klinisk og etisk problem, at algoritmen på den måde måske ikke er lige god for alle,” siger Kristin M. Kostick-Quenet.

Ingen nem løsning

Kristin M. Kostick-Quenet mener, at studiet peger på et problem, som forskerne ikke selv har en let løsning på.

Fordi der ikke findes lovgivning, som pålægger givne personer at sikre, at der ikke er databias eller bare at prøve at løse problemet ved at kigge opstrøms i forhold til inklusiviteten i datasættene, er det også uklart både etisk og praktisk, hvem der faktisk skal holdes ansvarlige for at undersøge disse opstrømsfaktorer eller gøre folk opmærksomme på dem.

”Det hele drejer sig om at forstå de bredere samfundsfaktorer, der påvirker kvaliteten af data, hvilket har betydning for kvaliteten af de forudsigelser, som algoritmerne kan lave. Kigger man på datakvaliteten alene, kan det være misvisende, da det kan maskere kilderne til bias, som er er sværere at identificere og sværere at gøre noget ved. Udfordringen er at finde ud af, hvordan de algoritmer, som vi udvikler, åbner op for muligheder for at identificere disse gemte kilder til bias og så gøre noget ved det,”« siger Kristin M Kostick-Quenet.

Mitigating racial bias in machine learning” er udgivet i Journal of Law, Medicine & Ethics. Kristin M. Kostick-Quenet samarbejder med Timo Minssen, Professor, Det Juridisk Fakultet, Københavns Universitet. Han fik en bevilling i 2017 fra Novo Nordisk Fonden til etablering af forskningsprogrammet Collaborative Research Programme in Biomedical Innovation Law (CeBIL).

Kristin Kostick-Quenet is a bioethicist and medical anthropologist whose research focuses on ethical, social and cultural factors related to emerging...

Dansk
© All rights reserved, Sciencenews 2020