Indhold er hentet
Dataetik i brug og udvikling af algoritmer
Få hjælp til hvilke dataetiske overvejelser I kan gøre jer, når I udvikler og bruger algoritmer.
Indhold er hentet
Kunstig intelligens rummer et stort potentiale for vækst og innovation. Men øget anvendelse af kunstig intelligens rejser også en række etiske spørgsmål i både den offentlige og den private sektor. En del problemstillinger er velkendte fra generelt arbejde med data, fx overvejelser i forbindelse med indsamling og opbevaring af data. Andre er nye problemstillinger om blandt andet gennemsigtighed og diskrimination gennem bias.
Denne artikel sætter fokus på, hvilke dataetiske overvejelser I som virksomhed kan gøre jer, når I udvikler og bruger algoritmer. Vejledningen er ikke en teknisk vejledning, men kan fungere som redskab til at spotte, hvor I skal være ekstra opmærksomme i jeres anvendelse af algoritmer.
Gennemsigtighed
Gennemsigtighed er afgørende for at skabe tillid til jeres datadrevne løsning. Når intelligente løsninger og algoritmer har en indvirkning på menneskers liv, bør det kunne forklares, hvordan teknologien er kommet frem til et givent resultat. For at sikre gennemsigtighed kan I stille jer selv følgende seks spørgsmål:
- Er det muligt at forklare, hvorfor jeres datadrevne system træffer et bestemt valg og dermed fører til et bestemt resultat?
- Er det muligt manuelt at underkende systemets beslutninger?
- Logger systemet automatisk de tilfælde, hvor en bruger underkender systemets anbefalinger?
- Har I vurderet og opsat tærskler for, hvor nøjagtigt jeres system skal være?
- Har I dokumenteret den metode, I bruger til at oplære jeres datadrevne system, herunder hvilken data I bruger?
- Har I undersøgt, hvorvidt systemet giver forskellige anbefalinger på baggrund af samme data og betingelser?
Bias
Det er vigtigt at beskæftige sig med bias for at sikre, at jeres datadrevne system behandler alle slutbrugere lige, og at systemet ikke ekskluderer eller gentager eksisterende fordomme om bestemte grupper i samfundet. Bias betyder, at der kan være en skævhed i den data, som jeres datadrevne system bygger på. Det kan fx være en over- eller underrepræsentation af bestemte personer eller grupper i befolkningen på baggrund af opdeling i køn, etnicitet eller alder. Bias er ikke nødvendigvis et onde, men i denne kontekst dækker det over data og systemer, der indeholder fordomme, som ikke er underbygget, og kan lede til utilsigtede konsekvenser. Bias kan fx føre til, at jeres datadrevne system forfordeler nogle personer eller grupper, hvilket medfører en diskriminerende eller stigmatiserende praksis. For at undgå utilsigtede bias kan I stille jer selv følgende seks spørgsmål:
- Har I sikret, at jeres datadrevne system ikke stiller nogle grupper af personer bedre end andre?
- Har I arbejdet med repræsentativitet og diversitet i den udvalgte data?
- Er der en mekanisme eller procedure i det datadrevne system, som brugere eller tredjeparter kan bruge, hvis de vil rapportere bias?
- Har I inddraget domænespecialister eller andre interessenter udover jeres udviklere til vurdering af etiske udfordringer i systemet?
- Har I iværksat processer for, hvad I gør i tilfælde af, at jeres datadrevne system laver unøjagtige forudsigelser?
- Orienterer I jeres interessenter, hvis I opdager, at systemet opererer med potentiel eller allerede identificeret bias?