Gå til sidens indhold

Indhold er hentet

Åbner link i ny fane

Indhold er hentet

Case

PFA: Datatik bliver et tema, du ikke kan komme udenom

Som stort kommercielt pensionsselskab og finansiel virksomhed er det afgørende for PFA, at kunderne har tillid til, at kunstig intelligens (AI) anvendes etisk og ansvarligt. For netop tillid er nøglen til kundernes opbakning og mulighederne for at forløse potentialet med AI, lyder det fra PFA.

Indhold er hentet

Hvad har dataetik at gøre med pension og forsikring?

Svaret på, hvad dataetik har at gøre med pension og forsikring, er egentlig ret ligetil. 

I en digital og datadrevet verden har de tre ting meget at gøre med hinanden. Simpelthen fordi nutidens teknologi gør det muligt at bruge intelligente AI-modeller til at bearbejde enorme mængder data. Det gør det blandt andet muligt for pensions- og forsikringsbranchen at bruge kundedata til på en ny måde at skræddersy forsikringsløsninger og udarbejde personlig pensionsrådgivning, som er endnu mere personlig og målrettet.

Men det er også noget, der stiller krav til etikken bag. 

Grunden til, at vi arbejder med dataetik, er som udgangspunkt, at vi selvfølgelig gerne vil fremstå etiske. Men fra et mere kommercielt synspunkt handler det lige så meget om, at vores kunder har en forventning til, at vi gør tingene rigtigt. Kunderne bakker os simpelthen ikke op, hvis de ikke er trygge ved måden, vi arbejder med data på. Og den opbakning er for os helt afgørende for at kunne udnytte de kommercielle gevinster ved AI, fortæller Daniel Hasselager Brevadt, chef for Analyse & Indsigt i PFA.

Indhold er hentet

Dataetikken er sat på formel

I PFA bruger de eksempelvis AI til at effektivisere manuelle og tidskrævende processer – blandt andet ved at anvende en e-mailrobot til at hjælpe rådgiverne med hurtigere at finde frem til de rigtige svar på kundehenvendelser. Det frigør varme hænder, som kan bruges til mere komplekse opgaver. Men jo mere, man bruger AI i sine forretningsgange, desto mere opmærksom skal man være på de dataetiske dilemmaer, der både kan og vil opstå. Derfor har PFA sat processen på formel ved at anvende en step by step-guide for, hvad du skal igennem, inden de fx slipper en algoritme løs.

Transparens, ansvarlighed og black box-algoritmer

Den omtalte step by step-guide er en del af et større AI-etisk rammeværk, som gælder alle ansatte, der arbejder med AI i PFA. Det er nemlig vigtigt at huske på, at alle involverede parter bærer et lige stort ansvar for etikken – og så er det egentlig ligegyldigt, om du leverer data til modellen, bygger modellen eller bruger modellen i praksis. 

Dataetik skal leve i virksomheden. Og det handler både om, hvordan man når frem til de indsigter, data kan give dig, og hvordan man bruger dem. Det er populært sagt en value stream, hvor alle led skal udleve dataetikken, forklarer Daniel Hasselager Brevadt.

På den måde sikrer PFA, at de væsentligste issues bliver behandlet, og at færrest mulige fejl slipper igennem. Og ikke mindst at arbejdet bliver dokumenteret. Netop dokumentationen har tidligere været en udfordring, da det ofte var umuligt at gennemskue, hvordan såkaldte black box-algoritmer kom frem til et givent resultat. Det er det dog ikke på samme måde i dag, hvor PFA kan lægge forskellige typer forklaringsmodeller ned over algoritmen (såsom Lime og Shap) og finde frem til, hvordan data er blevet vægtet. Det betyder i bund og grund, at der skabes transparens, og at algoritmens udfald kan forklares.

Avancerede algoritmer screener kunder

Et eksempel på et dataetisk dilemma er, hvordan man udpeger de kunder, der har mest brug for rådgivning. Med 1,3 millioner kunder er der nemlig ikke ressourcer til at rådgive alle kunder hele tiden. Så hvad vægter man højest? 

Ud fra et kommercielt synspunkt kunne det selvfølgelig være fristende at fokusere på de mest profitable kunder. Men skulle vi så kun rådgive dem? Nej, det skal vi selvfølgelig ikke. Det ville ikke være fair, og vi ville ikke leve op til vores almindelige rådgivningsforpligtelser, lyder det fra Daniel Hasselager Brevadt. 

Derfor bruger PFA avancerede datamodeller til at screene deres kunder, så de på et gennemsigtigt og fair grundlag kan udpege de mennesker, der har mest behov for rådgivning.

Og fremtidens vindere er…

Når snakken falder på, hvor stort forretningspotentialet for dataetik vil være i fremtiden, er Daniel Hasselager Brevadt dog helt klar i spyttet: 

At være etisk forsvarlig er en konkurrencemodel. Man kan konkurrere på pris og alle mulige andre parametre. Men man kan også konkurrere på at være likeable og etisk forsvarlig. Så jeg tror på, at især de yngre generationer i et purpose-drevet samfund tilvælger virksomheder med et ansvarligt brand – ligesom vi har set det ske i forhold til klimaet.