tirsdag 28. juli 2020

Når den beste AI ikke er den beste AI

I dag gjør AI (artificial intelligence) at rattet vibrerer når bilen krysser en hvit eller gul kjørelinje, foreslår investeringsalternativer, og anbefaler hvilken kandidat som bør få jobben. 

På denne måten bidrar AI til at vi tar bedre beslutninger: justerer retningen på bilen, tar investeringsbeslutningen, og ansetter kandidater vi ellers ikke hadde vurdert. 

Felles for disse situasjonene er at AI gjør mennesket til den sentrale beslutningstaker. En grunn er at mens AI er overlegen i å håndtere store mengder informasjon, er mennesker overlegen når det gjelder håndtering av uvanlige/kritiske situasjoner som for eksempel uforsvarlig kjøring. En annen grunn kan være at AI som tar beslutninger, gjør at den menneskelige motivasjonen og konsentrasjonen synker. Vi får med andre ord en avveining.

I en nylig studie fra Stanford Business School (Athey, Bryan, og Gans 2020) viser forskerne at en virksomhets beslutning om å bruke AI, eller hvor omfattende man skal trene AI, ikke bare er avhengig av hva som er teknisk mulig, men også hvordan AI påvirker sine menneskelige kollegaer.

Ideen om at å delegere beslutningsmyndighet til ansatte øker motivasjonen, er ikke ny. I tillegg vet vi at mennesker som skal ta beslutninger som regel samler inn mer informasjon for å ta bedre beslutninger. 

I studien deler forskerne AI inn i fire deler hvor henholdsvis AI eller mennesker har ansvaret:
  1. AI har ansvaret: 
    1. Replacement AI: dersom AI fungerer perfekt hver gang, kan det erstatte mennesker. Skaper ledighet og høye AI-trenekostnader. 
    2. Unreliable AI: når AI ikke er perfekt, må mennesker gripe inn og justere feilen. Krever høy kompetanse og konsentrasjon 
  2. Mennesker har ansvaret: 
    1. Augmentation AI: mennesker beholder beslutningskontrollen. Gir kvalitet og motivasjon.
    2. Antagonistic AI: hvor et ikke perfekt AI trigger mennesker til kritisk tenking før hun beslutter.Utfordrer mennesker, men krevende for konsentrasjonen.

For å illustrere rammeverket, kan man tenke seg en situasjon hvor en virksomhet skal ansette en ny leder. Dersom dagens praksis med å ansettelse ledere, bevisst eller ikke, får andre ledere til å ansette folk som ser ut som dem, vil AI som er trent med å ansette data fra slike ledere, sannsynligvis lære å etterligne den skjevheten (og dermed gjøre lederne glade). 

Men dersom lederne er klar over denne skjevheten og ønsker å redusere den, må de gjøre en innsats for å utvide AI-opplæringsdataene eller til og med kjøre eksperimenter - for eksempel å legge til kandidater fra helt andre høyskoler og universiteter som kanskje ikke har blitt vurdert før - for å samle inn de nødvendige dataene å trene et objektivt AI-system. Deretter, hvis partiske ledere fortsatt har ansvaret for beslutningsprosesser, kan et oppdatert og mer objektivt AI få lederne til å lese profilen på alle kandidatene og fremdeles velge å ansette den som ser mest ut som dem. 

Men siden dette ikke hjelper eieren å oppnå målet om å eliminere skjevhet ved ansettelser, er et annet alternativ å designe AI til å overstyre de som skal ta beslutningen. Nedsiden ved dette kan være en umotivert beslutningstaker.

Etter hvert som AI blir adoptert i ulike funksjoner i virksomhetene, vil det endre måten organisasjonene fungerer på. Bedrifter og virksomheter i privat og offentlig sektor vil måtte tenke annerledes om organisasjonsdesign, arbeidstakers insentiver, hvor godt beslutningene fra arbeidstakere og AI er i tråd med virksomhetens mål, og om en investering i opplæringsdata for å forbedre AI-kvalitet vil ha ønskelige konsekvenser. Den gode nyheten er at teoretiske modeller kan hjelpe organisasjoner til å tenke gjennom samspillet mellom alle disse valgene. 

Målet er at den beste AI skal være den beste AI, ikke bare rent teknisk, men for virksomheten og de ansatte.

Ingen kommentarer: