Kan maskiner utvikle kunstig moral?

Illustrasjon: Alejandro Zorrilal Cruz
Jo viktigere avgjørelser vi overlater til kunstig intelligente systemer, jo viktigere blir det at de avgjørelsene ikke bare er intelligente, men også moralsk gode, skriver Einar Duenger Bøhn, professor i filosofi og medlem av Centre for Artificial Intelligence Research ved Universitetet i Agder

Bøhn skriver at det finnes mange måter å realisere kunstig intelligens på, men blant de mer interessante finner vi forskjellige måter å trene opp et system til å kategorisere mønster. I prinsippet kan det brukes til å gjenkjenne alle slags ting basert på mønstre det etterlater seg, for eksempel skattesnusk, personligheten din basert på like-adferden din på Facebook, eller vinnerstrategier i brettspill som Sjakk og Go.

Tenk på en fremtidig robot i hjemmesykepleien. Den kan ikke bare tenke på hva som er mest intelligent i form av mest effektivt å gjøre i forhold til den eldre personen den er satt til å passe på, den må, eller i hvert fall bør, også ta hensyn til indre tilstander og medmenneskelige relasjoner, slik menneskelige sykepleiere ville gjort, spesielt i tilfeller når avgjørelser må tas kjapt.

Kunstig intelligente systemer bør derfor i slike og mange – eller alle? – andre tilfeller ikke bare være intelligente, men også moralske. Spørsmålet er om ikke nettopp moral er noe unikt menneskelig som ikke kan automatiseres. Det er interessant å merke seg at akkurat det trodde man også om intelligens for bare en til to generasjoner siden. Vi trenger bare å utvide horisonten vår fra å tenke i form av ren intelligens i retning av moralsk intelligens.

Bøhn konkluderer med at så langt er intelligens og moral ikke er det samme, er det ingenting prinsipielt som muliggjør kunstig intelligens men ikke kunstig moral.

Kommentarer