Har du et «forhold» til robot-støvsugeren?

Samsung dog-bot prototype
Designer: gaetano de cicco
Mennesker utvikler «personlige» relasjoner til teknologi med kunstig intelligens, skriver Nina Bjerkreim-Hanssen og Tone Therese Paulsen i en kronikk i Stavanger Aftenblad.

En studie fra MIT viser at barn liker best, og velger, enheter som de opplever har følelser. En annen undersøkelse viser at hele 20 prosent oppgir sosiale årsaker til at de bruker chatbots. Er roboter blitt våre nye venner, psykologer, og potensielle uvenner?


Allerede i 1966 utviklet Joseph Weizenbaum maskinen ELIZA, som utga seg for å være psykolog. Selv om brukerne visste at de snakket med en maskin, behandlet de ELIZA som sin nære fortrolige og delte sine dypeste følelser og hemmeligheter. Dette har fått navnet ELIZA-effekten – vår tendens til å tenke på maskiner som mennesker.




Selv om kunstig intelligens ikke kan utvikle følelser og bryr seg fint lite om ufine ord og handlinger, er forsøkene likevel mange. I Philadelphia ble en løfte-robot halshogget. En sikkerhetsbot i San Francisco ble smurt inn med grillsaus og begravd under en presenning. Og her hjemme ser vi stadig at Kommune-Kari utsettes for seksuell sjikane. Eller mareritt-scenarioet, som NRK demonstrerte, om hvor lett det er å hacke en snakkende dukke og lokke en 4-åring ut i en bil.


Vi har fått regler som GDPR for å holde utviklere i ørene når det gjelder brukernes personvern, – men hva med etiske retningslinjer for å hindre manipulering? Vår digitale fremtid er full av moralske og etiske utfordringer, mange vi ikke engang kan forestille oss ennå. Humanisering av teknologi bør derfor være i fokus i utviklingen av etiske rammeverk og føringer. I dag er det svært leverandøravhengig om den etiske standarden er høy nok.

Les hele kronikken i Stavanger Aftenblad.

Kommentarer