Pseudo-autonomi, og hva kan vi lære av Jibo

For et år siden nådde Jibo forsiden av Time Magazine, ifølge journalistene en av de fremste oppfinnelsene i 2017. En mild overdrivelse, men roboten har absolutt noe ved seg.

Da den sosiale roboten Jibo ble lansert for noen år siden manglet det ikke på optimisme. Da de begynte å levere for et års tid siden viste det seg imidlertid at utviklingen har tatt konseptet igjen. Det er vanskelig å konkurrere med Google Home og Amazon Alexa når det gjelder autonome egenskaper.

Da Jibo ble lansert kostet den nærmere tusen dollar og leverte ikke mye funksjonalitet. Noen av de sosiale funksjonene er imidlertid svært vellykket, spesielt knyttet til hvordan denne roboten beveger seg. Noe en definitivt kan ta med seg fra et vellykket design er tre to delene som roterer omkring ulike akser.



Videre får man mye ut av "øyet" på skjermen til Jibo. Alle omtalene peker imidlertid på at den ville tjent på en OLED-skjerm, først og fremst på grunn av mørkere svartnivå. Dette ville i sin tur kunne føre til at en ikke ble så lett oppmerksom på den rektangulære skjermen midt på den sirkulære flaten som danner ansiktet.

En test godt ut i 2018 er mer positiv, men igjen er det robotens trivelige uttrykk og væremåte som anmelderen trekker frem som positivt. Straks en forsøker å bruke Jibo til noe som kan minne om nyttig ser den ut til å falle igjennom. Brukeren mister dermed raskt interessen.



Siste video er en direkte sammenligning mellom Jibo og Amazons tjeneste Alexa. Dialogen er absolutt interessant å følge med på og denne videoen anbefales for alle som lurer på hvor langt noenlunde autonome talegrensesnitt har kommet, per 2018.



Så hva kan en lære av dette? For det første har ikke autonome grensesnitt kommet så langt. Der AI og mønstergjenkjenning blir nyttig er først og fremst innenfor områder som kan holdes temmelig avgrenset, slik som forhåndsdefinerte kommandoer og ulike funksjoner som kan løses gjennom søk.

Trolig vil det skje mye i den kommende tiden knyttet til smarte måter for det vi kan kalle pseudo-autonomi, dvs det en bruker opplever som autonomi, selv om det aller meste er forhåndsprogrammert.

Joseph Weizenbaum demonstrerte allerede med Eliza, i 1966, hvor langt en kan komme med ganske enkle midler. Denne første chatbotten ga navn til Eliza-effekten, det at vi tillegger dialogiske dataprogrammer personlige, menneskelige egenskaper, en form for besjeling (Prosopopeia), eller antropomorfisme. Weizenbaum skrev på et senere tidspunkt; "I had not realized ... that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people."

Jibo lykkes godt med antropomorfismen når det gjelder bevegelse og det virtuelle øyet. Roboten lykkes imidlertid langt dårligere når det gjelder kommunikasjon gjennom tale. Det siste er rett og slett svært vanskelig. En spennende vei ville etter mitt syn være å gjøre det enklere for brukerne å programmere Jibo og dermed få roboten til å løse mer spesifikke oppgaver – i større grad definert av brukerne og i mindre grad av de som har designet systemet.

Kommentarer