Kunstig intelligens tar kanskje over – men ikke helt ennå

Kunstig intelligens tar kanskje over – men ikke helt ennå

Overlater vi for mye til maskinene? Vil de ta over? Nei, ikke i overskuelig fremtid. Men det vi kanskje bør være bekymret for, er om kunstig intelligens tar feile beslutninger på dårlig grunnlag, mens vi – uten å forstå grunnlaget – bare lener oss tilbake og stoler på systemet.

Tar maskinene over?
«Når folk får vite at jeg jobber med kunstig intelligens, får jeg ofte de samme spørsmålene», sier Hanne-Torill Mevik, data scientist i Bakken & Bæck. «Som: Hvor langt unna er vi Skynet?»

Skynet, for den uinnvidde, skriver seg fra Terminator-filmene og er kanskje det fremste skremmebildet av kunstig intelligens: et militært datasystem som utilsiktet blir selvbevisst, konkluderer med at mennesker utgjør en trussel og beslutter seg for å utslette menneskeheten.

På Tekna-møtet «Kunstig intelligens – Overlater vi for mye til maskinene?» kan Mevik berolige eventuelle urolige sjeler: «Skynet er ennå kjempelangt unna. Det som i dag er mer legitimt å være bekymret for, er beslutninger som tas uten at vi vet hvorfor.»

Vi kommer tilbake til det, men først: Hva er status for kunstig intelligens i dag?

Kunstig intelligens og dyp læring
Eksempler fra aviser og konferanser kan gi inntrykk av at kunstig intelligens allerede er i ferd med å utvikle nærmest menneskelige kvaliteter. Men disse eksemplene dreier seg kun om «smal» kunstig intelligens. Om systemer som er veldig gode på spissede områder, men som er begrenset til disse områdene.

«Begrepet kunstig intelligens bør forbeholdes ekte intelligens, tilsvarende den menneskelige», mener Mevik. «Neste hinder er å generalisere og lære uten fasit, det som kalles unsupervised learning. I dag har vi ingen algoritmer som kan lære tilsvarende som vår biologiske intelligens.»

«Mye av euforien og de gode resultatene de siste årene kommer fra dyp læring», forteller Anders Løland som er assisterende forskningssjef i Norsk Regnesentral og co-director i Big Insight. «Og veldig mye av det handler om å gjenkjenne bilder.»

Han forklarer at dyp læring – som er en av flere maskinlæringsmetoder – består av å sette opp enorme nettverk av enkle funksjoner. Disse funksjonene kan f.eks. være standard regresjonsanalyser (statistiske beregninger) som tar for seg to–tre parametere, mens det komplette nettet kan bestå av titalls millioner parametere.

Maskinlæring og svarte bokser
Selve læringen skjer ved at man mater inn store mengder testdata og forteller systemet hva inndataene betyr, f.eks. at dette er Angelina Jolie, dette er Gwyneth Paltrow etc. Systemet justerer selv parameterne ut fra inndataene og de forhåndsdefinerte svarene, inntil det har funnet en kombinasjon av parametere som gir godt samsvar mellom inndata og svar.

På denne måten kan vi lære opp systemer til å gjenkjenne mønstre. Takket være senere tids økning i tilgangen på store datamengder (big data), økning i prosessorkraft og fremskritt i metodene som brukes, kan det nå vises til mange overbevisende resultater innen maskinlæring.

Men et av problemene, som Mevik var inne på, er at man ikke vet hvordan systemet kommer frem til resultatene. Systemet kan se forskjell på Angelina Jolie og Gwyneth Paltrow, men det kan i utgangspunktet ikke si hvordan. Vi vet ikke om det skyldes leppestørrelsen, neselengden eller noe helt annet. Systemet fungerer, men det er en svart boks: Vi ser bare hva som går inn og hva som kommer ut.

Spår kunstig-intelligens-fiaskoer
«Det er mange maskinlæringsfiaskoer», sier Løland. «Og det vil komme flere.»

Et eksempel er et system som ble lært opp til å se forskjell på ulv og husky, noe som først så ut til å gå rimelig bra. Men da forskerne gjorde et forsøk på å måle hvilke deler av bildene som var viktigst for gjenkjennelsen, fikk de en overraskelse. Systemet så verken på tenner, øyefarge, hodestørrelse eller andre relevante kriterier. Det så på bakgrunnen. Treningsbildene av ulv var nemlig stort sett tatt ute i snø, mens huskybildene ofte var tatt på barmark. I realiteten hadde de ikke trent opp en ulv-detektor. De hadde trent en snø-detektor.

I dette tilfellet kan man smile litt av resultatet. Men ikke alle feil er til å le av.

«Det er litt verre at et kamera sier at asiater blunker når de ikke gjør det, og at en bilde-app tagger en mørkhudet som ape», sier Hanne-Torill Mevik.

Produktene hun snakker om er reelle og ble ikke sendt ut i markedet av hvem som helst, men av tunge aktører som Nikon og Google. I begge tilfellene var systemene lært opp med bilder av hvite, vestlige personer, og de endte altså opp med å feiltolke bilder av blant annet asiater og afrikanere.

Fordommer inn, fordommer ut
«Jeg velger å tro at de som trente disse systemene ikke var ondsinnede», sier Mevik. «Men på et tidspunkt sa de seg fornøyd og lanserte systemene. Under hele prosessen var det ingen som kvalitetssikret, ingen som stilte spørsmål.»

«Innen IT har vi alltid snakket om ‘garbage in, garbage out’. Men med maskinlæring blir det ‘fordommer inn, fordommer ut’.»

Mevik, som selv jobber med opptrening av kunstig intelligens til å forstå naturlig språk (NLP, naturlig språkprosessering), understreker at treningsdata sjelden er nøytrale:

«Vi matet inn tekster og så at systemet begynte å koble ordet ‘kirurg’ med ‘mann’, ‘sykepleier’ med ‘kvinne’, og ‘hvit og kolonist’ med ‘svart og slave’. Språk og ord er ladet med semantisk mening, og vi lærer opp systemene til å ha samme kjønnsstereotypier, rasisme og andre fordommer som oss selv. Ta for eksempel kjønnsbaserte forsikringspriser: Du kan ta vekk kjønnskolonnen i dataene når du skal trene opp systemet, men kjønnsinformasjonen ligger der likevel, implisitt. Maskinlæring kan åpne smutthull.»

Hun poengterer at man som utvikler må se både på dataene og sin egen bias for å unngå skjevheter.

Gjør kunstig intelligens oss sløvere?
Men klarer vi å se skjevhetene? Og vil vi være påpasselige nok? Det skal vi ikke ta for gitt, ifølge Ragnar Fjelland, professor emeritus ved Senter for vitenskapsteori, Universitetet i Bergen.

I boken «The Glass Cage» argumenterer Nicholas Carr for at «genereringseffekten» – som innebærer at man husker og forstår informasjon bedre når man jobber aktivt med den – motsvares av en «degenerasjonseffekt»: Hvis behovet for å bruke hjernen reduseres, reduseres samtidig oppmerksomheten og forståelsen vår.

«Men hva når det uventede skjer?» spør Fjelland. «Hva gjør systemene da? Og hvordan håndterer vi mennesker det?»

Det finnes mange eksempler på hvordan automatisering fører til svekkede kognitive funksjoner. Et tidlig tilfelle er et fly fra Newark til Buffalo, 12. februar 1989. Det gikk på autopilot da instrumentene fortalte at flyet manglet oppdrift og ga kontrollen over til flygeren. Flygeren, som normalt var i stand til å håndtere situasjonen, reagerte feil, og flyet styrtet. Alle 49 om bord omkom.

Tilbake til nåtiden har Google nylig funnet at førere av selvkjørende biler blir mindre oppmerksomme enn førere som styrer bilen selv. Hvis det plutselig blir behov for å gripe inn, ser det dermed ut til at en fører i en selvkjørende bil vil respondere dårligere enn en bilfører som kjører selv.

«Det er fare for at vi mister viktig kompetanse hvis vi overlater for mye til maskinene», sier Fjelland.

Teknologene må ta ansvar
Hanne-Torill Mevik protesterer imidlertid på eksemplene. «Det skjer flere feil på grunn av menneskelig svikt enn automatisering.»

Men hun er enig i at det er avgjørende med rett kompetanse. «Det er problematisk å få folk på teamet som ikke forstår metodene – og enda verre, ikke forstår dataene. Å se inn i den svarte boksen krever kompetanse. Det er komplekse algoritmer og komplekse data.»

«Mer data betyr ikke alltid bedre beslutninger», istemmer Anders Løland. «Det kan også bety mer støy. Vi har aldri perfekte data. Og mange som sier at de kjenner disse modellene, gjør det ikke.»

«Svarte bokser er også tett knyttet til personvern og tillit», fortsetter Løland. «Her må vi teknologer ta et ansvar.»

«Ja, man kan tro informasjonen er beskyttet av den svarte boksen, men det er den ikke alltid», sier Mevik. «Faren er at en ikke-teknisk person tar alle dataene man har, trener en kunstig intelligens og offentliggjør resultatet, uten å vite at det kan være mulig å rekonstruere personinformasjonen.»

Ingen ekte kunstig intelligens i overskuelig fremtid
Hva så med fremtiden? Når kommer egentlig den «ekte», generelle, kunstige intelligensen?

Ikke på lang tid ennå. Det er Mevik, Løland og Fjelland er enige om.

Når de blir bedt om å komme med et tidspunkt, viser Fjelland til Ray Kurzweil sin spådom om at ekte kunstig intelligens, det Kurzweil kaller «singularitet», vil inntreffe i 2045. «Egentlig vil det kreve at vi lager kunstige mennesker», fremhever Fjelland. «Vi kan ikke tenke oss menneskelig intelligens uten en kropp, uten at vi er aktive i verden. Utviklingen av kognitive evner forutsetter utviklingen av fysiske evner – selv om det ikke er noen enkel sammenheng mellom dem.»

Verken Løland og Mevik lar seg lokke til å anslå en dato, men begge tviler på at vi vil se ekte kunstig intelligens i overskuelig fremtid.

Men, som Mevik sier: «Allerede i morgen kan det komme en lovende ny teknologi vi ikke ser for oss i dag, og det kan endre hele bildet.»

Referanser
Kveldsmøtet «Kunstig intelligens – overlater vi for mye til maskinene?» ble arrangert av Tekna Ung Oslo og Tekna Big Data 8. november 2017. Her er presentasjonene:

Les mer:

Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Kommenter