Strümke: – AI kan drepe gnisten din
Inga Strümke tror ikke kunstig intelligens tar over verden med drapsroboter. Men området trenger likevel regler. Nå får vi dem.
Kontoret er ikke direkte kjedelig, men cella innenfor glassdøra på NTNU avslører ikke akkurat at dette er basen til en av landets mest kjente forskere heller.
For førsteamanuensis Inga Strümke er blitt en slags guru for folk som er interessert i kunstig intelligens i Norge, litt på grunn av boka «Maskiner som tenker». Litt mer fordi hun liker å dele det hun kan med resten av oss.
Nå skal EU innføre nye og strengere regler for bruken av kunstig intelligens, den såkalte AI Act. Som EØS-medlem henger Norge seg antakelig på med nøyaktig de samme reglene.
– Jeg er ingen tilhenger av regulering for reguleringens skyld, sier Strümke.
Men hun ser flere grunner til at Norge skal være med på akkurat dette.
– Norge er en del av Europa og verden. Det er politisk viktig at vi fortsatt samarbeider tett med EU om disse spørsmålene.
Men utover det rent politiske, er AI Act viktig for deg og meg også.
– Vi skal ikke ha AI som utnytter folks svakheter, sier hun.
Bruk av AI som kan være farlig eller urettferdig, får mye strengere regler enn bruk som tilsynelatende er mer uskyldig. Noen bruksområder blir rett og slett forbudt i EØS og EU. Du får ta en kikk på faktaboksen under.
– Reglene skal beskytte oss forbrukere. De skal bidra til at vi er trygge og kan ha tillit til bruken av AI, oppsummerer hun.
Hva om vi ikke får regler?
Men. Er det nå så farlig om vi ikke får sånne regler, da? Alle vet jo at regler ofte er irriterende.
– Vi kan jo gi blaffen i trafikkreglene også, sier Strümke. – Da kan alle kjøre mye fortere.
En kort stund. Til det smeller.
– AI er en så sterk kommersiell kraft. Da Chat GPT åpnet, tok det fem dager før de hadde 1 million brukere, sier hun.
Chat GPT er i hvert fall foreløpig den mest berømte chatboten. Elever og studenter i hopetall har allerede tatt snarveier ved å bruke den.
– Vi er ennå ikke ferdige med å håndtere bruken av AI i utdanningssektoren, sier hun.
For når du lar AI gjøre nesten alt arbeidet, er det neppe stort du lærer heller.
Flere har regler
Nå heter det visst KI på norsk, for «kunstig intelligens», og på norsk får da EU-reglene også navnet «KI-forordningen». Men Strümke bruker mer eller mindre konsekvent den internasjonale betegnelsen AI for «artificial intelligence», og så får det vel heller vanke kjeft fra språkfolket.
Men. Det er jo ikke sånn at resten av verden nødvendigvis vil forholde seg til de samme, strenge reglene som EU og Norge. Hva skal hindre for eksempel Kina eller USA i å ha et slappere regelverk og dermed kanskje gi dem en konkurransefordel?
– Ingenting. Vi kan ikke hindre andre land i å ha andre regler. Men det er en myte at bare EU regulerer bruken av kunstig intelligens.
Tidligere i år hadde USA allerede 58 ulike regelverk for bruk av kunstig intelligens, rett nok fordelt på flere ulike delstater. Men det er altså ikke fritt frem andre steder heller.
– Vi må velge hvilket samfunn vi ønsker å ha. EU har hatt en tendens til å sette en presedens for andre, sier hun.
EU går ofte foran
Der EU går, følger nemlig andre deler av verden gjerne etter. Strümke illustrerer det ved å vise frem en USB-C-kabel, den nye standarden for ladekabler i store deler av verden. Den ble nylig innført tross mye skrål og skrik fra teknologiselskaper i starten.
Men snart kan du altså slippe å ha hauger av forskjellige ladekabler liggende, det skal holde med én type. Som ekstra fordeler overfører USB-C både mest data og strøm, i tillegg til at ledningen kan brukes begge veier. At USB-C er standard, kan du altså takke EU for.
På samme måte har store deler av verden fulgt etter EUs personvernforordning, den med det mystiske navnet GDPR, som altså skal gi deg større makt og rett til å kontrollere hva slags opplysninger selskaper kan samle inn om deg.
Hun tror det kan gå den veien med regler for kunstig intelligens også.
Maskiner som tenker
At en ekspert på kunstig intelligens skulle bli en slags forskerkjendis, ville nok ikke selv den mest avanserte AI sett for seg for et par år siden. Det har ikke gitt henne primadonnanykker heller, og det er vel kanskje også noe av hemmeligheten.
Inga Strümke snakker så tydelig at du nesten tror du skjønner det hun jobber med. Nå skal det ikke mer enn ett gløtt bort på pc-skjermen hennes før du forstår at hun ikke akkurat deler alt hun vet med oss. Den er full av programmeringsspråk.
Egentlig er hun fysiker, med doktorgrad innenfor partikkelfysikk, men de siste årene har hun konsentrert seg om kunstig intelligens.
Spesialiteten er maskinlæring, altså hvordan du trener opp den kunstige intelligensen, og forklarbar kunstig intelligens. Det siste området tar for seg hva den kunstige intelligensen egentlig har skjønt, og hvor denne kunnskapen kommer fra.
Men det er altså ikke det hun er mest kjent for. I det siste skal du ha sovet tungt om du ikke har sett henne på tv eller i en eller annen avis. Hun har bestemt seg for å prioritere folkeopplysning, samtidig som hun ennå bruker mye tid på forskningen.
Allerede i vår passerte boka hennes, «Maskiner som tenker», ett år på Bokhandlerforeningens bestselgerliste. Men å skrive den kom hun ikke på helt selv.
Noen på Kagge Forlag var smarte nok til å spørre henne, og etter noen garantier om at dette ikke skulle være bortkastet tid, satte hun seg til.
– Jeg så det som en mulighet for å få ordentlig oversikt over området kunstig intelligens, sier hun, men den ble mer enn en privat øvelse.
Boka var ferdig etter seks måneders skriving og tre måneders forlagsmikkmakk. Gemini-redaksjonens eksemplar er 10. opplag. «Maskiner som tenker» er blitt en introduksjon til emnet for titusenvis av lesere, og Strümke har for lengst gitt opp å delta på alt som folk vil ha henne med på.
Ingen Terminator, men...
Inga Strümke er ikke bekymret for at drapsroboter med kunstig intelligens skal ta over verden med det aller første. Men de enorme, raske fremskrittene innen AI byr likevel på problemer.
For hun er redd for at vi skal miste gnisten.
– Tidligere kunne vi også dumpe ned foran tv-en og la oss underholde. Men det var ikke det samme som nå. Nå kan vi bli sittende hele dagen.
For ulike underholdningstjenester og sosiale medier lærer ganske raskt hva vi liker, og fôrer oss med nettopp det. Plutselig har du sittet mye lenger med TikTok eller YouTube enn du hadde tenkt.
– Dette er verre enn tvang. Disse tjenestene kommer med så gode anbefalinger, de kjenner deg så godt at du rett og slett ikke greier å stå imot, sier Strümke.
Dette kan tjenestene gjøre fordi de samler inn opplysninger om deg. Nesten alle av oss har trykket på knappene som tillater dem å gjøre det også, og da blir det lovlig.
Med de nye EU-reglene kan denne datainnsamlingen bli mer vrien, i hvert fall det å bruke opplysningene til å hekte oss foran skjermen i timevis.
Selv bruker Strümke knapt nok sosiale medier lenger. Vel, unntatt Instagram. Hun har det vel for travelt uansett.
Men AI truer ikke bare fritida vår. Den truer også demokratiet.
Hvem får stemmen din?
Politiske valg blir også påvirket ved hjelp av kunstig intelligens. Den mest underholdende politikeren kan få mest oppmerksomhet.
Det er ikke nytt. Men desinformasjon blir spredd gjennom deep fakes, bildemanipulering og målrettede falske nyheter.
Budskapene kan altså spesialtilpasses for den enkelte eller for grupper ved hjelp av kunstig intelligens og sosiale medier. Da ligger vi tynnere an.
Nå har jo løgn og fordeler for de attraktive alltid vært en del av politikken. Under presidentvalget i USA i 1960 tapte Richard Nixon for John F. Kennedy, og det hjalp i hvert fall ikke Nixons sak at han stilte på tv stotrende, klønete og uten sminke mot den sjarmerende rivalen.
– Jeg er uenig med meg selv om det vi ser nå er noe helt nytt. Men det er annerledes nå enn før. Nå trenger du ikke lenger et stort apparat med mange folk for å påvirke en valgkamp. Det du trenger er nok datamaskiner, sier førsteamanuensen.
En typisk russisk propagandastrategi er for eksempel ikke nødvendigvis å lyve direkte hele tida. Isteden bombarderes folk med motstridende opplysninger til de går lei.
– Folk rammes av en «digital fatigue». De blir utslitte av det. Sånt kan også virke pasifiserende, sier Strümke.
Strategien åpner også for populister. Folk med enkle budskap som trenger gjennom kaoset, akkurat det budskapet du vil høre, gjerne tett i tett med et budskap om en eller annen minoritet som har skylda, eller et annet, passende fiendebilde.
Så. Da går vel alt galt?
Bruken av kunstig intelligens byr altså på mange farer og feller. Verden er i endring, og langt fra alt ser ut til å være i god retning.
Hvordan skal nå dette gå?
– Folk spør ofte om jeg er optimist eller pessimist. Det jeg kan si er at jeg aldri er midt imellom. Dette kan gå til helvete. Og det kan gå skikkelig bra, sier Strümke.
På den ene siden har vi alle problemene i verden. Vi mennesker ødelegger planeten, utrydder arter, ødelegger arealer, kjøper mengder av greier vi ikke trenger som er fraktet langt borte fra, og over det hele lurer et klima som endrer seg. Vi har fått mindre demokrati og mer uro de siste årene.
Hver for oss er ikke vi mennesker dumme. Men systemene våre, organiseringen vår av samfunnene våre, de er ikke alltid så smarte. Av og til er kunstig intelligens en del av problemet.
Men på den andre siden har vi mulighetene. Og løsningene kan like gjerne få hjelp av kunstig intelligens, om vi bruker den smart.
– Jeg kan ikke komme på et eneste område som ikke kan få bruk for AI, sier Inga Strümke.
FAKTABOKS
Dette er EUs AI Act.
AI-loven deler AI-bruksområder i forskjellige risikokategorier:
- Uakseptabel risiko: Denne bruken blir forbudt i EU. Dette inkluderer AI som manipulerer menneskelig atferd, biometrisk fjernidentifikasjon i sanntid, for eksempel ansiktsgjenkjenning i offentlige rom, eller bidrar til å gi folk en slags oppførselskarakter som kan gi dem fordeler eller ulemper i samfunnet.
- Høyrisiko: Dette er AI-systemer som truer helse, sikkerhet eller grunnleggende rettigheter, for eksempel de som brukes innen helsevesenet, utdanning, rekruttering, styring av kritisk infrastruktur, håndhevelse av lover og regler eller rettsvesenet. Disse får svært strenge regler.
- General-purpose AI (GPAI): Dette inkluderer programmer som Chat GPT. Disse må oppfylle visse krav til åpenhet. De må evalueres grundig.
- Begrenset risiko: AI-systemer som er underlagt krav til åpenhet, inkludert de som frembringer eller manipulerer bilder, lyd eller videoer. Kildekode-modeller som er gratis og åpne, med offentlig tilgjengelige parametere, er generelt ikke regulert.
- Minimal risiko: Inkluderer for eksempel stavekontroller og AI-systemer for videospill eller spamfiltre. Ikke regulert på EU-nivå.
Informasjonen i denne faktaboksen er hentet fra engelsk Wikipedia. Deretter ble den forkortet av Chat GPT, før den ble oversatt av Google Translate. Til sist er den gjennomgått av mennesker.
Nøkkelord
Kontakter
Nina Tveterredaktør for NTNU-stoffet på Gemini.no
Tel:91897323nina.tveter@ntnu.noBilder
Lenker
Om Gemini
Gemini.no utgis av Sintef og NTNU. Nettstedet inneholder allmennrettede forskningsnyheter om teknologi, energi og miljø, naturvitenskap, fisk og havbruk, nyskaping, helse, samfunn og humaniora.
Følg pressemeldinger fra Gemini.no
Registrer deg med din e-postadresse under for å få de nyeste sakene fra Gemini.no på e-post fortløpende. Du kan melde deg av når som helst.
Siste pressemeldinger fra Gemini.no
Slangerobot kan ha avdekket større mengder skjult ammunisjon31.10.2024 18:15:00 CET | Aktuelt
Det kan ligge mer ammunisjon i Mjøsa enn tidligere antatt, viser nytt videomateriale. I tillegg mener forskerne nå å kunne si mer om hvilket type fartøy «Storfjordvraket» er.
Neppe flere KRISER enn før – men flere kriseoppslag29.10.2024 12:19:06 CET | Pressemelding
Om du ser på medieoppslagene, kan det virke som om verden kastes ut i den ene krisen etter den andre, og at det aldri har vært verre. Men det er ikke nødvendigvis sånn.
Skader woke Demokratene?16.10.2024 11:06:47 CEST | Pressemelding
Det er tilsynelatende helt jevnt mellom partene før valget i USA 5. november. Men woke er en udetonert bombe.
Overgang til grønt hydrogen får store negative miljøkonsekvenser16.10.2024 10:54:33 CEST | Pressemelding
Mer grønt hydrogen i Europa kommer til å redusere klimagassutslippene, men samtidig føre til andre miljøpåvirkninger. Nå har forskere regnet på konsekvensene.
Derfor mislykkes norsk avfallspolitikk9.10.2024 09:55:34 CEST | Pressemelding
Vi kaster og brenner stadig mer avfall som fint kan gjenvinnes. Unøyaktige målemetoder, usikre data og lite åpenhet om hvor søpla vår ender opp gjør at norsk avfallspolitikk mislykkes.
I vårt presserom finner du alle våre siste pressemeldinger, kontaktpersoner, bilder, dokumenter og annen relevant informasjon om oss.
Besøk vårt presserom