<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-NT7T3W7" height="0" width="0" style="display:none;visibility:hidden">
Kjøp
+ mer
Enorm vekst: Etter at ChatGPT ble lansert i fjor, foregår det nå et slags stille våpenkappløp innen utviklingen av kunstig intelligens. USA alene har siden 2020 sluppet over 70 ulike språkmodeller, og Kina utvikler lignende modeller på løpende bånd.   Foto: Shutterstock/NTB

Bare et tidsspørsmål før Russland har en mannevond "ChatGPT"

Mens stadig flere norske institusjoner roper varsku om farene ved kunstig intelligens, mener eksperter det bare er et spørsmål om tid før land som Russland, Nord-Korea eller organiserte kriminelle har utviklet sin egen ChatGPT. Et Frankensteins monster uten begrensninger. 

Kunstig intelligens-revolusjonen, med ChatGPT i spissen, har enn så lenge en kunnskapsavgrensning på ca. et år. Det vil si at den ikke har direkte tilgang til sanntidsdata utover det vi selv forer den med, og kan ikke oppdatere seg selv med nyere informasjon. Det legger for eksempel begrensninger på hvilke aksjetips den kan komme med, og, ikke minst, hvilken skade den kan gjøre. Foreløpig er avgrensningen en liten buffer mot onde hensikter, men eksperter Kapital har snakket med er klare på at dette trolig ikke vil vare. 

Vi ser på dette som et Frankenstein-tilfelle; teknologisk helt utrolig, men samtidig med potensialet til å bli et monster.
Håkon Fosshaug, Europa-sjef for VMware Carbon Black

– Det er bare et spørsmål om tid før en nasjon som Russland, Nord-Korea, et større selskap eller organisasjon lager en kunstig intelligens (AI) som er online i sanntid. Da har vi en situasjon hvor en maskin “tenker” bedre og raskere enn et menneske jobber live. I det sekundet for eksempel Microsoft slipper en ny sikkerhetsbatch, kan en slik AI analysere oppdateringen, identifisere svakheter og lage et program til å gjennomføre et angrep. AI-teknologien er  som atombomben, du kan ikke ta den tilbake, sier sikkerhetsekspert og Europa-sjef for VMware Carbon Black, Håkon Fosshaug. 

Fosshaug opplyser at det som skjer innen AI-teknologien nå lett kan misbrukes. 

– Vi ser på dette som et Frankenstein-tilfelle; teknologisk helt utrolig, men samtidig med potensialet til å bli et monster. ChatGPT, som er allment tilgjengelig, kan brukes til å lage falske personer, svindel-epost og en lang rekke andre ting. Den skriver perfekt norsk og utvikler kode på forespørsel. De sperrene som er lagt inn er relativt lette å komme rundt.  

Han påpeker videre at AI kan komme til å spille en stor rolle i fremtidens kriger: 

– AI har helt klart et potensiale for å kunne brukes som et våpen i en moderne krigføring. Både for å desinformere som vel som et verktøy for å kunne angripe IT-installasjoner.

Et spørsmål om tid: Håkon Fosshaug i sikkerhetsbyrået WMware Carbon Black mener at OpenAI med ChatGPT har tilgjengeliggjort en teknologi som raskt kan bli til et monster. Foto: Stian Lysberg Solum/NTB

Alle roper varsku 

ChatGPT er en såkalt samtalerobot med kunstig intelligens som ble lansert av forskningslaben OpenAI i november ifjor, og med et tastetrykk var verden blitt både merkeligere og farligere. Siden har vi sett en bølge av stadig mer sofistikerte svindelforsøk – mye falske nettsider, phishing-forsøk m.m.. I april kom Europol med et kraftig varsku. 

“Kriminelle er generelt raske til å anvende ny teknologi, og vi observerte de første praktiske eksemplene på det bare uker etter at ChatGPT var lansert,” skrev byrået i sin rapport. 

Europol ser noen klare utfordringer med at samtale-AIer blir universelt tilgjengelige, og dette åpner for uante muligheter til misbruk. De nevner for eksempel manipulering av syntetiske medier – “deepfake”-videoer med falske stemmer, systeminnbrudd, hacking osv. Byrået er ikke i tvil om at dette området vil utvikle seg raskt. Det er deres klare anbefaling at politi, både nasjonalt og internasjonalt, må ta grep for å imøtekomme denne trusselen. 

Norske myndigheter har blitt kritisert for å være noe bakpå når det gjelder farene ved AI-teknologien. I mai leverte Nasjonal sikkerhetsmyndighet (NSM) en rapport hvor nasjonens beredskap formelig ble slaktet. Rapporten advarte spesielt mot kunstig intelligens. 

– Systemer basert på kunstig intelligens favner fra autonome våpensystemer og medisinsk diagnostisering til finansiell stabilitet og en rekke andre bruksområder. Både de menneskelige og de ikke-menneskelige bidragene i slike systemer har stor sikkerhetsmessig innvirkning – og dermed et stort skadepotensial, skriver NSM. 

NSM brukte våpensystemer som Lethal Autonomous Weapons Systems (LAWS) som et eksempel på noe som kan utnyttes. Slike systemer bruker kunstig intelligens til å gjenkjenne mål: venn eller fiende, sivil eller militær, truende eller defensiv. 

I begynnelsen av juni begynte regjeringen arbeidet med en ny digitaliseringsstrategi, og det er ventet at AI vil bli viet stor plass i dette arbeidet. 

Kunstig intelligens/ Artificial Intelligence (AI)

 

Kunstig intelligens kan defineres som et systems evne til å korrekt tolke eksterne data, å lære av slike data, og å bruke denne kunnskapen til å oppnå spesifikke mål og oppgaver gjennom fleksibel tilpasning. 

Wikipedia/ Andreas Marcus Kaplan

– Et våpenkappløp

Fosshaugs anskuelser er ikke enestående blant forskere og eksperter på cybersikkerhet. Leder for NUPIs forskningssenter for digital teknologi og cybersikkerhet, Niels Nagelhus Schia, opplyser at det i dag pågår et slags våpenkappløp innen utviklingen av AI-teknologi.

– Det er allerede flere språkmodeller ute på markedet. Kina utvikler aktivt denne teknologien i et kappløp med USA og har siden 2020 sluppet over 70 ulike språkmodeller. Kina vil blant annet også bruke teknologien til å overvåke og sensurere. Nord-Korea er helt sikkert også i gang med å utnytte mulighetene som tilbys med utviklingen av kunstig intelligens. De har tradisjonelt vært på ballen når det gjelder å utvikle offensive cyber-kapabiliteter, og de har ofte brukt dette til økonomisk vinning og innhenting av informasjon. I tillegg til stater har du alle også kriminelle som ønsker å bruke dette til egen vinning. Cyberkriminelle har med kunstig intelligens fått et nytt og veldig kraftig verktøy.

Nord-Korea er helt sikkert også i gang med å utnytte mulighetene som tilbys med utviklingen av kunstig intelligens. De har tradisjonelt vært på ballen når det gjelder å utvikle offensive cyber-kapabiliteter.
Niels Nagelhus Schia, NUPI

Schia påpeker videre at flere av de andre modellene som eksisterer, som Google Bard, hittil har mindre kunnskapsavgrensning enn ChatGPT, men at det trolig er lagt inn andre føringer. 

– Vi vet for eksempel ikke hvordan algoritmene er utformet, det holder selskapene for seg selv. I tillegg er språkmodellene også forutinntatt i endel spørsmål i den forstand at de er trent på en viss mengde data. Internasjonale og nasjonale. Det er et behov for kjøreregler. 

Ifølge Schia innebærer AI-teknologien en voldsom økning av muligheten til å analysere store mengder data, noe som igjen forenkler oppgaver som å finne hull i sikkerhetssystemer og generere desinformasjon. En AI kan enkelt generere og distribuere svært plausible falske nyheter.

– Det pågår en internasjonal diskusjon om hvordan AI-teknologien skal reguleres, hvor det grovt sagt er tre skoler. Én skole tar til orde for statlig og internasjonal regulering, mens den andre mener selskaper og institusjoner selv må ta ansvar allerede fra utformingen av teknologidesignet, samt utforme etiske kjøreregler. Den tredje er en kombinasjon av de to andre.

Tror ikke på sanksjoner: Niels Nagelhus Schia ved NUPI tror at globale kjøreregler for AI-teknologi kan bli vanskelig å få til. Foto: NUPI

Kriminell idémyldring

Kapital inviterte ChatGPT til en idémyldring på hvordan aktører med onde hensikter og kriminelle kan nyttiggjøre seg kunstig intelligens fremover. Den leverte prompte syv forslag:

  1. Cyberangrep: Kriminelle kan anvende AI-algoritmer til å utvikle mer sofistikerte, ondsinnede programmer (malware), som vil gjøre det lettere for dem å bryte ned sikkerhetssystemer og stjele sensitiv informasjon. En AI kan automatisere forskjellige ledd i et cyberangrep, som for eksempel rekognosering, utforskning og unnvikelse.
  2. Svindel: AI kan bli brukt til å analysere store mengder data, og identifisere mønstre. Dette kan gjøre kriminelle i stand til å utvikle sofistikerte phishing-eposter, svindelmeldinger og falske nettsider som fremstår som autentiske. AI kan etterligne menneskelig adferd, og derfor gjøre det lettere å bedra enkeltpersoner, samt større organisasjoner.
  3. Identitetstyveri: Kriminelle kan anvende AI til å samle inn, og analysere, personopplysninger fra diverse kilder på nett – herunder sosiale medier. Dette kan brukes til å konstruere svært troverdige falske profiler og personer. AI-algoritmer kan etterligne en persons adferd og kommunikasjonsmønster, og således gjøre det svært vanskelig å skille mellom den faktiske personen og den falske.
  4. Autonome kjøretøy og droner: Kjøretøy og droner som er styrt av en AI kan brukes til f.eks. å smugle våpen, narkotika over grenser, eller mellom regioner. En AI har fortløpende tilgang til data som lar den navigere rundt sikkerhetsposter, finne de optimale rutene og koordinere logistikk på en optimal måte.
  5. Hvitvasking: AI kan brukes til å skjule opphavet til ulovlig anskaffede midler ved å analysere komplekse finanstransaksjoner, og identifisere mønstre som kan bli brukt for å unngå sikkerhetssystemer. En AI-algoritme kan brukes til å automatisere hvitvaskingsprosesser, og gjøre dem vanskeligere å spore.
  6. Desinformasjon og falske nyheter: En AI kan generere og spre desinformasjon og falske nyheter på en massiv skala ved å analysere brukeroppførsel og preferanser. Den kan skreddersy informasjonen til å manipulere offentlig mening, påvirke valg og skape sosial uro.
  7. Biometrisk manipulasjon: En AI kan generere såkalte deepfake-videoer eller bilder som bygger på biometrisk data, som ansiktsgjenkjenningssystemer. Kriminelle kan så bruke dette til å utgi seg for å være andre personer, lure sikkerhetssystemer og autentiseringssystemer.

AI-teknologi kan for eksempel bli brukt til cyberangrep, svindel, identitetstyveri, overtakelse av autonome kjøretøy og droner, hvitvasking, desinformasjon, falske nyheter og biometrisk manipulasjon.
ChatGPT

Betenkt robot

Etter samtalen med Kapital virket det som ChatGPT selv ble litt svett i koden. Den understreket uoppfordret:

“Det er viktig å merke seg at selv om AI-teknologien gir kriminelle nye verktøy og teknikker, kan teknologien også bli brukt av politi og sikkerhetseksperter til å motvirke kriminelle aktiviteter. Det pågående kappløpet mellom kriminelle og sikkerhetssystemer bare understreker viktigheten av robuste sikkerhetstiltak, utvikling av etiske retningslinjer og proaktive samarbeid mellom land og institusjoner.”

Tross ChatGPTs egne reservasjoner mener Schia i NUPI at det sannsynligvis vil være svært utfordrende og tidkrevende å få på plass et internasjonalt regelverk, men det er miljøer som jobber for dette nå, blant annet etter inspirasjon fra International Atomic Energy Agency (IAEA) og Facebooks Oversight Board. Også Microsoft har tatt initiativ til å utforme kjøreregler for utviklingen av denne teknologien.

– Det er ikke alltid internasjonale avtaler oppnår det man ønsker med dem, mange internasjonale avtaler brytes hele tiden. Sånn er det for eksempel med atomvåpen. Flere land, som for eksempel Nord-Korea, bryter reglene, og virkningene av internasjonale sanksjoner er i denne sammenheng begrenset. Akkurat nå er det stor splittelse og uenighet i verden, og globale kjøreregler for AI-teknologi kan bli vanskelig å få til, sier han og påpeker:

– Utvikling av ny teknologi har sjelden blitt stanset. Disse AI-modellene har jo også et fantastisk positivt potensial, men for at det positive potensialet skal realiseres er det et stort og akutt behov for et samarbeid mellom industri, stater og internasjonale organisasjoner. Her skal det nevnes at EU er langt fremme når det gjelder gode kjøreregler for teknologiutvikling. 

Reportasjer
Næringsliv