Stikkord: Kunstig intelligens

Slik kan KI brukes i beredskap

Se for deg følgende scenario som utspiller seg i Nordsjøen. Klokken 2 natt til søndag begynner trykket i subsea-rørledningen som frakter gass fra prosessanlegget i Norge til Europa plutselig å falle, og kontrollsystemene opplever også uvanlige signaler og uregelmessigheter. Kan kunstig intelligens (KI) brukes til å effektivisere håndtering og beslutningstaking i en slik beredskapssituasjon?

La oss legge den død med en gang; KI har kommet for å bli. Og det tas allerede i bruk på ulike nivåer i beredskapsarbeid i dag. Kunstig intelligens (KI) har et enormt potensial for å forbedre beredskap og respons i nødsituasjoner. Ved å utnytte KI-teknologi kan virksomheter bedre forutsi, oppdage, reagere på og håndtere ulike typer kriser, fra naturkatastrofer til menneskeskapte hendelser.

Men først, hvordan kan vi sikre oss at KI blir brukt på den mest effektive og ansvarlige måten?

– Vi mennesker er sårbare for store mengder informasjon som skal prosesseres. Det er her KI kan hjelpe oss med å sortere og strukturere informasjonsmengden. KI kan for eksempel hjelpe beslutningstakere ved å gi sanntidsanalyser og prognoser basert på tilgjengelige data, med andre ord produsere beslutningsstøtte Dette kan være spesielt nyttig i kaotiske situasjoner hvor raske beslutninger er avgjørende. Men, og dette er et stort, men; vi må allikevel bruke vår menneskelige kritiske tenkning siden KI ikke stiller kritiske spørsmål ved om vi nå foretar de rette valgene, og heller ikke kan ta beslutningene for oss, sier Hanne Cook, beredskaps- og sikkerhetsekspert i Proactima.

Hanne Cook og kollega og innovasjonsekspert Surbhi Bansal sto nylig på scenen under årets Beredskapskonferanse og forklarte hvordan KI kan brukes til å effektivisere håndtering og beslutningstaking i beredskapssituasjoner.

Så hvordan kan vi egentlig bruke KI i beredskapssituasjoner?

– KI-modeller kan brukes til å identifisere mønstre eller avvik i data. Dette kan være nyttig for å oppdage uautorisert aktivitet, som sabotasje eller terrorangrep, samt for å overvåke cybersikkerhet og oppdage hackingforsøk. Når det gjelder overvåking, kan KI-brukes til å overvåke kritisk infrastruktur som broer, veier og bygninger for å oppdage strukturelle svakheter eller skader. KI kan også brukes til å automatisere repetitive oppgaver, som å sende ut nødvarsler, sortere informasjon og koordinere innsatsstyrker. Dette frigjør menneskelige ressurser til å fokusere på mer komplekse oppgaver, forklarer Surbhi.

Er det trygt å bruke KI for å utarbeide beslutningsstøtte i en beredskapssituasjon?

– Selv om KI kan hjelpe oss med å forbedre vår situasjonsbevissthet gjennom produksjon av beslutningsstøtte, er spørsmålet hvordan risikobildet blir når man introduserer KI i håndteringen av beredskapssituasjoner. Å introdusere KI-baserte systemer er som å introdusere enda mer usikkerhet og risiko i et allerede komplekst system. KI kan ikke ta vurderingen for deg og datakvaliteten er avgjørende. I beredskapssammenheng er ikke slike oppgaver uten risiko. KI kan også medføre usikkerhet, risiko, flaskehalser og dårlige forklaringer. Dette kan ofte bety at virksomheten ikke har tilstrekkelig forståelse for hvordan de skal kontrollere og verifisere KI-produsert produksjon og i hvilken grad beslutningstakere bør stole på dem, utdyper Surbhi.

F.v: Hanne Cook og Surbhi Bansal under Beredskapskonferansen 24. mai 2024.

Et (ikke helt usannsynlig) beredskapsscenario

Tilbake til scenarioet vårt. Siden vi allerede vet at kritisk infrastruktur vurderes som sannsynlige mål ut fra den sikkerhetspolitiske situasjonen i Norge, er det snakk om sabotasje eller er det teknisk feil?

— I vårt undervannspipelinescenario kan KI brukes til å oppdage uautorisert tukling med utstyr, overvåke fartøybevegelser i nærliggende og høysikkerhetsområder, samt oppdage mistenkelige aktiviteter i nettverket. Innen overvåking og monitorering brukes allerede KI-assisterte droner til å patruljere sensitive områder. De har også stort potensial for å samle data og estimere gasspredningens bane dersom rørledningen begynner å lekke. Deretter kan KI brukes til å fjernstyre leveringen av nødvendig utstyr og verktøy for raskt å reparere rørledningen, forklarer Surbhi og legger til at KI også kan brukes for kommunikasjon, talegjenkjenning og oversettelser i koordineringsarbeidet med relevante interessenter, forklarer Surbhi.

Ikke glem menneskelig kritisk tenking

Hanne og Surbhi forklarer at utfordringene med KI forsterkes når vi skal håndtere en beredskapssituasjon – ettersom disse situasjonen gjerne opptrer sjeldent, er kjennetegnet av stress, høyt tempo og høy grad av usikkerhet. For at KI skal kunne gi økt effektivitet og gi god beslutningsstøtte i en beredskapssituasjon, oppfordrer Hanne og Surbhi til å ha:

  • Forståelse av hvordan teknologien fungerer  
  • Forstå hvordan maskinene kommer frem til det de viser oss  
  • Forstå hvordan menneskelige faktorer spiller inn i en beslutningstakingsprosess  
  • Human in the loop – kunnskap om menneskelige faktorer om bruk av KI-modeller i beredskapshåndtering – for å unngå fallgruvene som oppstår når mennesker skal fungere sammen med maskiner i en kritisk situasjon

Proactima benytter allerede i dag KI-støtte for å effektivisere risikoanalyser, gjennom verktøyet vårt Dmaze. Vi har allerede kommet langt i å bruke KI til å effektivisere prosessene før det skjer en hendelse; risikoanalyser, øvelsesplanlegging, støtte til utarbeidelse av beredskapsplan, gjennomføring av øvelse/trening osv.

Vil du vite mer om hvordan vi bruker KI i beredskapsarbeid i dag, eller ønsker du innspill til hvordan din virksomhet bør arbeide med KI i beredskapen? Ta kontakt med oss for en prat!

EUs kommende regelverk for KI – hva betyr det for risikostyringen til din virksomhet?

Som del av SIITS-prosjektet leder Proactima en casestudie for å identifisere de praktiske konsekvensene av EUs kommende regelverk for utvikling og risikostyring av systemer med KI. Casestudien tar utgangspunkt i Disruptive Engineerings løsning for registrering og analyse av veitrafikk.

Det foregår en rivende teknologisk utvikling innenfor området Kunstig intelligens (KI) som kan ha store sosiale og økonomiske nytteverdier for samfunnet, blant annet innen klima, helse, offentlig forvaltning og infrastruktur og transport. Imidlertid er det også knyttet en stor grad av nye former for risiko til KI, som kan skape negative konsekvenser for både enkeltindivider og samfunn.

– KI kan bidra med mange nye spennende løsninger, men for oss som jobber med risikohåndtering er det viktig å ha kunnskap om hvilke nye former for risiko vi må adressere og håndtere, sier Rune Winther, leder for Utvikling og Innovasjon i Proactima.

Dette er forhold som EU også har jobbet mye med den senere tiden. EU-kommisjonen la i april 2021 fram forslag til et risikobasert regelverk for kunstig intelligens (KI). Kommisjonen tar sikte på å adressere de risikoene som oppstår ved bruk av kunstig intelligens. Målsetningen er å utvikle et rammeverk slik at KI-utviklere og brukere har et godt fundament for hvordan de kan benytte og implementere KI på en trygg, sikker og samfunnsnyttig måte.

Dette er også et viktig område i SIITS-prosjektet, hvor Proactima leder et bredt konsortium av selskaper som med støtte fra Norges Forskningsråd fokuserer på sårbarheter i fremtidens integrerte intelligente transportsystemer (se mer informasjon www.siits.no).

 – Vi skal gjennomføre en case studie for å identifisere og evaluere de praktiske konsekvensene av regelverket for utvikling og risikostyring av systemer med KI-komponenter EU nå har på høring, og bl.a. identifisere hvilke konkrete føringer regelverket legger for det risikostyringsrammeverket vi jobber med i SIITS, forteller Winther.       

– Det er viktig for å sjekke ut at vår måte å jobbe på, og tilretteleggelsen for fremtidens transportsystemer i Norge, er i tråd med det nye regulativet.

Case studien er en aktivitet som ledes av Rune Winther i Proactima, med støtte fra en rekke partnere i SIITS-prosjektet. Det konkrete caset hentes fra Disruptive Engineering, et selskap som er partner i SIITS, og som har spesialisert seg på sanntids datainnsamling og modellering av trafikk- og kjøretøyinformasjon ved hjelp av sensorer i veibanen.

Risikobasert tilnærming

– Det foreslåtte rammeverket for KI bygger på en risikobasert tilnærming, med inndeling i tre ulike risikonivåer ved bruk av KI: uakseptabel risiko (ikke lov å benytte KI), høy risiko (krav til risikostyring), og lav /minimal risiko (få formelle krav), forteller Winther.

– Det vi gjør i denne case studien er å anvende det foreslåtte regelverket på et system som benytter KI, og som har potensielle bruksområder av betydning for sikkerhet i veitrafikk. Regelverkets definisjoner av KI og «high-risk» vil være avgjørende, og det er av interesse å evaluere hvordan dette slår ut i forskjellige situasjoner. I mange tilfeller vil man kunne løse en oppgave både med og uten bruk av KI, og det kan bli et spørsmål om bruken av KI er verdt den ekstra innsatsen dette nye regelverket krever, sier Winther.

Det er derfor viktig at alle som tar i bruk KI som kan bli klassifisert som «high-risk» er klar over hva regelverket betyr for sine systemer, og for SIITS-prosjektet er det viktig at det rammeverket vi utvikler gir den praktiske støtten disse aktørene trenger, understreker han.

KI høres i utgangspunktet forlokkende ut. Men det er åpenbart noen utfordringer knyttet til bruken som må adressers og som blant annet EU nå har satt på agendaen. Hvilke utfordringer ser du?

-Det foreslåtte regelverket legger den formelle rammen og beskriver hvilke situasjoner vi må tilpasse risikostyringen til, men det sier ikke noe om hvordan. Det er en utfordring, understreker Winther.

Det nevrale nettet i KI

– Å forstå hvordan KI fungerer er også et annet viktig tema. Statistiske metoder er relativt enkle å forstå, men har sine begrensinger. KI, i form av nevrale nett, fungerer ofte mye bedre, men er langt på vei en «black box» vi ikke helt kan vite hvordan fungerer. Vi kan se at det fungerer når vi tester det, men manglende transparens bryter med grunnleggende prinsipper for risikostyring som bygger på at vi vet hva som foregår, sier Rune Winther.

 – Dilemmaet er at hvis vi skal utnytte det største potensialet i KI, gir vi langt på vei fra oss muligheten til å forstå. Dette er åpenbart utfordrende, sier Winther. – MEN, det betyr ikke at vi skal unnlate å bruke KI. Tvert imot, vi skal utnytte det potensialet KI gir så mye som mulig, samtidig som vi gjør det på en sikker og forsvarlig måte, understreker han. – Det er også hensikten med EUs regulering; utnytte potensialet og mulighetene – utvide grensene, men samtidig ha kontroll gjennom risikostyring, avslutter Rune Winther.

Casestudien er forventet ferdigstilt innen utgangen av 2022. Resultatene vil bli oppsummert knyttet til det rammeverket for risikostyring som utarbeides i SIITS, men også identifisere relevante anbefalinger for aktører som utvikler KI-baserte løsninger.