Policy for kunstig intelligens ved OsloMet - Student

Statisk artikkel (global)

Policy for bruk av kunstig intelligens (KI) ved OsloMet

Kunstig intelligens (KI) gir nye muligheter på en rekke områder. Teknologien påvirker undervisning, forskning og hvordan vi utfører og forvalter oppgavene våre.

Ettersom KI utvikler seg, oppstår nye etiske, pedagogiske og tekniske spørsmål. For å navigere i dette skiftende landskapet og for å være forberedt på det ukjente, har universitetet utarbeidet en overordnet policy for hvordan vi skal møte og bruke KI ved OsloMet.

Gjennom denne policyen ønsker OsloMet å fremme bruk av KI – og samtidig presentere noen sentrale hensyn det er viktig å være oppmerksom på når man vurderer å ta i bruk og bruker ulike KI-verktøy. Policyen er overordnet og ment å gi retning for mer konkrete råd og veiledninger for universitetets ansatte og studenter.

Kunstig intelligens er i rask utvikling. Denne policyen er generell og ikke avgrenset til bestemte typer KI-teknologier eller verktøy.

Ved OsloMet skal vi:

  • utforske hvordan kunstig intelligens kan berike våre pedagogiske tilnærminger, forbedre forskningsmetodikkene våre, og våre administrative tjenester.
  • bruke kunstig intelligens på en etisk, trygg og ansvarlig måte. Vi skal ha gode veiledningstjenester og tilrettelegge for kritisk refleksjon. Denne policyen er et bidrag til dette.
  • legge til rette for at studenter og ansatte kan utvikle kompetanse i bruk av kunstig intelligens og har tilgang til nødvendig informasjon om KI-verktøy.
  • samarbeide nasjonalt og internasjonalt for å dele erfaringer om ansvarlig og god bruk av kunstig intelligens.

Samtidig som vi skal legge til rette for utvikling og bruk av KI er det viktig å være klar over risikoene, særlig når man benytter ny teknologi. Vær særlig oppmerksom på:

  • teknologi under utvikling: Vær bevisst at KI og verktøyene er under utvikling. Mange verktøy slippes på markedet mens de er under utprøving. Vær kritisk til hva verktøyet kan gjøre, hvor nøyaktig det er, om det faktisk kan brukes til det aktuelle formålet.
  • verktøyenes begrensninger: Vær oppmerksom på verktøyenes begrensninger og at disse kan gi resultater som er unøyaktige, gale, eller også vilkårlige. Verktøyene kan identifisere mønstre eller sammenhenger i data, men ikke nødvendigvis skille mellom hva som er direkte årsakssammenhenger og hva som er korrelasjoner. Det er ikke sikkert de kan forstå allmennkunnskap, prioritere informasjon eller fortolke subtile språkdetaljer. Dataene verktøyene produserer må tolkes og anvendes på en måte som tar hensyn til kontekst og begrensningene i hva verktøyet kan gjøre.
  • transparens: Vær åpen om bruk av KI-verktøy og referer på riktig måte. Unngå plagiat ved å sjekke informasjonen og oppgi både bruk av KI og kildene KI-verktøyet oppgir.
  • kildekritikk: Kildekritikk er viktig ved bruk av KI. Akkurat som et søk på nettet kan gi lenker til gammel informasjon, kan KI-verktøy gi informasjon som er utdatert, feilaktig eller også generert uten substansielle kilder (hallusinering). Vurder verktøyets kilder og faktasjekk alltid dataene verktøyene produserer.
  • bias og diskriminering: Verktøyene er bare så gode som de dataene den er trent opp i. Ligger det skjevheter i dataene som verktøyene er trent opp i, vil verktøyet kunne reprodusere disse. Dette kan for eksempel resultere i skjevheter i kulturelle verdier og diskriminerende holdninger.
  • replikasjon og den «svarte boksen»: En utfordring med en del KI-verktøy er mangelen på gjennomsiktighet og hvordan systemene genererer resultater eller trekker konklusjoner. Det kan være vanskelig å forklare nøyaktig hvordan en KI-konklusjon ble til. Det er viktig å være bevisst og oppmerksom på denne problematikken.
  • menneskelig ansvar: Husk at det er vi mennesker som har ansvar for om og hvordan vi bruker KI, og om og hvordan vi i så fall bruker resultatene. Om KI brukes til beslutningsstøtte er det mennesker som må forstå hvordan KI-verktøy virker og ta ansvar for avgjørelser som fattes. KI kan misbrukes eller brukes på måter som gir utilsiktede konsekvenser. Bruk av KI må alltid gjøres med menneskelig dømmekraft og kontekstuell forståelse.
  • personvern: Vær oppmerksom på hvilke KI-verktøy som kan brukes med hvilke typer data. Skal man for eksempel bearbeide persondata må man sikre at verktøyet man bruker er godkjent for den type data man skal bearbeide.
  • bærekraft: KI-verktøyenes lagring og dataprosessering krever mye energi. Vær oppmerksom på at jo større modeller og jo mer kompliserte algoritmer, jo mer energi krever de.
  • vanlige lover og regler gjelder: Eksisterende lover, forskrifter og retningslinjer gjelder også når man bruker KI. Vær særlig oppmerksom på regelverk som omhandler personvern, informasjonssikkerhet og fusk/plagiering.

Teknologiutviklingen krever at vi stadig vurderer situasjonen og at vi har en pågående diskusjon på universitetet om hvilken kompetanse vi trenger og hvordan teknologien skal brukes. Policyen gir et rammeverk for etisk og ansvarlig bruk av KI hos OsloMet og gir retning for mer konkrete råd og veiledninger for universitetets ansatte og studenter.