Bruk av kunstig intelligens ved HVO
Innan utdanning har kunstig intelligens (KI) stor påverknad. Ved hjelp av enkle instruksar i naturleg språk kan vi brukarar svært enkelt generere både tekst og video, og resultatet blir berre betre og betre. Dette påverkar i stor grad læring og arbeidsmetodar, og det må stillast høge krav til refleksjon over kva som er god og dårleg bruk av teknologien.
Bruker eg KI-baserte verktøy på ein god måte? For det er ikkje alltid like lett å trekkje ei klar grense, spesielt ikkje når slike verktøy er i stadig utvikling og endring. Samstundes er det rett og viktig å utnytte ny teknologi der det gagnar både oss som individ og samfunnet generelt. Potensialet er enormt. Høgskulen i Volda ønskjer å fokusere på korleis KI påverkar kvardagen ved høgskulen vår, korleis vi som brukarar kan reflektere oss fram til gode slutningar, og få innsikt i ulike perspektiv rundt bruk av KI i studiekvardagen.
ChatGPT frå OpenAI revolusjonerte og gjorde kunstig intelligens (KI) enkelt tilgjengeleg for heile samfunnet då tenesta blei lansert mot slutten av 2022. Sidan den gong er det vel knapt ein person i landet som ikkje på eit eller anna nivå har blitt kjend med ChatGPT og liknande verktøy.
KI er i rivande utvikling. Det som er dagens «sanning», er ikkje nødvendigvis det same i morgon. I dagens samfunn blir KI berre viktigare og viktigare å meistre etter kvart som tida går. Vi oppmodar til å utnytte teknologien som KI-verktøya byr på, på ein god, ansvarsfull og etisk forsvarleg måte.
Verktøy
Det finst mykje programvare til læringsstøtte der KI-basert funksjonalitet er framståande, og det er ei rivande utvikling på feltet. Det kjem stadig nye verktøy til, samtidig som KI-funksjonalitet blir bygd inn i stadig meir av den eksisterande programvara. Dette gjer det tilnærma umogleg for HVO å halde ved like eit sett «bruksreglar» som alltid er oppdaterte for all programvare.
Har du eit program eller ei teneste du er usikker på om du kan nytte? Her er ei sjekkliste som vil hjelpe deg vidare.
HVO tilbyr følgjande:
GPT-chat-teneste
Logg deg inn via Feide på https://chat.hivolda.no/.
HVO har valt å tilby Sikt si KI-chat-teneste. Denne nyttar same språkmodell som ChatGPT. Men der ChatGPT kun gir deg fordelane med GPT-teknologi og KI, og elles ønskjer å fråtse dei personlege dataa dine, så tek denne tenesta vare på personvernet ditt og datatryggleiken din. Du kan lese meir om tenesta på https://sikt.no/tjenester/sikt-ki-chat.
Lagring av data: inntil gule data.
Microsoft Copilot Chat
Logg deg inn via Feide på https://copilot.microsoft.com/.
Microsoft-lisensen for tilsette og studentar ved HVO inkluderer også tilgang til Copilot Chat. Copilot Chat er i rivande utvikling innan alle område der Microsoft-programvare er i bruk, og funksjonalitet som i skrivande stund er tilgjengeleg, er truleg endra og utvida når du les dette. Copilot Chat er også tilgjengeleg direkte i nettlesaren Edge.
Microsoft Copilot er ikkje eit frittståande produkt frå Microsoft. Copilot er Microsoft si satsing på KI, der dei jobbar med å byggje inn Copilot-funksjonalitet (KI) i alle applikasjonar dei tilbyr. Så får tida vise kva funksjonalitet dei vel å inkludere i lisensane HVO kjøper.
Lagring av data: inntil grøne data.
Universitetet i Oslo (UiO) har laga ein god introduksjon til Copilot på https://www.uio.no/tjenester/it/lagring-samarbeid/ms365/aktuelt/info-om-microsoft-copilot.html.
Autotekst
Autotekst ei teneste for automatisk transkribering av tale til tekst for både lyd og video. Tenesta er integrert i Panopto for transkribering av videofiler, og tenesta er tilgjengeleg via ei nettside (Feide-innlogging) for transkribering av lydfiler.
Lagring av data: inntil gule data.
Personvern
Kunstig intelligens bryt med dei fleste personvernprinsippa etter GDPR. Personvernforordninga, eller «kortare» sagt GDPR, er ei forordning i EU som er tatt inn i personopplysingslova. Det er eit rettsbasert regelverk for innbyggjarane i EU/EØS for å sikre at vi har rett til å vite korleis personopplysningane våre blir behandla.
Det er vanskeleg – om ikkje umogleg – å vite kva som skjer med opplysingar ein gir til kunstig intelligens. KI behandlar store mengder data, og rettane til sletting, innsyn og kunnskap om lagringsstad blir minimale. Ein veit heller ikkje kva dataa blir brukte til vidare. Alle desse momenta gjer at ein skal vere særleg merksam på bruk av personopplysingar inn i KI-verktøy.
Derfor bør du, før du tar KI i bruk, gjere ein del vurderingar med tanke på informasjonstryggleik og personvern.
Opphavsrett
I tillegg til å passe på at opplysingar ikkje kjem på avvegar, må du også ta tilsvarande omsyn for å vareta opphavsretten på materialet du gir KI-verktøy tilgang på. Åndsverklova regulerer dette i Noreg.
Dersom du har fått tilgang til ein vitskapleg artikkel som ligg bak betalingsmur, kan du ikkje leggje denne ein stad der andre får tilgang til han, fordi han er verna av opphavsrett og ikkje skal delast vidare. Å gi eit KI-verktøy tilgang til artikkelen kan føre til at andre får tilgang til han, og potensielt også føre til at kunnskapen frå artikkelen blir bygd inn i verktøyet og blir tilgjengeleg for alle som brukar det. Du risikerer derfor å bryte opphavsrettsreglane om du ikkje er forsiktig. Dette kan få både juridiske og økonomiske konsekvensar.
Det finst KI-verktøy som garanterer at dei ikkje gjenbruker og lagrar informasjon du legg inn. Sikre deg at dersom du skal bruke personopplysingar, vitskapleg arbeid eller anna som ikkje bør/skal lagrast/delast, så gjer du det i eit godkjent system. Gjer deg kjend med personverninnstillingar og lagringsløysingar for å vite kva som skjer med data du legg inn.
Det er også viktig å hugse på at KI-verktøy har blitt trena opp på store mengder data for å bli flinke til føremålet sitt. I mange tilfelle er det ukjent kva data dette er, og det kan vere problem knytte til om bruken var lovleg.
Etikk og samfunnsansvar
KI er trena på ei mengd data, og dersom algoritmane KI baserer seg på, er trena på ufullstendige eller skeivfordelte datasett, kan svar som du får frå KI, vere diskriminerande og ha bias – altså vere partiske eller fordomsfulle (forutinntatt). Dette kan føre til at KI reproduserer avgjerder basert på feil grunnlag og gir urettferdige og diskriminerande resultat. Det er derfor viktig å vere merksam på dette når ein baserer t.d. vedtak på svar frå KI.
For forsking, ved avgjerder og i forvalting er det viktig at det er transparens om avgjerder. KI kan med sine komplekse modellar og «svarte boksar» gjere det vanskeleg å forklare avgjerdsprosessar. Dette kan skade tilliten til forsking og forvalting og til bruken av teknologi. Det er derfor viktig å bruke KI-verktøy som er godkjende for det aktuelle risikonivået.
Tenk også over om du er i stand til å stå inne for det du har brukt KI til, både juridisk og etisk. Dersom du har brukt KI til faktainnhenting, kan du då verifisere at faktuma er slik som KI har svart? Dette er spørsmål du bør stille deg før du bruker KI i forsking, undervising eller til anna.
Forskningsetikk
KI kan gi mange moglegheiter og nyttige verktøy for forsking, men bruk av kunstig intelligensbasert teknologi må respektere etiske prinsipp, digital tryggleik og regelverk for personvern.
Før ein tar i bruk KI-verktøy må ein gjere naudsynte etiske vurderingar. Forskingetiske retningslinjer for HVO kan du finne her. Vidare har European Research Area Forum (ERA) utarbeida retningslinjer for ansvarleg bruk av generativ KI i forsking.
Nokre særleg viktige prinsipp:
- Forskarar er sjølv ansvarlege for det ein publiserer, og for validitet, originalitet og integritet i innhald generert av eller med hjelp frå KI-verktøy.
- Sikre at data er pålitelege, og ha ei kritisk tilnærming til resultat produsert av generativ KI. Ein bør verifisere informasjon og vere bevisst på avgrensingar ved verktøyet som blir brukt (t.d. bias, feil eller at verktøyet kan gi vilkårlege resultat frå same input).
- Sikre transparens og gi informasjon om kva KI-verktøy som har blitt nytta, korleis det har blitt brukt, og sikre rett referering i tråd med relevante retningslinjer.
- Sørg for å undersøke krav og retningslinjer frå vitskaplege tidskrift som vurderer bruken av KI i artiklar til publisering. Dersom ein har nytta KI i arbeidet, kan ein til dømes måtte skrive under på ei erklæring eller legge ved dokumentasjon på korleis KI er blitt brukt.
- Ein bør følge med på den vidare utviklinga av KI-verktøy og oppdatere seg på rettleiingar for bruk og korleis ein kan nytte verktøya best mogleg.
- Ta omsyn til personvern, konfidensialitet og immaterielle rettar når du skal dele informasjon med KI-verktøy. Ein bør undersøke personverninnstillingane til verktøyet, og som elles følgje eksisterande lovverk og retningslinjer i forskingsprosessen.
- Ansvarleg bruk av KI-verktøy inkluderer også respekt for kollegaer, omsyn til forskingsdeltakarar, miljøverknader og sosiale verknader (t.d. knytte til bias og diskriminering).
- Ver varsam med bruk av KI i aktivitetar som kan få stor innverknad på andre forskarar eller organisasjonar, og som kan innebere risiko for urettferdig behandling/vurdering på gurnn av avgrensingar ved KI-verktøyet, eller som kan medføre deling av materiale som ikkje kan delast.
Anna lovverk som regulerer bruk
Ei EU-forordning som skal regulere utvikling og bruk av KI. AI Act klassifiserer bruk og utvikling av KI i fire ulike risikokategoriar. Dette betyr at krava ein må innfri, avheng av kva kategori risikoen ligg i. Før ein tek i bruk KI, må ein altså aller først finne ut kva kategori ein skal operere i. Bruk av KI for HVO vil vere i fleire kategoriar, men vi hamnar på høg risiko på viktige arenaer for oss. Dette gjeld vurderingar av eksamen og studentarbeid og dessutan rekruttering. Krava då er at vi må risikovurdere og dokumentere korleis vi minimerer sårbarheitene i bruken av KI. AI Act har ikkje tredd i kraft i norsk lov, men vil kome – så derfor er det viktig at vi er merksame på denne.
E-postforskrifta
KI kan brukast som eit verktøy som raskt og enkelt kan samle og analysere store mengder personlege data om tilsette sin bruk av elektronisk utstyr og internett. Slik overvaking er regulert av arbeidsmiljølova og e-postforskrifta. Bruk av KI til dette kjem inn under regelverket. KI-systema kan også feiltolke, sidan dei framleis er under utvikling. Overvaking ved bruk av KI som gjer det enklare for «sjefen» å følge med, kan skape mistillit mellom arbeidstakar og arbeidsgivar, noko som kan påverke arbeidsmiljøet. Slike verktøy er ofte utvikla av USA-baserte bedrifter/organisasjonar.