GAI kan ikke tage mennesker ud af ligningen
Der kan være mange fordele i at inkorporere generativ kunstig intelligens i undervisningen. Men GAI kan både være fejlfuld og partisk, hvorfor det er vigtigt, at både undervisere og de studerende lærer at benytte teknologien korrekt og i rette sammenhæng.
I forbindelse med udbredelsen af ChatGPT i november 2022 har videregående uddannelsesinstitutioner drøftet, hvordan man inkorporerer generativ kunstig intelligens (GAI) i uddannelserne. Den nemme adgang til GAI'er, som eksempelvis ChatGPT eller Microsoft Copilot, åbner for mange muligheder, men også udfordringer for undervisere og de videregående uddannelsesinstitutioner.
"En stor fordel er for eksempel, at GAI giver underviserne mulighed for at skabe mere tilpasset læringsindhold, hvilket ellers ville være for tidskrævende. De kan eksempelvis bruge GAI til at analysere de studerendes læring for derefter at generere alternative eksempler, opgaver eller yderligere materiale, der er skræddersyet til de studerendes specifikke læringsbehov. En mere personlig læringsoplevelse kan forbedre de studerendes engagement og føre til en dybere forståelse," fortæller Christopher Neil Prilop, der er lektor i anvendt læringsteknologi ved CED.
"Men der er også nogle risici og udfordringer ved GAI. For eksempel præsenterer GAI som ChatGPT eller Microsoft Copilot deres output på en troværdig måde, selvom oplysningerne kan være forkerte eller partiske. Derfor skal de studerende have tilstrækkelig viden om faget til at vurdere outputtet. Desuden er de åbent tilgængelige Large Language Models drevet af kommercielle interesser, hvilket giver anledning til bekymring i forhold til databeskyttelse og sikkerhed," uddyber han.
GAI kræver AI literacy
Undervisere på videregående uddannelser skal være i stand til at navigere i mulighederne og udfordringerne ved at bruge GAI i deres undervisning. Først og fremmest skal de forstå teknologien og dens begrænsninger:
"Det inkluderer også de studerendes fejlopfattelser. En undersøgelse foretaget af DJØF sidste år viste, at et stort antal studerende anså GAI, som eksempelvis ChatGPT, som en søgemaskine. Det er præcis, hvad GAI ikke burde bruges til, da chatbotten genererer output baseret på en statistisk model. ChatGPT er rent ud sagt en gættemaskine, der kan præsentere forkerte eller partiske oplysninger," understreger Tom Gislev Kjærsgaard.
Tom Gislev Kjærsgaard er udviklingskonsulent hos CED. Sammen med Christian Winther Bech, der er IT-koordinator ved CED, har han afholdt faglige udviklingskurser om GAI for mere end 600 medarbejdere på AU.
"I begyndelsen anså nogle undervisere GAI som en trussel imod uddannelserne. Nu kan de se muligheder i GAI i forhold til deres pædagogiske praksis," siger Christian Winther Bech.
Han fortsætter med at forklare, at for at man kan implementere GAI meningsfuldt i undervisningen, skal underviserne overveje, hvordan de afbøder mulige risici, såsom at de studerende kommer til at stole for meget på de GAI-genererede svar. Det kræver, at både undervisere og studerende har AI literacy, for at de kan træffe informerede beslutninger.
Brug af GAI i feedbackprocesser
En del af pædagogisk AI literacy er evnen til at vurdere, om GAI-værktøjer kan forbedre de studerendes læringsoplevelse:
"GAI-værktøjer er netop kun det - et værktøj - der har potentiale til at forbedre de studerendes læringsoplevelse, men som også kan medføre ugunstige resultater. Som med al anden læringsteknologi fører brugen af GAI ikke nødvendigvis til læring. For at forbedre de studerendes læringsoplevelse er det afgørende, at man målrettet indarbejder GAI i læringsprocessen," påpeger Christopher Neil Prilop.
Et af Christopher Neil Prilops primære forskningsområder er feedback i digitale miljøer. Feedback har vist sig at være et af de mest effektive greb, man kan tilbyde studerende på videregående uddannelser. Men det er krævende at give de studerende feedback af høj kvalitet:
"Feedbackprocesser er ekstremt tidskrævende og øger universitetsundervisernes store arbejdsbyrde. Derfor gives ekspertfeedback fra en underviser kun i begrænset omfang på videregående uddannelser. Som følge deraf er der allerede flere forskningsprojekter, der undersøger, i hvilket omfang GAI kan være behjælpelig med at give feedback," fortæller Christopher Neil Prilop.
Han tilføjer, at forskning viser, at feedback fra en GAI klarer sig bedre på et overfladisk niveau end ekspertfeedback, og at det af de studerende faktisk opfattes som mere troværdigt end ekspertfeedback. Men selvom disse resultater umiddelbart ser ud til at tilbyde en måde at give mere vidtstrakt feedback til de studerende, har Christopher Neil Prilop en anden opfattelse:
"For mig er disse resultater faktisk mere alarmerende end lovende. Feedbackprocesser er komplekse interaktioner. GAI forstår ikke dybere mening eller kontekst. Det betyder, at feedbacken altid vil være på et overfladisk niveau. GAI tager ikke hensyn til interpersonelle faktorer. Dette kan føre til feedback, hvor der ikke tages højde for feedbackmodtagernes kognitive eller metakognitive natur eller motivation, hvilket kan betyde, at den studerende ikke tager feedbacken til sig.
Selvom det højere niveau af tillid til GAI-feedback kan skyldes en nyhedseffekt, kan det også være baseret på de studerendes fejlopfattelser af teknologien. De kan måske tro, at oplysningerne fra GAI'en er 100 % korrekte:
"Hvis vi tror, at en maskine kan gøre det samme eller et bedre job end et menneske, så devaluerer det feedback. Som følge heraf vil de studerende lægge mindre vægt på feedbackprocesserne. Vi ved, at det at give og modtage feedback får de studerende til at engagere sig mere i deres opgaver og fører til dybere læring. Så 'outsourcing' af feedback kan være skadeligt for de studerendes læringsproces. Derfor bør GAI bruges til at understøtte og forbedre feedbackprocesser, ikke til at tage mennesker ud af ligningen," konkluderer Christopher Neil Prilop.