Ondanks de gevaren en nadelen van het gebruik van AI, zoals datalekken, AVG-schending, ethische bezwaren willen we het gebruik van ChatGPT en andere generatieve AI niet verbieden. Onze studenten zullen hier in het werkveld ook mee in aanraking komen. En het gebruik van AI neemt alleen maar toe. We willen dat onze studenten en docenten met AI leren werken. Wees wel voorzichtig met het gebruik van AI en de kennis(data) die je deelt.
Hanteer de volgende algemene principes voor verantwoord gebruik van GenAI (KU Leuven, 2024a):
Richtlijnen groene hbo instellingen: de groene hogescholen zijn bezig met het opstellen van richtlijnen of hebben richtlijnen opgesteld specifiek voor de individuele instelling. Raadpleeg de richtlijnen van jouw hogeschool voordat je aan de slag gaat met AI binnen onderwijs en onderzoek.
Het is nooit toegestaan om werk dat volledig door GenAI is ontwikkeld in te leveren als eigen werk. Als dit wel gebeurt, wordt dit beschouwd als fraude en gelden de definities van fraude/plagiaat zoals omschreven in de Onderwijs- en examenregelingen (OER) van de opleiding. Het advies is dan ook om het OER van je eigen opleiding te raadplegen. Hierin kan het gebruik van GenAI ook specifiek omschreven zijn.
Naast algemene principes zijn er ook specifiekere principes en richtlijnen per doelgroep om rekening mee te houden:
Het is handig om bij het beoordelen van generatieve AI-output een systematische aanpak te hanteren. Hiervoor bestaan verschillende raamwerken, zoals de CRAAP-test, die specifiek is ontwikkeld voor het beoordelen van bronnen, of het EDIT-stappenplan, dat gemaakt is voor het werken met output van taalmodellen (e.g. ChatGPT).
Gebruik het CRAAP-test invulformulier. Beantwoord de vragen en geef daarbij steeds een score van 1-10. De opgetelde score geeft je een idee van de kwaliteit van de output. Het EDIT-stappenplan wordt uiteengezet bij de tab Prompt engineering van deze library guide.
Hier volgt een samenvattend overzicht van de criteria voor kritische evaluatie uit deze raamwerken (Last & Sprakel, 2024):
Je kunt ook de volgende beslisboom (Aleksandr Tiulkanov, 19 januari 2023) inzetten om te bepalen of het veilig is om een taalmodel (e.g. ChatGPT) te gebruiken voor je taak.
Het hangt van de wijze van gebruik van GenAI af in hoeverre er wel of niet naar gerefereerd wordt.
Volg voor refereren (en citeren) van generatieve AI volgens de APA-richtlijnen (de meest gebruikte referentiestijl in het groene hbo) de volgende richtlijnen opgesteld door de Werkgroep APA:
Net als bij andere bronnen wordt in de tekst de naam van de auteur en het jaar vermeld. Bij GenAI wordt het bedrijf dat de tool heeft ontwikkeld als auteur vermeld.
In de bronnenlijst worden volgens de Amerikaanse richtlijn naast ontwikkelaar en jaartal de titel (cursief), versie (tussen ronde haakjes), omschrijving [tussen vierkante haakjes] en weblink genoemd:
De Werkgroep APA volgt het advies om geen raadpleegdatum (Geraadpleegd op …) te noemen. Voor een verslag wordt soms een langere periode gebruik gemaakt van GenAI, het noemen van de raadpleegdatum voegt dan weinig toe.
Bij sommige GenAI volgen de versienummers zich in snel tempo op of worden niet duidelijk vermeld. In die gevallen adviseert de werkgroep het versienummer achterwege te laten. In het geval van ChatGPT werd in het eerste jaar gebruik gemaakt van een datumversie maar inmiddels wordt deze niet meer genoemd. Bij ChatGPT kan wel het versienummer worden vermeld: GPT-4o mini voor gratis, GPT-4o voor betaald. Ook het jaartal of datum is niet altijd terug te vinden, noteer bij twijfel z.d. (=zonder datum).
In de beschrijving tussen vierkante haakjes wordt bij GenAI die geschreven opdrachten verwerken [Generatieve AI] genoteerd. Het type generatieve AI, bijvoorbeeld geschreven of gesproken, wordt niet gespecificeerd. Zie voor voorbeelden de handleiding.
Download 'De APA-richtlijnen uitgelegd: Generatieve AI' - Versie 1.0 (pdf)
Refereren is de eerste stap om transparant te zijn (KU Leuven, 2024). Een goede werkwijze om transparant te zijn, is zelf bijhouden wanneer, hoe en waarom je GenAI hebt gebruikt. Er kan hiernaar gevraagd worden. Het bijhouden kan verschillende vormen aannemen, bijvoorbeeld:
Er kan misbruik gemaakt worden van AI, bijvoorbeeld door studenten. Teksten die gegenereerd zijn door GenAI zullen in de toekomst door de digitale ontwikkelingen steeds moeilijker te onderscheiden zijn van zelfgeschreven teksten. AI-detectietools zijn alleen in staat om aan te kunnen geven of er bepaalde tekstpatronen voorkomen die kunnen duiden op het gebruik van GenAI en zijn daardoor niet betrouwbaar om fraude door GenAI aan te tonen. Toch kunnen bepaalde indicatoren wijzen op misbruik (Last en Sprakel, 2024):
Als hulpmiddel vind je op de site aischolen.nl een handige checklist voor het herkennen van AI-teksten.
Misbruik van AI kan natuurlijk niet alleen in onderwijs plaatsvinden maar ook buiten het onderwijs. Zoals deep fake of voice cloning. Dat bestond al voor AI maar is nu nog makkelijker geworden (Neumann, 2024). Maar hoe herken je een fake (gemaakt door AI)?
De basics: check je bron, controleer metadata, analyseer de context.
Let op de kenmerken:
Beoordeel:
In het tijdperk van AI moeten studenten voorbereid worden om actieve mede-producenten van AI te worden, evenals toekomstige leiders die vorm zullen geven aan nieuwe iteraties van de technologie en de relatie ervan met de maatschappij zullen bepalen. Dit is precies de ambitie van UNESCO's AI-competentiekader voor studenten - het eerste wereldwijde kader in zijn soort. Het is gericht op het ondersteunen van de ontwikkeling van kerncompetenties voor studenten om verantwoordelijke en creatieve burgers te worden, die zijn toegerust om te gedijen in het AI-tijdperk. Dit zal studenten helpen de waarden, kennis en vaardigheden te verwerven die nodig zijn om AI kritisch te onderzoeken en te begrijpen vanuit een holistisch perspectief, met inbegrip van de ethische, sociale en technische dimensies.
UNESCO's AI-competentiekader voor docenten definieert de kennis, vaardigheden en waarden die docenten moeten beheersen in het tijdperk van AI. De publicatie is ontwikkeld op basis van de principes van bescherming van de rechten van docenten, versterking van menselijk handelen en bevordering van duurzaamheid. Het beschrijft 15 competenties in vijf dimensies: mensgerichte mindset, ethiek van AI, AI-fundamenten en -toepassingen, AI-pedagogiek en AI voor professioneel leren. Deze competenties zijn onderverdeeld in drie niveaus: verwerven, verdiepen en creëren. Als wereldwijde referentie biedt deze tool strategieën voor docenten om AI-kennis op te bouwen, ethische principes toe te passen en hun professionele groei te ondersteunen.
Om GenAI goed te kunnen inzetten binnen onderwijs en onderzoek moet er aandacht geschonken worden aan digitale geletterdheid: kritische vaardigheden die nodig zijn voor effectief leren en werken in de hedendaagse digitale samenleving, en dus voor werken met GenAI. We treden een tijdperk binnen waarin echt en nep steeds lastiger van elkaar te onderscheiden zijn. Kritisch denken wordt dan ook steeds belangrijker (Last & Sprakel, 2024).
Maak gebruik van de publicatie Wijs met techniek, een gids met praktische werkvormen voor ethisch reflecteren op de impact van techniek waarmee je direct aan de slag kunt in je onderwijs en onderzoek (Last & Sprakel, 2024).
Ondertussen wordt er naast digitale geletterdheid ook gesproken over AI-geletterdheid, ofwel de competenties die nodig zijn om AI-technologieën kritisch te kunnen evalueren, er effectief mee te kunnen communiceren en mee samen te werken, zowel thuis als op de werkplek, zodat studenten klaar zijn voor een wereld vol AI (Last & Sprakel, 2024). Lees meer over AI-geletterdheid in de publicatie In zeven minuten bijgepraat over... AI-Geletterdheid.
In 2009 maakten hoogleraar Onderwijswetenschappen Brand-Gruwel en collega’s een model dat vijf kerncompetenties beschrijft voor digitale informatievaardigheden (het oplossen van informatieproblemen in het digitale tijdperk, één van de domeinen binnen digitale geletterdheid). De komst van generatieve AI maakte een update van het model voor digitale informatievaardigheden noodzakelijk. Docent en phd-onderzoeker didactiek van digitale informatievaardigheden Josien Boetje definieert de volgende kerncompetenties in het GenAI-informatiegeletterdheidmodel, haar update van het model van Brand-Gruwel (Boetje, 2023):
Deze competenties stelt studenten in staat AI te gebruiken als een hulpmiddel en niet als vervanging voor hun eigen denken. Tijdens het hele proces is het monitoren en bijstellen belangrijk. Denk hierbij aan het herformuleren van een prompt bij het verkrijgen van een niet-passend antwoord; het selecteren van de juiste AI-tools passend bij het probleem en de gewenste output, weten wanneer je wel of niet AI in wilt zetten. Voorwaarden om de genoemde kerncompetenties effectief toe te passen zijn:
Tenslotte is er het Digital Competence Framework for Citizens (DigComp) - ontwikkeld door het Joint Research Centre, een onderzoeksorgaan van de Europese Unie (Daniels, 2023). Het raamwerk beschrijft de digitale competenties voor burgers voor het leren, leven en werken in een digitale samenleving. Het kan als basis dienen voor de ontwikkeling van lesmaterialen en eigen curricula. Bij de beleidsplannen van de Europese Unie op het gebied van kwalitatief, inclusief en toegankelijk digitaal onderwijs, zoals beschreven in het Digital Education Action Plan 2021-2027, heeft DigComp als uitgangspunt gediend. En in opdracht van de HAN is er de zelfscan digitale geletterdheid studenten ontwikkeld op basis van DigComp. Zie ook de DigComp website.
Het conceptuele referentiemodel van DigComp:
Geldende regelgeving rondom auteursrechten, AVG en security zijn ook van toepassing op AI-gebruik.
Bij het ontwikkelen en gebruiken van AI bestaat de neiging om zoveel mogelijk gegevens te verzamelen. Hierbij is de aanname dat hoe meer data wordt gebruikt om de systemen te trainen, hoe beter deze systemen worden. Dit betekent dat er een perverse prikkel kan ontstaan om te veel, te lang en onnodig veel data te verzamelen, bewaren en verder te verwerken (Autoriteit Persoonsgegevens, z.d.). Inclusief de gegevens die de gebruiker van AI invoert. Wees dus uiterst voorzichtig bij het gebruik van AI en vermeld geen persoonsgegevens of bedrijfsgevoelige informatie. Volg de regels bij gebruik van AI & algoritmes.
De AI-verordening komt eraan: de eerste uitgebreide wet over kunstmatige intelligentie ter wereld. De verordening gaat gefaseerd in en zal medio 2027 geheel van kracht zijn. Een aantal AI-systemen is waarschijnlijk vanaf eind 2024 al verboden. In de AI-verordening staan de regels voor het verantwoord ontwikkelen en gebruiken van AI door bedrijven, overheden en andere organisaties. Kom meer te weten over de AI-verordening via de volgende bronnen:
Het is enigszins onduidelijk wie eigenlijk het auteursrecht heeft op de output van AI. Volgens de gebruiksvoorwaarden van AI hebben gebruikers het recht om de output te reproduceren voor elk doel. De output van AI is echter niet altijd uniek. Dit kan leiden tot mogelijke juridische problemen als dezelfde output wordt gebruikt door verschillende gebruikers. In de gebruiksvoorwaarden van AI wordt ook aangegeven dat gebruikers wettelijk verantwoordelijk zijn voor de inhoud van dergelijke outputs, wat betekent dat gebruikers aansprakelijk kunnen zijn als ze een output reproduceren die auteursrechtelijk beschermd materiaal bevat. Het is echter niet duidelijk hoe gebruikers kunnen weten of dit het geval is, aangezien AI geen nauwkeurige citaten of anderszins bronvermeldingen kan geven. Als gebruiker moet je bewust zijn van deze auteursrechtelijke implicaties. Gebruik AI-gegenereerde output eerder als inspiratiebron in plaats van ze letterlijk te reproduceren (Scharwächter, 2023). Ga zelf op zoek naar wetenschappelijke referenties en analyseer zelf de brondocumenten . Interpreteer, analyseer en verwerk de verkregen informatie; kopieer het niet zomaar.
Wees je bij het werken met GenAI bewust van de aanwezigheid van biases (voorbeelden: de neiging om informatie te zoeken, te interpreteren en te onthouden die onze eigen overtuigingen bevestigt; vooroordelen op basis van iemands geslacht of afkomst; negatieve stereotyperingen) in de gebruikte data, die hun weg vinden naar de output. Realiseer je dat AI deze biases niet bewust kunnen detecteren. Ze zijn niet in staat om te bepalen wat juist of onjuist is, ethisch of onethisch. Realiseer je ook dat de verantwoordelijkheid om vooringenomenheid te voorkomen en verwijderen voor een deel ligt bij leveranciers en ontwikkelaars van AI, maar ook voor een deel bij de eindgebruiker. De kwaliteit van de input (de prompt) is de verantwoordelijkheid van jou als gebruiker, en bepaalt voor een deel de biases die hun weg naar de output vinden. Daarom is het essentieel dat je de resultaten die GenAI oplevert kritisch analyseert om biases te (h)erkennen en te corrigeren. Pas je prompt aan en maak deze concreter. Bijvoorbeeld: vraag specifiek om een vrouwelijke CEO omdat als je een beeldgeneratietool vraagt naar een CEO van een bedrijf in Nederland de kans aanzienlijk is dat je een man krijgt voorgeschoteld (Last & Sprakel, 2024). Ook de mogelijkheid dat GenAI naast discriminerende content ook onnauwkeurige content genereert bestaat. Gebruikers die deze onnauwkeurige informatie overnemen, kunnen mogelijk reputatieschade oplopen of, in extreme gevallen, zelfs worden aangeklaagd wegens smaad. Het is daarom belangrijk om de nauwkeurigheid van AI output te verifiëren aan de hand van een betrouwbare bron en om kritisch na te denken over het risico van vooringenomenheid (bias) bij elk onderwerp. "Deze systemen zijn bedoeld om plausibele antwoorden te geven op basis van statistische analyse - ze zijn niet ontworpen om waarheidsgetrouw te antwoorden", legt AI-expert Carissa Véliz van Oxford University uit aan New Scientist.