Skip to Main Content

Artificiële intelligentie: Verantwoord gebruik

Over het gebruik van AI (artificial intelligence / kunstmatige intelligentie) in onderwijs en onderzoek op het groene HBO

Richtlijnen

Ondanks de gevaren en nadelen van het gebruik van AI, zoals datalekken, AVG-schending, ethische bezwaren willen we het gebruik van ChatGPT en andere generatieve AI niet verbieden. Onze studenten zullen hier in het werkveld ook mee in aanraking komen. En het gebruik van AI neemt alleen maar toe. We willen dat onze studenten en docenten met AI leren werken. Wees wel voorzichtig met het gebruik van AI en de kennis(data) die je deelt.

Hanteer de volgende algemene principes voor verantwoord gebruik van GenAI (KU Leuven, 2024a): 

  • Wees transparant over het gebruik van GenAI.
  • Verifieer de correctheid van de gegenereerde output met aandacht voor correcte bronvermelding.
  • Respecteer auteursrechten, privacy en vertrouwelijkheid door geen auteursrechtelijk beschermd materiaal, persoonsgegevens of  vertrouwelijke informatie in te voeren op platformen die worden beheerd door externen. Je kan dit alleen doen als je de uitdrukkelijke toestemming hebt van zij die eigenaar zijn van of de rechten hebben op die gegevens, informatie of het materiaal.
  • Neem verantwoordelijkheid voor het correct gebruik van GenAI (in eerste instantie als hulp en ondersteuning) en voor de output die je publiceert (in het kader van onderzoek) of die je als student indient (in het kader van onderwijs).
  • Gebruik GenAI doordacht en weloverwogen gelet op het duurzaamheidskarakter van het groene hbo. Bij het gebruik wordt veel energie en water verbruikt. Lees ook dit artikel over de onzichtbare kosten van AI. 

Richtlijnen groene hbo instellingen: de groene hogescholen zijn bezig met het opstellen van richtlijnen of hebben richtlijnen opgesteld specifiek voor de individuele instelling. Raadpleeg de richtlijnen van jouw hogeschool voordat je aan de slag gaat met AI binnen onderwijs en onderzoek.

Het is nooit toegestaan om werk dat volledig door GenAI is ontwikkeld in te leveren als eigen werk. Als dit wel gebeurt, wordt dit beschouwd als fraude en gelden de definities van fraude/plagiaat zoals omschreven in de Onderwijs- en examenregelingen (OER) van de opleiding. Het advies is dan ook om het OER van je eigen opleiding te raadplegen. Hierin kan het gebruik van GenAI ook specifiek omschreven zijn. 

Naast algemene principes zijn er ook specifiekere principes en richtlijnen per doelgroep om rekening mee te houden: 

  • Voor een student (KU Leuven, 2024b) geldt aanvullend dat:
    • Je volledig verantwoordelijk bent voor wat je indient; 
    • Je erop toeziet dat je studentproduct ondubbelzinnig toelaat om te evalueren welke competenties jij als student verworven hebt;
    • Je GenAI zeker niet gebruikt tijdens examens on-campus of andere evaluaties waar aangegeven is dat het gebruik van GenAI niet toegelaten is;
    • Het gebruik van GenAI wel toegelaten is als taalassistent voor het verwerken of verbeteren van zelfgeschreven teksten is toegestaan wanneer het model geen nieuwe inhoud toevoegt;
    • GenAI mag ingezet worden als zoekrobot om eerste informatie te krijgen over een onderwerp of voor een eerste aanzet om op zoek te gaan naar literatuur en
      • Wanneer je vervolgens zelf op zoek gaat naar wetenschappelijke referenties, zelf de brondocumenten analyseert, de verkregen informatie interpreteert en verwerk zonder het zomaar te kopiëren en eigenhandig een tekst opstelt, hoef je het gebruik van GenAI niet te vermelden, 
      • Maar wanneer je bepaalde delen van GenAI output toch letterlijk overneemt (bv. omwille van de aard van de opdracht), dan vermeld je je bronnen en citeer je; 
    • Wanneer de docent het EXPLICIET toestaat mag je code laten genereren door GenAI als deelaspect binnen een grotere opdracht. 
  • Voor een docent (KU Leuven, 2023c) geldt aanvullend dat:
    • Je studenten duidelijk informeert over het al dan niet mogen gebruiken van GenAI bij studentproducten zoals visuele, schrijf- en programmeeropdrachten.
  • Voor een onderzoeker (KU Leuven, 2023a; KU Leuven 2023c) geldt aanvullend dat: 
    • Je bij het inzetten van GenAI de Nederlandse gedragscode wetenschappelijke integriteit respecteert:
      • Je rapporteert resultaten en methoden, inclusief het gebruik van externe diensten of AI en geautomatiseerde instrumenten, op een manier die compatibel is met de geaccepteerde normen van het vakgebied en die verificatie of replicatie, indien van toepassing, vergemakkelijkt;
      • Het is een schending van wetenschappelijke integriteit wanneer je het gebruik van AI of geautomatiseerde tools verbergt bij het creëren van inhoud of het schrijven van publicaties;
    • Je dient rekening te houden met de visie van tijdschriften/uitgevers/subsidieverstrekkers omtrent het gebruik van GenAI; hoewel er een zeker consensus is dat technologie kan gebruik worden ter ondersteuning van het schrijven van wetenschappelijke teksten, zijn er ook tijdschriften waar het gebruik van GenAI (op dit moment) niet toegelaten is.
    • STM - de internationale vereniging van wetenschappelijke, technische en medische uitgevers - heeft ethische en praktische richtlijnen voor het gebruik van generatieve AI in het publicatieproces opgesteld. 

Klik op bovenstaande afbeelding voor een duidelijkere weergave. 

Kritische evaluatie

Het is handig om bij het beoordelen van generatieve AI-output een systematische aanpak te hanteren. Hiervoor bestaan verschillende raamwerken, zoals de CRAAP-test, die specifiek is ontwikkeld voor het beoordelen van bronnen, of het EDIT-stappenplan, dat gemaakt is voor het werken met output van taalmodellen (e.g. ChatGPT). 

Gebruik het CRAAP-test invulformulier. Beantwoord de vragen en geef daarbij steeds een score van 1-10. De opgetelde score geeft je een idee van de kwaliteit van de output. Het EDIT-stappenplan wordt uiteengezet bij de tab Prompt engineering van deze library guide. 

Hier volgt een samenvattend overzicht van de criteria voor kritische evaluatie uit deze raamwerken (Last & Sprakel, 2024): 

  • BETROUWBAARHEID: Is de informatie afkomstig van een betrouwbare bron? Zijn er tekenen van manipulatie/hallucinatie? 
  • VALIDITEIT: Zijn de gegevens en methoden die zijn gebruikt om de informatie te verkrijgen geldig en betrouwbaar?
  • RELEVANTIE: Sluit de informatie aan bij de context en het doel van de vraag of het probleem? Is de informatie actueel?
  • GELOOFWAARDIGHEID: Is de informatie feitelijk correct en vrij van fouten? Zijn er bronnen die de informatie ondersteunen? 
  • CONSISTENTIE: Is de informatie in overeenstemming met andere bekende feiten of kennis? Zijn er tegenstrijdigheden? 
  • PERSPECTIEF: Worden verschillende standpunten en invalshoeken in de informatie behandeld? Is er sprake van vooringenomenheid? 
  • OPBOUW EN LOGICA: Is de informatie goed gestructureerd en logisch gepresenteerd? Zijn er duidelijke verbanden tussen de ideeën? 
  • ARGUMENTATIE: Zijn de argumenten goed onderbouwd en overtuigend? Zijn er tegenargumenten aangevoerd en weerlegd? 
  • KWALITEIT: Is de output van hoge kwaliteit? Zij er bijvoorbeeld fouten te vinden in de beelden, of klinkt de stem lichtelijk als een robot? 

Je kunt ook de volgende beslisboom (Aleksandr Tiulkanov, 19 januari 2023) inzetten om te bepalen of het veilig is om een taalmodel (e.g. ChatGPT) te gebruiken voor je taak. 

Bronvermelding en transparant zijn

Het hangt van de wijze van gebruik van GenAI af in hoeverre er wel of niet naar gerefereerd wordt.

  • Wanneer GenAI wordt gebruikt als schrijfhulpmiddel, te denken valt aan verbeteren van teksten, dan is een referentie niet van toepassing.
  • Wanneer GenAI wordt gebruikt om eerste informatie te verkrijgen over een onderwerp of een eerste aanzet om op zoek te gaan naar literatuur en je daarna zelf op zoek gaat naar de brondocumenten (en dat heeft de voorkeur), dan refereer je naar deze documenten en hoef je het gebruik van GenAI niet te vermelden.
  • Wanneer GenAI wordt ingezet om teksten te creëren (je neemt bepaalde delen van GenAI toch letterlijk over) of het creëren van output met behulp van GenAI is expliciet toegestaan, dan dient er wel gerefereerd te worden.

Volg voor refereren (en citeren) van generatieve AI volgens de APA-richtlijnen (de meest gebruikte referentiestijl in het groene hbo) de volgende richtlijnen opgesteld door de Werkgroep APA:

Net als bij andere bronnen wordt in de tekst de naam van de auteur en het jaar vermeld. Bij GenAI wordt het bedrijf dat de tool heeft ontwikkeld als auteur vermeld.

In de bronnenlijst worden volgens de Amerikaanse richtlijn naast ontwikkelaar en jaartal de titel (cursief), versie (tussen ronde haakjes), omschrijving [tussen vierkante haakjes] en weblink genoemd:

Ontwikkelaar. (jaar). Naam AI-tool (Versie) [Generatieve AI]. https://xxxx


De Werkgroep APA volgt het advies om geen raadpleegdatum (Geraadpleegd op …) te noemen. Voor een verslag wordt soms een langere periode gebruik gemaakt van GenAI, het noemen van de raadpleegdatum voegt dan weinig toe.

Bij sommige GenAI volgen de versienummers zich in snel tempo op of worden niet duidelijk vermeld. In die gevallen adviseert de werkgroep het versienummer achterwege te laten. In het geval van ChatGPT werd in het eerste jaar gebruik gemaakt van een datumversie maar inmiddels wordt deze niet meer genoemd. Bij ChatGPT kan wel het versienummer worden vermeld: GPT-4o mini voor gratis, GPT-4o voor betaald. Ook het jaartal of datum is niet altijd terug te vinden, noteer bij twijfel z.d. (=zonder datum).

In de beschrijving tussen vierkante haakjes wordt bij GenAI die geschreven opdrachten verwerken [Generatieve AI] genoteerd. Het type generatieve AI, bijvoorbeeld geschreven of gesproken, wordt niet gespecificeerd. Zie voor voorbeelden de handleiding.

Download 'De APA-richtlijnen uitgelegd: Generatieve AI' - Versie 1.0 (pdf)

Refereren is de eerste stap om transparant te zijn (KU Leuven, 2024). Een goede werkwijze om transparant te zijn, is zelf bijhouden wanneer, hoe en waarom je GenAI hebt gebruikt. Er kan hiernaar gevraagd worden. Het bijhouden kan verschillende vormen aannemen, bijvoorbeeld:

  • Bewaar de volledige uitwisseling met GenAI door middel van delen van de link van de chat, downloaden van de chat of screenshots. Duid hierin eventueel relevante delen aan.
  • Geef een toelichting van hoe GenAI is gebruikt (bijvoorbeeld voor het genereren van ideeën, tekstfragmenten, langere stukken tekst, argumenten, evidentie, illustraties van begrippen, …).
  • Noteer waarom GenAI is gebruikt: om tijd te winnen, om een writer’s block aan te pakken, om het denken te stimuleren, om toenemende stress de baas te kunnen, om een begrip beter te begrijpen, om te vertalen, om te experimenteren met GenAI, etc.
  • Hoe je hierover rapporteert kan verschillen. Kijk na of de wijze waarop je moet rapporteren ergens wordt verduidelijkt, bijvoorbeeld voor studenten in de opdrachtomschrijving van het (beroeps)product (inden geen verduidelijking, ga in overleg met de docent).
  • Naast bronvermelding en opname in een referentielijst, kan het gewenst zijn om bovenstaande elementen toe te lichten onder het (materialen en) methoden-gedeelte of als een bijlage.

Misbruik herkennen

Er kan misbruik gemaakt worden van AI, bijvoorbeeld door studenten. Teksten die gegenereerd zijn door GenAI zullen in de toekomst door de digitale ontwikkelingen steeds moeilijker te onderscheiden zijn van zelfgeschreven teksten. AI-detectietools zijn alleen in staat om aan te kunnen geven of er bepaalde tekstpatronen voorkomen die kunnen duiden op het gebruik van GenAI en zijn daardoor niet betrouwbaar om fraude door GenAI aan te tonen. Toch kunnen bepaalde indicatoren wijzen op misbruik (Last en Sprakel, 2024):

  • Het ontbreken van correcte citaten en/of referenties waar deze vereist of verwacht worden. Controleer daarnaast of de gebruikte referenties ook echt bestaan.
  • Onjuist of inconsistent gebruik van het eerste- en derdepersoonsperspectief.
  • Amerikaanse spelling, valuta en termen die daar niet in thuishoren, of opvallende anglicismen zoals 'buiten de box denken'.
  • Taalgebruik of vocabulaire dat niet past bij het kwalificatieniveau, zoals opvallend weinig fouten.
  • Geen verwijzing naar gebeurtenissen na een bepaalde datum die samenhangt met de dataverzameling van een specifieke AI-tool.
  • Verschil in taalstijl (bijvoorbeeld overmatig gebruik van "dure woorden" of overdreven taal) vergeleken met de stijl van eerder werk van dezelfde persoon of vergeleken met andere delen van hetzelfde werk.
  • Gebrek aan specifieke lokale of actuele kennis.
  • Ontbreken van grafieken, tabellen of andere visuele hulpmiddelen waar deze normaal gesproken verwacht worden.
  • Vreemd gebruik van afsluitende uitspraken of herhaling van tekststructuren binnen het werk, taalmodellen hebben de neiging veel dezelfde structuur te gebruiken.
  • Waarschuwingen of voorbehouden die gegenereerd zijn door AI, die bijvoorbeeld de beperkingen of hypothetische aard ervan benadrukken.

Als hulpmiddel vind je op de site aischolen.nl een handige checklist voor het herkennen van AI-teksten.

Misbruik van AI kan natuurlijk niet alleen in onderwijs plaatsvinden maar ook buiten het onderwijs. Zoals deep fake of voice cloning. Dat bestond al voor AI maar is nu nog makkelijker geworden (Neumann, 2024). Maar hoe herken je een fake (gemaakt door AI)? 

De basics: check je bron, controleer metadata, analyseer de context.

Let op de kenmerken: 

  • Bij tekst geen ‘rode draad’
  • Raar perspectief
  • Onjuiste belichting
  • Fysieke onmogelijkheden

Beoordeel: 

  • Context: platform, medium, onderwerp
  • Bron: Verifiëerbaar? Bekend? AI vermeld?
  • Consistentie: onverklaarbare verandering, ‘morphing’ (overgangen) 
  • 'Pragmatisme': Contextueel begrip, doelgerichtheid, context-bewust
  • Details: fouten in periferie/achtergrond, ontbrekende ‘ruis’

Impact op vaardigheden

In het tijdperk van AI moeten studenten voorbereid worden om actieve mede-producenten van AI te worden, evenals toekomstige leiders die vorm zullen geven aan nieuwe iteraties van de technologie en de relatie ervan met de maatschappij zullen bepalen. Dit is precies de ambitie van UNESCO's AI-competentiekader voor studenten - het eerste wereldwijde kader in zijn soort. Het is gericht op het ondersteunen van de ontwikkeling van kerncompetenties voor studenten om verantwoordelijke en creatieve burgers te worden, die zijn toegerust om te gedijen in het AI-tijdperk. Dit zal studenten helpen de waarden, kennis en vaardigheden te verwerven die nodig zijn om AI kritisch te onderzoeken en te begrijpen vanuit een holistisch perspectief, met inbegrip van de ethische, sociale en technische dimensies.

UNESCO's AI-competentiekader voor docenten definieert de kennis, vaardigheden en waarden die docenten moeten beheersen in het tijdperk van AI. De publicatie is ontwikkeld op basis van de principes van bescherming van de rechten van docenten, versterking van menselijk handelen en bevordering van duurzaamheid. Het beschrijft 15 competenties in vijf dimensies: mensgerichte mindset, ethiek van AI, AI-fundamenten en -toepassingen, AI-pedagogiek en AI voor professioneel leren. Deze competenties zijn onderverdeeld in drie niveaus: verwerven, verdiepen en creëren. Als wereldwijde referentie biedt deze tool strategieën voor docenten om AI-kennis op te bouwen, ethische principes toe te passen en hun professionele groei te ondersteunen.

Om GenAI goed te kunnen inzetten binnen onderwijs en onderzoek moet er aandacht geschonken worden aan digitale geletterdheid: kritische vaardigheden die nodig zijn voor effectief leren en werken in de hedendaagse digitale samenleving, en dus voor werken met GenAI. We treden een tijdperk binnen waarin echt en nep steeds lastiger van elkaar te onderscheiden zijn. Kritisch denken wordt dan ook steeds belangrijker (Last & Sprakel, 2024). 

Maak gebruik van de publicatie Wijs met techniek, een gids met praktische werkvormen voor ethisch reflecteren op de impact van techniek waarmee je direct aan de slag kunt in je onderwijs en onderzoek (Last & Sprakel, 2024).

Ondertussen wordt er naast digitale geletterdheid ook gesproken over AI-geletterdheid, ofwel de competenties die nodig zijn om AI-technologieën kritisch te kunnen evalueren, er effectief mee te kunnen communiceren en mee samen te werken, zowel thuis als op de werkplek, zodat studenten klaar zijn voor een wereld vol AI (Last & Sprakel, 2024). Lees meer over AI-geletterdheid in de publicatie In zeven minuten bijgepraat over... AI-Geletterdheid.

In 2009 maakten hoogleraar Onderwijswetenschappen Brand-Gruwel en collega’s een model dat vijf kerncompetenties beschrijft voor digitale informatievaardigheden (het oplossen van informatieproblemen in het digitale tijdperk, één van de domeinen binnen digitale geletterdheid). De komst van generatieve AI maakte een update van het model voor digitale informatievaardigheden noodzakelijk. Docent en phd-onderzoeker didactiek van digitale informatievaardigheden Josien Boetje definieert de volgende kerncompetenties in het GenAI-informatiegeletterdheidmodel, haar update van het model van Brand-Gruwel (Boetje, 2023): 

Deze competenties stelt studenten in staat AI te gebruiken als een hulpmiddel en niet als vervanging voor hun eigen denken. Tijdens het hele proces is het monitoren en bijstellen belangrijk. Denk hierbij aan het herformuleren van een prompt bij het verkrijgen van een niet-passend antwoord; het selecteren van de juiste AI-tools passend bij het probleem en de gewenste output, weten wanneer je wel of niet AI in wilt zetten. Voorwaarden om de genoemde kerncompetenties effectief toe te passen zijn:

  • Kennis van de wereld, bijvoorbeeld om output kritisch te kunnen evalueren.
  • Praktische ict-vaardigheden, bijvoorbeeld om te weten hoe je technisch met bepaalde tools om moet gaan.
  • Algemene taalvaardigheid: bij het opstellen van prompts en verwerken van gegenereerde informatie.

Tenslotte is er het Digital Competence Framework for Citizens (DigComp) - ontwikkeld door het Joint Research Centre, een onderzoeksorgaan van de Europese Unie (Daniels, 2023). Het raamwerk beschrijft de digitale competenties voor burgers voor het leren, leven en werken in een digitale samenleving. Het kan als basis dienen voor de ontwikkeling van lesmaterialen en eigen curricula. Bij de beleidsplannen van de Europese Unie op het gebied van kwalitatief, inclusief en toegankelijk digitaal onderwijs, zoals beschreven in het Digital Education Action Plan 2021-2027, heeft DigComp als uitgangspunt gediend. En in opdracht van de HAN is er de zelfscan digitale geletterdheid studenten ontwikkeld op basis van DigComp. Zie ook de DigComp website

Het conceptuele referentiemodel van DigComp: 

Juridische implicaties

Geldende regelgeving rondom auteursrechten, AVG en security zijn ook van toepassing op AI-gebruik. 

Bij het ontwikkelen en gebruiken van AI bestaat de neiging om zoveel mogelijk gegevens te verzamelen. Hierbij is de aanname dat hoe meer data wordt gebruikt om de systemen te trainen, hoe beter deze systemen worden. Dit betekent dat er een perverse prikkel kan ontstaan om te veel, te lang en onnodig veel data te verzamelen, bewaren en verder te verwerken (Autoriteit Persoonsgegevens, z.d.). Inclusief de gegevens die de gebruiker van AI invoert. Wees dus uiterst voorzichtig bij het gebruik van AI en vermeld geen persoonsgegevens of bedrijfsgevoelige informatie. Volg de regels bij gebruik van AI & algoritmes. 

De AI-verordening komt eraan: de eerste uitgebreide wet over kunstmatige intelligentie ter wereld. De verordening gaat gefaseerd in en zal medio 2027 geheel van kracht zijn. Een aantal AI-systemen is waarschijnlijk vanaf eind 2024 al verboden. In de AI-verordening staan de regels voor het verantwoord ontwikkelen en gebruiken van AI door bedrijven, overheden en andere organisaties. Kom meer te weten over de AI-verordening via de volgende bronnen: 

Het is enigszins onduidelijk wie eigenlijk het auteursrecht heeft op de output van AI. Volgens de gebruiksvoorwaarden van AI hebben gebruikers het recht om de output te reproduceren voor elk doel. De output van AI is echter niet altijd uniek. Dit kan leiden tot mogelijke juridische problemen als dezelfde output wordt gebruikt door verschillende gebruikers. In de gebruiksvoorwaarden van AI wordt ook aangegeven dat gebruikers wettelijk verantwoordelijk zijn voor de inhoud van dergelijke outputs, wat betekent dat gebruikers aansprakelijk kunnen zijn als ze een output reproduceren die auteursrechtelijk beschermd materiaal bevat. Het is echter niet duidelijk hoe gebruikers kunnen weten of dit het geval is, aangezien AI geen nauwkeurige citaten of anderszins bronvermeldingen kan geven. Als gebruiker moet je bewust zijn van deze auteursrechtelijke implicaties. Gebruik AI-gegenereerde output eerder als inspiratiebron in plaats van ze letterlijk te reproduceren (Scharwächter, 2023). Ga zelf op zoek naar wetenschappelijke referenties en analyseer zelf de brondocumenten . Interpreteer, analyseer en verwerk de verkregen informatie; kopieer het niet zomaar.

Wees je bij het werken met GenAI bewust van de aanwezigheid van biases (voorbeelden: de neiging om informatie te zoeken, te interpreteren en te onthouden die onze eigen overtuigingen bevestigt; vooroordelen op basis van iemands geslacht of afkomst; negatieve stereotyperingen) in de gebruikte data, die hun weg vinden naar de output. Realiseer je dat AI deze biases niet bewust kunnen detecteren. Ze zijn niet in staat om te bepalen wat juist of onjuist is, ethisch of onethisch. Realiseer je ook dat de verantwoordelijkheid om vooringenomenheid te voorkomen en verwijderen voor een deel ligt bij leveranciers en ontwikkelaars van AI, maar ook voor een deel bij de eindgebruiker. De kwaliteit van de input (de prompt) is de verantwoordelijkheid van jou als gebruiker, en bepaalt voor een deel de biases die hun weg naar de output vinden. Daarom is het essentieel dat je de resultaten die GenAI oplevert kritisch analyseert om biases te (h)erkennen en te corrigeren. Pas je prompt aan en maak deze concreter. Bijvoorbeeld: vraag specifiek om een vrouwelijke CEO omdat als je een beeldgeneratietool vraagt naar een CEO van een bedrijf in Nederland de kans aanzienlijk is dat je een man krijgt voorgeschoteld (Last & Sprakel, 2024). Ook de mogelijkheid dat GenAI naast discriminerende content ook onnauwkeurige content genereert bestaat. Gebruikers die deze onnauwkeurige informatie overnemen, kunnen mogelijk reputatieschade oplopen of, in extreme gevallen, zelfs worden aangeklaagd wegens smaad. Het is daarom belangrijk om de nauwkeurigheid van AI output te verifiëren aan de hand van een betrouwbare bron en om kritisch na te denken over het risico van vooringenomenheid (bias) bij elk onderwerp. "Deze systemen zijn bedoeld om plausibele antwoorden te geven op basis van statistische analyse - ze zijn niet ontworpen om waarheidsgetrouw te antwoorden", legt AI-expert Carissa Véliz van Oxford University uit aan New Scientist.