Veilig gebruikmaken van IT
- Zorg dat je pc, mobiele telefoon(s) en tablet(s) van de laatste updates en goede beveiligingssoftware zijn voorzien. Je kunt gratis anti-virussoftware downloaden, zoals MS Security Essentials en Avira Anti Virus, of via SURFspot betaalbare anti-virussoftware aanschaffen.
- Maak gebruik van een vertrouwd en beveiligd (wifi)netwerk.
- Wees alert op phishing en andere valse e-mails. Krijg je een e-mail die je niet had verwacht, of van een onbekende afzender? Klik niet op links, open geen bijlagen en vul geen gegevens in. De universiteit vraagt nooit via e-mails naar wachtwoorden! Vermoed je dat je phishingmail hebt ontvangen via uMail? Meld dit dan in de Helpdesk Portal.
- Gebruik OneDrive om bestanden veilig op te slaan en te delen.
- Als je ergens bent ingelogd, sluit dan je browser (het tabblad) af als je klaar bent. Sla geen wachtwoorden op in de browser.
GAI gebruik in het onderwijs @FSW
Richtlijnen voor studenten
Deze pagina geeft algemene informatie voor studenten over GAI en richtlijnen voor verantwoord gebruik hiervan. Het is aan de docent om te bepalen of gebruik van GAI eventueel is toegestaan. Dit gebeurt op cursusniveau en de specifieke richtlijnen voor het hoe en wanneer gebruiken van GAI worden via Brightspace gecommuniceerd.
1. Wat is GAI?
Generatieve Artificiële Intelligentie (GAI) is een vorm van machinaal leren. Het is de verzamelnaam voor algoritmes die in staat zijn om nieuwe content te creëren. Deze content kan verschillende vormen aannemen: tekst of code, maar ook beelden, video’s en audio of een combinatie van dit alles.
GAI genereert output als antwoord op een vraagstelling/prompt met behulp van generatieve modellen zoals Large Language Models (LLMs) en baseert zich hiervoor op grote datasets. Enkele bekende voorbeelden zijn tekstgeneratoren zoals ChatGPT, CoPilot (Microsoft), Gemini (Google) en beeldgeneratoren zoals DALL-E en Midjourney.1
1. Naar KU Leuven, zie: Responsible use of Generative Artificial Intelligence - Student (kuleuven.be)
2. Welk gebruik van GAI is in geen enkel geval toegelaten?
Nooit toegestaan is:
-
Elke vorm van letterlijke overname en kopiëren zonder volledige bronvermelding (citeren, refereren) van materiaal gegenereerd door GAI.
-
Elk gebruik van GAI tijdens iedere vorm van toetsing, tenzij aangegeven is dat het gebruik van GAI toegestaan is.
Zie de Regels & Richtlijnen van jouw opleiding voor meer uitleg over fraude door plagiaat en wat de gevolgen kunnen zijn als je je hier als student schuldig aan maakt.
3. Citeren van GAI in APA-stijl
In die gevallen waar het gebruik van GAI-software is toegestaan, moet je hiernaar verwijzen, net als naar iedere andere bron die je gebruikt. Op de FSW gebruiken we standaard APA als referentiestijl. Andere mogelijke referentiestijlen zijn bijvoorbeeld Chicago, MLA, Harvard en Vancouver.
Een verwijzing naar GenAI in APA-stijl bevat de volgende elementen: Auteur. (Datum). Titel (Versie) [Beschrijving]. Uitgever. URL.
Voorbeelden van GenAI verwijzingen
Tool |
Referentie |
In-tekst |
ChatGPT |
OpenAI. (2023). ChatGPT (September 25 versie) [Large Language Model]. https://chat.openai.com/NB: Omdat de auteur en uitgever identiek zijn kun je ervoor kiezen de uitgever weg te laten. |
(OpenAI, 2023)
|
Bard |
Google AI. (2023). Bard (October 23 versie) [Large language model]. Google. https://bard.google.com/chat |
(Google AI, 2023)
|
DALL · E |
OpenAI. (2023). DALL · E 2 [text-to-image model]. https://labs.openai.com/NB: Omdat de auteur en uitgever identiek zijn kun je ervoor kiezen de uitgever weg te laten. |
(OpenAI, 2023)
|
Vermeld ook altijd de prompt die gebruikt is om een bepaalde tekst te genereren.
Belangrijk
Wanneer je een prompt opnieuw gebruikt, krijg je elke keer een ander resultaat. ChatGPT en andere GAI-toepassingen zijn daarom geen betrouwbare vorm van informatie. De lezer kan immers niet terugzoeken welke gegenereerde tekst jij gebruikt hebt.
4. Richtlijnen voor verantwoord gebruik
Voor het samenstellen van onderstaande richtlijnen is gebruik gemaakt van KU Leuven’s Tips en aandachtspunten voor een verantwoord gebruik van GAI.
Er is weinig zicht op wat de eigenaars van de AI-toepassingen doen met ingevoerde data. Vaak worden de data opgeslagen in niet-Europese cloud toepassingen die niet altijd AVG-conform zijn. Dit roept problemen op zowel voor persoonsgegevens als nieuwe vindingen in het kader van wetenschappelijk onderzoek. Een invoer van dergelijke data in GAI tools kan gelijk staan aan openbaarmaking, waardoor een datalek kan ontstaan en/of verhinderd kan worden dat voor die vinding een octrooi ingediend kan worden. Voer dus geen vertrouwelijke informatie, zoals persoonsgegevens of onderzoeksdata in GAI-applicaties in. Casussen en andere voorbeelden uit hoorcolleges en werkgroepen worden ook beschouwd als gevoelige informatie en mogen niet worden ingevoerd in GAI-toepassingen.
Verzoek, indien mogelijk, dat het model van de GAI tool niet met jouw data getraind wordt. Bij ChatGPT is dit mogelijk via ‘Make a privacy request’. Let op: Dit betekent niet dat je privacygevoelig, IP-beschermd of auteursrechtelijk materiaal mag invoeren.
In de output van GAI tools ontbreekt transparantie over de gebruikte bronnen, waardoor de kans toeneemt dat je plagiaat pleegt. Ook het risico op inbreuken op het auteursrecht is reëel. De databases die deze tools gebruiken bevatten veel bronmateriaal waarbij niet duidelijk is of de auteurs hun toestemming hiervoor hebben verleend of dat auteursrecht werd gerespecteerd. Zorg dus dat je adequaat parafraseert en verwijst (zie 3. Citeren van GAI in APA-stijl hierboven) en gedegen bronnenonderzoek toepast (zie Verifieer GAI hieronder). Voer zelf geen bronmateriaal in dat is geproduceerd door derden, zoals een artikel, een e-mail, informatie uit colleges en werkgroepen, teksten van collegeslides, en casussen, tenzij de auteur hier expliciet toestemming voor heeft gegeven.
Maak gebruik van GAI indien toegelaten, maar vertrouw de technologie niet blindelings. In de meeste gevallen is het niet mogelijk te achterhalen hoe de algoritmes tot een bepaald resultaat zijn gekomen en er is geen transparantie over gebruikte bronnen. Het doel van GAI is om teksten te genereren die zo plausibel mogelijk lijken, waarheidsgetrouwheid wordt niet geverifieerd. In sommige gevallen verzint de LLM een antwoord volledig; experts noemen dit ‘hallucineren’. Dit betekent dat er geen enkele garantie is dat de output van GAI daadwerkelijk correct is. Controleer output goed en zoek naar bestaand bronmateriaal om eventuele beweringen van GAI te staven. Jij bent verantwoordelijk voor eventuele onjuiste informatie in je werk die afkomstig is van GAI.
GAI tools zijn getraind met grote hoeveelheden onbekende data, die mogelijk verouderd zijn of niet langer representatief naar de huidige standaarden. Ontwikkelaars of uitgevers van GAI zijn weinig transparant over of een GAI tool inherente vooroordelen bevat en eventuele filtering die wordt toegepast. Bij blindelings gebruik loop je daarom het risico stereotypen of vooroordelen verder te verspreiden.
Wees je ervan bewust dat het effectief gebruiken van GAI een vaardigheid is. Het stellen van een te simpele vraag kan leiden tot te algemene of vage GAI output. Maak gebruik van ‘prompt engineering’ om de bruikbaarheid van de output te vergroten. Vermijd suggestieve vragen en impliciete bias en let op dat je de GAI niet naar een specifieke conclusie leidt.
Weet dat de energiekosten van de servers voor GAI-tools heel hoog zijn, gebruik ze dus alleen wanneer ze meerwaarde kunnen bieden.
GAI-applicaties kunnen soms een hulpmiddel zijn, maar van studenten verwachten we te allen tijde een kritische houding ten opzichte van de output. De daadwerkelijke betekenisgeving vindt plaats door de eigen argumentatie, onderbouwing, kritische analyse, creatieve inbreng en reflectie.
Bronnen
- https://npuls.nl/en/news/npuls-introduces-the-magazine-smarter-education-with-ai/
- https://www.iesalc.unesco.org/wp-content/uploads/2023/04/ChatGPT-and-Artificial-Intelligence-in-higher-education-Quick-Start-guide_EN_FINAL.pdf
- https://www.kuleuven.be/onderwijs/student/onderwijstools/artificiele-intelligentie
Versie 5-11-2024