SIVON krijgt regelmatig vragen over het veilig gebruiken van AI binnen de school. Op deze pagina vind je antwoorden op veelgestelde vragen.
Hoe gebruikt het AI-model de data: is een betaald account nodig?
Bij het gebruik van AI taalmodellen (LLM’s) zoals ChatGPT, Gemini, Claude of Mistral bestaat het risico dat deze modellen leren van interacties met gebruikers. Bij gratis accounts gebeurt dit vaak expliciet: het gebruik is kosteloos, maar in ruil daarvoor kan het AI-model de ingevoerde gegevens en uploads gebruiken om verder te trainen.
Dat betekent dat informatie die een gebruiker deelt, mogelijk wordt opgeslagen en hergebruikt door het AI-model. Bij betaalde accounts kunnen gebruikers instellen dat het AI-model de informatie of gedeelde bijlagen niet gebruikt.
Het is daarom belangrijk om te onderzoeken hoe de school controle houdt over de gegevens die medewerkers en leerlingen delen. In de praktijk betekent dit vaak dat alleen betaald accounts die mogelijkheid bieden.
Natuurlijk blijft het advies om geen gevoelige informatie of persoonsgegevens te delen (in te voeren). Bij een betaald account kan de school daarnaast afspraken vastleggen in een overeenkomst en (soms ook) verwerkersovereenkomst.
Welk AI-model moet ik gebruiken, wat is het advies van SIVON?
SIVON kan niet adviseren welke generatieve AI, AI-model of AI-systeem het beste is. Het is daarom belangrijk dat de school vooraf goed nadenkt over de inzet van AI op school. Kies software die aansluit bij de missie en visie van de school en gebruik AI niet omdat anderen het doen.
Zorg voor een doordachte inzet van ict en AI. Maak op school afspraken over de inzet van AI: wat mag er wel en niet? Stel een AI-beleid op. Denk vooraf na over wat er wel en niet kan en mag, en zorg dat deze afspraken bekend zijn bij alle medewerkers en, waar van toepassing, bij leerlingen.
Kennisnet helpt scholen bij de inzet van AI, zo is er een Handreiking AI in het onderwijs en een tool en game voor het maken van schoolafspraken over het gebruik van generatieve AI.
Welke AI-tool is veilig om te gebruiken?
De inzet van AI biedt nieuwe kansen voor het onderwijs. De ontwikkeling van (generatieve) AI gaat erg snel, het is niet mogelijk om alle AI-tools te testen en controleren.
SIVON voert in 2026 een DPIA uit op Google Gemini (de AI-tool die onderdeel is van Workspace for Education).
SURF heeft een DPIA uitgevoerd op Copilot van Microsoft 365. Het advies is om terughoudend te zijn met het inzetten van Copilot in het onderwijs. Op school moeten duidelijke afspraken gemaakt worden over wat er wel en niet mag met Copilot. Hierbij kan de school de Handreiking AI in het onderwijs en Schoolafspaken generatieve AI gebruiken.
Naast DPIA’s ontwikkelt SIVON het Toetsingskader AI. Het toetsingskader, dat SIVON ontwikkelt in opdracht van het ministerie van OCW en in samenwerking met Kennisnet en Edu-V, moet houvast bieden in een landschap waarin technologie razendsnel verandert, terwijl beleid en afspraken nog in ontwikkeling zijn. Volgens planning komt het toetsingskader in het voorjaar van 2026 beschikbaar.
Kunnen leerkrachten zelf bepalen welke AI ze willen gebruiken?
AI biedt kansen voor gepersonaliseerd leren, het verlichten van administratieve lasten en onderwijsinnovatie. Ook wordt AI steeds vaker toegepast in digitaal leermateriaal en schooladministratiesystemen. Tegelijkertijd brengt het – voor scholen – ook vragen met zich mee over privacy, gegevensbescherming, dataveiligheid, ethiek en de kwaliteit van het onderwijs.
Net zoals een speeltoestel op het schoolplein aan eisen moet voldoen, gelden er regels voor het gebruik van ict op school. Het Normenkader IBP bevat de randvoorwaarden om veilig en verantwoord gebruik te maken van ict. Deze eisen gelden ook voor het gebruik van AI. Je wilt zeker weten dat een AI-tool veilig is, de data van leerlingen en medewerkers niet voor eigen doelen wordt gebruikt, of dat AI aansluit bij de pedagogische visie van de school. Dat betekent dat over de inzet van AI (eerst) afspraken gemaakt moeten worden.
Het is daarom niet verstandig dat leerkrachten zelf zonder enige controle (op bijvoorbeeld veiligheid, privacy en AVG) software downloaden. Volgens de AVG moet er bij nieuwe software eerst een risico-inschatting worden uitgevoerd (pre-DPIA PR.04), risicoanalyse voor contractering (SC.04), beoordeling van de beveiligingsmaatregelen (SC.04), en moeten er beveiligingsmaatregelen zijn genomen om de ict-infrastructuur van de school te beveiligen (SM.08, RM.02 en CO.01). Om iedere leerling en medewerker een veilige leer- en werkomgeving te bieden, biedt het Normenkader IBP en wetgeving dus geen ruimte om medewerkers zelf te laten beslissen welke ict zij inzetten (downloaden) zonder goedkeuring vooraf.
Hoe zit het met AI in het primair en voortgezet onderwijs, gebruik van AI is toch onderdeel van het curriculum?
Om les te geven over verantwoord gebruik van AI, is het niet noodzakelijk dat leerlingen zelf AI gebruiken. Het advies is om leerlingen jonger dan 13 jaar niet zelf gebruik te laten maken van AI. Generatieve AI kan vooroordelen versterken, onjuiste informatie geven en valt niet afdoende onder kinderbeschermende afspraken. Jongeren in deze leeftijdscategorie zijn niet voldoende in staat risico’s te herkennen of die van AI te begrijpen. Deskundigen waarschuwen ook dat AI-chatbots onveilig kunnen zijn, onder andere omdat interacties met AI schadelijke effecten kunnen hebben op de mentale gezondheid van kinderen. Laat leerlingen in het vo AI gebruiken in een gecontroleerde omgeving, zoals via een schoolaccount en zonder persoonsgegevens.
