Doorgaan naar hoofdinhoud
  • Praktijkvoorbeeld
  • |
  • Artificial intelligence
  • |
  • vo

Nadenken over AI op je school: AI als (on)gewenste collega

Een dichtgetimmerd beleidsplan voor artificial intelligence in de school? Niet op het Emmauscollege. Wel bouwde conrector Hans Visser een interne website met een stappenplan, playground, richtlijnen en andere tools die zijn collega’s helpen de mogelijkheden en gewenste positie van AI te onderzoeken. Zelf benadert hij AI graag als een (on)gewenste collega.

Logo Kennisnet

Door de redactie

13 februari 2025
7 minuten lezen

Hans Visser ziet binnen het onderwijs grote verschillen in kennisniveau over AI. Ook bij hem op het Emmauscollege. “De een heeft gigantisch veel verstand van AI en de ander niet of nauwelijks. Dat gat wordt groter. Daarbij zie ik dat er veel te weinig aandacht is voor de complexiteit van AI . We laten ons makkelijk verleiden door de gelikte teksten en plaatjes die AI ons voorschotelt maar het is niet genoeg om alleen naar de output en de technologie te kijken. Natuurlijk, AI is mooi en nieuw, maar als je wat dieper kijkt dan zie je dat er dingen niet kloppen. Met AI kunnen leerlingen een beter product afleveren, maar wij leveren daarmee nog geen betere leerlingen af.” 

Emmauscollege

Het Emmauscollege (bijna 1.700 leerlingen) is een katholieke scholengemeenschap voor havo, atheneum en gymnasium in Rotterdam.

AI als (on)gewenste collega 

Hoe verhoud je je tot een technologie waar zo veel mee kan, maar die ook risico’s met zich meebrengt? “Om mensen mee te nemen in die meervoudigheid kijk ik naar AI alsof het onze gewenste of ongewenste collega is. Als je AI als personage benadert, krijg je het volledige plaatje van AI makkelijker in beeld.” Daarbij kijkt Visser minder naar de output van AI, maar vooral naar zijn karaktereigenschappen. “Dan zie je dat die collega het niet altijd nauw neemt met de waarheid. Hij deelt je gegevens, die geeft hij aan iedereen. Hij is supercreatief: hij creëert de mooiste illustraties, zet saaie boeken om tot podcasts en maakt interactieve oefentoetsen.” 

Als je AI als collega aanspreekt en bespreekt, dan denk je niet meer in termen van het schrijven van een beleidsstuk over AI. Wel ga je praten over het maken van een samenwerkingscontract, zegt Visser. “Daarin spreek je dingen af als: wat is zijn taak? Waar staat AI in ons onderwijsproces? Wat worden z’n werktijden? Sommige scholen hebben bijvoorbeeld een online mentor die 24/7 beschikbaar is voor de leerlingen. Als je alleen naar de output kijkt dan denk je: dat is mooi. Maar op het moment dat je AI als personage bekijkt, ga je ook andere, meer ethische vragen stellen. Wat vinden we ervan dat een kind ook midden in de nacht met de mentor chat? Wat voor gesprekken vinden daar dan plaats? Waar ligt welke verantwoordelijkheid? Daarover nadenken lukt een stuk beter als je AI als collega ziet.”  

Hans Visser

Hans Visser

Met deze benadering werk je aan het bewustzijn rondom AI, vindt Visser. “Weten we wat voor impact AI heeft, wat hij kan? Weten we waar we hem willen inzetten? Welke taken geven we AI? Deze collega kan heel goede teksten maken, bijvoorbeeld voor in een schoolexamen. Maar we willen hem niet als de maker van het schoolexamen. Door er zo over na te denken kun je de juiste positie kiezen voor die collega in je school.”  

AI als mens? 

Hoe menselijk AI ook kan overkomen – steeds vaker weten chatbots bijvoorbeeld de schijn te wekken dat zij over empathische vermogens en humor beschikken – het is en blijft natuurlijk techniek. Code. Geen mens. Dat ziet Visser ook zo, in zijn benadering van AI als personage. “AI vervult bij ons een ondersteunende rol die aansluit bij onze visie en waarden, zonder menselijke taken of verantwoordelijkheden over te nemen. Om AI begrijpelijk te maken, gebruiken we de metafoor van AI als personage, zonder het écht menselijke eigenschappen toe te kennen. Door AI op een verantwoorde manier te integreren, versterken we de samenwerking en zorgen we voor een helder onderscheid tussen wat AI is, wat het kan en waar de regie ligt – bij de mens.” 

Evaluatiegesprekken met en over AI 

Met een collega voer je ook evaluatiegesprekken. Hoe evalueer je AI? Visser: “Je praat met hem. ‘Hoe kijk je terug op het proces? Zijn er dingen die je vergeten bent, of die je beter had kunnen doen?’ Stel dat je je AI voorstelt als stagiair. Dan bespreek je met die stagiair hoe het gaat, de dingen die hij goed deed, dingen die hij niet goed deed en ook wat er compleet fout ging. Daarnaast evalueer je die stagiair natuurlijk ook in de sectie. ‘Die stagiair, hoe bevalt hij? Voldoet hij aan onze kwaliteitseisen? Zijn er dingen waarvoor hij wel of niet nuttig is? Bieden we hem een baan aan?’ Daarmee voer je dus een ander gesprek, dan als je de technologie en protocollen als uitgangspunt neemt.” En dat is belangrijk om het thema te laden, legt Visser uit. “Bij gebrek aan de juiste kennis over AI wordt die collega onbetrouwbaar. En een onbetrouwbare collega zet je liever niet meer in. Dat is zonde, omdat met een goede positionering, goede scholing, het goede gesprek en een goede afbakening van taken die collega wel nuttig kan zijn.” 

Praten over de kern van het onderwijs 

Op deze manier blijft het Emmauscollege in de omgang met AI bij de eigen onderwijsvisie, legt Visser uit. “AI moet bijdragen aan het behalen van de doelen en de visie van de school. Net zoals iedere andere medewerker. AI moet naar de school toe bewegen, niet andersom. We kijken niet alleen naar wat AI kan maar ook naar wat wij ermee willen. De positionering van AI als personage dwingt je om thema’s als ethiek, didactiek, pedagogiek echt goed uit te werken. Daarvoor gaat het gesprek naar de kern van het onderwijs.”

Chatbots-op-maat 

Met de juiste kennis van de technologie en van de didactische aspecten, kan AI (ondanks zijn onbetrouwbaarheid) wel degelijk tot mooie producten leiden, ziet Visser. Om het gesprek over AI in de school te stimuleren, maakte hij twee GPT’s, een soort chatbots-op-maat. Een van die custom-chatbots helpt om een lesplan te maken (inclusief verwijzingen naar didactische principes en theorie) en de andere combineert meerdere processen om studiewijzers te maken voor docenten en leerlingen. Beide chatbots zijn bedoeld om te laten zien wat AI kan en niet om een definitief eindproduct aan te leveren, benadrukt hij.

Roadmap voor AI-implementatie 

Visser ontwikkelde een roadmap voor de implementatie van AI in het onderwijs, die moet helpen bij een verantwoorde integratie. Die roadmap  bestaat uit drie stappen. De eerste is: bewustzijn creëren. “Ben je je ervan bewust dat die collega overal aanwezig is? Realiseer je je dat als je hem loslaat, die collega in al je kastjes klimt? Dat-ie je spulletjes mee naar huis neemt en misschien onderweg nog wel loslaat?” De tweede en derde stap gaan over het investeren in kennismaking en het identificeren van aanwezigheid. “Je moet die collega leren kennen, je moet hem de juiste taak geven, een contract opstellen, en evalueren. Als het niet goed genoeg gaat, verbreek je het contract.” Een ICT-stuurgroep doet momenteel kleine pilots met AI, vooral gericht op het bewustzijn. Deze weg bewandelen is flexibeler en dynamischer dan het opstellen van een beleidsplan, ziet Visser. “AI brengt continue verandering. Onze benadering laat meer ruimte om tussentijds te breken.” 

Dit ‘breken’ gaat natuurlijk lastig als tools AI onuitgenodigd de school in brengen. Visser ziet het risico daarvan; de school werkt aan gedragsregels voor leerlingen. Voor het gebruik van Microsofts Copilot geldt bijvoorbeeld weliswaar een minimumleeftijd, maar die is te omzeilen. Visser: “AI blijft technologie, leerlingen mogen er pas zonder begeleiding mee werken als ze weten hoe het werkt.” 

Verantwoordingsmodel voor leerlingen 

Ondertussen hebben de leerlingen van het Emmauscollege natuurlijk al ontdekt hoe ze AI kunnen gebruiken bij het maken van werkstukken. Ze nemen de uitkomsten van bijvoorbeeld ChatGPT voor waar aan, ziet Visser. Daarom test de school nu een verantwoordingsmodel. “Als leerlingen een werkstuk inleveren, moeten ze aangeven of en hoe ze AI hebben gebruikt. Hebben ze samengewerkt of heeft AI het werk gedaan? Ook vragen we hun om een reflectie: heeft AI de kwaliteit van je werk beïnvloed?” 

Met AI kunnen leerlingen een beter product afleveren, maar wij leveren daarmee nog geen betere leerlingen af.

Sturing en richtlijnen vanuit de overheid 

Hoe gaan we om met AI in het onderwijs? Visser nodigt collega’s van andere scholen uit om contact met hem op te nemen om hierover te praten. Maar de overheid en sectororganisaties zouden hierover samen met het onderwijs moeten nadenken, vindt hij. Dit om te voorkomen dat scholen te veel risico’s nemen. “We moeten beschermd worden. Er zijn binnen het voorgezet onderwijs wel werkgroepen die zich hiermee bezighouden, maar die richten zich vooral op de output. Ik zou een samenwerkingsnetwerk willen, bijvoorbeeld vanuit de onderwijsregio’s, waarin we vooral aan bewustzijn werken.” 

Op het VO-congres van 27 maart verzorgt Hans Visser samen met Kennisnet-adviseur Michel Cents een workshop over AI.

De onderwerpen waarover wij publiceren