Artificiële intelligentie (AI) kan in het onderwijs alleen ingezet worden na onderhandeling met de betrokken onderwijspersoneelsleden, mits duidelijke communicatie over de werking ervan (verzamelen, verwerken en analyseren van data en de daarbij gehanteerde algoritmes) en steeds volgens het human in command-principe. Artificiële intelligentie kan dus alleen ondersteunend ingezet worden en moet steeds de professionele autonomie van onderwijspersoneelsleden garanderen.
Artificiële intelligentie (AI) kan in het onderwijs alleen ingezet worden na onderhandeling met de betrokken onderwijspersoneelsleden, mits duidelijke communicatie over de werking ervan (verzamelen, verwerken en analyseren van data en de daarbij gehanteerde algoritmes) en steeds volgens het human in command-principe. Artificiële intelligentie kan dus alleen ondersteunend ingezet worden, nooit zelfstandig kerntaken en andere opdrachten van onderwijspersoneelsleden (zoals onderwijzen, evaluatie en rekrutering) op zich nemen en moet steeds de professionele autonomie van onderwijspersoneelsleden garanderen.
AI zit overal in ons leven: in ‘slimme’ toestellen en programma’s, ‘zelfrijdende’ voertuigen, sociale media … Ook in het onderwijs zijn we al jaren zonder het ten volle te beseffen aan het werk met AI: er zijn ‘slimme’ algoritmes werkzaam in allerlei digitale tools voor leerlingenbegeleiding, digitale persoonlijke leertrajecten, analytics (digitale analyse van data) …
We werden ons pas ten volle bewust van de inzet van AI in het onderwijs met de lancering van ChatGPT in november 2022. En die lancering bracht aanvankelijk een paniekreactie teweeg: door AI als ChatGPT konden lerenden voor een aantal vaardigheden die wij (tot nu toe) essentieel achtten voor vormend onderwijs, plots een beroep doen op gratis technologie in plaats van zelf aan het werk te gaan, en wij, de leerkrachten, zouden het niet eens doorhebben. Er kwam een heftige discussie op gang van voorstanders (ChatGPT is een nieuw instrument met meerwaarde voor het onderwijs, maar je moet er de lerenden kritisch mee leren omgaan) en tegenstanders (een groep scholen in New York sloeg ChatGPT zelfs in de ban). Ondertussen hebben heel wat onderwijsverstrekkers en -instellingen aanbevelingen of afspraken opgesteld over werken met ChatGPT.
Maar AI gaat veel verder dan het gebruik van ChatGPT. En de vragen die we ons (zouden moeten) stellen, gaan veel ruimer en zijn veel diepgaander. Merkwaardig genoeg is er over de inzet van AI in het algemeen in ons onderwijs nog maar weinig gereflecteerd, laat staan dat er al duidelijke regels over zijn opgesteld. De EU kwam pas in oktober 2022 met Ethische richtsnoeren voor het gebruik van
artificiële intelligentie (AI) en data bij onderwijzen en leren voor onderwijsactoren.64 ETUCE (European Trade Union Committee for Education) was haar daarin reeds in juli 2021 voorafgegaan met de resolutie Artificial Intelligence in the Education Sector. Het is hoog tijd dat we ook op Vlaams niveau ethische richtlijnen opstellen voor het gebruik van AI in het onderwijs. Het is onbegrijpelijk dat op dit moment iedereen AI-toepassingen op het onderwijs kan loslaten zonder dat daarvoor een kader is ontworpen.
Wat opvalt, is dat bij het reflecteren over AI in onderwijs heel wat vragen die we eerder al stelden over afzonderlijke aspecten van de digitalisering van het onderwijs (zie krachtlijn 1 tot en met 9), in AI als het ware gebundeld en versterkt voorkomen. Vandaar dat verschillende van de actiepunten bij krachtlijn 10 als een echo van het voorgaande zullen weergalmen:
De vraag naar transparantie (waar is reeds AI werkzaam in ons onderwijs?) in de actiepunten verwijst duidelijk naar het recht op informatie uit krachtlijn 4. Transparantie moet er ook zijn over wat er met onze data gebeurt.
AI is een zo snel evoluerende technologie dat professionalisering ter zake onontbeerlijk is. AI moet dus aandacht krijgen in de lerarenopleidingen en in de vorming van onze vakbondsafgevaardigden en sensibilisering van onze leden. Daarbij
moet niet alleen aandacht geschonken worden aan de werking en mogelijkheden van AI-toepassingen, maar ook
(en vooral) aan het zich toe-eigenen van een levenslange kritische houding tegenover AI (men moet leren de
‘juiste’ vragen te stellen om een loopbaan lang doordachte keuzes te kunnen maken).
AI voor onderwijs wordt volop ontwikkeld door private, commerciële partners (de zogenaamde EdTech-bedrijven). Dat houdt aanzienlijke risico’s in voor onze pedagogie en didactiek, de professionele autonomie van de onderwijspersoneelsleden en de keuzevrijheid van de scholen (cf. krachtlijn 5). Het moet duidelijk zijn: onderwijs moet aan het roer van onderwijs blijven staan! De overheid kan hierin een regulerende rol spelen. Het onderwijsveld moet voor COC steeds betrokken worden bij het ontwerpen en ontwikkelen van onderwijs-AI-technologieën.
Aangezien de AI-toepassingen een ernstige impact (kunnen) hebben op het uitvoeren van de kerntaken van onderwijspersoneelsleden, moeten zij betrokken worden bij de ontwikkeling ervan en moet er met hen onderhandeld worden over de invoering ervan.
De toepassingen van AI breiden zich steeds verder uit en betreden daarbij geregeld het domein dat toebehoort aan de menselijke verantwoordelijkheid. Voor COC mag AI ondersteunend zijn, maar niet de (eind)verantwoordelijkheid van mensen overnemen. Ook hier geldt: human first (krachtlijn 1)! AI ten dienste van vormend onderwijs, niet omgekeerd.
AI ‘werkt’ op basis van data. Onze data (van lerenden en leerkrachten). Daarom is het van het grootste belang dat de in het onderwijs ingezette AI op een correcte manier omgaat met de privacy en data van alle betrokkenen overeenkomstig de bestaande regelgeving; DPIA’s (Data Protection Impact Assessments) kunnen daarbij toonaangevend zijn.
We moeten tot slot ook toezien op de impact die AI, net als (en wellicht in hogere mate dan) andere digitale toepassingen, kan hebben op ons psychosociaal welzijn.
>>> Het moge duidelijk zijn: wil men de digitalisering van het onderwijs op een doordachte, duurzame en democratische
manier uitrollen en verderzetten, dan moeten we ervoor zorgen dat we AI de plaats geven die haar toekomt: ten dienste van onderwijs, ontwikkeld in samenspraak met en ter ondersteuning van (en dus ondergeschikt aan) onze onderwijspersoneelsleden,
en functionerend in volledige transparantie, met garantie van de autonomie, de digitale veiligheid en het arbeidswelzijn van onze onderwijspersoneelsleden.
Actiepunten
COC vraagt dat er een grondige onafhankelijke studie komt om het reeds aanwezige gebruik van AI in het onderwijsveld in kaart te brengen, daarvan de voor- en nadelen te onderzoeken en na te gaan of de GDPR-regelgeving daarbij volledig nageleefd wordt.
COC eist dat er ethische richtlijnen opgesteld worden voor het gebruik van AI in het onderwijs en wil daar als vertegenwoordiger van het onderwijspersoneel actief aan meewerken.
COC vraagt dat bij de hogerop (AP 7.1) gevraagde versterking van de lerarenopleidingen in het luik digitalisering uitgebreid aandacht besteed wordt aan het fenomeen AI in en rond het onderwijs. Die vorming moet de toekomstige onderwijspersoneelsleden enerzijds inzicht geven in de werking van AI in het algemeen (welke data worden verzameld, hoe worden ze verzameld, verwerkt en geanalyseerd en welke algoritmes worden daarbij gebruikt?) en in de mogelijke consequenties van de output van AI-technologieën. Anderzijds moeten toekomstige onderwijspersoneelsleden zich in hun opleiding ook een levenslange kritische houding tegenover AI en digitale toepassingen toe-eigenen. Deze vorming moet
ook verdergezet worden in het kader van ‘loopbaanlang leren’.
COC vraagt dat de onderwijsvakbonden en onderwijspersoneelsleden nauw betrokken worden bij het ontwerpen, ontwikkelen en monitoren van AI-technologieën voor het onderwijs.
COC vraagt dat de Vlaamse overheid een algoritmeregister opent voor het gebruik van AI in het onderwijs. In zo’n register moeten onderwijsinstellingen de AI-algoritmes die ze gebruiken, registreren en beschrijven. Dat draagt bij tot een algemene transparantie en tot het uitwisselen van ervaringen.
COC eist dat alle onderwijs-AI-technologieën de GDPR-regels strikt naleven en vraagt ter garantie daarvan de invoering van een verplichte DPIA (Data Protection Impact Assessment) ofte GEB (GegevensbeschermingsEffectBeoordeling) bij het introduceren van elke nieuwe AI-technologie.
COC waarschuwt voor de risico’s die gepaard gaan met de toenemende privatisering en commercialisering in en rond onderwijs en de daarmee gepaard gaande toenemende impact van EdTech-bedrijven die (tools met) AI-technologieën voor het onderwijs ontwikkelen. COC vraagt dat de overheid meer verantwoordelijkheid opneemt in de ontwikkeling van AI-onderwijstechnologieën en erop toeziet dat niet de EdTech-sector maar het onderwijsveld de pedagogisch-didactische visie achter AI-onderwijstechnologieën bepaalt.
COC eist dat EdTech-bedrijven transparant zijn inzake de data die ze uit onderwijs verzamelen en het gebruik ervan.
COC vindt dat elke invoering van een nieuwe AI-technologie die impact heeft op het werk van onderwijspersoneel, onderhandeld moet worden. COC wil ervoor zorgen dat dit principe in regelgeving verankerd wordt en dat er een wettelijk kader wordt uitgewerkt waarbinnen de vakbondsafgevaardigden lokaal kunnen onderhandelen.
COC engageert zich om haar vakbondsafgevaardigden met het oog op die onderhandelingen op te leiden en de risico’s van AI te leren inschatten en haar leden goed te informeren inzake de werking en mogelijke impact van AI-technologieën in het onderwijs.
COC eist lokaal dat het onderwijspersoneel volledige transparantie krijgt over alle AI-technologieën (gebruik data en algoritmes) die van toepassing zijn tijdens het uitvoeren van hun kerntaken en andere opdrachten.
COC eist dat AI slechts ondersteunend wordt ingezet (ter bescherming van de professionele autonomie van het onderwijspersoneel) en nooit bepalend is bij beslissingen inzake rekrutering en evaluatie, zowel van onderwijspersoneelsleden als van lerenden (steeds human in command).
COC ziet er lokaal op toe dat de invoering van AI-technologieën het psychosociaal welzijn van de onderwijspersoneelsleden niet aantast. We denken daarbij onder andere aan het risico op stress door dashboarding en hyperconnectiviteit.