Staatssecretaris Sander Dekker is blij, zeer blij. Het slagingspercentage slaagt en veel leerlingen op het VO slagen met vlag en wimpel. Aldus het persbericht van 28 november 2016, zie: Eindexamens beter gemaakt.
Een persbericht vanuit het Ministerie van OCW bevat altijd tenminste 1 reclameboodschap voor het gevoerde beleid. In dit geval ziet Sander D. in de cijfers een bevestiging van het beleid met strakkere exameneisen. Critici daarvan hebben ongelijk want:
a) er zijn meer ‘cum laude’ leerlingen dus de betere leerlingen zijn nog weer wat beter geworden;
b) het slagingspercentage stijgt dus de zwakkere leerlingen zijn er niet de dupe van geworden.
Of deze zelf-felicitatie van de staatssecretaris terecht is, is uit het persbericht niet op te maken. Het is ook niet op te maken uit de gegevens die het Ministerie van OCW vrijgeeft op Onderwijsdata. Immers, uit de data die het Ministerie publiek maakt, kunnen cijferlijsten van leerlingen afzonderlijk niet gereconstrueerd worden. Je kunt dus niet bepalen hoeveel leerlingen er in eerdere jaren het predicaat ‘cum laude’ hebben gehad. Evenmin kun je bepalen of de cijfers bij de ‘zwakkere’ leerlingen door de bank genomen toch wat lager zijn geworden.
Zelfs als het Ministerie van OCW deze gegevens wel publiceert, zou er heel wat statistisch werk gedaan moeten worden voordat er vanuit het Ministerie victorie gekraaid mag worden. De examencijfers in de verschillende jaren zouden bezien moeten worden vanuit verschillende, potentieel relevante factoren. Zo is het heel wel mogelijk dat er een significante correlatie is tussen de hoogte van cijfers die leerlingen halen en het weer op de examendag. Iedereen die ooit naar school is gegaan, weet hoe lastig het is om half-doorweekt een multiple-choice lijst in te kleuren (en hoe verleidelijk daar vaart achter te zetten om snel naar huis te kunnen). Ook andere potentieel relevante factoren, zoals het lawaai in de omgeving van het examenlokaal, zouden niet in de analyse betrokken kunnen worden. Bij alle ‘BRON’-verzamelzucht is het Ministerie vergeten gegevens over dit soort factoren te verzamelen. Feit is dat de meeste factoren waarvan we allemaal weten dat die op het niveau van de individuele leerlingen relevant zijn voor het examenresultaat tot dusverre in het geheel niet in kaart zijn gebracht. De analyses van examengegevens die het Ministerie afscheidt, hebben de diepgang van de analyses van een seismoloog die aardbevingen in Japan probeert te voorspellen aan de hand van de hoogte van de golven voor de kust van Fukushima.
Deze vergelijking is misschien te hard. Het valt de staatssecretaris niet aan te rekenen dat van alle factoren die een rol spelen in het primaire proces tot dusverre alleen die gegevens zijn ‘gedataficeerd‘ die we honderd jaar geleden ook al verzamelden, maar dan op papier. Learning analytics is een jonge vakdiscipline. Mogelijk zijn de datasystemen van het Ministerie over een jaar of vijftien meer bij de tijd dan nu.
Ernstiger – omdat data daarover al wel binnen handbereik liggen – is dat het Ministerie voorspelbare en documenteerbare neveneffecten van het eigen beleid niet onderzocht lijkt te hebben. Onder druk van het zgn. ‘discrepantie-criterium’ (het verschil tussen het cijfer op het Schoolexamen en het Centraal Examen) hebben sommige scholen er beleid van gemaakt bij werkstukken en projecten geen negens en tienen meer te geven. Dat is immers een effectieve manier om het cijfer voor het SE wat omlaag te krijgen zonder dat het onmiddellijk ‘zeer’ doet bij leerlingen afzonderlijk. Echter, die scholen zullen er – bij het intern bestuderen van de examencijfers – achter zijn gekomen dat dit beleid relatief tot het ‘discrepantie-criterium’ een te zwaar middel is. Het is, in relatie tot dit criterium, niet nodig om de SE-cijfers voor ALLE leerlingen neerwaarts te duwen. Het is voldoende om dit te doen bij de leerlingen die wat zwakkere papieren hebben voor het eindexamen. De leerling waarvan vrij zeker is dat die bij het centraal examen een hoog cijfer zal halen, kun je zonder problemen een negen geven voor een werkstuk mits je dat niet doet bij de leerling die bij het centraal examen maar net een voldoende zal halen.#
Het is dus heel wel voorstelbaar dat de zorg die er bij scholen leefde rond het ‘discrepantie-criterium’ de cijfers van ALLE eindexamenkandidaten een tijdje neerwaarts beinvloed heeft maar dat dit effect voor de ‘betere’ leerlingen is wegge-ebd. Examenkandidaten die in 2010 het predicaat cum laude niet zouden hebben gekregen omdat het ‘discrepantie-beleid’ bij hen tot lagere cijfers had geleid, zouden dat predicaat in 2016 wel gekregen hebben. En – iets subtieler – eindexamenkandidaten die vanwege het ‘discrepantie-beleid’ in 2010 gezakt zijn, zouden in 2016 geslaagd kunnen zijn.$ De ontwikkelingen die de staatssecretaris meent te zien zijn dan inderdaad een gevolg van de strengere exameneisen, maar op een andere manier dan de staatssecretaris denkt.
Het is wel fijn dat de staatssecretaris zo tevreden is over de leerlingen, docenten en besturen in het Voortgezet Onderwijs. Als het nu – zonder een lerarenregister, zonder een schoolleidersregister, zonder een bestuurdersregister – al zo goed gaat, dan zou de staatsecretaris al die ideeen over hoe het bestuur van scholen nog beter te maken misschien wel in de ijskast kunnen (terug)zetten.
# Niet alle scholen hebben een “geen negens meer voor werkstukken”-regel ingevoerd. Voor andere beleidsmaatregelen waarmee scholen met het discrepantie-criterium aan de slag zijn gegaan, geldt echter ook dat deze beleidsregels zodanig bijgesteld kunnen worden dat het neerwaartse effect op het SE-cijfer alleen de cijfers van de zwakkere leerlingen raakt.
$ Dit ligt subtieler omdat dit vereist dat de school zich realiseert dat de beleidsregel waarmee de cijfers neerwaarts gedrukt zijn nader kunt verfijnen: je mag een leerling die over de gehele linie ‘zwakker’ is, best een negen geven voor een werkstuk in een vak waarin die leerling goed is zonder dat daarmee het ‘discrepantie’-risico ondraaglijk wordt.