Beoordelen is moeilijk. Waarom? Daarom!

Stel, je hebt je leerlingen een superleuke taak gegeven waarin ze kennis uit je les integreren en bewerken (bijvoorbeeld, een opiniestuk schrijven over orgaandonatie). De deadline nadert, de taken sijpelen binnen en jij gaat aan het beoordelen. Taak 1: inhoudelijk sterk, goed geschreven en niet al te veel taalfouten. Je beslissing? Een 9! Taak 2: vlotte schrijfstijl, net wat taalfouten, maar wat een rake argumentatie! Beslissing? De twijfel slaat toe. Geven die taalfouten de doorslag en geef je een 8? Maar die argumentatie was toch echt sterker dan in taak 1 en die had al een 9… Herkenbaar? Deze blog zet even op een rijtje waarom dat beoordelen toch vaak zo moeilijk is.

Read more

Opiniestuk in de krant!

Op 1 juni 2018 was er een leuk opiniestuk te lezen in De Standaard. Roos Van Gasse wierp er de vraag op waarom we eigenlijk zoveel tijd, geld en goede bedoelingen investeren in iets als ‘de examenperiode’ als de beoordelingen twijfelachtig kunnen zijn. Ben jij het met haar eens?

Read more

Op naar de spin-off!

Recent verscheen er op de blog van Edubron een blogpost over onze transitie van onderzoeksproject naar spin-off. Wil je meer lezen over wat er momenteel achter de schermen gebeurt? Lees dan zeker de blog erop na!

Read more

(Foto)verslag van het D-PAC Event

Vier jaar onderzoek aan de Universiteit Antwerpen, Universiteit Gent en imec laat zien: comparatief beoordelen werkt! Het is de effectiefste methode om complexe vaardigheden te meten en ontwikkeling te stimuleren. Op 15 & 16 november 2017 presenteerden we onze tool voor comparatief beoordelen, de bevindingen van vier jaar onderzoek en toepassingen uit de praktijk! Bekijk (en download) alle presentaties, posters & het verslag!

Read more

Een stop aan het bandwerk in onderzoek?!

Kan Machine Learning het manuele codeerwerk reduceren?

door: Sven De Maeyer

 

Alle onderzoekers, spits de oren. Wat je te lezen krijgt heeft de potentie om het saaie bandwerk van uren en dagen manueel coderen definitief achter je te laten. Het is allicht herkenbaar. Als we veel data willen dan houden we het vooral zo gestructureerd en gesloten mogelijk. Bij surveys stellen we het liefst (om het haalbaar te houden) geen open vragen aan de respondenten. En interviews beperk je ook tot een haalbaar aantal. Want hoeveel tijd gaat dat straks niet kosten om dat allemaal manueel te verwerken?

Hmm, “manueel” … is dat een woord dat nog hoort in deze tijd van Artificiële Intelligentie, Machine Learning, Deep Learning, Data mining, tekst mining, … en alle andere termen die we vanuit de computerwetenschappen naar het hoofd geslingerd krijgen? We deden de proef op de som en onderzochten de potentie van Machine Learning. De resultaten zijn alvast hoopgevend.

Read more

Interview met winnaars D-PAC Inspiratie Award

Een schaal ontwikkelen met D-PAC en daar vervolgens 2700 teksten mee beoordelen. Onderzoekers Nina Vandermeulen & Brenda van den Broek wonnen op 15 november met hun prachtige poster over dit onderzoek de D-PAC Inspiratie Award. Wat kunnen zij ons – als ervaringsdeskundigen – leren over comparatief beoordelen?

Read more

D-PAC wint de Prijs voor Examens van de NVE

Op 23 november won D-PAC de Prijs voor Examens tijdens het congres van de Nederlandse Vereniging voor Examens (NVE). We namen het op tegen vier andere indrukwekkende innovaties en zijn dus extra trots dat de jury D-PAC ziet als de bijzonderste recente prestatie op het gebied van toetsing en beoordeling.

 

D-PAC wint de Prijs voor Examens van de Nederlandse Vereniging voor Examens

Renske Bouwer (tweede van links) met de juryprijs, links Hester Brenninkmeijer die met eX:plain de publieksprijs won

Read more

Schrijftaken goed beoordelen, hoe pak je dat het beste aan?

 

Tine Van Reeth, Elies Ghysebrechts & Jolien Polus, o.l.v. Jan T’Sas

 

Iedereen kent het beeld van een leraar die zich zuchtend doorheen een stapel essays worstelt. Elk werkstuk objectief beoordelen is een hele klus. Hoe quoteer je bijvoorbeeld schrijftaken die inhoudelijk sterk zijn, maar vol spelfouten staan? Vaak ook hebben leraren een verschillend idee van wat een goed essay precies inhoudt. Wat de ene een vlotte schrijfstijl noemt, vindt de andere te informeel. In het kader van onze specifieke lerarenopleiding hebben wij in dat verband een mini-onderzoek opgezet. We vergeleken de gangbare beoordelingsmethode op basis van criteria met een alternatieve methode op basis van comparatief beoordelen. Onze conclusie? Schrijftaken door meerdere leraren laten beoordelen verhoogt de objectiviteit aanzienlijk. 0-1 voor D-PAC.

Read more

Goed nieuws vanuit ‘slechtnieuwscommunicatie’

Masterstudenten meertalige professionele communicatie aan de Universiteit Antwerpen zijn lovend over ons digitale platform D-PAC om competenties comparatief te beoordelen: “We kunnen onze eigen competentie beter inschatten én krijgen door de voorbeelden van anderen inspiratie om onze tekst te herwerken”. Via peer-assessment beoordeelden 80 studenten – in twee groepen – de kwaliteit van elkaars slechtnieuwsbrieven en gaven ze elkaar feedback.  Dat gebeurde in de context van blended learning.

Read more

Feedback op kunstwerken via een live app

‘Onze studenten zelf laten ervaren hoe bezoekers hun creaties ervaren, welke observaties zij maken, hoe zij hun werk gewaarworden; dat is het doel van onze Black Box-tentoonstelling’, zo vertelt Gio De Weerd, directeur van de Stedelijke Academie voor Schone Kunsten in Lier. Met onze online tool om competenties te beoordelen zag hij kansen om deze doelstelling op een innovatieve manier te realiseren. Bezoekers liepen met de app van D-PAC door de tentoonstelling. Ze vergeleken steeds twee kunstwerken met elkaar, kozen hun favoriet en gaven beide studenten feedback.

Read more