Geef feedback op de uitgangspunten voor de nieuwe vragenlijst

Beste mensen,

Hieronder vind je 9 uitgangspunten voor de nieuwe vragenlijst gedestilleerd uit evaluaties en eerdere feedback. Aanpassingen aan de bestaande vragenlijst en nieuwe vragen worden aan deze uitgangspunten getoetst.

NB:De nummers geven geen prioriteit aan of volgorde maar zijn er puur om makkelijker naar een specifiek uitgangspunt te verwijzen.

We zijn benieuwd naar jullie vragen, opmerkingen en suggesties!

Uitgangspunten voor de vragen

De vragen in de vragenlijst dienen…

1. Bij voorkeur beantwoordbaar te zijn zonder al te veel voorkennis.
Daar waar toch specialistische kennis gevraagd wordt leveren we extra toelichting.

2. Zo concreet mogelijk zijn.
Zodat de beantwoorder aan de vraag zo min mogelijk hoeft en kan interpreteren. Antwoorden dienen vergelijkbaar te zijn ivm benchmark rol van de Spoelkeuken. Multi-interpretabele vragen zijn hiervoor niet handig.

3. Altijd voorzien te zijn van achtergrond informatie.
Onderbouwing te geven over wat het nut van de vraag is, hoe de vraag beantwoord kan worden (tips ‘hoe kom ik aan deze info?’), welk doel ermee beoogd wordt en welke consequenties eraan verbonden kunnen worden om het gewenste effect te bereiken.

4. In principe te bestaan uit vaste waarden (ja/nee/nvt/Likert-schaal)

5. Tot herleidbare en controleerbare antwoorden te leiden.
D.w.z. antwoorden moeten onderbouwd kunnen worden met documenten en linkjes.

6. Expliciet onderscheid te maken tussen de functionaliteiten van de (software) tool/dienst in de standaard configuratie, de entiteit achter de tool en de wijze waarop de tool wordt ingezet door een Spoelkeuken deelnemende organisatie (zelf hosten vs dienst bijvoorbeeld).

7. Expliciet onderscheid te maken tussen de verschillende verschijningsvormen van de (software) tool. Zoals bijv opensource community versie vs self-hosted variant vs hosted proprietary dienst versie. En in de verschillende versies (freemium editie, premium editie, platina editie, etc) daarin.

8. Waar mogelijk voort te bouwen op eventuele bestaande (verplichte) audits / self- assessments. Dit duidelijke kenbaar te maken, zodat een beantwoorder geen dubbel werk doet.

9. Inzichtelijk te maken wat de weging van de vraag is (incl gevolgen van n.v.t.) t.o.v. van de score per waarde en de totaal score.

Volgens mij is de huidige vragenlijst nu een beetje van twee zaken. een vragenlijst om zaken te scoren en in een databank / kennisbank te zetten en een conversation starter. Het is nu nog een mix van beide zaken. Je zou het beter kunnen maken door duidelijker te kiezen en de vragen meer te richten op het doel.
Daarnaast kwamen wij met een aantal openbare bibliotheken tot de conclusie dat de vragen soms filosofisch, soms multi-interpretabel, soms is er ook niet duidelijk wat er precies bedoeld wordt. Sommige vragen zitten teveel op snijvlak ethiek/techniek.

Hi Sander,
Het klopt dat het een combinatie van beiden is/was. We gaan dit uit elkaar halen vandaar de uitgangspunten zoals we die hier nu beschreven hebben. Ik denk dat we met die nieuwe uitgangspunten ook recht doen aan de feedback vanuit de openbare bibliotheken dat het soms wat te filosofisch was. Of missen we nog iets in deze uitgangspunten?

Hoi Bjorn, ik vind de uitgangspunten logisch, en ben benieuwd hoe de uitwerking gaat worden. Beantwoording zonder al te veel voorkennis wringt, denk ik, een beetje met controleerbare (onderbouwde) antwoorden. Maar heel goed dat de verschillende aspecten tussen tool/implementatie/entiteit uit elkaar worden getrokken.

Hi Onno,

Welkom! Fijn om te horen dat je - als een van de grondleggers van de methodiek- ermee eens bent dat we de verschillende aspecten meer uit elkaar hebben gehaald. Er zit inderdaad soms wel wat wrijving tussen bijv die twee uitgangspunten, maar wellicht kunnen we dit deels ondervangen met uitleg over hoe je tot bepaalde onderbouwing kan komen. Ik kom gauw met meer informatie over de uitvoering.

Betekent dat dan dat we toch eerder de tool zelf en niet zozeer ons gebruik van de tool scoren, en dat iedere organisatie die eenzelfde tool door de spoelkeuken haalt dus in principe (ongeveer) op dezelfde score moet uitkomen? Ik herinner me dat we het hierover hebben en dat de uitkomst toen was dat we eerder ons gebruik van de tool dan de tool zelf scoorden. Is het de intentie dat dat wijzigt in de nieuwe vragenlijst?

Ja dat klopt. Al willen we het ‘kijkje in de keuken’, van hoe een organisatie een tool inzet ook op een of ander manier terug laten komen. Maar voor de vragenlijst willen we meer inzetten op het kunnen vergelijken van tools (benchmark).

Dankjewel @Sandervk @onnob en @BartM voor jullie feedback. We gaan verder met het aanpassen van de vragenlijst op basis van de uitgangspunten zoals in dit topic beneoemd. Ik sluit daarom dit topic.