Anmerkungen zu Multiple-Choice-Kommentaren

Mathias Magdowski

Ihre Referenzen/Links

Super Multiple-Choice-Beispiele!!! Ich habe ein wenig über die Inhalte schmunzeln müssen. Ich habe nämlich in einer HTL-Elektrotechnik meine Matura absolviert. (Übersetzung für meine deutschen Freunde: Matura = Abitur und HTL = Höhere Technische Lehranstalt, eine berufsbildende höhere Schule.)

Ihre guten Beispiele zeigen für mich deutlich, dass allgemeine didaktische Leitsätze unbedingt mit fachdidaktischen Inhalten erklärt/demonstriert werden sollen. Ich weiß aber (noch) nicht, wie das für ein allgemeines Zielpublikum gehen soll. Ein Beispiel aus Ihrem Set ist wahrscheinlich wieder für Biologen nicht so gut verständlich. (Wenn ich mal davon ausgehe, dass das Ohmsche Gesetz und die Kirchhoffsche Regel nicht zum Allgemeinwissen gehören. 😃)

Vielleicht ist ein Mix aus Beispiel von verschiedenen Fächern geeignet, das Verständnis zu erhöhen? (Im Sinne von Multiple Representation: Dasselbe Problem verschieden darstellen.) Da sich meine Beiträge v.a. an die hochschuldidaktische Community wenden, ziehe ich meistens bei komplexeren Demonstrationen Beispiele zur Methodik und Techniken des wissenschaftlichen Arbeitens heran.

Alternative Ansätze für Multiple-Choice-Fragen

Da habe ich Ihre Hinweise hoch interessant gefunden. Ich muss gestehen, dass mir Jörn Loviscach bisher noch bekannt gewesen ist, obwohl ich Mathematik-Didaktik hoch interessiert und ich dazu auch einige Erfahrung habe. (Wir hatten 2014 die Weltkonferenz für Mathematik-Didaktik an der Donau Universität Krems abgehalten. Und ich war als Organisator auch Mitglied des Organisationskomitees.)

Auch dass man mit einer Analyse des HTML-Quelltextes beim Multiple-Choice-Test schwindeln kann, war mir nicht bekannt. Für mich ist das nicht so dramatisch, weil ich den MC-Test sowieso vor allem für den Übungsmodus von selbstorganisierten Lernenden nutze. Aber klar: Das ist schon ein ernstes Problem. Es müsste aber genereller im Zusammenhang virtueller Prüfungssettings diskutiert werden und auch die Frage aufwerfen, ob unser Umgang mit all den Kontroll- und Überwachungsstrategien ethisch zu rechtfertigen ist. (Siehe dazu die beiden ausgezeichneten Artikel A Guide for Resisting Edtech: the Case against Turnitin und Our Bodies Encoded: Algorithmic Test Proctoring in Higher Education, die beide auch im Sammelband Critical Digital Pedagogy erschienen sind.1)

H5P Feature requests

Bezüglich angesprochener möglicher Änderungen und der Diskussion auf Twitter:

Diskussion über H5P Multiple-Choice-Kommentar

Ich bin sehr froh, dass Oliver Tacke sich in diese Diskussion einmischt. Er nimmt mit seinen Kompetenzen eine wichtige Schnittstelle zwischen Didaktik und Technik ein. Allerdings befürchte ich, dass gelegentliche Zurufe, dort und da Änderungen vorzunehmen, keine langfristige Lösung ist.

  1. Selbst wenn Oliver Zeit hat und diese Änderungen vornimmt: Wer bezahlt ihn als Freelancer seine Arbeit?
  2. Und was passiert, wenn viel Arbeit in einem Änderungsvorschlag verloren geht, weil der Pull Request nicht akzeptiert.
  3. Und last but not least: Bei der intensiveren Beschäftigung mit H5P in den letzten Wochen habe ich bereits eine ganze Reihe von Änderungswünschen generiert.

Ich glaube daher, wir müssen strategischer und in größerem Maßstab nachdenken. Ich möchte auch nicht verheimlichen, dass sich bei mir das Gefühl breit macht, dass da irgendwas mit der H5P-Community faul ist. Noch will ich mich nicht dazu öffentlich äußern und erst noch ausgiebiger Recherchieren und meine Punkte kohärent zusammenstellen. Ich hoffe, dass ich auch noch vor der Veröffentlichung mit Oliver darüber sprechen kann, weil er sich sowohl technisch auskennt und auch viele Erfahrungen über die internen Abläufe innerhalb der Community hat.

Ihre redaktionellen Hinweise

Danke auch für Ihre Mail zur Schreibweise von Multiple-Choice bzw. Multiple-Choice-Aufgabe und ähnliche Zusammensetzungen, wo ich konstant immer den Bindestrich weggelassen habe. Ehrlich gesagt habe ich das zwar bei "Multiple-Choice" (aber nicht bei "Multiple-Choice-Aufgabe") gewusst, es aber wegen Schwierigkeiten mit den SEO-Werten des Artikel vernachlässigt.

Ich hatte in einer früheren Version immer nur die Abkürzungen MC und SC verwendet. Das habe ich dann langwierig, weil manuell ausgebessert. (Eine Schande, dass es in WordPress zwar ein Suchen und Ersetzen für die ganze Datenbank aber nicht für den Text in Beiträgen gibt!)

Ich habe es jetzt nochmals probiert: Den gesamten Text in einen anderen Editor kopiert, geändert und dann wieder in WordPress eingesetzt. Ich bin dann von 95 auf 32 Punkte gefallen.Als ich aber alle SEO-Werte manuell nachbearbeitet habe, bin ich dann sogar auf 96 Punkte gekommen.

Fazit: Muss mir in Zukunft besser den Titel/URL überlegen und nicht einfach drauf los schreiben.

Oliver Tacke

Zur automatische Überprüfung bei Radiobuttons

Das wäre effizient, aber die Möglichkeit des nachträglichen Umentscheidens fiele dann weg. Diese Option kann didaktisch sicher auch sinnvoll sein, oder? Ist keine rhetorische Frage, ich kann sie nicht beantworten.

Umentscheiden wäre ja nur bei einem Set von Fragen sinnvoll. Ich habe hier nur die Multiple-Choice-Aufgabe isoliert betrachtet.

Aber ja: Bei Aufgabensets wie etwa bei Column, Quiz (Question Set), Single-Choice Set und Course Presentation wenn Lernende im Zuge des Lösungsprozess der Aufgabensammlung auch wieder zurück und etwas ausbessern wollen. Bei Fragesammlungen rate ich deshalb von automatischer Überprüfung eher ab.

Dein Video und Link

Danke für den interessanten Link. Ja, manchmal ist eine didaktische Herausforderung leicht zu programmieren und für Entwickler nicht spektakulär. Manchmal genau umgekehrt. Ich habe die Erfahrung gemacht, dass zu den beiden extremen Polen auch noch Permutationen gibt:

  • EntwicklerInnen programmieren etwas das (oder weil) es einfach ist, aber didaktisch wenig Sinn hat.
  • PädagogInnen verlangen etwas, das sehr speziell ist und daher selten angewendet werden kann. Dafür aber extrem schwierig zu programmieren ist.

Diverses

Deinen Hinweis, dass eine Multiple-Choice-Frage auch mit einem Video eingeleitet werden kann, habe ich im Text bereits ergänzt.

Die (spannende) Diskussion wegen einer konsistenten farblichen Kennzeichnung von richtigen bzw. falschen Aufgaben haben wir ja bereits über Twitter weitergeführt.

Fußnoten

  1. Stommel, J., Friend, C., Morris, S. M., Rorabaugh, P., Rheingold, H., Watters, A., Davidson, C., Stewart, B., & Benjamin, R. (n.d.). Critical Digital Pedagogy: A Collection.

4 Antworten auf „Anmerkungen zu Multiple-Choice-Kommentaren“

Umentscheiden wäre ja nur bei einem Set von Fragen sinnvoll. Ich habe hier nur die Multiple-Choice-Aufgabe isoliert betrachtet.

Hmm, ich könnte als Lernender erst einmal eine Option anwählen, mir meine Antwort noch ein paar Sekunden ansehen und mich dann noch einmal umentscheiden wollen. Das geht nicht, wenn gleich der erste Klick zum Überprüfen führt.

Die (spannende) Diskussion wegen einer konsistenten farblichen Kennzeichnung von richtigen bzw. falschen Aufgaben haben wir ja bereits über Twitter weitergeführt.

Da dürfte noch die Frage sein, wann die Kennzeichnung erfolgen sollte. Gleich nach Klick auf „Check“ bzw. „Überprüfen“? Oder doch erst beim Klick auf „Show Solution“ bzw. „Lösung zeigen“. Genau für letzteren gibt es ja noch Einstellungsmöglichkeiten, dass dieser womöglich gar nicht eingeblendet werden soll. Dann ergäbe es nur Sinn, die Kennzeichnung nach dem Klick auf „Lösung zeigen“ vorzunehmen. Und in dem Fall springt dann die Anzeige von grün/rot für richtig/falsch gegebene Antworten auf tatsächlich richtige/falsche Antworten. Ich glaube, dass sollte jemand mit didaktischer Expertise im H5P-Forum diskutieren.

Hmm, ich könnte als Lernender erst einmal eine Option anwählen, mir meine Antwort noch ein paar Sekunden ansehen und mich dann noch einmal umentscheiden wollen.

Warum sollte das jemand tun? Es gibt ja keine neuen Informationen, die ein Umentscheiden begünstigen würden. Bei einem Testset kann dies aber sehr wohl der Fall sein, weil die Präsentation weiterer Fragen und Optionen unter Umständen eine neue Information liefern, die die vorher ausgefüllte Frage in ein anderes Licht setzt.

Da dürfte noch die Frage sein, wann die Kennzeichnung erfolgen sollte.

Ich werde das nochmals genau überlegen und versuchen es auch grafisch darzustellen. Sowohl die Farbzuweisung bei „Check“ als auch der Klick auf die „Show Solution“. Ich glaube nämlich fast, dass „Show Solution“ dann ja redundant ist und es die Kreuzchen nicht mehr braucht, wenn es von vornherein eine richtige Farbzuweisung gibt. Gib mir ein paar Tage Zeit. Auch noch andere mit einer didaktischen Perspektive drüber schauen zu lassen, ist auf jeden Fall gut. Hilfreich wäre ein Prototyp, aber vielleicht kann meine Grafik auch etwas helfen. — Vielleicht komme ich dann selbst drauf, dass es keine gute Idee ist/war 😉

Mir ist noch etwas eingefallen zum Problem des Umentscheidens: Wir sprachen ja von EINER Single-Choice-Frage, die mit dem H5P Multiple-Choice-Modul entwickelt wurde. Mein Argument war (und ist), dass bei einer Frage, die mit einem einzigen Klick falsch oder richtig beantwortet wird, eine automatische Überprüfung sinnvoll ist. Sie erspart Lernenden die „Überprüfen“-Schaltfläche zu drücken. Nach wie vor halte ich die Wahrscheinlichkeit, dass Lernende in den Millisekunden vom Klick der Antwortvorgabe bis zum Kick von „Überprüfen“ sich anders entscheiden wollen, für unwahrscheinlich. Vor allem wenn sie wissen, dass Klicken sofort ausgewertet wird. Die Strategie „zuerst Klicken, dann Denken“ fällt dann weg.

Es gibt aber ein anderes Argument, keine automatische Prüfung bei EINER Single-Choice-Frage vorzusehen: Die Kontrolle (das „Empowerment“) der Lernenden selbst zu entscheiden, was sie wann und wie machen wollen. Diese mögliche Kritik ist mir eingefallen, als ich einen (weiteren) Artikel aus dem bereits erwähnten Buch „Critical Digital Pedagogy“ gelesen habe. Das Argument halte ich für schwach, weil das gesamte Setting (Wer hat die Frage ausgewählt? Wer bestimmt was richtig und falsch ist?) hierarchisch strukturiert ist. Meine Vorstellung des selbstgesteuerten Lernens geht davon aus, dass Lernende diese Übungen durchführen um zu Lernen – und nicht um einen Schein oder hohe Punkte zu bekommen. Unter dieser Voraussetzung bin ich weiterhin dafür, dass bei EINER Single-Choice-Frage automatische Prüfung zweckmaßig ist.

Inzwischen bin ich überzeugt davon, dass Farbzuweisung und das Kreuzchen mit „Show Solution“ bei einer Option sicherlich redundant (ja sogar unsinnig) ist: Nämlich dann wenn Feedback für alle Möglichkeiten (wahr und falsch) gegeben wird. Da bringen die Häkchen mit „Show Solution“ nämlich rein gar nichts, weil ja sowie schon die ganze Lösung samt dem Feedback gesehen wird, nachdem der „Check“ -Button gedrückt wurde. Ich werde da noch in einem Artikel mit Screenshots ausführlich zeigen und begründen.

Wird allerdings kein Feedback gegeben, dann muss ich mir das noch genauer überlegen. Dann wird nämlich statt Lern- und Aufklärungsmodus ein Trial-und-Error-Modus verwendet. Und da könnte diese Aufteilung Farbe und Kreuzchen sinnvoll sein. Etwa nach dem Motto:

  • Farbe = Lösung teilweise: Bewerte nur die Lösung der angeklickten Antwortvorgaben
  • Kreuzchen = Lösung gesamt: Zeige für alle Antwortvorgaben die richtige Lösung

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha loading...