Multiple-Choice-Fragen sind besonders dann wertvoll, wenn die falschen Antwortvorgaben (Distraktoren) gut gewählt sind und entweder häufige Fehler oder zum Verwechseln ähnliche Lösungen anbieten.
Single- und Multiple-Choice
Bei einer Multiple-Choice-Aufgabe wissen Lernende nicht, wieviele der angebotenen Antwortvorgaben richtig sind. Das unterscheidet sie von einer Single-Choice oder Einfachauswahl, wo es genau eine richtige Lösung gibt. Vom Schwierigkeitsgrad her gesehen, ist daher der Multiple-Choice-Test die anspruchsvollere Variante. Selbst wenn Lernende eine oder auch mehrere Antworten wissen, kann es immer noch einen Punkteabzug geben, weil sie eine weitere richtige Lösung nicht wahrgenommen haben.
Im Internet ist es Standard eine Mehrfachauswahl durch kleine quadratische Kästchen ("Checkboxes") und eine Einfachauswahl durch runde Radiotasten ("Radiobutton") zu visualisieren.1
Drei didaktische Anmerkungen
- Ich habe die "Überprüfen"-Schaltfläche bei der Einfachauswahl bloß wegen der Symmetrie eingefügt. Sie ist didaktisch nicht sinnvoll, weil durch die Radiobuttons sowieso klar ist, dass es nur eine Antwortmöglichkeit gibt. Es wäre daher eine automatische Überprüfung sofort nach dem Klick auf eine Antwortvorgabe durchaus zweckmäßig. Allerdings wird damit die Barrierefreiheit beeinträchtigt.
- Von einer didaktischen Perspektive her gesehen ist der Multiple-Choice mit einer Mehrfachauswahl schwieriger richtig auszufüllen und daher meiner Meinung nach einer Einfachauswahl vorzuziehen.
- Wird Punkt 2 ernst genommen, dann wird der H5P-Inhaltstyp Single-Choice nicht mehr unbedingt gebraucht.
Multiple-Choice-Feeling
Oliver Tacke demonstriert auf den OERcampus-Seiten in einem Video wie eine Multiple-Choice-Aufgabe in H5P aussieht.2
Das Video ist für meine didaktische Diskussion hier aus zweierlei Gründen interessant:
- Es zeigt zwar ein Beispiel, das mit dem Multiple-Choice H5P-Inhaltstyp erstellt wurde. Es ist aber gerade nicht eine typische Mehrfachauswahl, sondern präsentiert Lernende – durch die Radiobuttons klar ersichtlich – eine Single-Choice-Auswahl. Zur Ehrenrettung von Oliver muss jedoch gesagt werden, dass der Fehler bei H5P selbst liegt, die ein schlechtes Beispiel als einführenden Prototyp in ihrem Tutorial präsentieren.
- Viel wichtiger aber ist für mich ist die aus dem Video relativ bescheidene und zurückhaltende Haltung von Oliver. So nach dem Motto: "Nichts spektakuläres, H5P hat halt, wie viele andere auch, ebenfalls einen Multiple-Choice-Übungstyp im Programm." Ja, es stimmt: (fast) alle interaktive Übungsprogramme haben einen Multiple-Choice-Test in ihrem Repertoire. Aber ich bezweifle ob sie aus didaktischer Perspektive so ausgereift sind, wie es der H5P-Modul ist.
H5P Multiple-Choice-Goodies
- Es können beliebig viele richtige und falsche Antwortvorgaben vorgesehen werden.
- Jede Antwortvorgabe kann mit einem doppelten Feedback versehen. Eine Rückmeldung für die ausgewählte Antwort und eine Rückmeldung wenn sie nicht ausgewählt wurde.
- Jede Antwortvorgabe kann mit einem Hilfetext (Tipp) ausgestattet werden.
- Alle drei Eingabefelder lassen rudimentäre Formatierungen zu und vor allem auch Linkverweise auf externe Ressourcen zu. Der Text kann dabei beliebig viele Zeichen enthalten..
- Jede Multiple-Choice-Aufgabe kann mit einem Bild eingeleitet werden. Lernende können das Bild zoomen oder sich mit dem MouseOver-Effekt einen erläuternden Text anzeigen lassen. Lehrende können das Bild rudimentär bearbeiten (drehen und zuschneiden). [Nachtrag: Auch mit einem Video kann die Aufgabe eingeleitet werden. Siehe Kommentar von Oliver Tacke.)
- Die Aufgabe kann sowohl als Multiple-Choice- oder Single-Choice-Übung gestaltet werden.
- Es kann für jede einzelne richtige Vorgabe ein Punkt hinzugefügt und für jede falsche oder nicht gewählte richtige Antwort ein Punkt abgezogen werden. Oder aber es gibt nur einen einzigen Punkt wenn die Aufgabe komplett richtig gelöst wurde.3
Aus didaktischer Sicht ist die Multiple-Choice-Aufgabe bei H5P extrem gut gelungen.
Das sind eine ganze Menge von Features, die ich in dieser Kombination selten gesehen habe. Aus didaktischer Sicht ist vor allem die Möglichkeit zu differenziertem Feedback hervorzuheben. Damit ist dieser Inhaltstyp nicht bloß für die weitverbreitete Multiple-Choice-Testomanie verwendbar, sondern eignet sich auch vortrefflich für Lern- und Übungszwecke.
Mehr Übungen statt Tests
Die vielen didaktischen Möglichkeiten erhöhen auch den Druck auf die Lehrenden gute Übungsaufgaben zu produzieren. Um lerneffektiv zu sein, müssen jetzt nicht nur gute Distraktoren gefunden werden, sondern auch die Texte für die Hinweise und Rückmeldungen gut durchdacht sein.
Die Gestaltung von sinnvollen Multiple-Choice-Aufgaben ist nicht trivial. Sie erfordert neben hoher fachlicher Kompetenz beim Formulieren der Distraktoren auch Überlegungen zum didaktischen Nutzen dieses Aufgabentyps.
- Tipps sollen zwar weiter helfen, aber nicht die Lösung verraten.
- Wird ein Distraktor fälschlicherweise ausgewählt, soll das Feedback erklären, warum diese Antwort falsch ist. Bloß ein "Nein, falsch!" zurück zu melden ist ein didaktisches No-Go! Dann lieber keine textliche Rückmeldung, denn ob eine Antwort falsch oder richtig ist, wird bereits von der Software signalisiert.
- Ähnliches gilt auch für nicht ausgewählte richtige Antworten. Da der Text für die Lösung bereits in der Antwortvorgabe enthalten ist, muss gutes Feedback darüber hinausgehende Informationen enthalten.
- Am schwierigsten jedoch finde ich es, für richtige gewählte Antwortvorgaben eine gute Rückmeldung zu geben. Streicheleinheiten wie "Ja, sehr gut!" halte ich nicht nur wegen ihres paternalistischen Charakters, sondern bei Multiple-Choice-Aufgaben auch inhaltlich für grundsätzlich falsch: Denn eine richtige Antwort zu geben, heißt ja noch lange nicht, dass die gesamte Frage mit all ihren richtigen Lösungen richtig beantwortet wurde.
Eine gute Rückmeldung muss dies berücksichtigen und darauf eingehen, warum diese Lösungsalternative korrekt ist. Weil Lernende die Antwort bereits richtig ausgewählt haben, ist zwar anzunehmen, dass sie wissen, warum diese Antwort richtig ist. Eine zusätzliche Verstärkung mit einem inhaltlichen Feedback schadet aber nie.
Redundanz ist ein wichtiges didaktisches Prinzip.
Meine obige Argumentation zielt auf ein Umdenken zu Multiple-Choice-Fragen ab. Multiple-Choice-Aufgaben sind nicht nur für Tests zu gebrauchen, sondern können besonders gut auch für interessant und abwechslungsreich gestaltete Lernprozesse genutzt werden! Statt einen linearen Text zu lesen, erarbeiten sich Lernende die Inhalte durch interaktive Übungen mit gutem Feedback und Links zu externen Ressourcen selbständig.
Didaktische Einstellungen
Bei Multiple-Choice-Aufgaben ist es nicht mehr so einfach, wie bei den bisher beschriebenen H5P-Modulen Empfehlungen für selbstbestimmte Lernende zu geben. Es hängt viel von den inhaltlichen Fragestellungen und den damit verfolgten Lernzielen ab. Ich stelle daher die die didaktischen Empfehlungen für die Verhaltenseinstellungen dieses H5P-Moduls nicht – wie bisher üblich – erst am Ende des Artikels vor. Ich werde nämlich letzten Abschnitt verschiedene didaktische Szenarien ausführlich diskutieren und dabei auf die hier besprochenen Optionen zurück greifen.
Die Option "Automatisch" beim Auswahlmenü bedeutet, dass bei einer Frage mit nur einer einzigen richtigen Antwortmöglichkeit automatisch Radiobuttons angezeigt werden, mehreren richtigen Auswahloptionen jedoch Checkboxes.
Wird die (teilweise) verdeckte Option unter dem Auswahlmenü aktiviert, dann müssen alle richtigen Antworten einer Frage ausgewählt werden, um einen Punkt zu bekommen. Andernfalls wird für jede richtige Auswahl ein Punkt vergeben und für jede falsche Antwort ein Punkt abgezogen. Es gibt aber keine negativen Punkte, sondern die geringste Punktezahl ist 0.
Ich werde noch in einem eigenen Beitrag Überlegungen zur Punktevergabe anstellen. Hier sei nur festgestellt, dass Punkte bei jeder richtigen Antwort eine bessere Differenzierung ermöglichen. Insbesondere wenn es viele richtige Auswahlmöglichkeiten gibt, ist die Zahl der theoretisch zu erreichenden Punkte sehr hoch.
Didaktische Szenarien
Ich diskutiere jetzt vier Beispiele recht ausführlich und werde dabei auf die in Abbildung 1 dargestellten Einstellungen zurück kommen. Dabei werde ich zeigen, dass es keine allgemeine Regel für die Erstellung von Multiple-Choice-Aufgaben gibt. Ein adäquates didaktisches Setting hängt stark vom inhaltlichen Lernziel abhängt. Mein nachfolgendes "lautes Denken" soll aber helfen, die Logik didaktischer Gedankengänge besser zu verstehen, um sie auch selbst entwickeln zu können.
Single-Choice mit reichem Feedback
Im folgenden Beispiel habe ich für Demo-Zwecke die Option "Wiederholen" eingeschaltet. Im echten Betrieb ist das jedoch sinnlos, weil die richtige Antwort bereits im Feedback enthalten ist. Probieren Sie alle Möglichkeiten aus und sehen Sie, wie die Rückmeldungen entsprechend variieren.
Achtung: Bei richtiger Lösung gibt keine "Wiederholen"-Schaltfläche. Sie müssen dann Ihr Browserfenster aktualisieren, um die Aufgabe wieder neu zu starten.
Single-Choice mit Trial and Error
Ein anderes didaktisches Szenario ist es, Lernende mit Trial und Error die richtige Lösung erkunden. Sehen Sie sich die kleinen Unterschiede in den Rückmeldungen für zu niedrige und für zu hohe Schätzungen an. Ich habe mehr Distraktoren für zu hohe geschätzte Schätzungen angeboten, damit nicht etwa durch eine Mittelposition die richtige Lösung leicht erraten werden kann.
Dieses Beispiel widerspricht mit der lakonischen Rückmeldung "Nein, das ist zu niedrig /zu hoch geschätzt. Probieren Sie es nochmals" dem von mir oben erwähnten No-Go. Aber durch die sehr ausführliche Rückmeldung bei der richtigen Antwort (9 Mio.), lässt sich das Beispiel in bestimmten Situationen vielleicht rechtfertigen.
Die didaktische Idee hinter dieser Aufgabe ist es, dass Lernende, die (noch) wenig Kenntnisse zum angebotenen Thema haben, sich durch Versuch und Irrtum an die Lösung heranarbeiten. Wird dann (endlich) die richtige Antwort gewählt, gibt es ausführliche weitergehende Informationen.
Eine Variante wäre es, bei einer falschen Auswahl nur die Rückmeldung "Nein, probieren Sie es nochmals" zu geben. Das wäre dann zwar eine etwas schwierigere Trial & Error-Aufgabe, hätte aber meiner Meinung – ohne Gamification – durch die vielen möglichen Irrtümer keinen didaktischen Mehrwert gegenüber dem hier vorliegenden Beispiel. Bei einem Wettbewerb jedoch ("Wer hat die wenigsten falschen Antworten bei einer umfangreichen Trial & Error Umgebung?") könnte aber vielleicht ein didaktischer Nutzen gegeben sein.
Wenn Sie mit der Maus über das Bild fahren, dann sehen Sie einen Hilfetext, der für dieser Aufgabe sinnvoll ist. Identische Tipps für alle Antwortvorgaben halte ich für falsch, weil Lernende dann vielleicht dazu verleitend werden, unnötigerweise alle Tipps aufzurufen.
Multiple-Choice fehlerhaft
Das dritte Beispiel demonstriert eine Mehrfachauswahl mit bisher genutzten Fragestellung. Es zeigt sich dabei, dass eine recht einfache Fragestellung – wie es die nach der Einwohnerzahl von Österreich ist – für eine Multiple-Choice-Frage mit differenziertem Feedback nicht besonders gut geeignet ist. Das wird auch durch sichtbar, dass ich bei allen drei Beispielen keinen sinnvollen Hinweistext generieren konnte.
Gute Multiple-Choice-Aufgaben mit differenzierten Feedback verlangen komplexe Fragestellungen.
Das Beispiel verlangt neben einer richtigen Antwort auch Aufmerksamkeit und Erfahrung mit Multiple-Choice-Aufgaben (Testwissen) . Es besteht die Gefahr, dass es für Lernende, die die richtige Antwort wissen, trotzdem einen Punkteabzug gibt, weil sie die beiden anderen richtigen (für sie trivialen) Antwortvorgaben übersehen und nicht ausgewählt haben.
Das Beispiel ist aber insgesamt fehlerhaft, weil es eigentlich eine verdeckte Single-Choice-Aufgabe ist. Die beiden Extreme sind auf jeden Fall richtig, weil es sonst keine richtige Lösung in den Antwortvorgaben gibt. Es bleibt also nur die Auswahl zwischen 8 und 9 Millionen. Fazit: Gute Multiple-Choice-Aufgaben mit differenzierten Feedback verlangen komplexe Fragestellungen.
Multiple-Choice mit differenziertem Feedback
Das letzte Beispiel ist die Übersetzung einer Aufgabe aus meinem in Vorbereitung befindlichen interaktiven Übungsbuch zu den Grundlagen der Statistik. Aus meiner Perspektive kommt es einer guten Multiple-Choice-Übung schon etwas näher. Aber auch hier sind mir keine sinnvollen Hilfetext eingefallen.
Drei Anmerkungen:
- Das zufällige Mischen der Antwortvorgaben habe ich für diese Demo ausgeschaltet. Es lassen sich dadurch leichter die verschiedenen Antwortvarianten miteinander vergleichen.
- Automatische Prüfen der Auswahl habe ich ebenfalls ausgeschaltet: Wenn die beiden richtigen Antworten gewählt wurden (erste und vorletzte Option), wird die Aufgabe sofort beendet und das Feedback gezeigt. Überlegungen zu noch nicht betrachteten Distraktoren (z.B. die letzte Option) würden dann wegfallen.
- Ich habe bei den Rückmeldungen immer ausdrücklich klargemacht, ob das Antwortverhalten (auswählen bzw. nicht auswählen) korrekt oder falsch war. Diese redundante Vorgangsweise ist leider notwendig, weil für nicht ausgewählte Antworten – egal ob die Entscheidung richtig oder falsch war –, immer die gleiche graue Hintergrundfarbe für den Text Rückmeldung erscheint. Auch das Anzeigen der richtigen Lösung bringt keine besser sichtbare farbliche Visualisierung.
Das ist meiner Meinung nach ein Entwicklungsfehler. Richtige Antworten gehören immer grün. Egal ob sie richtig sind, weil sie ausgewählt wurden, oder richtig sind, weil sie nicht ausgewählt wurden. Falsche Antworten hingegen gehören immer rot angezeigt. Egal ob sie falsch sind, weil sie ausgewählt wurden, oder falsch sind, weil sie nicht ausgewählt wurden.
Sie sehen gut selbst das Problem, wenn sie keine Auswahl treffen und sofort "Überprüfen" klicken.
Zusammenfassung
Gute Aufgaben für Multiple-Choice-Fragen zu erstellen erfordert hohe inhaltliche und pädagogische Kompetenz. Auch wenn der H5P-Inhaltstyp ein kleines Problem bei der Farbzuweisung von nicht ausgewählten Antwortvorgaben hat, ist er didaktisch extrem gut durchdacht und lässt auch in seiner Funktionalität nichts zu wünschen übrig.
Fußnoten
- "Radiobutton" ist eine Referenz an die alten Autoradios, wo eine neue gedrückte Taste, den vorher gewählten Schalter rausspringen lässt.
- Der videounterstützte kostenlose H5P-Kurs Interaktive Aufgaben mit H5P gestalten von Oliver Tacke ist übrigens unbedingt empfehlenswert. Das betrifft sowohl die inhaltliche Breite als auch den didaktischen Aufbau. Mit großem Fingerspitzengefühl wird in H5P umfassend eingeführt.
- Bei allen bisherigen Artikeln zu H5P habe ich die Diskussion von Bewertungsmodellen ausgeklammert. Darauf werde ich später in anderen Beiträgen noch ausführlich eingehen.
6 Antworten auf „H5P: Multiple-Choice“
Sehr guter Artikel! Mehrere Anmerkungen:
Ich bin immer besonders kreativ darin, mir gute Distraktoren auszudenken, wenn ich Prüfungsklausuren oder Leistungskontrollen kontrolliere und dann die typischen oder weniger typischen Fehler, Misskonzepte und Fehlverständnisse der Lernenden sehe.
H5P eignet sich laut Oliver Tacke wohl nicht so richtig für Assessment und Prüfungsformate, weil gewiefte Prüflinge allein durch Analyse des HTML-Quelltextes herausbekommen können, welche Antwortmöglichkeiten richtig und falsch sind, bevor man diese auswählt und zur Überprüfung einreicht.
Jörn Loviscach hat mal Multiple-Choice-Fragen vorgeschlagen, bei denen nicht alle Antwortmöglichkeiten gleichzeitig erscheinen, sondern nacheinander. Bei jeder Antwortmöglichkeit muss man sich dann entscheiden, ob diese richtig oder falsch ist. Das mindert z.B. die Nutzung von „Quiz Wiseness“ (die längste Antwort ist meist richtig) oder die Lösung per Ausschlussverfahren oder direktem Vergleich von Antwortmöglichkeiten. Leider geht das in H5P wohl auch nicht ohne Weiteres.
Unter
https://wase.urz.uni-magdeburg.de/magdowsk/get2/classroom_voting_fragen.pdf
bzw.
https://www.slideshare.net/MathiasMagdowski/audienceresponsefragen-zu-den-grundlagen-der-elektrotechnik
bzw.
https://bit.ly/getfragen
sind unsere Multiple-Choice-Fragen zu den Grundlagen der Elektrotechnik als Beispiel für etwas komplexere Fragen zu finden.
Für die etwas kompetitivere Quiz-App Kahoot! haben wir ebenfalls einen Fragenkatalog für die Grundlagen der Elektrotechnik, allerdings mit etwas „einfacheren“ Fragen:
https://www.slideshare.net/MathiasMagdowski/kahootfragen-fr-die-grundlagen-der-elektrotechnik
bzw.
https://bit.ly/kahootfragen
Es wäre daher eine automatische Überprüfung sofort nach dem Klick auf eine Antwortvorgabe durchaus zweckmäßig. (Bezug zu den Radio-Buttons)
Das wäre effizient, aber die Möglichkeit des nachträglichen Umentscheidens fiele dann weg. Diese Option kann didaktisch sicher auch sinnvoll sein, oder? Ist keine rhetorische Frage, ich kann sie nicht beantworten.
Wird Punkt 2 ernst genommen, dann wird der H5P Inhaltstyp Single Choice nicht mehr unbedingt gebraucht.
Da tippe ich schlicht darauf, dass in der Anfangszeit ein Kunde den Inhaltstyp in der Form haben wollte. Und da ist er nun.
Zu meinem Video: Da hätte ich in der Tat auch ein anderes Beispiel wählen können 🙂 Was den Spektakelgrad angeht, greift da vermutlich bloß meine Technikersicht, vgl. https://www.olivertacke.de/2019/07/15/symptomatische-schnellere-pferde/
Jede Multiple Choice Aufgabe kann mit einem Bild eingeleitet werden.
Oder Video – und im Prinzip auch Audio, allerdings liegt leider vorbereitender Quelltext immer noch in der Reviewschleife.
Das ist meiner Meinung nach ein Entwicklungsfehler. Richtige Antworten gehören immer grün. Egal ob sie richtig sind, weil sie ausgewählt wurden, oder richtig sind, weil sie nicht ausgewählt wurde. Falsche Antworten hingegen gehören immer rot angezeigt. Egal ob sie falsch sind, weil sie ausgewählt wurden, oder falsch sind, weil sie nicht ausgewählt wurden.
Das kann ich nachvollziehen. Ich habe nicht im Detail nachgesehen, aber dank der Möglichkeit zum Anpassen der Stylesheets von H5P sollte sich das einfach nach Belieben verändern lassen – anders als bei anderer Software, bei der man nichts anpassen kann.
Nachdem mein Kommentar immer länger – aber hoffentlich auch interessanter –geworden ist, habe ich ihn zum einfacheren Editieren und Lesen in einen Artikel umgewandet.
Eine sehr gute Ergänzung dazu ist auch der aktuelle Artikel „Etwas andere Quizfragen für Video-begleitende Quizzes (z.B. in MOOCs, z.B. mit H5P)“ von Jöran Muuß-Merholz:
https://www.joeran.de/quizfragen-fuer-onlinelernen/
Danke. Ja, das ist dieselbe Denke, die auch ich habe. (Ich kann leider in der Grafik zur Umfrage nur 4 der 6 Punkte sehen und die danach formulierten 6 Punkte korrespondieren nicht mit der Grafik. – Ist zwar für die folgende Argumentation nicht wichtig, hätte mich aber interessiert.)
In dem Tweet sind auch nur vier Antwortmöglichkeiten zu sehen:
https://twitter.com/joeranDE/status/1301586211706994689
Die 6 Punkte beziehen sich tatsächlich auf den Blog-Artikel.