Effizient lernen mit KI: evidenzbasierter Workflow für Studierende

Ziel: Prüfungsvorbereitung in 8–10 Stunden statt 40 – ohne Qualitätsverlust. Methoden: Active Recall, Spaced Repetition, Feynman, Bloom 1–6. KI als Tutor für Struktur, Individualisierung und Qualitätssicherung.

Hinweis: Vertiefung zur Bloom‑Taxonomie: Blooms Taxonomie. Weitere Guides: Active Recall, Spaced Repetition, Feynman.

TL;DR

  • Du sparst Zeit, indem du Ziele definierst, aktiv abrufst, Wiederholungen planst und die Prüfung simulierst.
  • Einstieg auf Bloom 1–2 mit Zieltrefferquote ~85 % (desirable difficulties; Bjork & Bjork, 2011).
  • Schreibe vollständige Antworten und belege sie mit CER (Claim–Evidence–Reasoning) – wir bewerten Richtigkeit, Vollständigkeit und Schreibqualität (Roediger & Karpicke, 2006; Dunlosky et al., 2013).
  • Wiederhole nach 1–3–7–14–30–90 Tagen; Aufstieg nach zwei Durchgängen ≥85 %, Splits bei unter 60 % (Cepeda et al., 2006; 2008).
  • Feynman‑Checks entlarven Lücken; die Prüfungssimulation schließt den Kreis.

IMPORTANT

  • Trainiere Abruf, nicht Wiedererkennen.
  • Schreibe vollständige Antworten statt Stichpunkten.
  • Belege jeden Kernpunkt mit Quelle (CER) und gib deine Konfidenz an.
  • Halte die 85‑%‑Zone: Schwierigkeit hoch genug, aber machbar.
  • Wiederhole zum Kipppunkt, nicht nach Gefühl.
  • Simuliere echte Bedingungen vor der Klausur.

Für wen ist der Workflow?

Für dich, wenn du im 1. Semester in MINT‑Fächern (z. B. Mathe, Informatik, Physik, Elektrotechnik) startest. Du arbeitest mit Skripten, Übungsblättern und Altklausuren. Wir helfen dir, Definitionen, Beweise, Ableitungen, Formeln und Schemata in trainierbare Einheiten zu zerlegen – mit klarer Aufstiegslogik von Bloom 1–2 (Begriffe/Definitionen) hin zu 3–5 (Anwendung/Analyse/Bewertung).

Warum dieser Workflow?

Ersetzt passives Lesen durch aktives, messbares Training.

Kombiniert evidenzbasierte Methoden mit pragmatischer Automatisierung.

Fokussiert auf Abruf, Transfer und kritisches Denken statt „Gefühl von Lernen“.

Spart Zeit durch Priorisierung, Wiederholungssteuerung und klare Aufstiegslogik.

Ausführung

Viele Lernende investieren überproportional Zeit in Zusammenfassungen, die schnell verblassen. Prüfungen verlangen jedoch präzisen Abruf, Begründungen und Anwendung auf neue Fälle. Der hier beschriebene Workflow verbindet Active Recall, Spaced Repetition, Feynman und die sechs Bloom-Stufen zu einem schlanken, aber belastbaren Übungszyklus. „Wir“ übernehmen die Strukturierung, Generierung, Bewertung und Terminierung. „Du“ entscheidest, validierst, argumentierst und lernst. Jede Antwort wird mit Quelle belegt und kurz begründet. So wird kritisches Denken fester Bestandteil jeder Runde.

Der Workflow auf einen Blick

  • Materialanalyse → Lernziele, Glossar, Leitfragen, Prioritäten.
  • Einstieg Bloom 1–2 → Kernkarten, 85-%-Kalibrierung.
  • Schreibendes Antworten → Bewertung nach Richtigkeit, Vollständigkeit, Schreibqualität; CER-Belege; Konfidenz.
  • Spaced Repetition + Aufstieg → Intervalle, Datensteuerung, Bloom-Level erhöhen.
  • Feynman-Checks → Lücken sichtbar machen, neue Karten erzeugen.
  • Prüfungssimulation → Aufgabenmix, Punkteschema, Schwachstellenanalyse.

Ausführung

Die sechs Phasen bilden einen geschlossenen Regelkreis. Ergebnisse jeder Runde steuern die nächste. Aufwände sinken, weil Wiederholungen gezielt stattfinden, Fragen systematisch schwieriger werden und irrelevante Inhalte früh ausgesiebt sind.

Wie KI dich in jedem Schritt unterstützt

Was wir automatisieren

  • Zielableitung und Priorisierung aus Skripten und Altklausuren (Must/Nice/Peripher)
  • Generierung und Kalibrierung von Kernkarten (Bloom 1–2) mit Zieltrefferquote ~85 %
  • Bewertung deiner Antworten (Richtigkeit, Vollständigkeit, Schreibqualität) und CER‑Prüfung
  • Terminierung der Wiederholungen (1–3–7–14–30–90 Tage) plus Auf-/Rückstufung
  • Feynman‑Leitfäden, Gegenfragen und automatisches Anlegen neuer Karten aus Lücken
  • Prüfungssimulationen inkl. Rubriken und Fehlerkategorien

TIP

Dein Vorteil Du entscheidest und lernst – wir strukturieren, takten und machen Qualität messbar. So sparst du Zeit und fokussierst auf die Aufgaben mit maximalem Effekt.

Wie die Zusammenarbeit aussieht

  1. Du lädst Material und Altklausuren hoch oder verlinkst zentrale Quellen.
  2. Wir erstellen Lernziele, Kernkarten und Leitfragen – du prüfst und passt an.
  3. Du beantwortest Karten schriftlich (mit CER und Konfidenz). Wir bewerten und planen Wiederholungen.
  4. Nach jeder Runde heben wir das Niveau (Bloom 3–5), splitten zu breite Karten und simulieren unter Prüfungsbedingungen.

1) Materialanalyse: von Rohstoff zu Lernlandkarte

Input

Skripte, Slides, Übungsblätter, Altklausuren, Papers.

Output

Lernziele je Kapitel (Bloom), Glossar, prüfungsnahe Leitfragen, Relevanzmatrix (Must/Nice/Peripher).

Qualität

Quellenstruktur mit Seiten-/Folienspezifikation ab Start.

Ausführung

Wir zerlegen dein Material in prüfungsrelevante Bausteine. Zuerst definieren wir Lernziele auf Bloom-Stufe 1–2, damit Terminologie und Grundverständnis stehen. Ein kurzes Glossar bündelt Schlüsselbegriffe mit Abgrenzungen und typischen Verwechslungen. Leitfragen spiegeln reale Prüfungsformate, offen und geschlossen. Eine Relevanzmatrix verhindert Streuverluste: „Must-Know“ bekommt zuerst Trainingszeit. Alle Punkte werden mit präzisen Fundstellen versehen. Das spart Recherchezeit und erleichtert spätere Begründungen.

Wie es funktioniert

  • Wir extrahieren Fachbegriffe, Definitionen, Formeln und typische Prüfungsfragen aus Skripten/Slides.
  • Pro Kapitel formulieren wir präzise Lernziele (Bloom 1–2 als Start) mit Fundstellen (Seite/Folie/Absatz).
  • Wir bauen ein Mini‑Glossar (Begriff, Abgrenzung, Beispiel, Verwechslungen) und einen Fragenkatalog.
  • Die Relevanzmatrix (Must/Nice/Peripher) lenkt die ersten Trainingsrunden und spart Zeit.

Warum das wirkt (Evidenz)

  • Klare Lernziele und Leitfragen reduzieren kognitive Last und richten das Training auf Abruf aus. In Reviews zeigt sich: „Practice Testing“ und „Distributed Practice“ gehören zu den wirksamsten Techniken (Dunlosky et al., 2013).
  • Quellenpräzision erleichtert CER‑Begründungen und verbessert Transferleistungen, weil Belege eng am Material verankert sind.

So setzen wir es um

Wir lesen deine Unterlagen ein, priorisieren Inhalte und liefern dir ein kompaktes Lernbriefing: Ziele, Fragenkatalog, Top-20-Begriffe, Fundstellen. Du siehst auf einer Seite, was zuerst zu trainieren ist.

2) Einstieg über Bloom 1–2: stabiler Sockel statt früher Frust

Umfang

10–30 Kernkarten je Themenblock.

Zielbereich

circa 85 Prozent korrekte Antworten in der ersten Testrunde.

Anpassung

Bei einem Ergebnis von mehr als 92 Prozent wird die Schwierigkeit erhöht; bei einem Ergebnis von weniger als 75 Prozent werden Karten feiner granuliert.

Ausführung

Ein zu schwerer Einstieg erzeugt Abbruch. Daher starten wir auf Erinnern und Verstehen. Kernkarten sichern Definitionen, Eigenschaften, Unterschiede und einfache Beziehungen. Eine kurze Pilotrunde kalibriert die Schwierigkeit. Liegt die Trefferquote zu hoch, erhöhen wir kognitiven Anspruch und Kontext. Liegt sie zu niedrig, teilen wir Karten auf, fügen Kontraste und Beispiele hinzu und reduzieren Nebensignale. So entsteht ein tragfähiger Sockel, auf dem höhere Stufen verlässlich aufbauen.

Wie es funktioniert

  • Wir generieren 10–30 Kernkarten pro Themenblock (Definition, Eigenschaft, Gegensatzpaar, einfaches Beispiel).
  • Pilotrunde: Du beantwortest schriftlich; wir messen Trefferquote und passen Granularität an.
  • über 92 %: Schwierigkeit rauf (Kontext, Störreize, Kontraste). unter 75 %: feiner splitten, mehr Beispiele.
  • Ziel: stabile 85 % als „sweet spot“ – anspruchsvoll, aber machbar.

Warum das wirkt (Evidenz)

  • Der 85‑%‑Bereich erzeugt „wünschenswerte Schwierigkeiten“: hoch genug für Lernen, niedrig genug für Motivation (Bjork & Bjork, 2011; Dunlosky et al., 2013).
  • Bloom 1–2 stabilisieren Begriffe/Definitionen, die Voraussetzung für Anwendung/Analyse sind – weniger kognitive Engpässe in späteren Stufen.

So setzen wir es um

Wir wählen Kernkarten automatisch aus, berechnen eine Ziel-Trefferquote und schlagen Anpassungen vor, bis der 85-%-Bereich stabil erreicht ist. Du trainierst, wir takten und justieren.

3) Schreibendes Antworten: wie in der Prüfung

Pflicht

Vollständige Antworten, keine Stichwortlisten.

Raster

Richtigkeit %, Vollständigkeit %, Schreibqualität 0–5.

CER

Claim–Evidence–Reasoning mit präziser Fundstelle.

Konfidenz

0–100 für Metakognition und Nachrecherche.

Ausführung

Schreibendes Antworten trainiert genau das, was in der Prüfung gefordert ist: strukturierte Darstellung, präzise Begriffe, saubere Begründungen. Wir bewerten jede Antwort entlang eines einfachen, aber robusten Rasters. Richtigkeit misst inhaltliche Treffgenauigkeit. Vollständigkeit prüft, ob alle erwarteten Aspekte abgedeckt sind. Schreibqualität bewertet Struktur, Klarheit, Fachsprache. Mit CER belegst du jeden zentralen Punkt mit Quelle und gibst eine kurze Begründung, warum diese Quelle trägt. Eine Konfidenzangabe zwingt zu ehrlicher Einschätzung. Unsicherheit löst gezielte Nacharbeit aus.

Wie es funktioniert

  • Du beantwortest jede Karte in vollständigen Sätzen (5–10 Sätze als Richtwert) und markierst Claim, Evidence (Quelle mit Seite/Folie) und Reasoning.
  • Du gibst eine Konfidenz (0–100). unter 70 % → kurze Verifikation/Nacharbeit.
  • Wir bewerten Richtigkeit/Vollständigkeit/Schreibqualität und erzeugen eine Leseliste mit Lücken‑Fundstellen.
  • Wiederkehrende Fehlerarten wandeln wir in neue, kleinere Karten um.

Warum das wirkt (Evidenz)

  • Abrufübungen erzeugen den Testing‑Effect: Schreiben + Abruf schlägt erneutes Lesen deutlich (Roediger & Karpicke, 2006; Karpicke & Blunt, 2011).
  • Self‑Explanation/Feynman‑Stil verbessert Verständnis und Transfer (Chi et al., 1994).

Kritisches Denken integriert

Du beantwortest bei jeder Karte drei Fragen: „Ist das richtig? Warum? Wo steht das?“ So wird Skepsis zur Routine, nicht zur Ausnahme.

So setzen wir es um

Wir liefern das Bewertungsraster, extrahieren Fundstellen aus deinen Unterlagen, markieren Lücken und erstellen eine priorisierte Leseliste für kurze Nacharbeit.

4) Spaced Repetition und Aufstiegslogik: wiederholen, wenn es zählt

Intervalle

Typischer Start: 1–3–7–14–30–90 Tage.

Datensteuerung

Performance pro Karte steuert Nächste‑Fälligkeit.

Aufstieg

Zwei aufeinanderfolgende Durchgänge mit mindestens 85 Prozent richten die Erhöhung des Bloom‑Levels ein.

Rückstufung

Tritt eine Leistung von weniger als 60 Prozent auf, wird die Karte gesplittet und kurzfristig wiederholt.

Formatwechsel

Die Frageart wird mit dem Level anspruchsvoller.

Ausführung

Spaced Repetition minimiert Vergessen, indem Wiederholungen dann stattfinden, wenn Abrufwahrscheinlichkeit kippt. Unsere Aufstiegslogik koppelt Leistungsdaten an Bloom‑Stufen. Stabil gelernte Karten wechseln von Definitionen hin zu Anwendung, Analyse, Bewertung und Erzeugen. Rückstufungen sind kein Makel, sondern gezielte Entlastung: Lücken werden isoliert. So konzentriert sich Zeit auf die wenigen Stellen, die die Note entscheiden.

Wie es funktioniert

  • Startintervalle: 1–3–7–14–30–90 Tage (Heuristik). Performance steuert Nächste‑Fälligkeit.
  • Zwei Runden ≥85 % → Anhebung des Bloom‑Levels (z. B. von Definition zu Anwendung/Analyse).
  • unter 60 % → Karte splitten, kurzfristig wiederholen, Beispiele/Kontraste ergänzen.
  • Frageformate steigen mit dem Level (Definition → Lückentext → Fallanalyse → begründetes Urteil).

Warum das wirkt (Evidenz)

  • Verteiltes Lernen ist den Massed‑Sessions klar überlegen; Metaanalysen quantifizieren Vorteile und Intervalle (Cepeda et al., 2006; 2008).
  • Aufstieg bei stabilen ≥85 % und Splits bei unter 60 % balancieren Schwierigkeit und Behaltensleistung (Dunlosky et al., 2013).

So setzen wir es um

Wir planen Wiederholungen automatisch, heben Level an, wenn Kriterien erfüllt sind, und legen Splits an, wenn eine Karte zu breit ist. Du siehst nur die fälligen Aufgaben mit dem passenden Anspruch.

5) Feynman‑Checks: Erklären entlarvt Lücken

Takt

Nach jedem Themenblock.

Ablauf

Kurze Laien‑Erklärung → Gegenfragen → Lücken → neue Karten.

Nutzen

Scheinkompetenz abbauen, Begriffe schärfen, Transfer stärken.

Ausführung

Wer etwas einfach erklären kann, hat es verstanden. Feynman‑Checks zwingen zum Reduzieren auf das Wesentliche und decken implizite Annahmen auf. Gegenfragen prüfen Grenzen, Alternativen und Verwechslungen. Aus unsicheren Punkten entstehen sofort neue Karten. Die Erklärtexte werden archiviert und später stichprobenartig erneut geprüft, um echten Kompetenzzuwachs sichtbar zu machen.

Wie es funktioniert

  • Du schreibst eine Laien‑Erklärung (3–6 Sätze), die ohne Fachjargon auskommt.
  • Wir stellen Gegenfragen (Grenzen, Alternativen, typische Verwechslungen) und markieren Unsicherheiten.
  • Lücken werden automatisch in Karten verwandelt und terminiert.

Warum das wirkt (Evidenz)

  • Self‑Explanation ist eine der robustesten Strategien zur Vertiefung und Fehlerentdeckung (Chi et al., 1994). Gegenfragen erhöhen Transfer.

So setzen wir es um

Wir führen dich durch den Erklärprozess, sammeln typische Gegenfragen, wandeln Lücken automatisiert in trainierbare Karten und terminieren die Re‑Checks.

6) Prüfungssimulation: Generalprobe unter echten Bedingungen

Rahmen

Zeitlimit, Aufgabenmix, Punkteschema wie in der Prüfung.

Auswertung

Punktestand, Fehlerkategorien, Zeitverteilung, Top‑3‑Hebel.

Ableitung

Letzte SRS‑Runde gezielt auf Schwachstellen.

Ausführung

Simulationen verbinden Wissen, Zeitmanagement und Schreibökonomie. Die Auswertung geht über einen Score hinaus: Welche Fehlerarten dominieren? Wo versickert Zeit? Welche Konzepte sind instabil? Daraus entsteht eine knappe Abschluss‑To‑do‑Liste: wenige, hochwirksame Kartenrunden statt pauschalem Wiederholen.

Wie es funktioniert

  • Wir erstellen Aufgabenpakete im Prüfungsformat (Zeitlimit, Punkteschema, Aufgabenmix).
  • Du bearbeitest unter Echtbedingungen; wir werten nach Rubriken aus (Inhalt, Struktur, Begründung, Zeitnutzung).
  • Fehlerkategorien → gezielte SRS‑Runde auf Schwachstellen.

Warum das wirkt (Evidenz)

  • „Transfer‑appropriate processing“: Übungsformat ≈ Prüfungsformat erhöht Abrufwahrscheinlichkeit. Retrieval Practice verbessert anwendungsnahe Leistungen (Roediger & Karpicke, 2006; Bjork & Bjork, 2011).

So setzen wir es um

Wir stellen realistische Aufgabenpakete bereit, bewerten nach Rubriken, ordnen Fehlerkategorien zu und planen die finale SRS‑Runde automatisch.

7) Kritisches Denken systematisch verankern

Pflichtfragen

„Ist das richtig? Warum? Wo steht das?“

CER

Claim–Evidence–Reasoning pro Kernpunkt.

Quellenpräzision

Seiten, Absätze, Foliennummern notieren.

Konfidenz

Bei weniger als 70 Prozent → verifizieren und nacharbeiten.

Gegenbeispiele

Pro Kernkonzept mindestens ein Randfall.

Ausführung

Kritisches Denken ist ein Prozess, keine Haltung. Die drei Pflichtfragen verhindern unreflektiertes Übernehmen. CER liefert das kleinste funktionsfähige Argumentationsformat. Präzise Quellen sparen Zeit und erhöhen Qualität. Konfidenzwerte verhindern trügerische Sicherheit. Gegenbeispiele reduzieren Überanpassung an Standardfälle. Ergebnis: robuste Antworten, die auch unter Druck tragfähig bleiben.

Wie es funktioniert

  • Pflichtfragen erzwingen Reflexion: „Ist das richtig? Warum? Wo steht das?“ – vor dem Absenden.
  • CER‑Felder müssen ausgefüllt werden; Quellen enthalten Seiten/Folien‑Bezug.
  • Konfidenz unter 70 % löst kurze Verifikation und Kartensplit aus.
  • Für jedes Kernkonzept wird mindestens ein Gegenbeispiel gesammelt.

Warum das wirkt (Evidenz)

  • CER zwingt zu überprüfbaren Behauptungen und verbessert Argumentationsqualität; in Kombination mit Abrufübungen entsteht belastbares Wissen (Dunlosky et al., 2013; Karpicke & Blunt, 2011).

So setzen wir es um

Wir erzwingen CER‑Felder in Antworten, verlinken deine Fundstellen, protokollieren Konfidenz und schlagen Gegenbeispiele vor, wenn ein Konzept zu glatt läuft.

Praxisbeispiele (MINT)

Mathematik (Lineare Algebra)

  • Karte: „Definiere einen Vektorraum über einem Körper.“ Antwort (Kurzform): Menge V mit Verknüpfungen + skalare Multiplikation, die Assoziativität, Kommutativität (Addition), neutrales/ inverses Element, Distributivgesetze und Einselement erfüllt.
  • Karte: „Was bedeutet lineare Unabhängigkeit?“ → Kein Vektor ist Linearkombination der anderen; nur die triviale Kombination ergibt den Nullvektor.
  • Anwendung: „Prüfe, ob 1 linear unabhängig ist.“

TIP

Minimum‑Information‑Prinzip Eine Karte = eine Information. Große Themen in kleine, prüfbare Einheiten zerlegen.

Informatik (Algorithmen & Datenstrukturen)

  • Karte: „Was bedeutet ‚stabiler‘ Sortieralgorithmus?“ → Relative Reihenfolge gleicher Schlüssel bleibt erhalten.
  • Karte: „Zeitkomplexität von Mergesort?“ → O(n log n) im Worst‑/Average‑Case, stabil; Speicher O(n).
  • Anwendung: „Wann ist BFS der bessere Ansatz als DFS?“ → Wenn kürzeste Pfade in ungewichteten Graphen gesucht werden.

Physik (Mechanik)

  • Karte: „Formel der kinetischen Energie?“ → E_kin = 1/2 · m · v^2; Einheit Joule.
  • Karte: „Was besagt der Energieerhaltungssatz?“ → In einem abgeschlossenen System bleibt die Gesamtenergie konstant.
  • Anwendung: „Skizziere die Kräftebilanz beim schiefen Wurf.“ → Gewichtskraft, ggf. Luftwiderstand; Zerlegung in x/y; Zeit‑ und Weggleichungen.

Metriken & Monitoring

NOTE

Warum messen? Was du misst, verbesserst du. Die folgenden Metriken halten dich im 85‑%‑Bereich und zeigen, wann ein Aufstieg sinnvoll ist.

MetrikZiel/HeuristikWarum relevantWie messen
Trefferquote (Pilot)~85 %„Wünschenswerte Schwierigkeit“Erste Testrunde pro Block
Richtigkeit≥85 %inhaltliche GenauigkeitBewertungsraster
Vollständigkeit≥80 %Abdeckung der ErwartungBewertungsraster
Schreibqualität≥3/5Struktur, Klarheit, FachspracheRubrik
Konfidenz70–90 %ehrliche SelbsteinschätzungAngabe pro Antwort
Fällige Reviews/Tag15–45nachhaltiges TempoSRS‑Dashboard
Aufstiege (Bloom)1–2/WocheAnspruchserhöhungLevel‑Historie
Splits unter 60 %sofortEngpass beseitigenFehlerlog
Simulations‑Score≥80 %PrüfungsnäheRubrik + Punkte

Checkliste für jede Woche

  • Pilot‑Block kalibrieren (85 % anpeilen)
  • Täglich Reviews zuerst, dann 15–30 neue Karten
  • Bei unter 60 %: splitten und kurzfristig wiederholen
  • Mind. 1 Feynman‑Check pro Themenblock
  • Eine Mini‑Simulation (30–45 min) am Ende der Woche
  • Quellen mit Seiten/Folien notieren; CER vollständig ausfüllen

8) 10‑Stunden‑Plan: kompakt, realistisch, skalierbar

Tag 1 (2 h): Materialanalyse, Lernziele, Kernkarten Bloom 1–2, erste Kalibrierung.

Tag 2 (2 h): SRS‑Runde, Lückenschließung, Feynman‑Check.

Tag 3 (2 h): Aufstieg stabiler Karten auf Bloom 3–4, Anwendungstrainings.

Tag 4 (2 h): Vertiefung auf Bloom 4–5, Vergleiche und Begründungen.

Tag 5 (2 h): Prüfungssimulation, Auswertung, finale SRS‑Runde.

Ausführung

Der Plan minimiert Kontextwechsel und hält kognitive Last steuerbar. Tag 1 bringt Struktur und frühe Erfolge. Tag 2 stabilisiert. Tag 3 verlagert auf Anwendung und Analyse, Tag 4 auf Bewertung und Begründung. Tag 5 schließt den Kreis mit einer empirisch begründeten Schlussrunde. Mehr Stoff? Dann Streckung auf 7–10 Tage bei gleicher Abfolge.

So setzen wir es um

Wir takten Sitzungen, zeigen nur Fälliges an, erinnern an Feynman‑Checks und erzeugen die Simulation samt Auswertung und To‑do.

Häufige Fehler & Anti‑Patterns (mit Fix)

  • Zusammenfassen statt Abruf: ersetze durch schriftliche Antworten mit CER (Testing‑Effect)
  • Zu schwere Einstiege: starte mit Bloom 1–2, kalibriere auf ~85 %
  • Stichpunkte statt ganze Sätze: mind. 5–10 Sätze pro Antwort
  • Quellen ohne Präzision: Seite/Folie/Absatz notieren, sonst kein CER
  • Zu viele neue Karten: limitiere auf 20–30/Tag – Reviews zuerst
  • Keine Simulation: 1–2 Generalproben einplanen, Rubrik‑Auswertung nutzen

FAQ

Wie viel Zeit pro Tag?

15–45 Minuten reichen oft. Wichtig ist Konsistenz: erst Reviews, dann neue Karten.

Was mache ich, wenn ich unter 60 % erreiche?

Karte splitten, Beispiele/Kontraste ergänzen, kurzfristig wiederholen und später erneut anheben.

Muss ich immer CER ausfüllen?

Ja – kurz, aber präzise. Claim ohne Evidence ist Meinung, kein Wissen.

Welche Tools funktionieren?

Analog (Leitner‑System) oder digital (z. B. Anki, RemNote). Entscheidend ist der Workflow, nicht das Tool.

Was in den letzten 3 Tagen vor der Prüfung?

Nur fällige Reviews, kurze Simulationen, Schlaf priorisieren. Keine großen neuen Karten mehr.

Wie gehe ich mit Beweisen/Herleitungen um?

In kleine Schritte zerlegen (Minimum‑Information), Feynman‑Check nutzen, Kernschritte als eigene Karten.

Kann ich in Gruppen lernen?

Ja – gegenseitige Feynman‑Checks und kurze schriftliche Antworten vergleichen, Quellen prüfen.

Was, wenn die Reviews „überlaufen“?

Neue Karten reduzieren, schwierige Karten splitten, tägliches Fenster aufrecht halten.

Weiterführende Ressourcen