← Level 2
Level 2· Lektion 1 von 6

Chain of Thought — das Modell denken lassen

Ein Wort vor der Antwort ändert die Qualitaet drastisch. So funktioniert CoT in der Praxis.

20 min

Das Experiment

Frag ein Modell: "Was ist 3468 mal 729?"

Die direkte Antwort ist oft falsch. Die Modelle sind grandios im Sprache-Generieren aber schlecht im Kopfrechnen.

Jetzt frag es mit einem Zusatz: "Was ist 3468 mal 729? Denk Schritt für Schritt laut mit."

Die Antwort ist korrekt. Der Grund: das Modell generiert jetzt die Zwischenschritte und jeder Zwischenschritt ist einfacher. Das Modell "rechnet" tatsächlich besser wenn es laut denken darf.

Warum das funktioniert

LLMs sind Token-Generatoren. Jeder Token gibt dem nächsten Token mehr Kontext. Wenn Du das Modell zum Denken zwingst, stehen mehr relevante Zwischenergebnisse im Kontext bevor die Antwort kommt. Der Effekt ist bei komplexen Aufgaben (Mathe, Logik, Code-Review) messbar — je länger die Rechenkette, desto größer der Unterschied zwischen "direkt antworten" und "Schritt für Schritt".

Wann Chain of Thought nutzen

  • Mathe und Logik-Raetsel
  • Plan-Aufgaben mit mehreren Schritten
  • Code-Probleme wo das "Warum" wichtig ist
  • Entscheidungen wo Du die Begründung brauchst

Wann nicht

  • Einfache Abfragen ("Was ist die Hauptstadt von Frankreich?")
  • Pure Umformulierungen
  • Stil-Aufgaben

Bei einfachen Fragen wird das Modell durch CoT umständlicher ohne besser zu werden.

Das Gegenteil: knappe Antwort erzwingen

Manchmal willst Du keine Erklärung, nur die Zahl. Dann hilft: "Nur die Antwort, ohne Begründung." oder "Max 10 Wörter."

Das ist die zweite Haelfte: Du steuerst wie laut das Modell denkt.

Du liest ohne Account. Login speichert Deinen Fortschritt, damit Du beim nächsten Mal direkt weitermachen kannst. Einloggen →