Doppelt hält besser: Wie einfache Wiederholung deine KI-Prompts deutlich besser macht

Du kannst die Qualität deiner KI-Antworten signifikant verbessern – ohne neue Tools, ohne kompliziertere Prompts und ohne extra Kosten. Klingt fast zu einfach, um wahr zu sein? Genau das zeigt aber eine aktuelle Studie von Google Research: Das bloße Wiederholen deiner Kernanweisung innerhalb eines Prompts kann die Genauigkeit von KI-Modellen dramatisch steigern. Was dahintersteckt, warum das funktioniert und wie du es sofort anwenden kannst – das erfährst du in diesem Artikel.

Was hat Google eigentlich herausgefunden?

Im Dezember 2025 veröffentlichte ein Forscherteam von Google Research – Yaniv Leviathan, Matan Kalman und Yossi Matias – ein Preprint auf arXiv mit dem Titel „Prompt Repetition Improves Non-Reasoning LLMs„. Die Kernaussage ist denkbar simpel: Wenn du deinen Prompt nicht einmal, sondern zweimal eingibst – also [Anweisung][Anweisung] statt nur [Anweisung] –, liefern gängige KI-Modelle deutlich bessere Ergebnisse.

Das klingt absurd. Aber die Zahlen sprechen für sich: In 70 verschiedenen Tests an sieben populären Modellen (darunter Gemini 2.0 Flash, GPT-4o, Claude 3.7 Sonnet und DeepSeek V3) gewann die Wiederholungsmethode in 47 von 70 Fällen statistisch signifikant – und verlor kein einziges Mal. Das ist ein klares Ergebnis.

Das technische „Warum“: Wie LLMs Text lesen

Um zu verstehen, warum Wiederholung hilft, musst du kurz wissen, wie ein Sprachmodell (LLM – Large Language Model) grundsätzlich funktioniert. Ein LLM liest Text sequenziell von links nach rechts. Jedes Token (grob gesagt: ein Wortteil oder ein kurzes Wort) kann dabei nur auf das schauen, was vor ihm steht – nicht auf das, was danach kommt. Fachleute nennen das kausale Aufmerksamkeit (Causal Attention).​

Das hat eine praktische Konsequenz: Wenn du eine komplexe Anweisung gibst, dann liest das Modell sie einmal durch und beginnt sofort mit der Antwort. Es kann nicht „zurückblättern“ wie ein Mensch, der einen Satz nochmal überfliegt. Wenn also eine wichtige Bedingung irgendwo in der Mitte deines Prompts steht, kann sie leicht untergehen.

Gibst du den Prompt doppelt ein, passiert etwas Cleveres: Beim zweiten Durchlauf ist der gesamte erste Prompt bereits als Kontext vorhanden. Jedes Token der zweiten Kopie kann sich auf die vollständige erste Kopie beziehen. Damit entsteht effektiv eine Art bidirektionaler Aufmerksamkeit – ohne dass man die Architektur des Modells anfassen muss.

Der „Lost in the Middle“-Effekt: Warum die Mitte so oft vergessen wird

Dieses Phänomen hat sogar einen eigenen Namen. In einer einflussreichen Studie von Stanford und UNC aus dem Jahr 2023 wurde gezeigt, dass LLMs bei langen Texten dazu neigen, Informationen am Anfang (Primacy-Effekt) und am Ende (Recency-Effekt) gut zu verarbeiten – während alles dazwischen gerne unter den Tisch fällt. Das nennt sich der „Lost in the Middle“-Effekt.

Stell dir vor, du gibst der KI ein langes Dokument und sagst irgendwo in der Mitte: „Antworte bitte nur auf Deutsch.“ Wenn diese Anweisung zwischen vielen anderen Informationen verschwimmt, kann es passieren, dass das Modell genau das ignoriert – nicht aus Bosheit, sondern weil seine Aufmerksamkeit wie eine U-Kurve verteilt ist: stark am Anfang, stark am Ende, schwächer in der Mitte.

Prompt Repetition entschärft dieses Problem direkt: Wenn die Kernanweisung zweimal vorkommt – einmal am Anfang, einmal am Ende –, trifft sie beide starken Aufmerksamkeitsbereiche gleichzeitig.

Die Ergebnisse im Detail: Was ist möglich?

Die Studie liefert einige beeindruckende Einzelergebnisse:

  • Gemini 2.0 Flash-Lite beim „NameIndex“-Test: Die Genauigkeit stieg von 21,33% auf 97,33% – durch bloße Wiederholung des Prompts. Bei dieser Aufgabe musste das Modell aus einer Liste von 50 Namen den 25. Namen benennen. Ohne Wiederholung verlor es den Faden; mit Wiederholung fand es ihn fast immer.
  • 47 von 70 Tests gewonnen, 0 verloren: Das McNemar-Testverfahren, mit dem die Forscher die Ergebnisse statistisch absicherten, ergab: Kein einziger Fall, in dem die Wiederholung schlechter abschnitt als der einfache Prompt.
  • Für nicht-schlussfolgernde Aufgaben am effektivsten: Bei Aufgaben, bei denen das Modell nicht explizit zum Nachdenken aufgefordert wird (also ohne „Denk Schritt für Schritt“), sind die Verbesserungen am stärksten.

Auch eine interessante Kontrollbedingung wurde getestet: Die Forscher füllten den Prompt mit bedeutungslosen Punkten auf, um dieselbe Länge zu erreichen – ohne Wiederholung der Inhalte. Das brachte keinerlei Verbesserung. Der Effekt kommt also wirklich vom semantischen Inhalt der Wiederholung, nicht einfach von einem längeren Input.

Wann hilft Wiederholung besonders?

Laut Studie und ergänzenden Analysen ist Prompt Repetition vor allem in diesen Situationen nützlich:

  • Strikte Formatvorgaben: Wenn du sagst „Antworte nur in JSON“ oder „Verwende exakt diese Struktur“, hilft die Wiederholung dem Modell, diese Vorgabe konsequent einzuhalten – auch am Ende einer langen Antwort.
  • Datenextraktion aus langen Dokumenten: Wenn du ein umfangreiches Dokument übergibst und eine spezifische Information suchst, verhindert die wiederholte Anweisung, dass das Modell im Mittelteil „abdriftet“.
  • Tonalität und Persona: Wenn du willst, dass die KI konsequent in einer bestimmten Rolle bleibt (z. B. „Du bist ein kritischer Lektor“), hilft eine erneute Formulierung dieser Rolle am Ende des Prompts.
  • Mehrfach-Wahl-Fragen und Aufgaben mit Optionen: Besonders bei Prompts, bei denen die Optionen vor der eigentlichen Frage stehen, half die Wiederholung dem Modell, die Aufgabenstellung beim zweiten Lesen korrekt zuzuordnen.

Was ist mit Reasoning-Modellen?

Ein wichtiger Hinweis: Bei Modellen oder Modi, die aktiv zum Schlussfolgerungsprozess aufgefordert werden (z. B. durch „Think step by step“ oder spezielle Reasoning-Modelle), ist der Effekt deutlich schwächer. Der Grund: Diese Modelle reformulieren und wiederholen die Aufgabenstellung intern bereits während der Antwortgenerierung – externe Wiederholung wird dann redundant.

Wenn du also mit einem Reasoning-Modell wie o3 oder Claude mit erweitertem Denkmodus arbeitest, bringt Prompt Repetition weniger. Für die gängigen, nicht-schlussfolgernden Modi ist sie aber ein effektiver und kostenloser Turbo.

Was kostet das? Lohnt sich der Aufwand?

Eine berechtigte Frage. Schließlich verdoppelt sich die Eingabelänge – und bei API-basierten Diensten bezahlt man nach Token-Volumen.

Die gute Nachricht: Die Ausgabelänge und damit die Antwortzeit bleiben laut Studie in den meisten Fällen unverändert. Das liegt an der technischen Architektur: LLMs haben zwei Phasen beim Verarbeiten – das „Prefill“ (Lesen des Inputs, gut parallelisierbar) und das „Decoding“ (Erzeugen der Antwort, sequenziell und langsam). Die Wiederholung betrifft nur das Prefill und erhöht die Rechenzeit kaum.​

Ausnahme: Bei sehr langen Prompts – etwa wenn du ganze Dokumente übergibst – kann die Verdoppelung des Inputs tatsächlich die Latenz erhöhen oder bei extrem langen Texten sogar das Kontextfenster sprengen. Hier musst du abwägen.

Praktische Umsetzung: So machst du es konkret

Du brauchst kein Prompt-Engineering-Studium, um das anzuwenden. Hier sind drei einfache Muster:

Muster 1: Vollständige Wiederholung
Schreib deinen kompletten Prompt zweimal hintereinander. Das ist die reinste Form der Methode und eignet sich besonders bei kurzen bis mittellangen Prompts.

Erstelle mir eine Zusammenfassung dieses Textes in maximal 5 Sätzen. Antworte ausschließlich auf Deutsch.

[Dein Text]

Erstelle mir eine Zusammenfassung dieses Textes in maximal 5 Sätzen. Antworte ausschließlich auf Deutsch.

Muster 2: Kernanweisung ans Ende
Bei langen Prompts mit viel Kontext (z. B. einem ganzen Dokument) platzierst du die Hauptaufgabe sowohl am Anfang als auch ganz am Ende – als „Anker“. Das ist die sparsamste Variante.

Aufgabe: Extrahiere alle Datumsangaben aus dem folgenden Text und gib sie als Liste aus.

[Langer Text]

Zur Erinnerung: Extrahiere alle Datumsangaben aus dem Text oben und gib sie als Liste aus.

Muster 3: Dreifache Wiederholung (x3)
Die Forscher haben auch getestet, den Prompt dreimal zu wiederholen. Bei bestimmten Aufgaben brachte das nochmals bessere Ergebnisse – allerdings auf Kosten des Token-Verbrauchs. Das lohnt sich vor allem bei kritischen, präzisionssensitiven Aufgaben.

Was Prompt Repetition nicht ist

Zur Klarstellung: Diese Methode ist kein Zaubermittel und kein Ersatz für einen gut strukturierten Prompt. Sie hilft dem Modell, den Fokus zu halten – aber wenn die Anweisung selbst unklar ist, wird sie durch Wiederholung auch nicht besser.

Auch führt die Wiederholung laut Studie nicht zu kreativem „Overfitting“ – also dazu, dass das Modell steif oder einseitig wird. Die Kreativität bleibt erhalten; es werden lediglich die Rahmenbedingungen stabiler eingehalten.

Einordnung: Was bedeutet das für Prompt Engineering?

Im Kontext von Prompt Engineering – also der Kunst, KIs durch gute Eingaben zu besseren Ergebnissen zu führen – ist dieser Fund bemerkenswert, weil er so unintuitiv ist. Die meisten Ratschläge gehen in Richtung Kürze und Präzision: Schreib klare, kompakte Prompts. Nichts doppeln, nichts wiederholen.

Google Research dreht diesen Gedanken partiell um: Redundanz kann ein Feature sein, kein Bug. Zumindest dann, wenn es darum geht, dass das Modell wichtige Anweisungen konsequent im Blick behält.

Das passt gut zu dem, was wir über die Aufmerksamkeitsverteilung von LLMs wissen: Sie sind keine perfekten Leser, die jeden Satz gleichwertig verarbeiten. Sie sind Mustererkennungsmaschinen mit einer U-förmigen Aufmerksamkeitskurve. Und wer das versteht, kann es gezielt nutzen.

Bevor du das nächste Mal frustriert bist, weil die KI deine Formatvorgabe ignoriert oder eine Anweisung aus dem langen Kontext verliert – versuch es einfach. Schreib die Kernanweisung nochmal ans Ende. Es kostet dich zehn Sekunden und könnte einen deutlichen Unterschied machen.

Hast du Prompt Repetition schon einmal – bewusst oder unbewusst – angewendet? Und wenn ja: Welchen Unterschied hast du in der Antwortqualität bemerkt? Schreib es gerne in die Kommentare – ich bin gespannt, welche Erfahrungen ihr damit gemacht habt!

Schreibe einen Kommentar