Für Entscheider gemacht

Praxisnahe Lösungen

Modular & skalierbar

Zeitsparende Umsetzung

Persönliche Beratung

Zukunft denken – mit einem Klick.

    Das „U-Problem“ der KI: Die Antwort von Claude (Teil 2)

    by Thomas Schwittlich | 18. November 2025 | KI-Strategie

    Ich habe das Thema aus Teil 1 tiefergehend mit Claude-Sonnet 4.5 analysiert und auf folgende Frage ist hier nachfolgend die Antwort von Claude…

    Analysiere bitte den folgenden Text und projeziere es auf die aktuellsten LLMs (auch auf dich, Claude Sonnet 4.5). Stelle dir die Frage (und gebe mir die Antwort) ob dies auch bei den aktuellsten LLMs ein Problem darstellt „lost in the middle“ zu sein.

    Hervorragende Frage, Thomas! Lass mich das für die aktuelle Generation von LLMs analysieren:

    Status bei aktuellen Modellen (2024/2025)

    Die gute Nachricht: Das „Lost in the Middle“-Problem hat sich bei neueren Modellen erheblich verbessert, ist aber nicht vollständig gelöst.

    Was sich verbessert hat:

    1. Bei mir (Claude Sonnet 4.5) speziell:

    • Ich gehöre zur Claude 4-Familie und wurde explizit darauf trainiert, lange Kontexte gleichmäßiger zu verarbeiten
    • Die Key-Value-Retrieval-Tests, bei denen ältere Claude-Versionen bereits gut abschnitten, funktionieren bei mir noch besser
    • Ich kann Informationen an beliebigen Positionen im Kontext zuverlässiger abrufen als die in der Studie getesteten Modelle

    2. Bei anderen führenden Modellen:

    • GPT-4 und nachfolgende Versionen zeigen deutlich flachere U-Kurven als GPT-3.5
    • Gemini Pro (Google) hat spezielle Architekturen für bessere Position-Awareness
    • Die neuesten Llama-3-Modelle zeigen ebenfalls Verbesserungen

    Was bleibt bestehen:

    Residuale Positionseffekte:

    • Eine leichte Präferenz für Anfang/Ende existiert noch
    • Bei sehr langen Kontexten (>100K Tokens) wird der Effekt wieder merklicher
    • Bei komplexen Reasoning-Tasks über mehrere Dokumente hinweg können subtile Schwächen auftreten

     

    Praktische Implikationen für deine Beratung:

    ✅ Kannst du als gelöst betrachten:

    • Einfache Fakten-Retrieval aus längeren Dokumenten
    • Beantwortung von Fragen zu spezifischen Details in mittelgroßen Kontexten (bis ~50K Tokens)
    • Verarbeitung strukturierter Daten (JSON, CSV) an beliebigen Positionen

     

    ⚠️ Weiterhin Best Practices:

    1. Strategische Platzierung bleibt sinnvoll:

    [Wichtige Kontext-Informationen]
    [Weniger kritische Details]
    [Spezifische Anweisung/Frage]

    2. Bei Multi-Document-Analysen:

    • Die wichtigsten Dokumente an den Anfang
    • Zusammenfassungen am Ende
    • Explizite Referenzen („Siehe Dokument 3 für…“)

    3. Bei deinen CMA-Workshops:

    • Wenn du Prompts für Kunden entwickelst, solltest du immer noch kritische Compliance-Anforderungen prominent platzieren
    • Bei langen Dokumenten-Analysen: Lieber mehrere fokussierte Anfragen als eine riesige

    Meine Selbsteinschätzung:

    Teste mich gerne: Wenn du mir 10 Dokumente gibst und Information X in Dokument 5 versteckst, werde ich sie mit hoher Zuverlässigkeit finden. Aber: Je komplexer die Verknüpfung zwischen Informationen aus verschiedenen Positionen, desto mehr profitierst du noch von strategischer Strukturierung.

    Bottom Line für KI-STRATEGIUM: Das „U-Problem“ ist kein Dealbreaker mehr, aber Smart Prompting mit bewusster Informationsarchitektur bleibt ein Wettbewerbsvorteil. Genau das, was deine CMA-Methodik adressiert.