Haben Sie jemals einer künstlichen Intelligenz eine einfache Frage gestellt und eine offensichtlich unlogische Antwort erhalten? Das ist kein Fehler des Modells. Es ist ein Fehler des Prompts.
Ein banales, aber aufschlussreiches Experiment: ein LLM fragen, ob es besser ist, zu Fuß oder mit dem Auto zu einer 40 Meter entfernten Autowaschanlage zu gelangen. Ohne Kontext ist die Antwort falsch. Formuliert man dieselbe Frage mit einem geeigneten kognitiven Rahmen um, erkennt das Modell das Paradoxon, löst es und tut dies sogar mit einer Prise Sarkasmus.
Durch eine rigorose architektonische Analyse — Attention-Mechanismus, Wahrscheinlichkeitsverteilung über Token, Shortcut Reasoning — erklärt dieser Artikel, warum ein strukturierter Prompt radikal unterschiedliche Berechnungspfade aktiviert. Eine heute kritische Kompetenz für jeden, der ernsthaft mit Sprachmodellen arbeitet.
Künstliche Intelligenz · Prompt Engineering · LLM-Architektur — April 2026 — Niveau: Spezialistisch
Abstract
Die Qualität der von einem Large Language ModelGroßes Sprachmodell, das auf riesigen Textkorpora trainiert wurde. Es generiert Text Token für Token, indem es die bedingte Wahrscheinlichkeit auf Basis des vorherigen Kontexts maximiert. generierten Antwort wird nicht allein durch die parametrische Kapazität des Modells bestimmt, sondern in erheblichem Maße durch die semantischeAuf die Bedeutung bezogen. In der NLP betrifft die semantische Dimension den konzeptuellen Inhalt der Token, unterschieden von ihrer syntaktischen Form. Dichte und die kognitive Struktur des eingegebenen PromptsDem Modell zugeführter Eingabetext. Er dient als initialer Kontext, aus dem das Modell seine Antwort durch probabilistische Vervollständigung generiert.. Dieser Artikel analysiert anhand einer bewusst paradoxen Fallstudie die architektonischen Mechanismen — AttentionZentraler Mechanismus des Transformers: berechnet, wie viel „Aufmerksamkeit" jeder Token der Sequenz allen anderen widmen soll, und erzeugt gewichtete kontextuelle Repräsentationen., Wahrscheinlichkeitsverteilung über TokenKleinste vom Modell verarbeitete Texteinheit. Kann einem Wort, Wortteil oder Symbol entsprechen. Moderne Modelle verwenden BPE-Tokenisierung (Byte Pair Encoding)., Context FramingDie Art und Weise, wie der Kontext des Prompts die Verarbeitung des Modells steuert, indem spezifische semantische und kognitive „Rahmen" aktiviert werden, die die Wahrscheinlichkeitsverteilung des Outputs beeinflussen. — die erklären, warum ein kontextarmer Prompt syntaktisch korrekte, aber logisch degenerierte Antworten erzeugt, während ein Prompt, der meta-kognitive Rahmen aktiviert, artikuliertes Denken, Paradoxon-Erkennung und sogar Ironie hervorruft.
1. Die Fallstudie: ein alltägliches Paradoxon als diagnostische Sonde
Betrachten wir folgendes kontrolliertes Experiment. Dem Modell wird eine Frage in zwei semantisch unterschiedlichen, aber denotativDie Denotation ist die wörtliche, referentielle Bedeutung eines Ausdrucks. Zwei Sätze sind denotativ identisch, wenn sie dieselbe Situation in der realen Welt beschreiben. identischen Varianten gestellt.
Prompt A — minimaler Kontext:
“Ich muss das Auto waschen lassen. Die Waschanlage ist 40 Meter entfernt. Was mache ich? Gehe ich zu Fuß oder nehme ich das Auto?”
Typische Modellantwort auf Prompt A:
“Geh zu Fuß — es sind nur 40 Meter, es hat keinen Sinn, das Auto zu nehmen.”
Prompt B — meta-kognitiver Kontext aktiviert:
“Denke über die Implikationen und Co-Implikationen des folgenden Problems nach: Ich muss das Auto waschen lassen. Die Waschanlage ist 40 Meter entfernt. Was mache ich? Gehe ich zu Fuß oder nehme ich das Auto?”
Typische Modellantwort auf Prompt B:
“Die Frage enthält ein grundlegendes logisches Paradoxon: Der zu transportierende Gegenstand ist das Transportmittel selbst. Zu Fuß zur 40 Meter entfernten Waschanlage zu gehen, bedeutet, das Auto zurückzulassen. Die einzige kohärente Lösung ist, hinzufahren. Wer sich diese Frage ernsthaft stellt, hat wahrscheinlich das Phänomen des Montag-Morgen-Gehirns im Standby-Modus erlebt.”
Die Antwort auf Prompt A ist unlogisch: Sie schlägt vor, zu Fuß zu einer Autowaschanlage zu gehen, und ignoriert die Tatsache, dass das Auto — Gegenstand der Dienstleistung — notwendigerweise dort anwesend sein muss. Die Antwort auf Prompt B hingegen erkennt das Paradoxon, benennt es, löst es und liefert sogar eine sarkastische Bewertung der Situation. Warum?
2. Transformer-Architektur und die Rolle der Attention bei der Kontextkodierung
Um das Phänomen zu verstehen, muss man zur Architektur zurückgehen. Modelle der Familie GPT/Claude/Gemini sind TransformerVon Vaswani et al. (2017) eingeführte neuronale Architektur, die vollständig auf Self-Attention-Mechanismen basiert. Sie hat RNNs als dominantes Paradigma für großskalige Sprachmodelle abgelöst. (Decoder-only oder Encoder-Decoder). Der zentrale Mechanismus ist die Scaled Dot-Product AttentionMathematische Formulierung der Attention: Attention(Q,K,V) = softmax(QKᵀ/√d_k)·V. Der Skalierungsfaktor 1/√d_k verhindert die Sättigung der Softmax in hochdimensionalen Räumen.:
Attention(Q, K, V) = softmax( QKT / √dk ) · V
Jeder Token der Eingabesequenz projiziert drei Vektoren: Query (Q)Vektor, der darstellt, „wonach" der aktuelle Token sucht. Das Skalarprodukt mit den Keys anderer Token bestimmt den Grad der gegenseitigen Relevanz., Key (K)Vektor, der darstellt, „was ein Token bietet". Er wird mit den Queries verglichen, um die Attention-Gewichte durch Skalarprodukt zu berechnen., Value (V)Vektor, der die tatsächlich übertragene Information enthält. Sobald die Attention-Gewichte über Q und K berechnet sind, werden die Values proportional zu diesen Gewichten aggregiert. in latente Räume der Dimension d_k. Das Produkt QKT erzeugt eine AffinitätsMaß für Ähnlichkeit oder Relevanz zwischen zwei Vektoren im latenten Raum. Hohe Affinität zwischen zwei Token bedeutet, dass sie sich im Attention-Mechanismus gegenseitig „anziehen".-Matrix, die nach SoftmaxFunktion, die einen Vektor reeller Werte in eine Wahrscheinlichkeitsverteilung umwandelt (positive Werte, die sich zu 1 summieren). Wird zur Normalisierung der Attention-Gewichte verwendet. bestimmt, wie viel jede Position den anderen zuwendet. Der entscheidende Punkt: Intensität und Verteilung der Attention Weights hängen vom semantischen Reichtum des Prompts ab.
2.1. Prompt A: Degeneration der Attention im semantischen Untergraphen
Im Prompt A sind die relevanten Token: waschen, Auto, 40 Meter, zu Fuß, Auto. Das Modell konstruiert einen Co-Occurrence-GraphenImplizite Struktur, die während des Pretrainings gelernt wird: Token, die häufig zusammen im selben Kontext auftreten, entwickeln ähnliche Vektorrepräsentationen und hohe gegenseitige Affinität im Attention-Mechanismus. basierend auf der Statistik des PretrainingsInitiale Trainingsphase auf massiven unlabeled Korpora. Das Modell lernt statistische Sprachverteilungen, semantische Kodierungen und implizite Denkmuster.. Der Token 40 Meter hat hohe Affinität zu Konzepten kurzer Distanz und Fußläufigkeit; der Cluster zu Fuß vs. Auto aktiviert den klassischen Rahmen „Transportmittel für kurze/lange Distanz". Der aktivierte semantische Untergraph ist der eines persönlichen Mobilitätsproblems, nicht eines Objekt-Logistikproblems.
Der implizite ReferentDie Entität in der realen Welt, auf die sich ein sprachlicher Ausdruck bezieht. In „nehme ich das Auto?" ist der Referent von „Auto" mehrdeutig: Ist es der Gegenstand der Dienstleistung oder das Transportmittel des Subjekts? Das Modell löst diese Mehrdeutigkeit stillschweigend und fehlerhaft auf. von „Auto" wird dem Subjekt als Transportmittel zugewiesen, nicht als Gegenstand der Dienstleistung. Dieser Fehler im Referent TrackingFähigkeit, über den gesamten Text hinweg nachzuverfolgen, auf welche Entität sich jeder Ausdruck bezieht. In LLMs wird dies implizit durch den Attention-Mechanismus implementiert, mit möglichen Driften in mehrdeutigen Referenzketten. wird nicht behoben, weil im Prompt kein Signal existiert, das meta-logisches Denken aktiviert.
2.2. Das Problem der funktionalen Token und das Fehlen meta-kognitiver Rahmen
Sprachmodelle „denken" nicht standardmäßig im rechnerischen Sinne. Sie operieren als probabilistische Vervollständigungsmaschinen: Gegeben eine Sequenz, maximieren sie die Wahrscheinlichkeit des nächsten Tokens, bedingt auf die gesamte Geschichte:
P(tokent | token1, token2, …, tokent-1)
In Abwesenheit von Token, die reflexive Verarbeitungsmodi aktivieren, wählt das Modell den Pfad des geringsten Widerstands im ManifoldIn der Differentialgeometrie und im Machine Learning ein niedrigdimensionaler Raum, eingebettet in einen hochdimensionalen Raum. Sprachdaten verteilen sich auf einem Manifold: Das Modell navigiert diesen Raum, indem es Pfade hoher Wahrscheinlichkeit wählt. der gelernten Verteilungen. Ein Fehler vom Typ Shortcut ReasoningPhänomen, bei dem das Modell spuriöse Korrelationen oder oberflächliche Muster nutzt, anstatt über die logische Struktur des Problems nachzudenken. Entspricht dem „System 1 Thinking" nach Kahneman, angewandt auf LLMs., der in der Alignment-Literatur gut dokumentiert ist.
3. Prompt B: Aktivierung des meta-kognitiven Rahmens
Die Anweisung „denke über die Implikationen und Co-Implikationen nach" ist keine einfache lexikalische Ergänzung. Sie ist ein Frame-Shift-Operator, der auf mehreren Ebenen der Verarbeitung wirkt.
3.1. Effekt auf die Attention: Neuverteilung der Gewichte auf Token zweiter Ordnung
Die Anwesenheit von Token wie Implikationen und Co-Implikationen, die im Training stark mit argumentativen und analytischen Texten korreliert sind, verteilt die Attention WeightsDie vom Attention-Mechanismus erzeugten Gewichte: Werte zwischen 0 und 1 (normalisiert via Softmax), die angeben, wie stark jeder Token die Repräsentation eines anderen Tokens beeinflusst. auf Token um, die andernfalls marginalisiert worden wären.
| Token / semantischer Cluster | Attention-Gewicht — Prompt A | Attention-Gewicht — Prompt B |
|---|---|---|
| Auto als Gegenstand der Dienstleistung | Niedrig — überschrieben durch Mobilitäts-Frame | Hoch — aktiviert durch Implikationsanalyse |
| Referentielle Identität Subjekt/Objekt | Nicht aufgelöst | Explizit untersucht |
| Inhärentes logisches Paradoxon | Nicht erkannt | Erkannt und benannt |
| Ironischer/sarkastischer Ton | Absent | Emergent (argumentative Rahmen) |
3.2. Implizite Chain-of-Thought und latentes Scaffolding
Techniken wie Chain-of-ThoughtPrompting-Technik (Wei et al., 2022), die das Modell dazu bringt, Zwischenschritte des Denkens vor der endgültigen Antwort zu generieren. Verbessert die Genauigkeit bei Multi-Step-Reasoning-Aufgaben erheblich. (Wei et al., 2022) und Tree of ThoughtsErweiterung des CoT (Yao et al., 2023): Das Modell exploriert parallel mehrere Denkpfade, bewertet sie und wählt den vielversprechendsten aus. (Yao et al., 2023) zeigen, dass die Explizierung des Inferenzprozesses die Genauigkeit bei Reasoning-Aufgaben signifikant steigert. Das Modell generiert, vom Kontext geleitet, Zwischentoken, die als expliziertes ArbeitsgedächtnisBei LLMs wird das „Arbeitsgedächtnis" durch die bereits im Kontext generierten Token simuliert. CoT nutzt dies: Jeder Zwischen-Reasoning-Token wird Teil des Kontexts, der nachfolgende Token beeinflusst. in der Sequenz selbst fungieren.
Der Satz „denke über die Implikationen und Co-Implikationen nach" fungiert als Auslöser für dieses ScaffoldingVom Prompt bereitgestellte Stützstruktur, die das Modell anleitet, seinen Denkprozess zu organisieren, bevor es die endgültige Antwort produziert.: Das Modell wird dazu angeregt, eine Token-Sequenz zu generieren, die die Problemstruktur artikuliert, bevor es zur Endantwort gelangt, und erzwingt so die Auflösung der referenziellen MehrdeutigkeitZustand, in dem sich ein Ausdruck auf mehrere verschiedene Entitäten beziehen kann. Bei „nehme ich das Auto?" muss das Modell feststellen, ob „Auto" das Transportmittel oder der zur Waschanlage zu bringende Gegenstand ist..
Technischer Hinweis: Bei Modellen mit explizitem Reasoning (z. B. OpenAI o1, Claude mit Extended Thinking) ist dieser Prozess noch sichtbarer: Die interne Chain of ThoughtSequenz von Reasoning-Token, die das Modell vor der endgültigen Antwort generiert. Bei Modellen mit „Extended Thinking" ist diese Kette buchstäblich: tatsächlich produzierte Token, auch wenn sie für den Nutzer nicht immer sichtbar sind. ist buchstäblich eine Sequenz von Token, die vor der Antwort generiert werden. Ein solider Prompt erhöht die Wahrscheinlichkeit, dass diese Kette die korrekten logischen Schritte enthält.
3.3. Effektive Temperatur und Wahrscheinlichkeitsverteilung
Mit Prompt A ist der Wahrscheinlichkeitspeak auf zu Fuß scharf und dominant: Die Verteilung ist peakyEine „peaky" Verteilung hat ihre Masse auf wenige dominante Werte konzentriert, mit niedriger Entropie. Entspricht geringer Vielfalt und hohem Determinismus im Modell-Output., mit niedriger EntropieIn der Informationstheorie ein Maß für die Unsicherheit einer Verteilung. Hohe Entropie = viele gleich wahrscheinliche Optionen. Niedrige Entropie = wenige Token dominieren. Ein kontextreicher Prompt tendiert dazu, die lokale Entropie zu erhöhen und nuanciertere Outputs zu ermöglichen.. Mit Prompt B flacht die Aktivierung des analytischen Rahmens die Verteilung ab und ermöglicht die Auswahl semantisch reicherer Token, was ein Verhalten analog zum Übergang von Greedy DecodingGenerierungsstrategie, die bei jedem Schritt den Token mit der höchsten Wahrscheinlichkeit auswählt. Erzeugt deterministische, aber tendenziell banale und wenig kreative Outputs. zu einem Sampling aus einer breiteren Verteilung ermöglicht: Nuancierung entsteht.
4. Taxonomie der Fehler durch schwache Prompts
Der beschriebene Fall ist repräsentativ für eine Familie systematischer Fehler, die auftreten, wenn der Prompt nicht genügend semantische Struktur bietet:
| Fehlerklasse | Zugrundeliegender Mechanismus | Typisches Beispiel |
|---|---|---|
| Shortcut Reasoning | Aktivierung des statistisch dominanten Musters ohne Kohärenzprüfung | „Geh zu Fuß" bei einem Problem, das das Auto betrifft |
| Referent Drift | Verlust der Nachverfolgung des korrekten Referenten in pronominalen oder elliptischenEine Ellipse ist die Auslassung von sprachlichen Elementen, die aus dem Kontext erschlossen werden können. „Nehme ich das Auto?" lässt den expliziten Referenten aus und erzeugt Mehrdeutigkeit, die das Modell implizit auflösen muss. Ketten | Verwechslung Subjekt/Objekt in Multi-Entitäts-Szenarien |
| Frame Collapse | Der Kontext aktiviert einen dominanten FrameKognitives Schema, das die Interpretation einer Situation organisiert. Aus Fillmores Frame-Semantik: Jedes Wort evoziert einen Frame, der Erwartungen bezüglich Rollen, Beziehungen und typischer Szenarien aktiviert., der korrekte alternative Frames unterdrückt | Eine Logistikfrage als Mobilitätsfrage lesen |
| Sycophantic Completion | Das Modell vervollständigt in Richtung der Antwort, die es vom Nutzer erwartet wahrnimmt | Bestätigung einer falschen impliziten Prämisse im Prompt |
| Ambiguity Suppression | Die Mehrdeutigkeit wird nicht signalisiert, sondern stillschweigend falsch aufgelöst | Antworten ohne Klärungsfragen bei widersprüchlichen Prämissen |
5. Operative Prinzipien für die Konstruktion solider Prompts
5.1. Den geforderten kognitiven Rahmen explizit machen
Nicht nur die Frage stellen: Den Typ der erwarteten Verarbeitung definieren. Formulierungen wie „analysiere die logischen Implikationen", „identifiziere mögliche Widersprüche", „denke in Fällen" sind Frame-Operatoren, die die Aufmerksamkeit des Modells auf tiefere semantischeAuf die Bedeutung bezogen. Die tieferen semantischen Schichten umfassen logische Beziehungen, kausale Implikationen und argumentative Strukturen, im Gegensatz zur lexikalischen Oberfläche. Schichten umverteilen.
5.2. Referenzielle Mehrdeutigkeiten im Voraus auflösen
Jedes Pronomen, jede Ellipse, jeder implizite Referent ist ein Drift-Vektor. Ein robuster Prompt benennt explizit die Entitäten und Beziehungen: statt „wie benutze ich sie?" schreiben „wie verwende ich die Variable X in der Funktion Y?".
5.3. Domänenkontext als Prior bereitstellen
Das Modell führt eine implizite bayessche InferenzProbabilistisches Framework, in dem ein Vorwissen (Prior) anhand neuer Evidenz aktualisiert wird. LLMs wenden dieses Schema implizit an: Der Prior ist die im Pretraining gelernte Verteilung, der Prompt-Kontext ist die Evidenz. durch. Die Angabe der Domäne — „im Kontext einer Microservices-Architektur", „aus Sicht des deutschen Steuerrechts" — wirkt als Prior, der die Wahrscheinlichkeitsverteilung auf den korrekten semantischen Raum ausrichtet.
5.4. Explizite Reasoning-Ketten (CoT Prompting)
Empfohlenes Muster: „Denke Schritt für Schritt. Identifiziere zuerst die Voraussetzungen des Problems, überprüfe dann, ob sie kohärent sind, und formuliere schließlich die Antwort."
5.5. Qualitäts-Meta-Anweisungen
Erwartete Qualitätsbedingungen hinzufügen: „wenn du Mehrdeutigkeiten erkennst, signalisiere sie vor der Antwort", „wenn das Problem logische Widersprüche enthält, benenne sie explizit". Diese Token wirken als semantische GuardsAnweisungen im Prompt, die als Kontrollbedingungen fungieren: Sie veranlassen das Modell, bestimmte Eigenschaften des Inputs zu überprüfen, bevor es die Antwort generiert, und reduzieren das Risiko von Ambiguity Suppression und Shortcut Reasoning., die das Verstummen von Mehrdeutigkeiten verhindern.
5.6. Strukturelle Trennung von Kontext und Abfrage
Empfohlenes Muster:
[KONTEXT]: Definition der Domäne und der Einschränkungen
[ZIEL]: Was erreicht werden soll
[EINSCHRÄNKUNGEN]: Limitierungen und Akzeptanzkriterien
[FRAGE]: Die spezifische Fragestellung
Diese Trennung zwingt das Modell, getrennte RepräsentationenVektoren im latenten Raum des Modells, die die Bedeutung eines Tokens oder einer Sequenz kodieren. Getrennte Repräsentationen für Kontext und Abfrage reduzieren die Interferenz zwischen den beiden Ebenen in der internen Verarbeitung des Transformers. für Kontext und Abfrage zu konstruieren, was die Interferenz zwischen den beiden Ebenen reduziert.
6. Implikationen für Produktionssysteme
In Enterprise-Kontexten sind die Konsequenzen schwacher Prompts nicht akademisch. In RAGRetrieval-Augmented Generation: Architektur, die ein dokumentenbasiertes Abrufsystem mit einem generativen LLM kombiniert. Das Modell antwortet auf Basis der abgerufenen Dokumente und reduziert Halluzinationen bei spezifischen Wissensdatenbanken.-Pipelines (Retrieval-Augmented Generation) kann ein schlecht konstruierter Synthese-Prompt HalluzinationenPhänomen, bei dem das Modell plausible, aber faktisch falsche Outputs generiert. Kein „Bug", sondern eine direkte Konsequenz des probabilistischen Vervollständigungsmechanismus: Das Modell maximiert die Kohärenz der Sequenz, nicht ihre Wahrhaftigkeit. über ansonsten korrekt abgerufene Dokumente erzeugen. Bei autonomen AgentenSysteme, in denen ein LLM als zentraler Controller verwendet wird, der Aktionssequenzen plant und ausführt, um ein Ziel zu erreichen. Die Schwäche des Prompts verstärkt sich bei jedem Schritt des Agenten. produziert ein schwacher System-Prompt Verhaltensdriften, die sich bei jedem Schritt verstärken. In Klassifikations- oder Triagesystemen führt Frame Collapse zu systematisch fehlerhaften Kategorisierungen.
Grundprinzip: Die Qualität des LLM-Outputs ist keine Eigenschaft des Modells in Isolation. Sie ist eine emergente Eigenschaft des Systems (Modell + Prompt). Ein Modell auf BenchmarksStandardisierte Testsuiten zur Messung der Modellfähigkeiten (z. B. MMLU, HumanEval, GSM8K). Benchmarks verwenden kontrollierte Prompts: Die Ergebnisse sind nicht direkt auf reale Nutzungskontexte mit nicht-optimierten Prompts übertragbar. mit standardisierten Prompts zu evaluieren und es dann mit improvisierten Prompts zu deployen, ist ein methodischer Fehler, der unrealistische Erwartungen und vorhersagbare operationelle Ausfälle produziert.
Das Prompt-Testing muss mit derselben Rigorosität behandelt werden wie Code-Testing: Grenzfälle, adversarialePrompts, die darauf ausgelegt sind, das Modell zu unerwünschtem Verhalten zu bringen. Tests mit adversarialen Prompts sind ein grundlegender Teil der Robustheitsbewertung eines LLM-basierten Systems. Prompts, Paraphrasen-Variationen, Regressionstests auf repräsentativen Stichproben des Anwendungsdomäne.
7. Schlussfolgerungen
Das Paradoxon der Autowaschanlage in 40 Metern Entfernung ist in seiner entwaffnenden Einfachheit ein Mikroskop auf die innere Struktur von Sprachmodellen. Es offenbart, dass die Transformer-Architektur — so leistungsfähig sie auch sein mag — intrinsisch reaktiv auf den bereitgestellten Kontext operiert. Es gibt keine „standardmäßig" korrekte Verarbeitung: Es gibt nur die Verarbeitung, die der Prompt wahrscheinlich macht.
Ein solider Prompt ist kein operativer Luxus und keine ergänzende Best Practice. Er ist die notwendige Bedingung dafür, dass sich die parametrischeBezogen auf die Anzahl der Parameter (Gewichte) des Modells. Ein Modell mit 70 Milliarden Parametern hat größeres potentielles Vermögen, doch dieses Potenzial bleibt latent ohne einen Prompt, der die korrekten Berechnungspfade aktiviert. Kapazität des Modells in nützlichen Output übersetzt. Der Abstand zwischen einem hervorragenden Modell, das schlecht genutzt wird, und einem mittelmäßigen Modell, das gut genutzt wird, ist oft geringer, als Praktiker annehmen.
Prompt Engineering ist letztlich der Akt, den kognitiven Kontext zu konstruieren, innerhalb dessen das Modell operiert. Wer das vernachlässigt, nutzt kein LLM: Er nutzt eine Black Box und hofft, dass die Statistik die Arbeit für ihn erledigt. Manchmal funktioniert es. Oft nicht. Und der Unterschied kann, wie wir gesehen haben, paradoxerweise groß sein — so groß wie der zwischen zu Fuß zur Autowaschanlage gehen und verstehen, dass das Auto mitkommen muss.
© 2026 · Fachartikel für Spezialisten · LLM · Attention Mechanism · Prompt Engineering · CoT · Frame Semantics