3 Min Lesezeit

Warum die meisten Prompting-Guides nicht helfen

Wer „Prompt Engineering“ sucht, findet Hunderte Artikel mit Tipps wie „Sei so spezifisch wie möglich“ oder „Nutze die Rolle des Experten“. Das ist nicht falsch, aber es greift zu kurz für den Geschäftsalltag.

Im Business geht es nicht darum, ein Gedicht in einem bestimmten Stil zu schreiben oder ein Bild zu generieren. Es geht darum, eine Kundenanfrage in 2 statt 15 Minuten zu beantworten, ein Angebot aus drei Dokumenten zusammenzusetzen oder einen Quartalsbericht aus Rohdaten zu erstellen.

Dafür braucht man keine 50 Prompt-Formeln. Man braucht 4 Muster und die Disziplin, sie konsequent anzuwenden.

Muster 1: Kontext reinladen

Das Modell weiß nichts über euer Unternehmen, eure Kunden oder eure Branche – es sei denn, ihr sagt es ihm. Der einfachste und effektivste Hebel im Business-Prompting ist, den relevanten Kontext mitzugeben.

Statt: „Schreib mir eine Antwort auf eine Kundenanfrage“ Besser: „Hier ist die Kundenanfrage [Paste]. Hier ist unser Produktkatalog [Paste relevanter Ausschnitt]. Hier ist der bisherige E-Mail-Verlauf [Paste]. Formuliere eine Antwort, die auf die konkreten Fragen eingeht und unser Produkt X empfiehlt.“

Ja, das ist mehr Aufwand beim Prompten. Aber das Ergebnis ist sofort nutzbar statt generisch.

Muster 2: Output-Format vorgeben

Modelle liefern bessere Ergebnisse, wenn sie wissen, wie das Ergebnis aussehen soll. Das betrifft Länge, Struktur und Tonalität.

Statt: „Fasse die Ergebnisse zusammen“ Besser: „Fasse die Ergebnisse in maximal 5 Bulletpoints zusammen, jeweils ein Satz, Sprache: sachlich-professionell, Zielgruppe: Geschäftsführung ohne technischen Hintergrund.“

Statt: „Erstelle eine Tabelle“ Besser: „Erstelle eine Tabelle mit 4 Spalten: Maßnahme, Verantwortlich, Deadline, Status. Fülle sie mit den Action Items aus dem Meeting-Protokoll oben.“

Muster 3: Iterieren statt perfektionieren

Der größte Produktivitäts-Killer im Prompting ist der Versuch, den perfekten Prompt beim ersten Mal zu schreiben. Im Business-Kontext ist es schneller, mit einem einfachen Prompt zu starten und das Ergebnis zu verfeinern:

Erster Prompt: „Schreib ein Angebot für Unternehmen X basierend auf diesem Briefing.“ Zweiter Prompt: „Gut, aber kürze den Einleitungsteil auf 2 Sätze und ergänze einen konkreten Zeitplan.“ Dritter Prompt: „Perfekt. Jetzt noch den Preis von 15.000 Euro einfügen und den Tonfall etwas persönlicher machen.“

Drei Schritte, insgesamt 3 Minuten – und das Ergebnis ist besser als nach 10 Minuten Prompt-Perfektionismus.

Muster 4: Rolle und Perspektive definieren

Wenn das Modell weiß, aus welcher Perspektive es antworten soll, wird die Antwort relevanter. Das funktioniert besonders gut für Aufgaben, die eine bestimmte Expertise erfordern:

„Du bist Controlling-Leiterin eines mittelständischen Unternehmens mit 200 Mitarbeitenden. Analysiere die beigefügten Quartalszahlen und markiere die 3 größten Abweichungen vom Plan.“

„Du bist HR-Managerin und schreibst eine interne Stellenanzeige für eine Position als KI-Projektleiter. Die Zielgruppe sind bestehende Mitarbeitende, die sich intern bewerben könnten. Tonalität: motivierend, nicht übertrieben.“

Praxisbeispiele nach Abteilung

Vertrieb

Typischer Use Case: Angebotserstellung aus Gesprächsnotizen.

Prompt: „Hier sind meine Notizen vom Kundengespräch mit [Firma] [Paste]. Erstelle daraus ein Angebot für unsere Leistung [Trainingsformat X]. Verwende diese Vorlage als Grundstruktur [Paste Vorlage]. Preis: [X Euro]. Tonalität: professionell, aber persönlich. Nimm Bezug auf die im Gespräch genannten Herausforderungen.“

Personal / HR

Typischer Use Case: Bewerbungsscreening-Zusammenfassung.

Prompt: „Hier sind 5 Bewerbungen auf die Position [Titel] [Paste Lebenslauf-Zusammenfassungen]. Erstelle eine Vergleichstabelle mit den Spalten: Name, relevante Erfahrung, Stärken, mögliche Lücken, Gesamteinschätzung (1–5). Sortiere nach Gesamteinschätzung absteigend.“

Controlling

Typischer Use Case: Abweichungsanalyse.

Prompt: „Hier sind die Plan-Zahlen Q1 [Paste] und die Ist-Zahlen Q1 [Paste]. Identifiziere alle Positionen mit mehr als 10% Abweichung. Für jede Abweichung: nenne den Betrag, die prozentuale Abweichung und eine mögliche Ursache basierend auf dem Kontext.“

Die Team-Prompt-Bibliothek

Der nachhaltigste Schritt ist, die besten Prompts zu sammeln und im Team zu teilen. In unseren Trainings bauen wir mit jedem Team eine interne Prompt-Bibliothek auf: 10–15 Prompts für die häufigsten Aufgaben der jeweiligen Abteilung, in einem geteilten Dokument (Notion, OneNote, SharePoint – egal welches Tool).

Jeder Prompt enthält: Aufgabe (wofür nutze ich ihn?), Prompt-Text (Copy-Paste-fertig mit Platzhaltern), Beispiel-Ergebnis (damit man sieht, was rauskommt), Tipps (was verbessert das Ergebnis, was verschlechtert es?).

Nach 4–6 Wochen haben die meisten Teams 20–30 erprobte Prompts, die die Einarbeitungszeit für neue Kolleginnen auf Minuten reduzieren.

Häufig gestellte Fragen

Muss ich Prompting-Kurse besuchen, bevor ich KI produktiv nutzen kann?

Nein. Die vier Muster in diesem Beitrag reichen für den Einstieg. Ein strukturiertes Training hilft, schneller auf ein höheres Level zu kommen und die Team-Bibliothek aufzubauen – aber es ist keine Voraussetzung, um anzufangen.

Funktionieren die gleichen Prompts in ChatGPT, Langdock und Copilot?

Grundsätzlich ja. Die Muster (Kontext, Format, Iteration, Rolle) funktionieren plattformübergreifend. Kleine Unterschiede gibt es bei der Kontextlänge (wie viel Text das Modell verarbeiten kann) und bei plattformspezifischen Funktionen (z.B. Copilot greift automatisch auf Office-Daten zu, was einen separaten Kontext-Paste überflüssig macht).

Wie lang darf ein Prompt sein?

So lang wie nötig. Aktuelle Modelle verarbeiten problemlos 10.000+ Wörter Kontext. In der Praxis liegen die meisten Business-Prompts bei 100–500 Wörtern inklusive des eingefügten Kontexts. Lieber zu viel Kontext als zu wenig.

Sollte ich Prompts auf Deutsch oder Englisch schreiben?

Auf der Sprache, in der das Ergebnis erscheinen soll. Aktuelle Modelle verstehen Deutsch auf einem sehr hohen Niveau. Der frühere Qualitätsunterschied zwischen englischen und deutschen Prompts ist bei GPT-4, Claude und Mistral kaum noch messbar.

Nächster Schritt

Wer Prompting nicht nur lesen, sondern an den eigenen Aufgaben üben will: In unseren Compact-Trainings bauen wir mit jedem Team eine individuelle Prompt-Bibliothek auf – an echten Aufgaben, nicht an Demo-Beispielen.

Training anfragen · Alle Trainingsformate

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert