Prompt Engineering » Anleitung und Tipps für gute Prompts
Veröffentlicht: 27.03.2024 | Lesedauer: 9 Minuten
Die Qualität eines klassischen Interviews hängt von den Fähigkeiten des Interviewers ab. Er muss die richtigen Fragen formulieren, um ein Maximum an Informationen aus dem Befragten herauszuholen.
Ähnlich verhält es sich mit generativer KI und Large Language Models (LLMs): Prompts sind Anweisungen an KI-Systeme, meist in natürlicher Sprache. Und je präziser die Nutzerin oder der Nutzer einen Prompt formuliert, desto genauer und nützlicher ist der Output, den das Tool liefert.
Prompt Engineering ist der Bereich der KI (AI), der sich mit der Gestaltung von Eingabeaufforderungen – den Prompts – befasst. Dazu muss man verstehen, wie KI-Modelle Sprache verarbeiten und interpretieren. Unser Ratgeber gibt einen Überblick über das Prompt Engineering.
Die Stärke der generativen KI – insbesondere der chatbasierten Systeme – liegt in der Aufbereitung von Wissen innerhalb von Sekunden. Generative KI ist in der Lage, große Datenmengen auszuwerten, zu filtern, zu bündeln und in unterschiedlichen Formaten darzustellen. Um eine relevante Grundlage für menschliche Entscheidungen zu liefern, Zeit zu sparen und mehr Raum für kreative Arbeit zu schaffen, braucht KI den richtigen Input.
Ob OpenAI ChatGPT, Google Gemini, Midjourney, Stable Diffusion oder ein anderes chatbasiertes Modell: Der Mensch, der das KI-System bedient, gibt mit seinen Prompts die Richtung (das Ziel) vor und schränkt die Möglichkeiten ein. Er muss im Rahmen des Prompt Designs zielgerichtete Prompts erstellen, um die bestmöglichen Ergebnisse zu erhalten. Spätestens hier befinden wir uns mitten im Prompt Engineering. Überall dort, wo KI auf natürliche Sprache trifft, ist Prompt Engineering relevant.
Ein Prompt Engineer oder KI Prompter ist ein Experte im Umgang mit allen Arten von KI-Tools zur Generierung von Text, Bildern, Videos und Musik. Er ist auf Prompting oder Prompten spezialisiert, das heißt auf das Entwerfen, Entwickeln und Verfeinern von KI-Prompts. Der Prompt ist ein wichtiges Vorprodukt und bildet die Grundlage für die weitere Arbeit. Auf den ersten Blick mag ein Prompt einfach erscheinen. Wenn es jedoch darum geht, qualitativ hochwertigen KI-Output für komplexe Anfragen zu erzeugen, sieht die Sache anders aus. Kleinste Änderungen an den Prompts haben große Auswirkungen auf die Ergebnisse. Anders als ein traditioneller Softwareentwickler verwendet ein Prompt-Engineer im Normalfall keine Programmiersprachen. Hauptberufliche Prompt Engineers sind ein neues Berufsbild.
Aber keine Sorge: Wer sich oder seine Mitarbeitenden im Bereich Prompt-Engineering weiterbildet, muss nicht gleich in die Tiefen der Prompt-Wissenschaft und Large Language Models eintauchen. Im beruflichen Kontext reicht in der Regel ein gutes Grundverständnis der Funktionsweise aus, um ChatGPT & Co. zu steuern und deren Output einordnen zu können. Für Führungskräfte sind Grundkenntnisse im Prompt Engineering wichtig, um die Möglichkeiten und Grenzen von KI in ihrem Unternehmen zu verstehen.
Der große Vorteil von dialoggesteuerten LLMs ist der einfache Zugang über Chatbots: Es gibt im Prinzip keine Einstiegshürde – der Nutzer muss nur tippen können. Bei der Übergabe der Anweisungen an das Modell ist die Sprache entscheidend, da sie die Genauigkeit und Relevanz der KI-Antworten beeinflusst. Beim Schreiben einer konkreten Anweisung ist es hilfreich, die Prompt-Struktur Anweisung / Kontext / Input / Output im Hinterkopf zu behalten:
1. Anweisung
KI-Chatbots erwarten eine eindeutige Anweisung. Beginnen Sie Ihren Prompt daher mit „schreibe“, „vergleiche“, „erkläre“, „paraphrasiere“ (umschreibe) oder „kürze“. Bei einem Bild etwa „erzeuge“, „zeichne“ oder „male“.
2. Kontext
Das zweite Element eines Prompts sind zusätzliche Informationen, mit der Sie die KI in die richtige Richtung lenken. Bitten Sie die KI zum Beispiel, sowohl die Vor- als auch die Nachteile eines Themas zu betrachten, eine Situation aus der Vergangenheit oder Zukunft zu betrachten oder in eine bestimmte Rolle zu schlüpfen.
3. Input
Geben Sie der KI den Input, den das Tool verarbeiten soll. Beispiele: „Übersetze den folgenden Text …“, „Erstelle eine klickfreundliche Überschrift nach diesem Muster …“ oder „Paraphrasiere diesen Text …“.
4. Output
Geben Sie ChatGPT & Co. das gewünschte Antwortformat an, zum Beispiel „Antworte in Stichworten“ oder bei einem Bild „Erzeuge ein Aquarellbild“.
Verwenden Sie klare, kontextbezogene und spezifisch formulierte Prompts, um bessere Ergebnisse zu erzielen. Hier sind die zehn wichtigsten Tipps für bessere Prompts:
1. Schritt für Schritt zum Ergebnis kommen
Stellen Sie eine konkrete Aufgabe nach der anderen. Verwenden Sie ganze Sätze oder Stichpunkte – kombinieren Sie beides nach Bedarf. Verzichten Sie auf Verschachtelungen. Gehen Sie stattdessen Schritt für Schritt vor, indem Sie umfangreiche Aufgabenstellungen in Teilaufgaben zerlegen.
2. Spezifisch sein
Formulieren Sie Prompts so präzise wie möglich und beschreiben Sie der KI, was Sie genau wissen wollen.
3. Kontext hinzufügen
Geben Sie der Aufgabe so viel Kontext wie möglich. Erwähnen Sie alle wichtigen Details. Vermeiden Sie überflüssige Informationen.
4. Anführungszeichen verwenden
Setzen Sie Informationen, Textbeispiele und Materialien, die von der KI analysiert und bewertet werden sollen, in Anführungszeichen („“). Beispiel: … das hier ist ein Beispieltext unserer Marketingabteilung, übernehme die Tonalität: „Hier steht der Text“.
5. Rolle festlegen
Geben Sie der KI eine Rolle vor, die sie einnehmen soll, zum Beispiel „Du bist ein Ernährungsexperte …“ oder „Handle als Experte für Lehrpläne und erstelle …“. Dadurch wird klar, aus welcher Perspektive eine Antwort erwünscht ist. Bei einem Bild etwa „Du bist Experte für Ölmaterie“.
6. Bestimmen Sie die Art der Antwort
Geben Sie die Form des Outputs an. Zum Beispiel „als Tabelle“, „schreibe eine Einleitung mit 400 Wörtern“ oder „erstelle eine Liste mit 20 Punkten“. Wenn Sie mehrere Varianten benötigen, geben Sie dies an, zum Beispiel „Gib mir 5 Varianten“.
7. Interagieren Sie mit der KI
Geben Sie sich nicht mit dem erstbesten Ergebnis zufrieden. Fordern Sie die KI zu Verbesserungen auf (iteratives Vorgehen), etwa „Führe näher aus“, „die Antwort jetzt noch einmal länger“, „liefere Gründe nach“ oder „Jetzt im Stil eines Wissenschaftlers“. Bei einem Bild in Stable Diffusion etwa „erzeuge ein Bild mit mehr Rottönen und mach die Bäume kleiner“.
8. Arbeiten Sie mit Markdown
KI-Chatbots sind oft in der Lage, Markdown-Auszeichnungen in Prompts zu interpretieren. Nutzen Sie die Möglichkeit, Überschriften und Listen mit einem einleitenden „Dieser Prompt ist mit Markdown-Syntax formatiert“ zu kennzeichnen.
9. Gute Prompts von der KI formulieren lassen
Nutzen Sie den Chatbot als KI Creator. Ein Beispiel: „Handle als Experte für Prompt Engineering und zeige mir, wie ich meinen Prompt verbessern kann“.
10. Neuen Chat starten
Wenn Sie bei einem Thema nicht weiterkommen, starten Sie einen neuen Chat. Dadurch wird die bisherige Antworthistorie zurückgesetzt und Sie können von vorne beginnen.
Auch wenn Sie bei Ihren ersten Prompting-Experimenten mit KI-Modellen nicht die gewünschten Ergebnisse erzielen, lassen Sie sich nicht entmutigen und üben Sie weiter!
Richtig eingesetzt hat Artificial Intelligence das Potenzial, die Effektivität und Produktivität in Unternehmen zu steigern und damit die Wettbewerbsfähigkeit zu erhöhen. Effizienzsteigerung durch generative KI ist daher häufig das vorrangige Ziel.
Viele KI-Prozesse laufen automatisiert ab, andere werden durch manuelle Prompt-Eingaben angestoßen.
Das Gute an KI-Prozessen: Sie müssen sich in beiden Fällen nicht mit den Ergebnissen zufriedengeben, sondern können sie durch Umformulieren, Spezifizieren und Spezialisieren der Prompts verbessern.
Dazu ist es notwendig, die Qualität und Quantität der Ergebnisse zu beurteilen, Stichwort KI-Effizienz.
Sie müssen ein Verständnis für die Richtigkeit der von der KI vorgeschlagenen Ergebnisse entwickeln, also die Ergebnisse und Vorschläge der KI hinterfragen und einordnen. Und dazu brauchen Sie Bewertungskriterien, mit denen Sie beschreiben können, ob eine Maßnahme geeignet ist, das vorgegebene Unternehmensziel zu erreichen. Die folgende Checkliste kann Ihnen dabei helfen:
1. Setzen Sie sich klare Ziele
Definieren Sie, was Sie mit Ihren Prompts erreichen wollen. Dies kann die Verbesserung der Benutzerinteraktion, die Erhöhung der Antwortgenauigkeit oder die Steigerung der Benutzerzufriedenheit sein.
2. Sammeln Sie Daten
Verfolgen Sie die Interaktionen, die durch Ihre Prompts ausgelöst werden. Achten Sie auf Metriken wie Klickrate, Verweildauer und Konversionsrate.
3. A/B-Tests
Experimentieren Sie mit verschiedenen Versionen eines Prompts, um herauszufinden, welche besser funktioniert.
4. Nutzer-Feedback
Sammeln Sie direktes Feedback von KI-Nutzern, zum Beispiel durch Umfragen, Interviews oder Nutzertests.
5. Analyse der Ergebnisse
Werten Sie die gesammelten Daten aus, um zu verstehen, welche Prompts effektiv sind und warum. Berücksichtigen Sie dabei sowohl quantitative als auch qualitative Faktoren.
In der modernen Wissensgesellschaft kommt der generativen KI eine Schlüsselrolle bei der Digitalisierung von Geschäftsprozessen zu. Als Folge der Integration von künstlicher Intelligenz in die Arbeitswelt werden KI-Kommunikationsfähigkeiten immer wichtiger. Arbeitgeber erwarten von ihren Beschäftigten nicht nur traditionelles Wissen, sondern auch Fähigkeiten, die es ihnen ermöglichen, in einer zunehmend von KI-Systemen geprägten Arbeitswelt erfolgreich zu sein. Prompt-Kompetenzen entwickeln sich von einem „Nice-to-have“ zu einem „Must-have“, insbesondere in kreativen Berufen.
ChatGPT und andere LLMs zeichnen sich durch eine hohe Dynamik aus. Künstliche Intelligenz entwickelt sich in rasantem Tempo weiter. Das hat zur Folge, dass Prompts, die heute Erfolg versprechen, morgen schon nicht mehr so gut abschneiden. Die Integration generativer KI-Fähigkeiten fügt dem Arbeitsumfeld eine weitere Komplexitätsebene hinzu, die ein starkes Engagement für lebenslanges Lernen und den kontinuierlichen Erwerb sich weiterentwickelnder Kompetenzen erfordert.
Einige Technologieexperten gehen davon aus, dass Prompting und damit auch Prompt Engineering und Prompt Engineers ein vorübergehendes Phänomen sind. Diese Annahme beruht auf der Vorstellung, dass sich die derzeitige Art der Interaktion mit KI-Sprachmodellen weiterentwickeln wird. Sie sehen in der Notwendigkeit präziser Prompteingaben ein Hindernis für eine breitere Akzeptanz von KI-Werkzeugen wie ChatGPT.
Es wird erwartet, dass künftige Modelle durch neuronale Netze und maschinelles Lernen intuitiver und autonomer werden, wodurch die Notwendigkeit spezifischer Prompts abnehmen könnte. Die Entwickler streben KI-Systeme an, die auch ohne spezielle Kenntnisse effektiv genutzt werden können. Sie arbeiten an Lösungen, die Eingaben in natürlicher Sprache besser verstehen und darauf reagieren können, ähnlich wie ein Mensch. Darüber hinaus könnten zukünftige Systeme in der Lage sein, die Intention des Nutzers besser zu erkennen und die notwendigen Prompts selbstständig zu generieren.
Außerdem ist zu erwarten, dass im Rahmen der Optimierung von Geschäftsprozessen KI-Modelle tiefer in Anwendungen und Dienste integriert werden, so dass spezifische Prompts durch vorgefertigte Funktionen ersetzt werden.
Das Prompt-Engineering ist ein wertvolles digitales Instrument zur Verbesserung von KI-generierten Inhalten, bringt aber auch Herausforderungen mit sich. Die gezielte und bewusste Formulierung von Prompts für KI-gestützte Systeme hilft Unternehmen, präzisere Ergebnisse der künstlichen Intelligenz zu erhalten, die zu Effizienzsteigerungen, Innovationen und Wettbewerbsvorteilen führen können. Die menschliche Expertise im Prompt-Engineering bleibt unverzichtbar.
Weitere Informationen? – Unser Whitepaper rund um KI
Finden Sie den besten Weg für Ihren Einsatz mit künstlicher Intelligenz.
Erfahren Sie in unserem Whitepaper wie Ihr Unternehmen von KI profitieren kann und welche Lösungen am besten zu Ihren Betriebsprozessen passen.