Mit den Fortschritten in der künstlichen Intelligenz eröffnen sich neue Möglichkeiten, die Dokumentationsprozesse in der technischen Redaktion effizienter zu gestalten. Ein entscheidender Faktor bei der Nutzung von KI-Technologie ist das sogenannte Prompt Engineering. Durch gezielte Eingabeaufforderungen (Prompts) können Sprachmodelle dazu gebracht werden, relevante Informationen zu extrahieren, Textzusammenfassungen zu erstellen und verschiedene redaktionelle Aufgaben zu unterstützen. Meine Kollegin Brigitte Großmann schrieb hier im Blog beispielsweise kürzlich über den Einsatz von KI für das Terminologiemanagement.
In meinem Artikel möchte ich einen Einstieg ins Prompt Engineering geben und Ideen anstoßen, wie Technische Redakteurinnen und Redakteure an dieses Thema herangehen können. Auch wenn die Aufgaben in der Praxis häufig komplex sind, nutze ich hier zum besseren Verständnis einfache Beispiele.
Was ist Prompt Engineering?
Prompt Engineering bedeutet, präzise Eingabeaufforderungen für KI-Systeme zu erstellen, um optimale Ergebnisse zu erzielen. Diese Aufgabe erfordert ein tiefes Verständnis für die Funktionsweise von Sprachmodellen und dafür, wie sie auf verschiedene Arten von Eingaben reagieren und wie sie trainiert wurden.
Ein Beispiel für einen schlechten Prompt wäre daher: Improve this text. Dieser Prompt lässt vieles offen und enthält keine präzisen Anforderungen. Somit ist unklar, nach welchen Kriterien der Text verbessert werden und wie das Ergebnis aussehen soll. Die Ausgabe des KI-Systems ist daher möglicherweise unzureichend oder aber der Text wurde so stark verändert, dass er kaum wiederzuerkennen ist.
Dieser Prompt könnte folgendermaßen verbessert werden:
Check that the following text delimited by triple quotes uses the active voice instead of the passive voice. Edit the text and provide feedback. Format the information as a table with the following columns “Draft | Suggested changes | Revised draft | Feedback” ””” [Text] ”””
Dieser Prompt ist besser, weil er nicht nur klare und spezifische Anweisungen enthält (check, edit, provide), sondern auch die Struktur und das Format der Antwort vorgibt (Tabelle mit 4 Spalten). Des Weiteren wird der Input durch Trennzeichen deutlich von der Anweisung abgetrennt.
Was bedeutet das für die technische Redaktion?
Auch in der Welt der Technik-Kommunikation können Sprachmodelle unterstützend tätig sein, denn Prompts können an vielfältige Aufgaben angepasst werden, ohne dass die Modelle vorher neu trainiert werden müssten. Bevor wir jedoch mit dem Prompten loslegen können, müssen wir die Anwendungsfälle und Rahmenbedingungen bestimmen, in denen Sprachmodelle Aufgaben aus der technischen Dokumentation bearbeiten können.
Dafür haben meine Kollegen und ich die verschiedenen Phasen des Dokumentationsprozesses ganz genau unter die Lupe genommen, von der Recherche über die Inhaltserstellung bis hin zur Überprüfung. Zusätzlich haben wir Kolleginnen und Kollegen mit langer Erfahrung in der technischen Redaktion gebeten, uns ihre Aufgaben mit den damit verbundenen Arbeitsschritten ganz genau zu erklären. Jeder Schritt war hierbei sehr wichtig, so trivial dieser auch erscheinen mochte.
Aus Sicht der Fachperson mag das vielleicht zu aufwändig oder unnütz erscheinen. Um einen guten Prompt für solche Aufgaben zu formulieren, müssen wir jedoch genau wissen, welche Handlungsschritte bewusst und auch unbewusst ausgeführt werden und welches Ergebnis am Ende erwartet wird.
Anforderungen an Datenschutz, Sicherheit und Qualität
Ebenfalls sehr wichtig in diesem Kontext sind Datenschutz- und Sicherheitsanforderungen, die beachtet werden müssen. Je nach Dokumentationstyp dürfen die Daten das Firmennetzwerk nicht verlassen und somit auch keinem Cloud-basierten Sprachmodell übergeben werden. Alternativ können lokal ausgeführte Sprachmodelle eingesetzt werden. Diese benötigen jedoch eine starke Hardware, um effizient arbeiten zu können.
Außerdem stellt sich die Frage, wie die Ergebnisse der KI bewertet und evaluiert werden können. Warum ist dieses Ergebnis gut und dieses schlecht? Nach welchen Kriterien bewerten wir die Ergebnisse und worauf achten wir? Um die Qualität der von Sprachmodellen generierten Inhalte zu bewerten, sollten von der technischen Redaktion klare Kriterien festgelegt werden. Dazu gehören Genauigkeit, Relevanz, Verständlichkeit und Konsistenz.
Beispielsweise könnte ein Bewertungsschema erstellt werden, in dem jedes Kriterium auf einer Skala von 1 bis 5 bewertet wird. Zudem sollten die Ergebnisse regelmäßig von menschlichen Experten überprüft werden, um Fehler und Halluzinationen zu identifizieren und zu korrigieren. Da Sprachmodelle zu Halluzinationen neigen, sollte ihr Output auch immer noch von einem Menschen geprüft werden.
Praxisbeispiel für erfolgreiches Prompt Engineering in der technischen Redaktion
Ein Beispiel für die Anwendung von Prompt Engineering in der technischen Redaktion ist die Software-Dokumentation mit KI, die Sie in unserer Projektvorstellung (mit Video) nachlesen können. Bei diesem Projekt haben wir dem Sprachmodell die Rolle eines technischen Redakteurs zugewiesen. Durch die Zuweisung einer Rolle weiß ein Sprachmodell, welche Perspektive es bei der Beantwortung einer Anweisung oder Frage einnehmen soll.
Als nächstes haben wir unsere Aufgabe in Häppchen unterteilt und diese nach und nach, verpackt in einzelnen Prompts, an ein Sprachmodell geschickt. Zum Beispiel haben wir Prompts, die Textentwürfe auf Regeln wie keine Verwendung von Passivkonstruktionen und Modalverben geprüft haben, aufgeteilt:
- Prompt: Passivkonstruktionen sollen durch Aktivkonstruktionen ersetzt werden
- Prompt: Modalverben sollen korrigiert werden
Da Sprachmodelle besser mit positiven Anweisungen umgehen als mit negativen, haben wir im Prompt mitgegeben, was das KI-Sprachmodell stattdessen machen soll, anstatt nur zu sagen, was es nicht tun soll.
Die Verwendung einer klaren Syntax trägt ebenfalls dazu bei, dass die Anweisung im Prompt klar und deutlich kommuniziert wird. Wir haben den Input deshalb von der Anweisung mit zweifachen Anführungszeichen als Trennzeichen abgetrennt. Auch die Struktur und das Format der Ausgabe haben wir vorgegeben, um die Qualität der Ergebnisse zu erhöhen und dem Modell wenig Raum für Interpretationen zu lassen. Wir haben das Modell deshalb dazu aufgefordert, das Ergebnis in einer Tabelle darzustellen.
Ein weiterer Tipp für gutes Prompt-Design ist, Beispiele bereitzustellen, um dem Modell mehr Kontext mitzugeben. Auf diese Weise orientiert sich das Modell bei der Generierung der Ergebnisse an den Beispielen und versucht, diese nachzuahmen.
Ein Prompt, der diese Tipps berücksichtigt, sieht beispielsweise so aus:
Check that the draft below uses the active voice instead of the passive voice. Edit the draft and provide feedback.
[Draft] “The letter was written by Jane.”
[Suggested changes] “Remove passive voice. Change “was written” to “wrote””
[Revised Draft] “Jane wrote the letter.”
[Feedback] “In this active voice sentence, the subject (Jane) is the one performing the action (writing the letter).”
###
[Draft] „Next to task, metrics and models, the model catalogue can be refined by creation date“
[Suggested changes]
[Revised Draft]
[Feedback]
Darauf sieht der Output der KI so aus:
Original Draft
„Next to task, metrics and models, the model catalogue can be refined by creation date“
Suggested changes
“Remove passive voice. Change “can be refined” to “refine””
Revised Draft
„Users can refine the model catalogue by creation date, alongside task, metrics, and models.“
Feedback
“In this active voice sentence, the subject (users) is performing the action (refining the model catalogue). This makes the sentence clearer and more direct.”
Weitere Tipps, Tricks und Strategien zu Prompt Engineering
Unter den folgenden drei Links finden Sie hilfreiche Tipps und Beispiele zum Thema Prompting von Microsoft, OpenAI und der Initiative DAIR.AI.
Azure OpenAI Service: Einführung in das Prompt Engineering (Microsoft)
Prompt engineering (OpenAI API)
General Tips for Designing Prompts | Prompt Engineering Guide (DAIR.AI)
Fazit
Prompt Engineering bietet große Potenziale für die technische Redaktion, indem es die Effizienz und Qualität der Dokumentation verbessert. Durch präzise formulierte Prompts können Sprachmodelle dazu gebracht werden, komplexe Aufgaben zu übernehmen und technische Redakteure zu entlasten. Dabei ist es jedoch wichtig, Datenschutz- und Sicherheitsanforderungen zu beachten und die KI-Ergebnisse regelmäßig zu evaluieren. Mit den richtigen Tools und Methoden kann Prompt Engineering zu einem wertvollen Instrument in der technischen Redaktion werden.
Wenn Sie mehr über Einsatzmöglichkeiten von KI in der Technischen Dokumentation erfahren möchten, schauen Sie doch mal hier: Mein Kollege Peter Hinkelmanns (Data Science) hat in einem FAQ Fragen beantwortet, die ihm im Kontext von KI und Datensicherheit immer wieder gestellt werden. Und Brigitte Großmann hat über unsere Arbeit im Terminologie-Management mit KI geschrieben.