Mit Künstlicher Intelligenz in die Zukunft

Künstliche Intelligenz hat in jüngster Zeit viel Aufmerksamkeit erregt, da sie die Möglichkeiten eröffnet, manuelle Aufgaben zu automatisieren. Doch welche Vorteile und Potenziale eröffnet KI der Technischen Kommunikation tatsächlich?

ChatGPT und Large Language Models

Ende 2022 veröffentlichte OpenAI den bahnbrechenden Chatbot ChatGPT. Mit seiner Fähigkeit, menschenähnlichen Text zu generieren und komplexe Fragen zu beantworten, weckt dieser Chatbot große Erwartungen in Bezug auf die intelligente Bereitstellung der richtigen Informationen. Die Innovationskraft dieses Technologiefortschritts wirft jedoch auch die Frage auf, ob wir in der technischen Kommunikation bewährte Ansätze und Methoden – von Metadaten über semantische Informationsmodelle bis hin zu Wissensgraphen – über Bord werfen müssen.

ChatGPT setzt auf einem generalized pre-trained transformer auf und gibt in Echtzeit (im positiven Sinne) verblüffende Antworten auf vielfältigste Benutzeraufforderungen (sog. prompts). Ermöglicht wurde dies durch Large Language Models (LLM), die anhand riesiger Datenmengen gelernt haben, Sprache zu verarbeiten und zu analysieren. Dabei werden u. a. Wörter anhand statistischer Berechnungen zueinander in Beziehung gesetzt und als Vektoren (embeddings) repräsentiert. Die errechnete Nähe zweier Wörter korreliert mit semantischer Nähe, ohne dass die Sprachmodelle jedoch über Sprachverständnis bzw. Verständnis der Welt im eigentlichen Sinne verfügen.

Wir weisen Ihnen den Weg durch den Dschungel neuester Technologien!
Nehmen Sie gerne unverbindlich mit uns Kontakt auf.

Anwendungen in der Technischen Kommunikation

Auf Basis eines Sprachmodells allein ist es unseres Erachtens allerdings nicht ratsam, für Kunden präzise und oft auch sicherheits-kritische Technische Informationen wie z. B. Reparaturanweisungen zuverlässig bereitzustellen. Wenn es aber den Hype um diese Technologien gibt, wo sehen wir Einsatzmöglichkeiten und Mehrwerte? Wir haben die folgenden Szenarien für Sie identifiziert und in der Praxis verprobt.


Informationsklassifikation

Eine „klassische“ Aufgabe der Technischen Kommunikation besteht in der Bereitstellung von Informationen (Dokumente und Topics). Leider haben diese, insbesondere wenn es sich um Altdaten handelt, i. d. R. keine bis wenige Metadaten, so dass ein gezieltes Suchen in den Bereitstellungssystemen (z. B. über Facetten) nicht möglich ist. Large Language Models bieten hier eine sehr gute Möglichkeit, Informationsbestände zu analysieren und zu klassifizieren. Richtig mächtig werden die Ergebnisse der Klassifikation, wenn man LLMs um faktisches Domänenwissen z. B. über Wissensgraphen ergänzt und/oder für eine spezielle Aufgabe trainiert (Stichwort: fine tuning mit Ground-Truth-Daten ).

Informationsextraktion

Häufig schlummert Wissen in verschiedenen Dokumenten innerhalb eines Unternehmens. Bei der Extraktion von Wissen aus Dokumenten, wie z. B. technische Merkmale von Produkten, haben sich Large Language Models als sehr nützlich erwiesen. Warum? Weil sie auf Grundlage des prompts, also der Benutzeraufforderung, in der Lage sind, genau die Informationen zu identifizieren und zu extrahieren, die von Belang sind. Die extrahierten Informationen wiederum können z. B. einem Wissensgraphen zugeführt werden. Das Befüllen einer Wissensbasis kann somit automatisiert erfolgen – für sowohl strukturierte als auch unstrukturierte Informationen. Auch hier gilt, dass diese Services besser werden, wenn das implizite Wissen der LLMs durch explizites, strukturiertes Wissen z. B. aus einem Wissensgraphen konkretisiert wird.

Dialoggeführte Suche und Troubleshooting

In verschiedenen Projekten setzen wir Wissensgraphen ein, um verifizierte Informationen aus verschiedenen Informationssilos miteinander in Verbindung zu bringen. Über eine Anwendung stellen wir diese den Anwendern und Anwenderinnen zur Verfügung. An diesem Ansatz werden wir auch in Zukunft festhalten. Denn nur die von den einschlägigen Abteilungen freigegebenen Inhalte sind verlässlich. Gleichzeitig gilt, dass das Auffinden der wirklich benötigten Information nicht immer leicht ist. In LLMs sehen wir großes Potenzial, in Frage-Antwort-Szenarien die Anwender und Anwenderinnen zu der richtigen Information zu leiten, ohne die Antwort selbst zu generieren. Dies ist beispielsweise beim sogenannten Troubleshooting oder für Diagnose-Aktivitäten von großer Relevanz.

Content Erstellung

Noch in den Kinderschuhen steckt dieser Ansatz: Auf Basis bereits bestehender Inhalte, z. B. in einer privaten Instanz, kann ChatGPT neue Inhalte erstellen. Vor dem Hintergrund von Produkthaftung und -sicherheit hört sich dieser Ansatz gewagt an. Aber wie wäre es, wenn ChatGPT in Zukunft Technische Redakteure und Redakteurinnen mit einem Entwurf, sagen wir eines neu zu erstellenden Topics, unterstützt? Die Aufgabe der Technischen Redakteure und Redakteurinnen besteht dann darin, diesen Entwurf auszuarbeiten, zu verifizieren und freizugeben. So wird sichergestellt, dass nur qualitätsgesicherte Inhalte bereitgestellt werden. Die Erstellungszeit der Inhalte kann durch den Einsatz von ChatGPT signifikant verringert werden.

Wir weisen Ihnen den Weg

Wir behalten ob diesen Hypes kühlen Kopf. Wir bringen Klarheit in den Technologie-Dschungel und weisen Ihnen den Weg. Dabei halten wir an Bewährtem fest und ergänzen dort, wo wirklich sinnvoll, um neue Technologien wie LLMs und ChatGPT. Damit Sie in der Lage sind, Ihre Prozesse optimal zu unterstützen und Ihren Kunden die richtigen Informationen bedarfsgerecht bereitstellen zu können.

Unser Vorgehen baut auf verschiedenen Säulen auf. Abhängig davon, wo Sie stehen; abhängig davon, welche Strategie Sie verfolgen. Metadaten, semantische Informationsmodelle und Wissensgraphen sind nicht Schnee von gestern. Sie helfen uns und Ihnen, Informationen intelligent bereit zu stellen. Und sie helfen übrigens auch Sprachmodellen, noch besser zu werden – denn es gilt: je besser der Input, desto besser der Output.

Ihr Ansprechpartner

Prof. Dr. Martin Ley
Partner und Senior Consultant