Skip to main content

ChatGPT hat in den letzten Monaten die Aufmerksamkeit der Öffentlichkeit auf sich gezogen und wird seit seiner Einführung heiß diskutiert. Die Begeisterung für die neue Technologie ist enorm, wie eine Studie von Statista zeigt: Innerhalb von nur fünf Tagen überschritt die Zahl der Nutzer die Marke von einer Million.

Die Einsatzmöglichkeiten des KI-Tools sind vielfältig und reichen von der Zusammenfassung von Inhalten über die Generierung von Ideen bis hin zum Verfassen ganzer Aufsätze. Angesichts dieser enormen Möglichkeiten sprechen viele bereits zurecht von einem Momentum in der digitalen Welt und der Kundenkommunikation.

GPT ohne Stolpern nutzen

Große Sprachmodelle wie GPT (Generative Pre-trained Transformer) und Bard haben bereits die Art und Weise verändert, wie Menschen nach Informationen suchen. Diese Entwicklung weckt auch für Unternehmen vielversprechende Potenziale. So können die relevanten Informationen eines Unternehmens mithilfe großer Sprachmodelle mit wenig Aufwand zugänglich gemacht und die Kommunikation mit Chatbots oder über die Website-Suche erleichtert werden. Unternehmen tun daher gut daran, sich mit den Möglichkeiten zu beschäftigen und Maßnahmen zu ergreifen und ihr Wissen für Mitarbeitende und Kunden so aufzubereiten, dass es von KI-basierten Sprachmodelle gelesen werden kann. Die Herausforderungen: KI-basierte Sprachmodelle „halluzinieren“ häufig noch – teils bis zu 20 Prozent und liefern so falsche Informationen. Ein Risiko, das es zu verhindern gilt, um nicht an Vertrauen zu verlieren. Darüber hinaus gilt es weitere Einschränkungen zu berücksichtigen, wenn Sprachmodelle sinnvoll für das Wissensmanagement im Unternehmen eingesetzt werden sollen:

  • Sie haben keinen gesunden Menschenverstand (obwohl sie ihn gut vortäuschen).
  • Sie verstehen abstrakte Konzepte nicht.
  • Sie können aus unvollständigen Informationen keine Schlüsse ziehen.
  • Sie „lügen“ oder „halluzinieren“ häufig auf der Grundlage ihres Wahrscheinlichkeitsprozesses.

Die klare Antwort auf die Frage „Kann ich ChatGPT nicht einfach auf meiner Website einbinden?“ Lautet daher: Nein! LLMs (Large Language Modelle) „verstehen“ natürliche Sprache nicht und speichern oder erstellen auch keine strukturierte Datenbank. Stattdessen erstellen sie eine statistische Darstellung der Sprachmuster aus den Trainingsdaten. Sie sind nicht in der Lage, die für den Einsatz von KI erforderlichen Compliance- und Authentifizierungsworkflows zu verfassen. Zudem werden LLMs ohne eine definierte, von Menschen verwaltete Datenquelle nicht in der Lage sein, die „richtige“ Antwort zu verstehen, und können daher bewährte Datenquelle wie den Knowledge Graph nicht ersetzen.

Ich betrachte LLMs als Infrastruktur zur Organisation von Unternehmenswissen. Die Sprachmodelle benötigen Daten, d.h. die Gesamtheit aller Unternehmensinformationen, die zum Training der Modelle verwendet werden. Diese Daten werden in die Applikationsschicht eingespeist, die aus verschiedenen Sprachmodellen wie GPT3.5, LaMDA, PaLM, BLOOM, Gopher, Jurassic-1 und BERT besteht und die Ergebnisse ausgibt – je nach Anwendungsfall und Kanal in Form von Suchergebnissen, dem Verfassen und Zusammenfassen von Website-Texten oder der Beantwortung von Kundenanfragen. Abgerundet wird der Prozess durch Feedbackschleifen, die wieder in die KI-Systeme eingespeist werden.

Drei Schritte zum wirkungsvollen Einsatz großer Sprachmodelle

1. Datensammlung und -organisation – die Basis für Wissensmanagement

Für ein effektives Wissensmanagement ist es unerlässlich, alle strukturierten, semistrukturierten und unstrukturierten Daten des Unternehmens zu sammeln, zu organisieren und zu speichern. Interne Dokumente, Handbücher, FAQs, Kundensupport-Tickets und technische Spezifikationen sind nur einige Beispiele. Basis ist die Erstellung eines Knowledge Graphs, einer zentralen Datenquelle. Diese solide Datenbasis ist unerlässlich, denn Sprachmodelle sind nur so gut wie die Daten, auf denen sie basieren. Ein Knowledge Graph dient als Datenspeicher, der für künstliche Intelligenz entwickelt wurde. Das Wirkungsvolle: Alle Inhalte sind auf der Grundlage von Beziehungen zwischen realen Entitäten organisiert, wodurch die Informationen für die Sprachsuche, Chatbots und andere anspruchsvolle KI-Anwendungen optimiert werden können. Die künstliche Intelligenz kann dadurch Zusammenhänge, Schlussfolgerungen und Erkenntnisse extrahieren, die sonst nicht zugänglich wären. Die in einem Knowledge Graph gespeicherten Inhalte können so beispielsweise zur Beantwortung komplexer Fragen wie „Welche Nike-Laufschuhe in Größe 10 werden am Standort Berlin verkauft?“ genutzt werden.

2. Großer Sprachmodell-Layer – maßgeschneiderte Inhalte für Kunden und Belegschaft

In diesem Prozessschritt spielt der große Sprachmodell-Layer eine zentrale Rolle. Es überwacht die Customer Journey und berücksichtigt unterschiedliche Personas und Zielgruppen. Durch das Training mit unternehmensweitem Wissen kann das Modell personalisierte Antworten und Inhalte generieren. Dies ermöglicht, dass Kunden und Mitarbeitende Fragen in natürlicher Sprache stellen können und relevante und passgenaue Antworten erhalten. Entscheidend ist, dass das Modell ständig verbessert und mit neuen Informationen aktualisiert wird, um die Qualität der Antworten kontinuierlich zu steigern.

3. Multi-Channel Experience Layer – Inhalte über verschiedene Kanäle anbieten

Im letzten Schritt werden die fachlichen Inhalte für die verschiedenen Kanäle und Zielgruppen aufbereitet. Diese Multi-Channel-Experience Layer ermöglicht es, die generierten Inhalte sowohl für interne als auch externe Kanäle zu optimieren. Kunden können über verschiedene Kanäle wie Websites, Chatbots, Sprachassistenten oder E-Mails auf das Wissen zugreifen. Eine konsistente und nahtlose Erfahrung über alle Kanäle hinweg wird ermöglicht.

Um KI-basierte Sprachmodelle erfolgreich in das Wissensmanagement von Unternehmen zu integrieren, sind einige technische Voraussetzungen zu beachten:

  • Datenqualität: Eine hohe Datenqualität ist elementar. Die Daten müssen perfekt strukturiert, aktuell und sauber sein, um genaue und relevante Antworten zu liefern.
  • Skalierbarkeit: Sprachmodelle benötigen viel Rechenleistung und Speicherplatz. Unternehmen müssen berücksichtigen, dass sie über die notwendige Infrastruktur verfügen, um große Sprachmodelle effizient zu trainieren und bereitzustellen.
  • Datenschutz und Sicherheit: Der Schutz von Unternehmens- und Kundendaten hat höchste Priorität. Um die Vertraulichkeit und Integrität der Daten zu gewährleisten, müssen entsprechende Sicherheitsvorkehrungen getroffen werden.
  • Kontinuierliches Training und Aktualisierung: Regelmäßiges Training und Aktualisierung der Sprachmodelle ist notwendig, um auf dem neuesten Stand zu bleiben und die Qualität der Antworten zu verbessern.

KI im Wissensmanagement

Die Integration von KI-basierten Sprachmodellen erleichtert die interne Kommunikation und den Wissensaustausch in Unternehmen erheblich. Mitarbeiterinnen und Mitarbeiter können auf natürliche Weise Fragen stellen und relevante Informationen finden, ohne langwierig recherchieren zu müssen. Dies führt zu einer deutlichen Effizienz- und Produktivitätssteigerung im Arbeitsalltag.

KI im Support

KI-basierte Sprachmodelle im Kundensupport ermöglichen es Kunden, ihre Probleme selbst zu lösen. Sie können Fragen in natürlicher Sprache stellen und erhalten präzise und verifizierte Antworten, was den Kundensupport entlastet und die Reaktionszeiten verkürzt. Dies führt zu einer höheren Kundenbindung und -zufriedenheit.

Fazit

Die Integration von GPT und anderen großen Sprachmodellen in Websites haben großes Potenzial. Unternehmen können ihr gesamtes Wissen zugänglich machen und personalisierte Inhalte für Kunden und Mitarbeitende bereitstellen und gleichzeitig die Kontrolle über ausgespielte Inhalte behalten. Kontinuierliches Training und Datenorganisation sowie eine skalierbare Infrastruktur minimieren die Risiken, wie die Verbreitung von Fehlinformationen. KI im Wissensmanagement und Kundensupport eröffnet Unternehmen neue Möglichkeiten, ihre Effizienz zu steigern und die Kundenzufriedenheit zu erhöhen.

Björn Lorenzen

Björn Lorenzen ist seit Ende 2020 Regional Vice President EMEA Central bei Yext, dem Answers-Unternehmen und verantwortet in dieser Position unter anderem das strategische Neugeschäft des Unternehmens. Zuvor war der gelernte Informatikkaufmann sieben Jahre bei Facelift, einem Social-Media-Management-Anbieter, beschäftigt – zuletzt als Head of Enterprise Sales. Zu seinen weiteren Stationen gehören Actito und die Mail Select AG.

Der Artikel hat dir gefallen? Gib uns einen Kaffee aus!

Leave a Reply