Skip to main content
search

Ein erstklassiger Kundendienst ist in vielen Branchen entscheidend für die Kundenbindung und den Erfolg im Aftersales-Geschäft; das gilt auch für den Maschinenbau. Die Integration von KI-Funktionalitäten wird zunehmend wichtig für Unternehmen, die im Markt wettbewerbsfähig bleiben wollen. Sie ermöglichen eine effiziente Gestaltung des Kundenservices sowohl im Bereich Self-Service wie auch in der internen Bearbeitung.

Doch die Nutzung von KI birgt auch Herausforderungen, da ungenaue Antworten zu Vertrauensverlust der Anwender und sogar physischen Schäden führen können. Dieser Artikel zeigt eine Vorgehensweise für Service- und Softwarespezialisten, um gemeinsam vertrauenswürdige KI-Systeme zu entwickeln. Ziel ist eine hohe Servicequalität mit echtem Mehrwert für Servicenehmer und Servicegeber gleichermaßen Es geht um den Einsatz KI-basierter Chatsysteme, wie sie mit ChatGPT & Co. bekannt geworden sind. Wir nennen sie auch „virtuelle Servicetechniker“ und binden sie in vorhandene Service-Apps oder -Portale ein. Dabei haben wir es mit zwei wichtigen grundlegenden KI-Technologien zu tun:

  • Large Language Models (LLMs) sind KI-Modelle, die mit großen Mengen an Text trainiert werden, um menschenähnliche Antworten zu generieren. Sie können Fragen beantworten, Informationen bereitstellen und Konversationen führen, was sie zu wertvollen Werkzeugen für den Kundenservice im Maschinenbau macht.
  • Retrieval-Augmented Generation (RAG) ergänzt LLMs, indem es relevante Informationen aus externen Datenbanken oder Dokumenten abruft, bevor eine Antwort formuliert wird. Dies ermöglicht präzisere und kontextbezogene Antworten, die auf spezifische Kundenanforderungen zugeschnitten sind.

Die Kombination aus LLMs und RAG ist entscheidend für den erfolgreichen Einsatz von KI im Maschinenbau, da sie sicherstellt, dass die bereitgestellten Informationen sowohl aktuell als auch relevant sind.

Herausforderungen meistern

In Versuchsreihen mit realen Ausgangsdaten (zumeist Betriebs- und Wartungshandbüchern) sowie Kundenanfragen konnten wir gemeinsam mit erfahrenen Servicemitarbeitern zeigen, dass ein aktuelles LLM+RAGSystem ohne weitere Optimierungsmaßnahmen aus dem Stand eine Erfolgsquote von etwa 78 % erreicht. Dies bedeutet, dass die bereitgestellten Antworten im Praxiseinsatz oft bereits gut genug wären. Doch um den KI-Assistenten produktiv einzusetzen, muss die Qualität auf ein individuell zu bestimmendes, akzeptables Niveau von 90% oder mehr angehoben werden – eine anspruchsvolle Aufgabe, die systematisch angegangen werden muss. Die Herausforderungen dabei sind vielschichtig. Neben speziellen Test-Werkzeugen ist ein Pool mit lebensnahen Testfällen unerlässlich, um reale Szenarien zu simulieren und die Leistung der KI zu bewerten. Eine differenzierte Bewertung der Antworten ist notwendig, da die Qualität und Relevanz der generierten Texte gemessen werden müssen. Dabei sollte auch das variierende Antwortverhalten der KI berücksichtigt werden.

Vorgehensweise bei der Optimierung

Um die Vertrauenswürdigkeit der KI-Antworten innerhalb eines präzisen umrissenen Fachbereiches zu verbessern, haben wir mehrere Projekte mit Pilotkunden und Partnerunternehmen durchgeführt. Es wurde schnell deutlich, dass eine strukturierte und systematische Vorgehensweise wiederkehrend die folgenden Schritte umfassen muss:

Wissens-Input auswählen und optimieren:

  • Zugang zu relevanten Servicefällen digitalisieren.
  • Dokumentstrukturen und Datenformate festlegen.

Optimierung der Datenstruktur:

  • Klare Zuordnungen, eindeutige Sprache und Label verwenden.
  • Glossare aufbauen, um individuelle Fachsprache, Abkürzungen und „Slang“ zu dokumentieren.

Retriever und Indexoptimierung:

  • Retriever optimieren und den Index mit Techniken wie NLP (Natural Language Processing), OCR (Optical Character Recognition) und eigenen ML-Modellen aufbauen.
  • Gewichtungen und Strukturen regelmäßig aktualisieren, um die Informationsbasis zu erweitern.

Anpassung der LLM-Parameter:

  • Einstellungen wie Temperatur, Tokenanzahl und Sampling anpassen, um die Generierungsqualität der Antworten zu verbessern.

Prompt Engineering und Interaktionsanalysen:

  • Prompt Engineering im Code verfeinern und detaillierte Anweisungen zur Sprache sowie Rückfrageverhalten geben.
  • Interaktionsmuster zwischen Nutzer und Modell analysieren und optimieren, um Frequenz und Qualität der Interaktionen zu steigern.

Situative Kontextnutzung:

  • Wissen aus dem Nutzerkontext verwenden, wie zum Beispiel die Rolle des Nutzers, Maschine in seinem Arbeitsbereich, aktuelle Betriebs- und Vertragsdaten.

Die genannten Schritte sind bereits allgemeingültig und können als Vorlage für alle Interessierten dienen, die eigene LLM/RAG-Projekte umsetzen möchten. Wichtig ist, dass sie in eine iterative Projektvorgehensweise eingebettet sind und somit ein schrittweises Heranarbeiten an die notwendige Antwortqualität erlauben. So lassen sich wesentliche Anforderungen an ein Einführungsprojekt wie z.B. eine verlässliche zeitliche Planung, Risikomanagement sowie regelmäßiges Controlling der Fortschritte sicherstellen. Die Implementierung lässt sich dann effektiv und nachvollziehbar durchführen, während potenzielle Herausforderungen frühzeitig identifiziert und adressiert werden können. Die Integration von KI-gestützten Lösungen in Unternehmen bietet erhebliche Chancen zur Steigerung der Effizienz und Verbesserung der Kundeninteraktion. Durch den effektiven Einsatz von Technologien wie LLMs und RAG können Unternehmen wertvolle Informationen bereitstellen und die Qualität ihrer Dienstleistung erheblich erhöhen. Jedoch ist es wichtig, die Herausforderungen, die mit der Einführung solcher Systeme verbunden sind, systematisch zu adressieren. Die hier gezeigte, inzwischen bewährte Vorgehensweise bietet einen wertvollen Leitfaden für Organisationen, die ähnliche Projekte umsetzen möchten. Indem Unternehmen flexibel bleiben und sich kontinuierlich an neue Technologien und Anforderungen anpassen, können sie nicht nur den aktuellen Bedürfnissen gerecht werden, sondern auch zukunftsorientierte Lösungen entwickeln. Dies ist unerlässlich, um im Wettbewerb erfolgreich zu bleiben und einen nachhaltigen Mehrwert für ihre Kunden zu schaffen.

Zum Autor

Alexander Niemann Geschäftsführer bei der Smartsquare GmbH Smartsquare entwickelt Software-Plattformen, Web-Anwendungen und Apps für Maschinenbau-Unternehmen und andere, die Premium-Kundendienst liefern, ihr Aftersales-Geschäft ankurbeln und datenbasierte Dienstleistungen anbieten möchten. Dazu gehört auch die Integration von KI-Funktionalitäten, um in diesem Bereich noch mehr Business-Value zu liefern.

Der Beitrag ist auch in unserer aktuellen digitalen Sonderausgabe der ServiceToday erschienen, welche kostenfrei verfügbar ist.

Zur digitalen Sonderausgabe ServiceToday 2025
Close Menu