Über Jahre war die manuelle Bewertung das zentrale Instrument der Qualitätssicherung in Contact Centern. Dann kamen Machine-Learning-Klassifikatoren. Heute versprechen Large Language Models (LLMs) etwas grundsätzlich anderes: die Fähigkeit, Bedeutung zu bewerten – nicht nur Muster.
Doch die eigentliche Frage ist nicht mehr technologischer Natur.
Sie ist eine Managementfrage: Wie steuern wir KI-basierte Bewertung so, dass sie unseren Erwartungen entspricht?
Bei der Gestaltung KI-gestützter Bewertung bewegen sich Organisationen häufig in Richtung eines von zwei Polen.
Dieser Ansatz spiegelt die traditionelle Qualitätssicherung wider:
Er ist vorhersehbar und prüfungssicher. Die Ergebnisse sind stabil und reproduzierbar.
Er hat jedoch Grenzen.
Starre Graph-Systeme bewerten formale Aspekte gut – Begrüßungen, Formulierungen, Compliance-Schritte.
Sie tun sich schwer mit Nuancen, Tonfall und Absicht.
Sie übersehen tendenziell, was nicht ausdrücklich definiert ist.
Und in dynamischen Umgebungen wird die Aktualisierung von Kriterien langsam und organisatorisch aufwendig.
Am anderen Ende steht ein weicherer Ansatz.
Hier bewertet das LLM die Interaktion ganzheitlich:
Dieses Modell kann Dinge erkennen, die regelbasierte Systeme nicht erfassen können – etwa passiven Widerstand, manipulative Rahmung oder subtile Respektlosigkeit.
Es ist flexibel und anpassungsfähig. Und Kriterien können sich schnell weiterentwickeln.
Es bringt jedoch eine andere Herausforderung mit sich: Interpretation muss gesteuert werden.
Ohne Kalibrierung und Aufsicht stützt sich die KI auf ihre internen Prioritäten.
Diese stimmen nicht immer mit Ihrer Servicekultur überein – oder bleiben schlicht undurchsichtig.
Betrachten wir den folgenden vereinfachten Austausch.
Kunde: „Es tut mir leid, ich habe die Anleitung auf Ihrer Website nicht verstanden.“
Agent: „Gute Frage! Die meisten Kunden schaffen es, das herauszufinden. Aber versuchen wir es noch einmal.“
Formal betrachtet hat der Agent:
Eine starre Scorecard könnte dies so bewerten:
Score: hoch.
Semantisch passiert jedoch etwas anderes.
Die Formulierung „die meisten Kunden schaffen es, das herauszufinden“ impliziert mangelnde Kompetenz auf Kundenseite. Sie ist passiv-aggressiv. Die Hilfe wird in einem höflichen und freundlichen Ton angeboten, aber die Bedeutung steht im Gegensatz zur Form.
Ein semantisches Modell – richtig kalibriert – kann dies kennzeichnen als:
Das ist keine offene Aggression.
Es ist ein Reputationsrisiko.
Und es taucht selten in Checklisten auf.
Das Ziel besteht nicht darin, Struktur durch Intuition zu ersetzen.
Ebenso wenig geht es darum, LLMs in starre Compliance-Rahmen zu zwängen.
Das Ziel ist Balance.
Starre Scorecards bieten:
Semantische Bewertung bietet:
Die strategische Herausforderung besteht darin, eine Governance-Schicht zu entwickeln, die semantische Intelligenz bewahrt und zugleich Managementkontrolle sicherstellt.
Mit anderen Worten:
— ML-Systeme erfordern Retraining.
— LLM-Systeme erfordern Verfeinerung.
Qualitätsmanagement in Contact Centern erfordert Balance.
Wirksames KI-gestütztes Qualitätsmanagement im Call Center erfordert keine Hunderte von Beispielen.
Es erfordert jedoch bewusste Kalibrierung:
Dies ermöglicht es Organisationen, die Interpretation zu verfeinern, ohne Modelle neu zu trainieren oder Systeme neu zu gestalten.
Traditionelle Qualitätssicherung dient häufig dem Reporting.
KI-gestützte Qualitätssicherung wird – sofern sie richtig gesteuert wird – zu einem Steuerungsinstrument.
Sie ermöglicht Führungskräften:
Technologien sind wichtig.
Aber Governance ist wichtiger.
Wenn KI-gestützte Qualitätssicherung zum Mainstream wird, liegt der Wettbewerbsvorteil nicht einfach darin, „LLMs zu nutzen“ oder „ML einzusetzen“.
Er liegt darin, zu verstehen, wie semantische Interpretation kalibriert wird – und wie die Balance zwischen Struktur und Bedeutung erhalten bleibt.
In unserem Webinar Webinar | Automatisierte Qualitätssicherung im Kundenservice werden wiruntersuchen:
Denn die Zukunft der Qualitätssicherung liegt nicht allein in der Automatisierung.
Sie liegt in gesteuerter semantischer Intelligenz.