Vor dem Aufbau mit Claude
Entscheiden Sie, ob Sie Claude für Support-Chats einsetzen sollten
Hier sind einige wichtige Indikatoren dafür, dass Sie ein LLM wie Claude einsetzen sollten, um Teile Ihres Kundensupport-Prozesses zu automatisieren:Hohes Volumen an sich wiederholenden Anfragen
Hohes Volumen an sich wiederholenden Anfragen
Claude ist hervorragend darin, eine große Anzahl ähnlicher Fragen effizient zu bearbeiten und entlastet so menschliche Mitarbeiter für komplexere Probleme.
Bedarf an schneller Informationssynthese
Bedarf an schneller Informationssynthese
Claude kann schnell Informationen aus umfangreichen Wissensdatenbanken abrufen, verarbeiten und kombinieren, während menschliche Mitarbeiter Zeit für Recherchen oder die Konsultation mehrerer Quellen benötigen.
Anforderung an 24/7-Verfügbarkeit
Anforderung an 24/7-Verfügbarkeit
Claude kann rund um die Uhr Support bieten, ohne zu ermüden, während die Besetzung mit menschlichen Mitarbeitern für eine kontinuierliche Abdeckung kostspielig und herausfordernd sein kann.
Schnelle Skalierung in Spitzenzeiten
Schnelle Skalierung in Spitzenzeiten
Claude kann plötzliche Anstiege im Anfragevolumen bewältigen, ohne dass zusätzliche Mitarbeiter eingestellt und geschult werden müssen.
Konsistente Markenstimme
Konsistente Markenstimme
Sie können Claude anweisen, konsequent den Ton und die Werte Ihrer Marke zu repräsentieren, während menschliche Mitarbeiter in ihren Kommunikationsstilen variieren können.
- Sie priorisieren natürliche, nuancierte Konversation: Claudes ausgefeiltes Sprachverständnis ermöglicht natürlichere, kontextbewusstere Gespräche, die menschlicher wirken als Chats mit anderen LLMs.
- Sie erhalten oft komplexe und offene Anfragen: Claude kann ein breites Spektrum an Themen und Anfragen bearbeiten, ohne vorgefertigte Antworten zu generieren oder eine umfangreiche Programmierung von Permutationen von Benutzeräußerungen zu erfordern.
- Sie benötigen skalierbare mehrsprachige Unterstützung: Claudes mehrsprachige Fähigkeiten ermöglichen Gespräche in über 200 Sprachen, ohne dass separate Chatbots oder umfangreiche Übersetzungsprozesse für jede unterstützte Sprache erforderlich sind.
Definieren Sie Ihre ideale Chat-Interaktion
Skizzieren Sie eine ideale Kundeninteraktion, um zu definieren, wie und wann der Kunde mit Claude interagieren soll. Diese Skizze wird helfen, die technischen Anforderungen Ihrer Lösung zu bestimmen. Hier ist ein Beispiel für eine Chat-Interaktion im Kfz-Versicherungs-Kundensupport:- Kunde: Startet die Support-Chat-Erfahrung
- Claude: Begrüßt den Kunden herzlich und leitet das Gespräch ein
- Kunde: Fragt nach Versicherung für sein neues Elektroauto
- Claude: Liefert relevante Informationen zur Elektrofahrzeug-Versicherung
- Kunde: Stellt Fragen zu speziellen Bedürfnissen bei Elektrofahrzeug-Versicherungen
- Claude: Antwortet mit genauen und informativen Antworten und stellt Links zu den Quellen bereit
- Kunde: Stellt themenfremde Fragen, die nicht mit Versicherung oder Autos zusammenhängen
- Claude: Stellt klar, dass es keine nicht verwandten Themen diskutiert und lenkt den Benutzer zurück zum Thema Autoversicherung
- Kunde: Zeigt Interesse an einem Versicherungsangebot
- Claude: Stellt eine Reihe von Fragen, um das passende Angebot zu ermitteln, und passt sich an die Antworten an
- Claude: Sendet eine Anfrage zur Nutzung des Angebotsgenerator-API-Tools zusammen mit den notwendigen Informationen, die vom Benutzer gesammelt wurden
- Claude: Erhält die Antwortinformationen aus der API-Tool-Nutzung, synthetisiert die Informationen zu einer natürlichen Antwort und präsentiert dem Benutzer das bereitgestellte Angebot
- Kunde: Stellt Folgefragen
- Claude: Beantwortet Folgefragen nach Bedarf
- Claude: Führt den Kunden zu den nächsten Schritten im Versicherungsprozess und beendet das Gespräch
In dem realen Beispiel, das Sie für Ihren eigenen Anwendungsfall schreiben, könnte es nützlich sein, die tatsächlichen Worte in dieser Interaktion aufzuschreiben, damit Sie auch ein Gefühl für den idealen Ton, die Antwortlänge und den Detaillierungsgrad bekommen, den Claude haben soll.
Unterteilen Sie die Interaktion in einzelne Aufgaben
Der Kundensupport-Chat ist eine Sammlung mehrerer verschiedener Aufgaben, vom Beantworten von Fragen über das Abrufen von Informationen bis hin zum Ausführen von Aktionen auf Anfragen, die in einer einzigen Kundeninteraktion zusammengefasst sind. Bevor Sie mit dem Aufbau beginnen, unterteilen Sie Ihre ideale Kundeninteraktion in jede Aufgabe, die Claude ausführen soll. Dies stellt sicher, dass Sie Claude für jede Aufgabe anweisen und bewerten können und gibt Ihnen einen guten Überblick über die Bandbreite der Interaktionen, die Sie beim Schreiben von Testfällen berücksichtigen müssen.Kunden finden es manchmal hilfreich, dies als Interaktionsflussdiagramm möglicher Gesprächswendepunkte je nach Benutzeranfragen zu visualisieren.
-
Begrüßung und allgemeine Anleitung
- Den Kunden herzlich begrüßen und das Gespräch einleiten
- Allgemeine Informationen über das Unternehmen und die Interaktion bereitstellen
-
Produktinformationen
- Informationen über Elektrofahrzeug-Versicherung bereitstellen
Dies erfordert, dass Claude die notwendigen Informationen in seinem Kontext hat, und könnte bedeuten, dass eine RAG-Integration notwendig ist.
- Fragen zu speziellen Bedürfnissen bei Elektrofahrzeug-Versicherungen beantworten
- Folgefragen zum Angebot oder zu Versicherungsdetails beantworten
- Bei Bedarf Links zu Quellen anbieten
- Informationen über Elektrofahrzeug-Versicherung bereitstellen
-
Gesprächsmanagement
- Beim Thema bleiben (Autoversicherung)
- Themenfremde Fragen zurück zu relevanten Themen lenken
-
Angebotserstellung
- Geeignete Fragen stellen, um die Angebotsberechtigung zu ermitteln
- Fragen basierend auf Kundenantworten anpassen
- Gesammelte Informationen an die Angebotsgenerator-API übermitteln
- Das bereitgestellte Angebot dem Kunden präsentieren
Erfolgskriterien festlegen
Arbeiten Sie mit Ihrem Support-Team zusammen, um klare Erfolgskriterien zu definieren und detaillierte Bewertungen mit messbaren Benchmarks und Zielen zu erstellen. Hier sind Kriterien und Benchmarks, die verwendet werden können, um zu bewerten, wie erfolgreich Claude die definierten Aufgaben ausführt:Genauigkeit des Abfrageverständnisses
Genauigkeit des Abfrageverständnisses
Diese Metrik bewertet, wie genau Claude Kundenanfragen zu verschiedenen Themen versteht. Messen Sie dies, indem Sie eine Stichprobe von Gesprächen überprüfen und beurteilen, ob Claude die richtige Interpretation der Kundenabsicht, kritische nächste Schritte, wie eine erfolgreiche Lösung aussieht und mehr hat. Streben Sie eine Verständnisgenauigkeit von 95% oder höher an.
Relevanz der Antwort
Relevanz der Antwort
Dies bewertet, wie gut Claudes Antwort auf die spezifische Frage oder das Problem des Kunden eingeht. Bewerten Sie eine Reihe von Gesprächen und bewerten Sie die Relevanz jeder Antwort (mit LLM-basierter Bewertung für die Skalierung). Streben Sie eine Relevanzbewertung von 90% oder höher an.
Antwortgenauigkeit
Antwortgenauigkeit
Bewerten Sie die Korrektheit der allgemeinen Unternehmens- und Produktinformationen, die dem Benutzer bereitgestellt werden, basierend auf den Informationen, die Claude im Kontext zur Verfügung gestellt wurden. Streben Sie 100% Genauigkeit bei diesen einführenden Informationen an.
Relevanz der Quellenangabe
Relevanz der Quellenangabe
Verfolgen Sie die Häufigkeit und Relevanz der angebotenen Links oder Quellen. Streben Sie an, in 80% der Interaktionen, bei denen zusätzliche Informationen nützlich sein könnten, relevante Quellen bereitzustellen.
Themeneinhaltung
Themeneinhaltung
Messen Sie, wie gut Claude beim Thema bleibt, wie zum Beispiel dem Thema Autoversicherung in unserem Beispiel. Streben Sie an, dass 95% der Antworten direkt mit Autoversicherung oder der spezifischen Anfrage des Kunden zusammenhängen.
Effektivität der Inhaltsgenerierung
Effektivität der Inhaltsgenerierung
Messen Sie, wie erfolgreich Claude darin ist, zu bestimmen, wann informative Inhalte generiert werden sollen und wie relevant diese Inhalte sind. In unserer Implementierung würden wir beispielsweise bestimmen, wie gut Claude versteht, wann ein Angebot generiert werden soll und wie genau dieses Angebot ist. Streben Sie 100% Genauigkeit an, da dies wichtige Informationen für eine erfolgreiche Kundeninteraktion sind.
Eskalationseffizienz
Eskalationseffizienz
Dies misst Claudes Fähigkeit zu erkennen, wann eine Anfrage menschliches Eingreifen erfordert, und entsprechend zu eskalieren. Verfolgen Sie den Prozentsatz korrekt eskalierter Gespräche im Vergleich zu denen, die hätten eskaliert werden sollen, aber nicht wurden. Streben Sie eine Eskalationsgenauigkeit von 95% oder höher an.
Stimmungserhaltung
Stimmungserhaltung
Dies bewertet Claudes Fähigkeit, die Kundenstimmung während des gesamten Gesprächs zu erhalten oder zu verbessern. Verwenden Sie Stimmungsanalysetools, um die Stimmung am Anfang und Ende jedes Gesprächs zu messen. Streben Sie eine Beibehaltung oder Verbesserung der Stimmung in 90% der Interaktionen an.
Deflektionsrate
Deflektionsrate
Der Prozentsatz der Kundenanfragen, die erfolgreich vom Chatbot ohne menschliches Eingreifen bearbeitet werden. Typischerweise wird eine Deflektionsrate von 70-80% angestrebt, abhängig von der Komplexität der Anfragen.
Kundenzufriedenheitswert
Kundenzufriedenheitswert
Ein Maß dafür, wie zufrieden Kunden mit ihrer Chatbot-Interaktion sind. Wird in der Regel durch Umfragen nach der Interaktion ermittelt. Streben Sie einen CSAT-Wert von 4 von 5 oder höher an.
Durchschnittliche Bearbeitungszeit
Durchschnittliche Bearbeitungszeit
Die durchschnittliche Zeit, die der Chatbot benötigt, um eine Anfrage zu lösen. Dies variiert stark je nach Komplexität der Probleme, aber im Allgemeinen wird eine niedrigere AHT im Vergleich zu menschlichen Mitarbeitern angestrebt.
Wie man Claude als Kundendienstmitarbeiter implementiert
Wählen Sie das richtige Claude-Modell
Die Wahl des Modells hängt von den Kompromissen zwischen Kosten, Genauigkeit und Antwortzeit ab. Für Kundensupport-Chats istclaude-opus-4-20250514
gut geeignet, um Intelligenz, Latenz und Kosten auszubalancieren. Für Fälle, in denen Sie einen Gesprächsablauf mit mehreren Prompts haben, einschließlich RAG, Tool-Nutzung und/oder Prompts mit langem Kontext, kann claude-3-haiku-20240307
besser geeignet sein, um die Latenz zu optimieren.
Erstellen Sie einen starken Prompt
Die Verwendung von Claude für den Kundensupport erfordert, dass Claude genügend Anweisungen und Kontext hat, um angemessen zu antworten, während er genügend Flexibilität hat, um eine breite Palette von Kundenanfragen zu bearbeiten. Beginnen wir mit dem Schreiben der Elemente eines starken Prompts, beginnend mit einem System-Prompt:Während Sie versucht sein könnten, alle Ihre Informationen in einen System-Prompt zu packen, um Anweisungen von der Benutzerkonversation zu trennen, funktioniert Claude tatsächlich am besten, wenn der Großteil des Prompt-Inhalts im ersten
User
-Turn geschrieben wird (mit der einzigen Ausnahme des Rollen-Promptings). Lesen Sie mehr unter Claude eine Rolle mit einem System-Prompt geben.config.py
ablegen.
Fügen Sie dynamische und agentische Fähigkeiten mit Tool-Nutzung hinzu
Claude ist in der Lage, Aktionen auszuführen und Informationen dynamisch abzurufen, indem er die clientseitige Tool-Nutzungsfunktionalität verwendet. Beginnen Sie mit der Auflistung aller externen Tools oder APIs, die der Prompt nutzen sollte. Für dieses Beispiel beginnen wir mit einem Tool zur Berechnung des Angebots.Zur Erinnerung: Dieses Tool wird nicht die tatsächliche Berechnung durchführen, sondern nur der Anwendung signalisieren, dass ein Tool mit den angegebenen Argumenten verwendet werden sollte.
Stellen Sie Ihre Prompts bereit
Es ist schwer zu wissen, wie gut Ihr Prompt funktioniert, ohne ihn in einer Test-Produktionsumgebung bereitzustellen und Bewertungen durchzuführen. Lassen Sie uns also eine kleine Anwendung mit unserem Prompt, dem Anthropic SDK und Streamlit für eine Benutzeroberfläche erstellen. In einer Datei namenschatbot.py
beginnen wir mit der Einrichtung der ChatBot-Klasse, die die Interaktionen mit dem Anthropic SDK kapselt.
Die Klasse sollte zwei Hauptmethoden haben: generate_message
und process_user_input
.
Bauen Sie Ihre Benutzeroberfläche
Testen Sie die Bereitstellung dieses Codes mit Streamlit unter Verwendung einer Hauptmethode. Diesemain()
-Funktion richtet eine Streamlit-basierte Chat-Schnittstelle ein.
Wir werden dies in einer Datei namens app.py
tun
Bewerten Sie Ihre Prompts
Prompting erfordert oft Tests und Optimierung, um produktionsreif zu sein. Um die Einsatzbereitschaft Ihrer Lösung zu bestimmen, bewerten Sie die Chatbot-Leistung mit einem systematischen Prozess, der quantitative und qualitative Methoden kombiniert. Die Erstellung einer starken empirischen Bewertung basierend auf Ihren definierten Erfolgskriterien ermöglicht es Ihnen, Ihre Prompts zu optimieren.Die Anthropic Console verfügt jetzt über ein Bewertungstool, mit dem Sie Ihre Prompts unter verschiedenen Szenarien testen können.
Verbessern Sie die Leistung
In komplexen Szenarien kann es hilfreich sein, zusätzliche Strategien zur Leistungsverbesserung über Standard-Prompt-Engineering-Techniken und Leitplanken-Implementierungsstrategien hinaus zu berücksichtigen. Hier sind einige häufige Szenarien:Reduzieren Sie die Latenz bei langem Kontext mit RAG
Bei der Verarbeitung großer Mengen statischer und dynamischer Kontexte kann das Einbeziehen aller Informationen im Prompt zu hohen Kosten, langsameren Antwortzeiten und dem Erreichen von Kontextfensterlimits führen. In diesem Szenario kann die Implementierung von Retrieval Augmented Generation (RAG)-Techniken die Leistung und Effizienz erheblich verbessern. Durch die Verwendung von Embedding-Modellen wie Voyage, um Informationen in Vektordarstellungen umzuwandeln, können Sie ein skalierbares und reaktionsschnelleres System erstellen. Dieser Ansatz ermöglicht den dynamischen Abruf relevanter Informationen basierend auf der aktuellen Anfrage, anstatt alle möglichen Kontexte in jeden Prompt einzubeziehen. Die Implementierung von RAG für Support-Anwendungsfälle RAG-Rezept hat nachweislich die Genauigkeit erhöht, die Antwortzeiten verkürzt und die API-Kosten in Systemen mit umfangreichen Kontextanforderungen reduziert.Integrieren Sie Echtzeitdaten mit Tool-Nutzung
Bei der Bearbeitung von Anfragen, die Echtzeitinformationen erfordern, wie Kontostand oder Policendetails, sind embedding-basierte RAG-Ansätze nicht ausreichend. Stattdessen können Sie die Tool-Nutzung nutzen, um die Fähigkeit Ihres Chatbots, genaue Echtzeitantworten zu geben, erheblich zu verbessern. Sie können beispielsweise die Tool-Nutzung verwenden, um Kundeninformationen nachzuschlagen, Bestelldetails abzurufen und Bestellungen im Namen des Kunden zu stornieren. Dieser Ansatz, beschrieben in unserem Tool-Nutzungs-Rezept für Kundendienstmitarbeiter, ermöglicht es Ihnen, Live-Daten nahtlos in die Antworten Ihres Claude zu integrieren und ein personalisierteres und effizienteres Kundenerlebnis zu bieten.Stärken Sie Eingabe- und Ausgabe-Leitplanken
Bei der Bereitstellung eines Chatbots, insbesondere in Kundendienstszenarien, ist es entscheidend, Risiken im Zusammenhang mit Missbrauch, Anfragen außerhalb des Geltungsbereichs und unangemessenen Antworten zu verhindern. Während Claude von Natur aus widerstandsfähig gegen solche Szenarien ist, hier sind zusätzliche Schritte zur Stärkung Ihrer Chatbot-Leitplanken:- Reduzieren Sie Halluzinationen: Implementieren Sie Faktenprüfungsmechanismen und Zitationen, um Antworten auf bereitgestellte Informationen zu stützen.
- Überprüfen Sie Informationen: Stellen Sie sicher, dass die Antworten des Agenten mit den Richtlinien Ihres Unternehmens und bekannten Fakten übereinstimmen.
- Vermeiden Sie vertragliche Verpflichtungen: Stellen Sie sicher, dass der Agent keine Versprechungen macht oder Vereinbarungen eingeht, zu denen er nicht autorisiert ist.
- Mildern Sie Jailbreaks: Verwenden Sie Methoden wie Harmlosigkeitsfilter und Eingabevalidierung, um zu verhindern, dass Benutzer Modellschwachstellen ausnutzen, mit dem Ziel, unangemessene Inhalte zu generieren.
- Vermeiden Sie die Erwähnung von Wettbewerbern: Implementieren Sie einen Wettbewerbererwähnungsfilter, um den Markenfokus zu erhalten und keine Produkte oder Dienstleistungen von Wettbewerbern zu erwähnen.
- Halten Sie Claude in seiner Rolle: Verhindern Sie, dass Claude seinen Stil oder Kontext ändert, auch während langer, komplexer Interaktionen.
- Entfernen Sie personenbezogene Daten (PII): Sofern nicht ausdrücklich erforderlich und autorisiert, entfernen Sie alle PII aus den Antworten.
Reduzieren Sie die wahrgenommene Antwortzeit mit Streaming
Bei potenziell langen Antworten kann die Implementierung von Streaming das Benutzerengagement und die Zufriedenheit erheblich verbessern. In diesem Szenario erhalten Benutzer die Antwort schrittweise, anstatt auf die Generierung der gesamten Antwort zu warten. So implementieren Sie Streaming:- Verwenden Sie die Anthropic Streaming API, um Streaming-Antworten zu unterstützen.
- Richten Sie Ihr Frontend ein, um eingehende Textblöcke zu verarbeiten.
- Zeigen Sie jeden Block an, sobald er eintrifft, und simulieren Sie so Echtzeit-Tippen.
- Implementieren Sie einen Mechanismus zum Speichern der vollständigen Antwort, damit Benutzer sie ansehen können, wenn sie wegnavigieren und zurückkehren.
Skalieren Sie Ihren Chatbot
Mit zunehmender Komplexität Ihres Chatbots kann sich Ihre Anwendungsarchitektur entsprechend weiterentwickeln. Bevor Sie weitere Schichten zu Ihrer Architektur hinzufügen, erwägen Sie die folgenden weniger umfassenden Optionen:- Stellen Sie sicher, dass Sie das Beste aus Ihren Prompts herausholen und durch Prompt-Engineering optimieren. Verwenden Sie unsere Prompt-Engineering-Leitfäden, um die effektivsten Prompts zu schreiben.
- Fügen Sie dem Prompt zusätzliche Tools hinzu (die Prompt-Ketten enthalten können) und prüfen Sie, ob Sie die erforderliche Funktionalität erreichen können.
Integrieren Sie Claude in Ihren Support-Workflow
Während sich unsere Beispiele auf Python-Funktionen konzentriert haben, die in einer Streamlit-Umgebung aufgerufen werden können, erfordert die Bereitstellung von Claude für Echtzeit-Support-Chatbots einen API-Dienst. So können Sie vorgehen:-
Erstellen Sie einen API-Wrapper: Entwickeln Sie einen einfachen API-Wrapper um Ihre Klassifizierungsfunktion. Sie können beispielsweise Flask API oder Fast API verwenden, um Ihren Code in einen HTTP-Dienst zu verpacken. Ihr HTTP-Dienst könnte die Benutzereingabe akzeptieren und die Assistentenantwort vollständig zurückgeben. Ihr Dienst könnte also die folgenden Eigenschaften haben:
- Server-Sent Events (SSE): SSE ermöglicht das Echtzeit-Streaming von Antworten vom Server zum Client. Dies ist entscheidend für ein reibungsloses, interaktives Erlebnis bei der Arbeit mit LLMs.
- Caching: Die Implementierung von Caching kann die Antwortzeiten erheblich verbessern und unnötige API-Aufrufe reduzieren.
- Kontextbeibehaltung: Die Aufrechterhaltung des Kontexts, wenn ein Benutzer wegnavigiert und zurückkehrt, ist wichtig für die Kontinuität in Gesprächen.
- Bauen Sie eine Webschnittstelle: Implementieren Sie eine benutzerfreundliche Web-UI für die Interaktion mit dem Claude-gestützten Agenten.