Kontextfenster
Das “Kontextfenster” bezieht sich auf die Textmenge, auf die ein Sprachmodell zurückblicken und sich beziehen kann, wenn es neuen Text generiert. Dies unterscheidet sich von dem großen Datenkorpus, mit dem das Sprachmodell trainiert wurde, und stellt stattdessen ein “Arbeitsgedächtnis” für das Modell dar. Ein größeres Kontextfenster ermöglicht es dem Modell, komplexere und längere Prompts zu verstehen und darauf zu reagieren, während ein kleineres Kontextfenster die Fähigkeit des Modells einschränken kann, längere Prompts zu verarbeiten oder Kohärenz über längere Gespräche hinweg aufrechtzuerhalten. Weitere Informationen finden Sie in unserem Leitfaden zum Verständnis von Kontextfenstern.Fine-Tuning
Fine-Tuning ist der Prozess, bei dem ein vortrainiertes Sprachmodell mit zusätzlichen Daten weiter trainiert wird. Dies führt dazu, dass das Modell beginnt, die Muster und Eigenschaften des Fine-Tuning-Datensatzes darzustellen und nachzuahmen. Claude ist kein reines Sprachmodell; es wurde bereits feinabgestimmt, um ein hilfreicher Assistent zu sein. Unsere API bietet derzeit kein Fine-Tuning an, aber bitte fragen Sie Ihren Anthropic-Kontakt, wenn Sie an dieser Option interessiert sind. Fine-Tuning kann nützlich sein, um ein Sprachmodell an eine bestimmte Domäne, Aufgabe oder einen bestimmten Schreibstil anzupassen, erfordert jedoch eine sorgfältige Berücksichtigung der Fine-Tuning-Daten und der potenziellen Auswirkungen auf die Leistung und Voreingenommenheit des Modells.HHH
Diese drei H stehen für Anthropics Ziele, sicherzustellen, dass Claude für die Gesellschaft von Nutzen ist:- Eine hilfreiche KI wird versuchen, die gestellte Aufgabe zu erfüllen oder die Frage nach bestem Wissen und Gewissen zu beantworten und dabei relevante und nützliche Informationen zu liefern.
- Eine ehrliche KI wird genaue Informationen geben und nicht halluzinieren oder konfabulieren. Sie wird ihre Grenzen und Unsicherheiten anerkennen, wenn es angebracht ist.
- Eine harmlose KI wird nicht beleidigend oder diskriminierend sein, und wenn sie gebeten wird, bei einer gefährlichen oder unethischen Handlung zu helfen, sollte die KI höflich ablehnen und erklären, warum sie nicht entsprechen kann.