Entrées et sorties
Le plus grand changement entre Text Completions et Messages est la façon dont vous spécifiez les entrées du modèle et recevez les sorties du modèle. Avec Text Completions, les entrées sont des chaînes brutes :Python
role
et un content
.
Noms des rôlesL’API Text Completions attend des tours alternés
\n\nHuman:
et \n\nAssistant:
, mais l’API Messages attend des rôles user
et assistant
. Vous pourriez voir de la documentation faisant référence aux tours “human” ou “user”. Ceux-ci font référence au même rôle, et ce sera “user” à l’avenir.completion
de la réponse :
Python
content
, qui est une liste de blocs de contenu :
Python
Mettre des mots dans la bouche de Claude
Avec Text Completions, vous pouvez pré-remplir une partie de la réponse de Claude :Python
assistant
:
Python
content
de la réponse continuera à partir du content
du dernier message d’entrée :
JSON
Prompt système
Avec Text Completions, le system prompt est spécifié en ajoutant du texte avant le premier tour\n\nHuman:
:
Python
system
:
Python
Noms des modèles
L’API Messages exige que vous spécifiiez la version complète du modèle (par exempleclaude-sonnet-4-20250514
).
Nous supportions auparavant la spécification uniquement du numéro de version majeure (par exemple claude-2
), ce qui résultait en des mises à niveau automatiques vers les versions mineures. Cependant, nous ne recommandons plus ce modèle d’intégration, et Messages ne le supportent pas.
Raison d’arrêt
Text Completions ont toujours unstop_reason
de soit :
"stop_sequence"
: Le modèle a soit terminé son tour naturellement, soit une de vos séquences d’arrêt personnalisées a été générée."max_tokens"
: Soit le modèle a généré votremax_tokens
spécifié de contenu, soit il a atteint son maximum absolu.
stop_reason
d’une des valeurs suivantes :
"end_turn"
: Le tour conversationnel s’est terminé naturellement."stop_sequence"
: Une de vos séquences d’arrêt personnalisées spécifiées a été générée."max_tokens"
: (inchangé)
Spécification des tokens maximum
- Text Completions : paramètre
max_tokens_to_sample
. Pas de validation, mais valeurs plafonnées par modèle. - Messages : paramètre
max_tokens
. Si vous passez une valeur plus élevée que ce que le modèle supporte, retourne une erreur de validation.
Format de streaming
Lors de l’utilisation de"stream": true
avec Text Completions, la réponse incluait n’importe lequel des événements server-sent-events completion
, ping
, et error
. Voir Text Completions streaming pour les détails.
Messages peuvent contenir plusieurs blocs de contenu de types variés, et donc son format de streaming est quelque peu plus complexe. Voir Messages streaming pour les détails.