Configuration du modèle
Par défaut, Claude Code utiliseclaude-opus-4-20250514
. Vous pouvez remplacer cela en utilisant les variables d’environnement suivantes :
Consultez notre référence des noms de modèles pour tous les
modèles disponibles auprès des différents fournisseurs.
Utilisation avec des API tierces
Claude Code nécessite l’accès aux modèles Claude Sonnet 3.7 et Claude Haiku 3.5,
quel que soit le fournisseur d’API que vous utilisez.
Connexion à Amazon Bedrock
~/.aws/credentials
ou des variables d’environnement pertinentes comme AWS_ACCESS_KEY_ID
, AWS_SECRET_ACCESS_KEY
). Pour configurer les identifiants AWS, exécutez :
ANTHROPIC_BEDROCK_BASE_URL
:
CLAUDE_CODE_SKIP_BEDROCK_AUTH
pour supprimer l’exigence de Claude Code concernant les identifiants AWS.
Les utilisateurs auront besoin d’accéder aux modèles Claude Sonnet 3.7 et Claude Haiku 3.5
dans leur compte AWS. Si vous avez un rôle d’accès au modèle, vous devrez peut-être demander
l’accès à ces modèles s’ils ne sont pas déjà disponibles. L’accès à Bedrock dans
chaque région est nécessaire car les profils d’inférence nécessitent une capacité
inter-régions.
Connexion à Google Vertex AI
Claude Code sur Vertex AI ne prend actuellement en charge que la région
us-east5
. Assurez-vous
que votre projet dispose d’un quota alloué dans cette région spécifique.Les utilisateurs auront besoin d’accéder aux modèles Claude Sonnet 3.7 et Claude Haiku 3.5
dans leur projet Vertex AI.
ANTHROPIC_VERTEX_BASE_URL
:
CLAUDE_CODE_SKIP_VERTEX_AUTH
pour supprimer l’exigence de Claude Code concernant les identifiants GCP.
Connexion via un proxy
Lorsque vous utilisez Claude Code avec un proxy LLM, vous pouvez contrôler le comportement d’authentification à l’aide des variables d’environnement et des configurations suivantes. Notez que vous pouvez combiner ces paramètres avec les paramètres spécifiques à Bedrock et Vertex.Paramètres
Claude Code prend en charge un certain nombre de paramètres contrôlés via des variables d’environnement pour configurer l’utilisation avec Bedrock et Vertex. Consultez Variables d’environnement pour une référence complète. Si vous préférez configurer via un fichier plutôt que des variables d’environnement, vous pouvez ajouter n’importe lequel de ces paramètres à l’objetenv
dans vos fichiers de paramètres Claude Code.
Vous pouvez également configurer le paramètre apiKeyHelper
, pour définir un script shell personnalisé permettant d’obtenir une clé API (invoquée une fois au démarrage et mise en cache pendant la durée de chaque session, ou jusqu’à ce que CLAUDE_CODE_API_KEY_HELPER_TTL_MS
s’écoule).
LiteLLM
LiteLLM est un service proxy tiers. Anthropic n’approuve, ne maintient
ni n’audite la sécurité ou la fonctionnalité de LiteLLM. Ce guide est fourni à
titre informatif et peut devenir obsolète. Utilisez-le à votre propre discrétion.
Étape 1 : Prérequis
- Claude Code mis à jour vers la dernière version
- LiteLLM Proxy Server en cours d’exécution et accessible par le réseau à Claude Code
- Votre clé proxy LiteLLM
Étape 2 : Configurer l’authentification du proxy
Choisissez l’une de ces méthodes d’authentification : Option A : Clé proxy statique Définissez votre clé proxy comme variable d’environnement :- Ne définissez pas la variable d’environnement
ANTHROPIC_AUTH_TOKEN
- Créez un script d’aide pour les clés afin de fournir des jetons d’authentification
- Enregistrez le script sous la configuration
apiKeyHelper
dans vos paramètres Claude Code - Définissez la durée de vie du jeton pour permettre l’actualisation automatique :
Définissez cette valeur sur la durée de vie (en millisecondes) des jetons renvoyés par votre
apiKeyHelper
.
Étape 3 : Configurer votre déploiement
Choisissez quel déploiement Claude vous souhaitez utiliser via LiteLLM :- API Anthropic : Connexion directe à l’API d’Anthropic
- Bedrock : Amazon Bedrock avec les modèles Claude
- Vertex AI : Google Cloud Vertex AI avec les modèles Claude
Option A : API Anthropic via LiteLLM
- Configurez le point de terminaison LiteLLM :
Option B : Bedrock via LiteLLM
- Configurez les paramètres Bedrock :
Option C : Vertex AI via LiteLLM
Recommandé : Identifiants spécifiés par le proxy- Configurez les paramètres Vertex :
-
Authentifiez-vous localement avec GCP :
-
Configurez les paramètres Vertex :
-
Mettez à jour la configuration d’en-tête LiteLLM :
Assurez-vous que votre configuration LiteLLM a
general_settings.litellm_key_header_name
défini surProxy-Authorization
, car le jeton GCP transmis sera situé dans l’en-têteAuthorization
.