Fenêtre de contexte
La “fenêtre de contexte” fait référence à la quantité de texte qu’un modèle de langage peut consulter et référencer lors de la génération de nouveau texte. Cela diffère du vaste corpus de données sur lequel le modèle de langage a été entraîné, et représente plutôt une “mémoire de travail” pour le modèle. Une fenêtre de contexte plus grande permet au modèle de comprendre et de répondre à des requêtes plus complexes et plus longues, tandis qu’une fenêtre de contexte plus petite peut limiter la capacité du modèle à traiter des requêtes plus longues ou à maintenir la cohérence lors de conversations prolongées. Consultez notre guide pour comprendre les fenêtres de contexte pour en savoir plus.Fine-tuning (Ajustement précis)
Le fine-tuning est le processus qui consiste à poursuivre l’entraînement d’un modèle de langage préentraîné en utilisant des données supplémentaires. Cela amène le modèle à commencer à représenter et à imiter les modèles et les caractéristiques de l’ensemble de données d’ajustement. Claude n’est pas un modèle de langage brut ; il a déjà été affiné pour être un assistant utile. Notre API n’offre actuellement pas de fine-tuning, mais n’hésitez pas à contacter votre interlocuteur chez Anthropic si vous souhaitez explorer cette option. Le fine-tuning peut être utile pour adapter un modèle de langage à un domaine, une tâche ou un style d’écriture spécifique, mais il nécessite une réflexion approfondie sur les données d’ajustement et l’impact potentiel sur les performances et les biais du modèle.HHH
Ces trois H représentent les objectifs d’Anthropic pour garantir que Claude soit bénéfique pour la société :- Une IA helpful (utile) tentera d’accomplir la tâche ou de répondre à la question posée au mieux de ses capacités, en fournissant des informations pertinentes et utiles.
- Une IA honest (honnête) donnera des informations précises, sans halluciner ou confabuler. Elle reconnaîtra ses limites et ses incertitudes lorsque cela est approprié.
- Une IA harmless (inoffensive) ne sera ni offensante ni discriminatoire, et lorsqu’on lui demandera d’aider à un acte dangereux ou contraire à l’éthique, l’IA devrait poliment refuser et expliquer pourquoi elle ne peut pas s’y conformer.