1. Démarrage rapide
Voici un exemple simple de langchain, montrant comment utiliser le framework langchain pour appeler des modèles afin d'accomplir des tâches.
2. Exemple de Langchain
2.1. Installation de LangChain
Pour installer LangChain, vous pouvez utiliser Pip et Conda. Voici les étapes pour installer LangChain :
Utilisation de Pip :
pip install langchain
Utilisation de Conda :
conda install langchain -c conda-forge
2.2. Initialisation du modèle
Avant d'utiliser LangChain, vous devez importer le package d'intégration LangChain x OpenAI et définir la clé API en tant que variable d'environnement ou la passer directement à la classe OpenAI LLM.
Tout d'abord, obtenez la clé API OpenAI, que vous pouvez obtenir en créant un compte et en accédant à ce lien. Ensuite, vous pouvez définir la clé API en tant que variable d'environnement avec la méthode suivante :
export OPENAI_API_KEY="VOTRE_CLÉ_API"
Ensuite, initialisez le modèle :
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Si vous ne souhaitez pas définir la variable d'environnement, vous pouvez passer la clé API directement lors de l'initialisation de la classe OpenAI LLM :
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="VOTRE_CLÉ_API")
2.3. Utilisation de LLM
Il est très simple d'utiliser LLM pour répondre aux questions. Vous pouvez directement appeler la méthode invoke
de LLM et passer la question en tant que paramètre. De plus, vous pouvez générer des modèles de prompt pour envoyer des commandes au modèle (LLM).
Le code suivant montre comment construire une chaîne LLM simple :
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "Vous êtes un rédacteur de documentation technique de classe mondiale."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "comment langsmith peut-il aider pour les tests ?"})
2.4. Transformation de la sortie
La sortie de LLM est généralement un message. Pour gérer commodément le résultat, vous pouvez convertir le message en une chaîne de caractères. Le code suivant montre comment convertir le message de sortie de LLM en une chaîne de caractères :
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "comment langsmith peut-il aider pour les tests ?"})
Ce qui précède est une introduction à la chaîne LLM, dans l'espoir de vous aider à mieux comprendre comment installer LangChain et construire différents types de chaînes.