1. Démarrage rapide

Voici un exemple simple de langchain, montrant comment utiliser le framework langchain pour appeler des modèles afin d'accomplir des tâches.

2. Exemple de Langchain

2.1. Installation de LangChain

Pour installer LangChain, vous pouvez utiliser Pip et Conda. Voici les étapes pour installer LangChain :

Utilisation de Pip :

pip install langchain

Utilisation de Conda :

conda install langchain -c conda-forge

2.2. Initialisation du modèle

Avant d'utiliser LangChain, vous devez importer le package d'intégration LangChain x OpenAI et définir la clé API en tant que variable d'environnement ou la passer directement à la classe OpenAI LLM.

Tout d'abord, obtenez la clé API OpenAI, que vous pouvez obtenir en créant un compte et en accédant à ce lien. Ensuite, vous pouvez définir la clé API en tant que variable d'environnement avec la méthode suivante :

export OPENAI_API_KEY="VOTRE_CLÉ_API"

Ensuite, initialisez le modèle :

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

Si vous ne souhaitez pas définir la variable d'environnement, vous pouvez passer la clé API directement lors de l'initialisation de la classe OpenAI LLM :

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="VOTRE_CLÉ_API")

2.3. Utilisation de LLM

Il est très simple d'utiliser LLM pour répondre aux questions. Vous pouvez directement appeler la méthode invoke de LLM et passer la question en tant que paramètre. De plus, vous pouvez générer des modèles de prompt pour envoyer des commandes au modèle (LLM).

Le code suivant montre comment construire une chaîne LLM simple :

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "Vous êtes un rédacteur de documentation technique de classe mondiale."),
    ("user", "{input}")
])

chain = prompt | llm

chain.invoke({"input": "comment langsmith peut-il aider pour les tests ?"})

2.4. Transformation de la sortie

La sortie de LLM est généralement un message. Pour gérer commodément le résultat, vous pouvez convertir le message en une chaîne de caractères. Le code suivant montre comment convertir le message de sortie de LLM en une chaîne de caractères :

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"input": "comment langsmith peut-il aider pour les tests ?"})

Ce qui précède est une introduction à la chaîne LLM, dans l'espoir de vous aider à mieux comprendre comment installer LangChain et construire différents types de chaînes.