1. Introduzione rapida
Di seguito è riportato un semplice esempio di langchain, che dimostra come utilizzare il framework langchain per chiamare i modelli per completare attività.
2. Esempio di LangChain
2.1. Installazione di LangChain
Per installare LangChain, puoi utilizzare Pip e Conda. Ecco i passaggi per installare LangChain:
Utilizzando Pip:
pip install langchain
Utilizzando Conda:
conda install langchain -c conda-forge
2.2. Inizializzazione del Modello
Prima di utilizzare LangChain, è necessario importare il pacchetto di integrazione LangChain x OpenAI e impostare la chiave API come variabile di ambiente o passarla direttamente alla classe OpenAI LLM.
Innanzitutto, ottieni la chiave API di OpenAI, che può essere ottenuta creando un account e accedendo a questo link. Quindi, puoi impostare la chiave API come variabile di ambiente con il seguente metodo:
export OPENAI_API_KEY="LA_TUA_CHIAVE_API"
Successivamente, inizializza il modello:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Se non desideri impostare la variabile di ambiente, puoi passare direttamente la chiave API durante l'inizializzazione della classe OpenAI LLM:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="LA_TUA_CHIAVE_API")
2.3. Uso di LLM
Utilizzare LLM per rispondere alle domande è molto semplice. Puoi chiamare direttamente il metodo invoke
di LLM e passare la domanda come parametro. Inoltre, puoi generare modelli di prompt per inviare comandi al modello (LLM).
Di seguito viene dimostrato come costruire una semplice catena LLM:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "Sei un redattore di documentazione tecnica di classe mondiale."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "come può langsmith aiutare con i test?"})
2.4. Trasformazione dell'output
L'output di LLM è generalmente un messaggio. Per gestire comodamente il risultato, puoi convertire il messaggio in una stringa. Viene di seguito dimostrato come convertire il messaggio di output di LLM in una stringa:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "come può langsmith aiutare con i test?"})
Quanto sopra è un'introduzione alla catena LLM, con la speranza di aiutarti a capire meglio come installare LangChain e costruire diversi tipi di catene.