1. Início Rápido
Abaixo está um exemplo simples do LangChain, demonstrando como usar o framework LangChain para chamar modelos e completar tarefas.
2. Exemplo do LangChain
2.1. Instalando o LangChain
Para instalar o LangChain, você pode usar o Pip e o Conda. Aqui estão os passos para instalar o LangChain:
Usando o Pip:
pip install langchain
Usando o Conda:
conda install langchain -c conda-forge
2.2. Inicializando o Modelo
Antes de usar o LangChain, você precisa importar o pacote de integração LangChain x OpenAI e definir a chave da API como uma variável de ambiente ou passá-la diretamente para a classe OpenAI LLM.
Primeiro, obtenha a chave da API da OpenAI, que pode ser obtida criando uma conta e acessando este link. Em seguida, você pode definir a chave da API como uma variável de ambiente com o seguinte método:
export OPENAI_API_KEY="SUA_CHAVE_DA_API"
A seguir, inicialize o modelo:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Se você não quiser definir a variável de ambiente, pode passar a chave da API diretamente ao inicializar a classe OpenAI LLM:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="SUA_CHAVE_DA_API")
2.3. Usando LLM
Usar LLM para responder perguntas é muito simples. Você pode chamar diretamente o método invoke
do LLM e passar a pergunta como parâmetro. Além disso, você pode gerar modelos de prompt para enviar comandos ao modelo (LLM).
A seguir, demonstra-se como construir uma cadeia LLM simples:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("sistema", "Você é um redator de documentação técnica de classe mundial."),
("usuário", "{input}")
])
cadeia = prompt | llm
cadeia.invoke({"input": "como o langsmith pode ajudar com testes?"})
2.4. Transformação de Saída
A saída do LLM é geralmente uma mensagem. Para lidar convenientemente com o resultado, você pode converter a mensagem em uma string. A seguir, demonstra-se como converter a mensagem de saída do LLM em uma string:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
cadeia = prompt | llm | output_parser
cadeia.invoke({"input": "como o langsmith pode ajudar com testes?"})
Acima está uma introdução à cadeia LLM, esperando ajudá-lo a entender melhor como instalar o LangChain e construir diferentes tipos de cadeias.