1. Início Rápido

Abaixo está um exemplo simples do LangChain, demonstrando como usar o framework LangChain para chamar modelos e completar tarefas.

2. Exemplo do LangChain

2.1. Instalando o LangChain

Para instalar o LangChain, você pode usar o Pip e o Conda. Aqui estão os passos para instalar o LangChain:

Usando o Pip:

pip install langchain

Usando o Conda:

conda install langchain -c conda-forge

2.2. Inicializando o Modelo

Antes de usar o LangChain, você precisa importar o pacote de integração LangChain x OpenAI e definir a chave da API como uma variável de ambiente ou passá-la diretamente para a classe OpenAI LLM.

Primeiro, obtenha a chave da API da OpenAI, que pode ser obtida criando uma conta e acessando este link. Em seguida, você pode definir a chave da API como uma variável de ambiente com o seguinte método:

export OPENAI_API_KEY="SUA_CHAVE_DA_API"

A seguir, inicialize o modelo:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

Se você não quiser definir a variável de ambiente, pode passar a chave da API diretamente ao inicializar a classe OpenAI LLM:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="SUA_CHAVE_DA_API")

2.3. Usando LLM

Usar LLM para responder perguntas é muito simples. Você pode chamar diretamente o método invoke do LLM e passar a pergunta como parâmetro. Além disso, você pode gerar modelos de prompt para enviar comandos ao modelo (LLM).

A seguir, demonstra-se como construir uma cadeia LLM simples:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("sistema", "Você é um redator de documentação técnica de classe mundial."),
    ("usuário", "{input}")
])

cadeia = prompt | llm

cadeia.invoke({"input": "como o langsmith pode ajudar com testes?"})

2.4. Transformação de Saída

A saída do LLM é geralmente uma mensagem. Para lidar convenientemente com o resultado, você pode converter a mensagem em uma string. A seguir, demonstra-se como converter a mensagem de saída do LLM em uma string:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

cadeia = prompt | llm | output_parser

cadeia.invoke({"input": "como o langsmith pode ajudar com testes?"})

Acima está uma introdução à cadeia LLM, esperando ajudá-lo a entender melhor como instalar o LangChain e construir diferentes tipos de cadeias.