1. Быстрый старт

Ниже приведен простой пример langchain, демонстрирующий, как использовать фреймворк langchain для вызова моделей и выполнения задач.

2. Пример LangChain

2.1. Установка LangChain

Для установки LangChain вы можете использовать Pip и Conda. Вот как установить LangChain:

Используя Pip:

pip install langchain

Используя Conda:

conda install langchain -c conda-forge

2.2. Инициализация модели

Перед использованием LangChain вам необходимо импортировать пакет интеграции LangChain x OpenAI и установить ключ API в качестве переменной среды или передать его напрямую в класс OpenAI LLM.

Сначала получите ключ API OpenAI, который можно получить, создав учетную запись и перейдя по этой ссылке. Затем вы можете установить ключ API как переменную среды следующим образом:

export OPENAI_API_KEY="ВАШ_КЛЮЧ_API"

Затем проинициализируйте модель:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

Если вы не хотите устанавливать переменную среды, вы можете передать ключ API напрямую при инициализации класса OpenAI LLM:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="ВАШ_КЛЮЧ_API")

2.3. Использование LLM

Использование LLM для ответа на вопросы очень просто. Вы можете просто вызвать метод invoke LLM и передать вопрос в качестве параметра. Кроме того, вы можете создавать шаблоны подсказок для отправки команд модели (LLM).

Ниже показано, как построить простую цепь LLM:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "You are world class technical documentation writer."),
    ("user", "{input}")
])

chain = prompt | llm

chain.invoke({"input": "как langsmith может помочь с тестированием?"})

2.4. Преобразование вывода

Вывод LLM обычно представляет собой сообщение. Для удобства обработки результата вы можете преобразовать сообщение в строку. Ниже показано, как преобразовать выходное сообщение LLM в строку:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"input": "как langsmith может помочь с тестированием?"})

Выше приведено введение в цепочку LLM, надеемся, что это поможет вам лучше понять, как установить LangChain и создать различные типы цепочек.