1. Быстрый старт
Ниже приведен простой пример langchain, демонстрирующий, как использовать фреймворк langchain для вызова моделей и выполнения задач.
2. Пример LangChain
2.1. Установка LangChain
Для установки LangChain вы можете использовать Pip и Conda. Вот как установить LangChain:
Используя Pip:
pip install langchain
Используя Conda:
conda install langchain -c conda-forge
2.2. Инициализация модели
Перед использованием LangChain вам необходимо импортировать пакет интеграции LangChain x OpenAI и установить ключ API в качестве переменной среды или передать его напрямую в класс OpenAI LLM.
Сначала получите ключ API OpenAI, который можно получить, создав учетную запись и перейдя по этой ссылке. Затем вы можете установить ключ API как переменную среды следующим образом:
export OPENAI_API_KEY="ВАШ_КЛЮЧ_API"
Затем проинициализируйте модель:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Если вы не хотите устанавливать переменную среды, вы можете передать ключ API напрямую при инициализации класса OpenAI LLM:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="ВАШ_КЛЮЧ_API")
2.3. Использование LLM
Использование LLM для ответа на вопросы очень просто. Вы можете просто вызвать метод invoke
LLM и передать вопрос в качестве параметра. Кроме того, вы можете создавать шаблоны подсказок для отправки команд модели (LLM).
Ниже показано, как построить простую цепь LLM:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "You are world class technical documentation writer."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "как langsmith может помочь с тестированием?"})
2.4. Преобразование вывода
Вывод LLM обычно представляет собой сообщение. Для удобства обработки результата вы можете преобразовать сообщение в строку. Ниже показано, как преобразовать выходное сообщение LLM в строку:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "как langsmith может помочь с тестированием?"})
Выше приведено введение в цепочку LLM, надеемся, что это поможет вам лучше понять, как установить LangChain и создать различные типы цепочек.