1. クイックスタート
以下は、langchainの簡単な例であり、langchainフレームワークを使用してモデルを呼び出してタスクを完了する方法を示しています。
2. Langchainの例
2.1. LangChainのインストール
LangChainをインストールするには、PipとCondaを使用することができます。以下はLangChainをインストールするための手順です:
Pipを使用:
pip install langchain
Condaを使用:
conda install langchain -c conda-forge
2.2. モデルの初期化
LangChainを使用する前に、LangChain x OpenAI 統合パッケージをインポートし、APIキーを環境変数として設定するか、直接OpenAI LLMクラスに渡す必要があります。
まず、OpenAIのAPIキーを取得します。これは、アカウントを作成し、このリンクにアクセスして取得できます。次に、次の方法でAPIキーを環境変数として設定できます:
export OPENAI_API_KEY="YOUR_API_KEY"
次に、モデルを初期化します:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
環境変数を設定したくない場合は、OpenAI LLMクラスを初期化する際にAPIキーを直接渡すこともできます:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="YOUR_API_KEY")
2.3. LLMの使用
LLMを使用して質問に答えることは非常に簡単です。LLMのinvoke
メソッドを直接呼び出し、質問をパラメータとして渡すことができます。さらに、モデル(LLM)にコマンドを送信するためのプロンプトテンプレートを生成することもできます。
以下は、簡単なLLMチェーンを構築する方法を示しています:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "You are world class technical documentation writer."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "how can langsmith help with testing?"})
2.4. 出力の変換
LLMの出力は通常メッセージです。結果を便利に処理するために、メッセージを文字列に変換することができます。以下は、LLMの出力メッセージを文字列に変換する方法を示しています:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "how can langsmith help with testing?"})
以上はLLMチェーンの概要であり、LangChainをインストールし、さまざまな種類のチェーンを構築する方法をよりよく理解するのに役立つことを願っています。