1. クイックスタート

以下は、langchainの簡単な例であり、langchainフレームワークを使用してモデルを呼び出してタスクを完了する方法を示しています。

2. Langchainの例

2.1. LangChainのインストール

LangChainをインストールするには、PipとCondaを使用することができます。以下はLangChainをインストールするための手順です:

Pipを使用:

pip install langchain

Condaを使用:

conda install langchain -c conda-forge

2.2. モデルの初期化

LangChainを使用する前に、LangChain x OpenAI 統合パッケージをインポートし、APIキーを環境変数として設定するか、直接OpenAI LLMクラスに渡す必要があります。

まず、OpenAIのAPIキーを取得します。これは、アカウントを作成し、このリンクにアクセスして取得できます。次に、次の方法でAPIキーを環境変数として設定できます:

export OPENAI_API_KEY="YOUR_API_KEY"

次に、モデルを初期化します:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

環境変数を設定したくない場合は、OpenAI LLMクラスを初期化する際にAPIキーを直接渡すこともできます:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="YOUR_API_KEY")

2.3. LLMの使用

LLMを使用して質問に答えることは非常に簡単です。LLMのinvokeメソッドを直接呼び出し、質問をパラメータとして渡すことができます。さらに、モデル(LLM)にコマンドを送信するためのプロンプトテンプレートを生成することもできます。

以下は、簡単なLLMチェーンを構築する方法を示しています:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "You are world class technical documentation writer."),
    ("user", "{input}")
])

chain = prompt | llm

chain.invoke({"input": "how can langsmith help with testing?"})

2.4. 出力の変換

LLMの出力は通常メッセージです。結果を便利に処理するために、メッセージを文字列に変換することができます。以下は、LLMの出力メッセージを文字列に変換する方法を示しています:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"input": "how can langsmith help with testing?"})

以上はLLMチェーンの概要であり、LangChainをインストールし、さまざまな種類のチェーンを構築する方法をよりよく理解するのに役立つことを願っています。