1. 빠른 시작

아래는 랭체인(langchain)을 사용하여 모델을 호출하여 작업을 완료하는 방법을 보여주는 간단한 예제입니다.

2. 랭체인 예제

2.1. 랭체인 설치

랭체인을 설치하려면 Pip와 Conda를 사용할 수 있습니다. 랭체인을 설치하는 단계는 다음과 같습니다:

Pip 사용:

pip install langchain

Conda 사용:

conda install langchain -c conda-forge

2.2. 모델 초기화

랭체인을 사용하기 전에 먼저 LangChain x OpenAI 통합 패키지를 가져와서 OpenAI LLM 클래스에 API 키를 환경 변수로 설정하거나 직접 전달해야 합니다.

먼저, OpenAI API 키를 가져옵니다. 계정을 생성하고 이 링크에 액세스하여 API 키를 가져올 수 있습니다. 그런 다음, 다음 방법으로 API 키를 환경 변수로 설정할 수 있습니다:

export OPENAI_API_KEY="YOUR_API_KEY"

그 다음, 모델을 초기화합니다:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

환경 변수를 설정하지 않으려면 OpenAI LLM 클래스를 초기화할 때 API 키를 직접 전달할 수 있습니다:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="YOUR_API_KEY")

2.3. LLM 사용

질문에 대답하기 위해 LLM을 사용하는 것은 매우 간단합니다. LLM의 invoke 메소드를 직접 호출하고 매개변수로 질문을 전달할 수 있습니다. 또한 모델 (LLM)에 명령을 보내기 위한 프롬프트 템플릿을 생성할 수도 있습니다.

다음은 간단한 LLM 체인을 구축하는 방법을 보여줍니다:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "You are world class technical documentation writer."),
    ("user", "{input}")
])

chain = prompt | llm

chain.invoke({"input": "how can langsmith help with testing?"})

2.4. 출력 변환

LLM의 출력은 일반적으로 메시지입니다. 결과를 편리하게 처리하기 위해 메시지를 문자열로 변환할 수 있습니다. 다음은 LLM의 출력 메시지를 문자열로 변환하는 방법을 보여줍니다:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"input": "how can langsmith help with testing?"})

위는 LLM 체인에 대한 소개로, 랭체인을 설치하고 다양한 유형의 체인을 구축하는 방법을 더 잘 이해할 수 있기를 바랍니다.