1. 빠른 시작
아래는 랭체인(langchain)을 사용하여 모델을 호출하여 작업을 완료하는 방법을 보여주는 간단한 예제입니다.
2. 랭체인 예제
2.1. 랭체인 설치
랭체인을 설치하려면 Pip와 Conda를 사용할 수 있습니다. 랭체인을 설치하는 단계는 다음과 같습니다:
Pip 사용:
pip install langchain
Conda 사용:
conda install langchain -c conda-forge
2.2. 모델 초기화
랭체인을 사용하기 전에 먼저 LangChain x OpenAI 통합 패키지를 가져와서 OpenAI LLM 클래스에 API 키를 환경 변수로 설정하거나 직접 전달해야 합니다.
먼저, OpenAI API 키를 가져옵니다. 계정을 생성하고 이 링크에 액세스하여 API 키를 가져올 수 있습니다. 그런 다음, 다음 방법으로 API 키를 환경 변수로 설정할 수 있습니다:
export OPENAI_API_KEY="YOUR_API_KEY"
그 다음, 모델을 초기화합니다:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
환경 변수를 설정하지 않으려면 OpenAI LLM 클래스를 초기화할 때 API 키를 직접 전달할 수 있습니다:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="YOUR_API_KEY")
2.3. LLM 사용
질문에 대답하기 위해 LLM을 사용하는 것은 매우 간단합니다. LLM의 invoke
메소드를 직접 호출하고 매개변수로 질문을 전달할 수 있습니다. 또한 모델 (LLM)에 명령을 보내기 위한 프롬프트 템플릿을 생성할 수도 있습니다.
다음은 간단한 LLM 체인을 구축하는 방법을 보여줍니다:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "You are world class technical documentation writer."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "how can langsmith help with testing?"})
2.4. 출력 변환
LLM의 출력은 일반적으로 메시지입니다. 결과를 편리하게 처리하기 위해 메시지를 문자열로 변환할 수 있습니다. 다음은 LLM의 출력 메시지를 문자열로 변환하는 방법을 보여줍니다:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "how can langsmith help with testing?"})
위는 LLM 체인에 대한 소개로, 랭체인을 설치하고 다양한 유형의 체인을 구축하는 방법을 더 잘 이해할 수 있기를 바랍니다.