1. Szybki start
Poniżej znajduje się prosty przykład langchain, który demonstruje, jak korzystać z frameworka langchain do wywoływania modeli w celu ukończenia zadań.
2. Przykład Langchain
2.1. Instalacja LangChain
Aby zainstalować LangChain, możesz skorzystać z Pip lub Conda. Oto kroki instalacji LangChain:
Za pomocą Pip:
pip install langchain
Za pomocą Conda:
conda install langchain -c conda-forge
2.2. Inicjowanie modelu
Przed użyciem LangChain, musisz zaimportować pakiet integracyjny LangChain x OpenAI i ustawić klucz API jako zmienną środowiskową lub przekazać go bezpośrednio do klasy OpenAI LLM.
Najpierw uzyskaj klucz API OpenAI, który można uzyskać, tworząc konto i uzyskując dostęp na tej stronie. Następnie możesz ustawić klucz API jako zmienną środowiskową za pomocą następującej metody:
export OPENAI_API_KEY="TWÓJ_KLUCZ_API"
Następnie zainicjuj model:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Jeśli nie chcesz ustawiać zmiennej środowiskowej, możesz przekazać klucz API bezpośrednio podczas inicjowania klasy OpenAI LLM:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="TWÓJ_KLUCZ_API")
2.3. Korzystanie z LLM
Korzystanie z LLM do odpowiadania na pytania jest bardzo proste. Możesz bezpośrednio wywołać metodę invoke
LLM i przekazać pytanie jako parametr. Dodatkowo, możesz generować szablony zachęty, aby wysyłać polecenia do modelu (LLM).
Poniżej przedstawiono, jak zbudować prosty łańcuch LLM:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "Jesteś świetnym pisarzem dokumentacji technicznej świata."),
("użytkownik", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "w jaki sposób langsmith może pomóc w testowaniu?"})
2.4. Przekształcenie wyników
Wyjściem LLM zwykle jest wiadomość. Aby wygodnie obsługiwać wynik, możesz przekonwertować wiadomość na łańcuch znaków. Poniżej przedstawiono, jak przekształcić wynikową wiadomość LLM w łańcuch znaków:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "w jaki sposób langsmith może pomóc w testowaniu?"})
Powyższy tekst stanowi wprowadzenie do łańcucha LLM, mającego na celu pomóc ci lepiej zrozumieć, jak zainstalować LangChain i budować różne rodzaje łańcuchów.