1. Szybki start

Poniżej znajduje się prosty przykład langchain, który demonstruje, jak korzystać z frameworka langchain do wywoływania modeli w celu ukończenia zadań.

2. Przykład Langchain

2.1. Instalacja LangChain

Aby zainstalować LangChain, możesz skorzystać z Pip lub Conda. Oto kroki instalacji LangChain:

Za pomocą Pip:

pip install langchain

Za pomocą Conda:

conda install langchain -c conda-forge

2.2. Inicjowanie modelu

Przed użyciem LangChain, musisz zaimportować pakiet integracyjny LangChain x OpenAI i ustawić klucz API jako zmienną środowiskową lub przekazać go bezpośrednio do klasy OpenAI LLM.

Najpierw uzyskaj klucz API OpenAI, który można uzyskać, tworząc konto i uzyskując dostęp na tej stronie. Następnie możesz ustawić klucz API jako zmienną środowiskową za pomocą następującej metody:

export OPENAI_API_KEY="TWÓJ_KLUCZ_API"

Następnie zainicjuj model:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

Jeśli nie chcesz ustawiać zmiennej środowiskowej, możesz przekazać klucz API bezpośrednio podczas inicjowania klasy OpenAI LLM:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="TWÓJ_KLUCZ_API")

2.3. Korzystanie z LLM

Korzystanie z LLM do odpowiadania na pytania jest bardzo proste. Możesz bezpośrednio wywołać metodę invoke LLM i przekazać pytanie jako parametr. Dodatkowo, możesz generować szablony zachęty, aby wysyłać polecenia do modelu (LLM).

Poniżej przedstawiono, jak zbudować prosty łańcuch LLM:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "Jesteś świetnym pisarzem dokumentacji technicznej świata."),
    ("użytkownik", "{input}")
])

chain = prompt | llm

chain.invoke({"input": "w jaki sposób langsmith może pomóc w testowaniu?"})

2.4. Przekształcenie wyników

Wyjściem LLM zwykle jest wiadomość. Aby wygodnie obsługiwać wynik, możesz przekonwertować wiadomość na łańcuch znaków. Poniżej przedstawiono, jak przekształcić wynikową wiadomość LLM w łańcuch znaków:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"input": "w jaki sposób langsmith może pomóc w testowaniu?"})

Powyższy tekst stanowi wprowadzenie do łańcucha LLM, mającego na celu pomóc ci lepiej zrozumieć, jak zainstalować LangChain i budować różne rodzaje łańcuchów.