1. Schnellstart
Im Folgenden ist ein einfaches Beispiel für Langchain zu sehen, das zeigt, wie man das Langchain-Framework verwendet, um Modelle aufzurufen und Aufgaben zu erledigen.
2. Langchain Beispiel
2.1. Installation von LangChain
Um LangChain zu installieren, können Sie Pip und Conda verwenden. Hier sind die Schritte zur Installation von Langchain:
Mit Pip:
pip install langchain
Mit Conda:
conda install langchain -c conda-forge
2.2. Initialisierung des Modells
Bevor Sie LangChain verwenden, müssen Sie das LangChain x OpenAI-Integrationspaket importieren und den API-Schlüssel als Umgebungsvariable setzen oder ihn direkt an die OpenAI LLM-Klasse übergeben.
Zuerst erhalten Sie den OpenAI-API-Schlüssel, den Sie erhalten, indem Sie ein Konto erstellen und auf diesen Link zugreifen. Dann können Sie den API-Schlüssel als Umgebungsvariable mit folgender Methode setzen:
export OPENAI_API_KEY="DEIN_API_SCHLÜSSEL"
Initialisieren Sie dann das Modell:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Wenn Sie die Umgebungsvariable nicht setzen möchten, können Sie den API-Schlüssel direkt beim Initialisieren der OpenAI LLM-Klasse übergeben:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="DEIN_API_SCHLÜSSEL")
2.3. Verwendung von LLM
Die Verwendung von LLM, um Fragen zu beantworten, ist sehr einfach. Sie können direkt die invoke
-Methode von LLM aufrufen und die Frage als Parameter übergeben. Darüber hinaus können Sie Prompt-Vorlagen generieren, um Befehle an das Modell (LLM) zu senden.
Im Folgenden wird gezeigt, wie man eine einfache LLM-Kette erstellt:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "Du bist ein erstklassiger technischer Dokumentationsautor."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "Wie kann Langsmith beim Testen helfen?"})
2.4. Ausgabentransformation
Die Ausgabe von LLM ist in der Regel eine Nachricht. Um das Ergebnis bequem zu verarbeiten, können Sie die Nachricht in einen String konvertieren. Im Folgenden wird gezeigt, wie Sie die Ausgabemeldung von LLM in einen String konvertieren:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "Wie kann Langsmith beim Testen helfen?"})
Dies war eine Einführung in die LLM-Kette, die Ihnen hoffentlich dabei hilft, besser zu verstehen, wie man LangChain installiert und verschiedene Arten von Ketten erstellt.