1. Hızlı Başlangıç
Aşağıda, langchain'in basit bir örneği bulunmaktadır. Bu örnek, görevleri tamamlamak için modelleri çağırmak için langchain çerçevesini nasıl kullanacağınızı göstermektedir.
2. Langchain Örneği
2.1. LangChain Kurulumu
LangChain'i kurmak için Pip ve Conda kullanabilirsiniz. İşte LangChain'i kurmak için adımlar:
Pip kullanarak:
pip install langchain
Conda kullanarak:
conda install langchain -c conda-forge
2.2. Modeli Başlatma
LangChain'i kullanmadan önce, LangChain x OpenAI entegrasyon paketini içe aktarmalı ve API anahtarını bir ortam değişkeni olarak ayarlamalı veya doğrudan OpenAI LLM sınıfına iletmelisiniz.
İlk olarak, bu bağlantıya giderek OpenAI API anahtarını alın. Daha sonra aşağıdaki yöntemle API anahtarını bir ortam değişkeni olarak ayarlayabilirsiniz:
export OPENAI_API_KEY="SİZİN_API_ANAHTARINIZ"
Daha sonra, modeli başlatın:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Ortam değişkenini ayarlamak istemiyorsanız, OpenAI LLM sınıfını başlatırken API anahtarını doğrudan iletebilirsiniz:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="SİZİN_API_ANAHTARINIZ")
2.3. LLM Kullanımı
Soruları cevaplamak için LLM'yi kullanmak çok basittir. LLM'nin invoke
yöntemini doğrudan çağırabilir ve parametre olarak soruyu iletebilirsiniz. Ayrıca, model (LLM) için komutları göndermek için önişlem şablonları oluşturabilirsiniz.
Aşağıdaki, basit bir LLM zinciri nasıl oluşturulacağını göstermektedir:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "Dünya standartlarında teknik belge yazarısınız."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "langsmith test etmeye nasıl yardımcı olabilir?"})
2.4. Çıktı Dönüşümü
LLM'nin çıktısı genellikle bir ileti olduğundan, sonucu kolayca işlemek için iletiyi dizeye dönüştürebilirsiniz. Aşağıdaki, LLM'nin çıktı iletiyi bir dizeye dönüştürmek için nasıl kullanılacağını göstermektedir:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "langsmith test etmeye nasıl yardımcı olabilir?"})
Yukarıdaki, LLM zincirinin bir girişidir ve LangChain'i nasıl kuracağınızı ve farklı türde zincirler oluşturmayı daha iyi anlamanıza yardımcı olmayı umar.