1. Hızlı Başlangıç

Aşağıda, langchain'in basit bir örneği bulunmaktadır. Bu örnek, görevleri tamamlamak için modelleri çağırmak için langchain çerçevesini nasıl kullanacağınızı göstermektedir.

2. Langchain Örneği

2.1. LangChain Kurulumu

LangChain'i kurmak için Pip ve Conda kullanabilirsiniz. İşte LangChain'i kurmak için adımlar:

Pip kullanarak:

pip install langchain

Conda kullanarak:

conda install langchain -c conda-forge

2.2. Modeli Başlatma

LangChain'i kullanmadan önce, LangChain x OpenAI entegrasyon paketini içe aktarmalı ve API anahtarını bir ortam değişkeni olarak ayarlamalı veya doğrudan OpenAI LLM sınıfına iletmelisiniz.

İlk olarak, bu bağlantıya giderek OpenAI API anahtarını alın. Daha sonra aşağıdaki yöntemle API anahtarını bir ortam değişkeni olarak ayarlayabilirsiniz:

export OPENAI_API_KEY="SİZİN_API_ANAHTARINIZ"

Daha sonra, modeli başlatın:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

Ortam değişkenini ayarlamak istemiyorsanız, OpenAI LLM sınıfını başlatırken API anahtarını doğrudan iletebilirsiniz:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="SİZİN_API_ANAHTARINIZ")

2.3. LLM Kullanımı

Soruları cevaplamak için LLM'yi kullanmak çok basittir. LLM'nin invoke yöntemini doğrudan çağırabilir ve parametre olarak soruyu iletebilirsiniz. Ayrıca, model (LLM) için komutları göndermek için önişlem şablonları oluşturabilirsiniz.

Aşağıdaki, basit bir LLM zinciri nasıl oluşturulacağını göstermektedir:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "Dünya standartlarında teknik belge yazarısınız."),
    ("user", "{input}")
])

chain = prompt | llm

chain.invoke({"input": "langsmith test etmeye nasıl yardımcı olabilir?"})

2.4. Çıktı Dönüşümü

LLM'nin çıktısı genellikle bir ileti olduğundan, sonucu kolayca işlemek için iletiyi dizeye dönüştürebilirsiniz. Aşağıdaki, LLM'nin çıktı iletiyi bir dizeye dönüştürmek için nasıl kullanılacağını göstermektedir:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"input": "langsmith test etmeye nasıl yardımcı olabilir?"})

Yukarıdaki, LLM zincirinin bir girişidir ve LangChain'i nasıl kuracağınızı ve farklı türde zincirler oluşturmayı daha iyi anlamanıza yardımcı olmayı umar.