1. तेज़ शुरू

नीचे एक लैंगचेन का एक सरल उदाहरण है, जिसमें दिखाया गया है कि लैंगचेन फ्रेमवर्क का उपयोग करके मॉडल को कॉल करके कार्य समाप्त करने के लिए कैसे उपयोग किया जाता है।

2. लैंगचेन उदाहरण

2.1. लैंगचेन की स्थापना

लैंगचेन को स्थापित करने के लिए, आप Pip और Conda का उपयोग कर सकते हैं। यहां लैंगचेन स्थापित करने के लिए कदम दिए गए हैं:

Pip का उपयोग करके:

pip install langchain

Conda का उपयोग करके:

conda install langchain -c conda-forge

2.2. मॉडल को प्रारंभ करना

लैंगचेन का उपयोग करने से पहले, आपको लैंगचेन x OpenAI एकीकरण पैकेज को आयात करना होगा और API कुंजी को एक पर्यावरण चर या सीधे OpenAI LLM कक्षा को पारित करना होगा।

सबसे पहले, OpenAI API कुंजी प्राप्त करें, जो एक खाता बनाकर और इस लिंक (https://platform.openai.com/account/api-keys) पर पहुंचकर प्राप्त की जा सकती है। फिर, आप निम्नलिखित विधि से API कुंजी को एक पर्यावरण चर के रूप में सेट कर सकते हैं:

export OPENAI_API_KEY="अपनी API कुंजी"

अगले, मॉडल को प्रारंभ करें:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

यदि आप पर्यावरण चर सेट करना नहीं चाहते हैं, तो आप OpenAI LLM कक्षा को प्रारंभ करते समय API कुंजी को सीधे पारित कर सकते हैं:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="आपकी API कुंजी")

2.3. LLM का उपयोग करना

प्रश्नों का उत्तर देने के लिए LLM का उपयोग करना बहुत सरल है। आप LLM के invoke विधि को सीधे प्रारंभ कर सकते हैं और प्रश्न को पैरामीटर के रूप में पारित कर सकते हैं। इसके अलावा, आप मॉडल (LLM) को आर्देश भेजने के लिए प्रॉम्प्ट टेम्प्लेट जेनरेट कर सकते हैं।

निम्नलिखित विचारशीलता दिखाती है कि कैसे एक सरल LLM चेन बनाना:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("सिस्टम", "आप विश्वस्तात्मक तकनीकी संलेखन लेखक हैं।"),
    ("उपयोगकर्ता", "{इनपुट}")
])

chain = prompt | llm

chain.invoke({"इनपुट": "लैंगस्मिथ से परीक्षण करने में कैसे मदद की जा सकती है?"})

2.4. उत्पादन परिवर्तन

LLM का उत्पादन आमतौर पर एक संदेश होता है। परिणाम को सुविधाजनक रूप से संभालने के लिए, आप संदेश को स्ट्रिंग में रूपांतरित कर सकते हैं। निम्नलिखित विचारशीलता दिखाती है कि LLM के उत्पादन संदेश को स्ट्रिंग में कैसे रूपांतरित करें:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"इनपुट": "लैंगस्मिथ से परीक्षण करने में कैसे मदद की जा सकती है?"})

उपरोक्त विचारशीलता, एलएलएम चेन का एक परिचय है, जो आशा करता है कि यह आपको सहायता प्रदान करेगा लैंगचेन को स्थापित करने और विभिन्न प्रकार की चेन बनाने के लिए।