1. तेज़ शुरू
नीचे एक लैंगचेन का एक सरल उदाहरण है, जिसमें दिखाया गया है कि लैंगचेन फ्रेमवर्क का उपयोग करके मॉडल को कॉल करके कार्य समाप्त करने के लिए कैसे उपयोग किया जाता है।
2. लैंगचेन उदाहरण
2.1. लैंगचेन की स्थापना
लैंगचेन को स्थापित करने के लिए, आप Pip और Conda का उपयोग कर सकते हैं। यहां लैंगचेन स्थापित करने के लिए कदम दिए गए हैं:
Pip का उपयोग करके:
pip install langchain
Conda का उपयोग करके:
conda install langchain -c conda-forge
2.2. मॉडल को प्रारंभ करना
लैंगचेन का उपयोग करने से पहले, आपको लैंगचेन x OpenAI एकीकरण पैकेज को आयात करना होगा और API कुंजी को एक पर्यावरण चर या सीधे OpenAI LLM कक्षा को पारित करना होगा।
सबसे पहले, OpenAI API कुंजी प्राप्त करें, जो एक खाता बनाकर और इस लिंक (https://platform.openai.com/account/api-keys) पर पहुंचकर प्राप्त की जा सकती है। फिर, आप निम्नलिखित विधि से API कुंजी को एक पर्यावरण चर के रूप में सेट कर सकते हैं:
export OPENAI_API_KEY="अपनी API कुंजी"
अगले, मॉडल को प्रारंभ करें:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
यदि आप पर्यावरण चर सेट करना नहीं चाहते हैं, तो आप OpenAI LLM कक्षा को प्रारंभ करते समय API कुंजी को सीधे पारित कर सकते हैं:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="आपकी API कुंजी")
2.3. LLM का उपयोग करना
प्रश्नों का उत्तर देने के लिए LLM का उपयोग करना बहुत सरल है। आप LLM के invoke
विधि को सीधे प्रारंभ कर सकते हैं और प्रश्न को पैरामीटर के रूप में पारित कर सकते हैं। इसके अलावा, आप मॉडल (LLM) को आर्देश भेजने के लिए प्रॉम्प्ट टेम्प्लेट जेनरेट कर सकते हैं।
निम्नलिखित विचारशीलता दिखाती है कि कैसे एक सरल LLM चेन बनाना:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("सिस्टम", "आप विश्वस्तात्मक तकनीकी संलेखन लेखक हैं।"),
("उपयोगकर्ता", "{इनपुट}")
])
chain = prompt | llm
chain.invoke({"इनपुट": "लैंगस्मिथ से परीक्षण करने में कैसे मदद की जा सकती है?"})
2.4. उत्पादन परिवर्तन
LLM का उत्पादन आमतौर पर एक संदेश होता है। परिणाम को सुविधाजनक रूप से संभालने के लिए, आप संदेश को स्ट्रिंग में रूपांतरित कर सकते हैं। निम्नलिखित विचारशीलता दिखाती है कि LLM के उत्पादन संदेश को स्ट्रिंग में कैसे रूपांतरित करें:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"इनपुट": "लैंगस्मिथ से परीक्षण करने में कैसे मदद की जा सकती है?"})
उपरोक्त विचारशीलता, एलएलएम चेन का एक परिचय है, जो आशा करता है कि यह आपको सहायता प्रदान करेगा लैंगचेन को स्थापित करने और विभिन्न प्रकार की चेन बनाने के लिए।