1. البدء السريع
أدناه يوجد مثال بسيط عن لانج تشين، يظهر كيفية استخدام إطار العمل لانج تشين لاستدعاء النماذج لإكمال المهام.
2. Exemple Langchain
2.1. تثبيت لانج تشين
لتثبيت لانج تشين، يمكنك استخدام Pip و Conda. فيما يلي الخطوات اللازمة لتثبيت لانج تشين:
استخدام Pip:
pip install langchain
استخدام Conda:
conda install langchain -c conda-forge
2.2. تهيئة النموذج
قبل استخدام لانج تشين، تحتاج إلى استيراد حزمة تكامل لانج تشين مع OpenAI وتعيين مفتاح API كمتغير بيئي أو تمريره مباشرة إلى فئة OpenAI LLM.
أولاً، احصل على مفتاح API من OpenAI، يمكن الحصول عليه عن طريق إنشاء حساب والوصول إلى هذا الرابط. بعد ذلك، يمكنك تعيين مفتاح API كمتغير بيئي بهذه الطريقة:
export OPENAI_API_KEY="YOUR_API_KEY"
بعد ذلك، قم بتهيئة النموذج:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
إذا لم ترغب في تعيين المتغير البيئي، يمكنك تمرير مفتاح API مباشرة عند تهيئة فئة OpenAI LLM:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="YOUR_API_KEY")
2.3. استخدام LLM
استخدام LLM للرد على الأسئلة بسيط جدًا. يمكنك استدعاء طريقة invoke
بشكل مباشر من LLM وتمرير السؤال كمعلمة. بالإضافة إلى ذلك، يمكنك إنشاء قوالب برومبت لإرسال الأوامر إلى النموذج (LLM).
يظهر ما يلي كيفية بناء سلسلة بسيطة لـ LLM:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "أنت كاتب توثيق تقني من الطراز العالمي."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "كيف يمكن للانج سميث المساعدة في الاختبار؟"})
2.4. تحويل الإخراج
غالباً ما يكون إخراج LLM رسالة. لمعالجة النتيجة بشكل ملائم، يمكنك تحويل الرسالة إلى سلسلة نصية. يظهر ما يلي كيفية تحويل رسالة الإخراج من LLM إلى سلسلة نصية:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "كيف يمكن للانج سميث المساعدة في الاختبار؟"})
أعلاه هو مقدمة لسلسلة LLM، عسى أن تساعدك في فهم أفضل لكيفية تثبيت لانج تشين وبناء أنواع مختلفة من السلاسل.