1. คู่มือเร่งด่วน
ด้านล่างนี้คือตัวอย่างง่ายของ langchain ที่สาธิตวิธีการใช้เฟรมเวิร์ก langchain เพื่อเรียกร้องโมเดลเพื่อทำงานต่าง ๆ
2. ตัวอย่าง Langchain
2.1. การติดตั้ง LangChain
เพื่อที่จะติดตั้ง LangChain คุณสามารถใช้ Pip และ Conda ดังนี้
ใช้ Pip:
pip install langchain
ใช้ Conda:
conda install langchain -c conda-forge
2.2. การเริ่มต้นใช้งานโมเดล
ก่อนที่จะใช้ LangChain คุณต้องนำเข้าแพ็คเกจ LangChain x OpenAI integration และตั้งค่า API key เป็นตัวแปรสภาพแวดล้อม หรือส่งตรงไปที่คลาส OpenAI LLM
ก่อนอื่น ให้รับ API key จาก OpenAI ซึ่งสามารถทำได้โดยการสร้างบัญชีและเข้าถึง ลิงค์นี้ จากนั้น คุณสามารถตั้งค่า API key เป็นตัวแปรสภาพแวดล้อมด้วยวิธีต่อไปนี้:
export OPENAI_API_KEY="YOUR_API_KEY"
จากนั้น ทำการเริ่มต้นโมเดล:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
หากคุณไม่ต้องการตั้งค่าตัวแปรสภาพแวดล้อม คุณสามารถส่ง API key โดยตรงเมื่อเริ่มต้นคลาส OpenAI LLM ดังนี้:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="YOUR_API_KEY")
2.3. การใช้งาน LLM
การใช้งาน LLM เพื่อตอบคำถามเป็นเรื่องง่ายมากๆ คุณสามารถเรียกใช้วิธี invoke
ของ LLM โดยตรงและส่งคำถามเป็นพารามิเตอร์ได้เลย อีกทั้ง คุณยังสามารถสร้างรูปแบบพรอมป์ท์เพื่อส่งคำสั่งไปที่โมเดล (LLM)
ต่อไปนี้เป็นตัวอย่างของการสร้าง LLM chain อย่างง่าย:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "You are world class technical documentation writer."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "how can langsmith help with testing?"})
2.4. การแปลงผลลัพธ์
ผลลัพธ์ของ LLM มักจะเป็นข้อความ สำหรับความสะดวกในการจัดการผลลัพธ์ คุณสามารถแปลงข้อความเป็นสตริงได้ ต่อไปนี้เป็นตัวอย่างของวิธีแปลงข้อความผลลัพธ์ของ LLM เป็นสตริง:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "how can langsmith help with testing?"})
ข้างต้นเป็นคำอธิบายถึง LLM chain หวังว่าจะช่วยให้คุณเข้าใจวิธีการติดตั้ง LangChain และสร้างแบบฉบับต่างๆ ของ chains ได้ดีขึ้น