1. Memulai dengan Cepat
Berikut adalah contoh sederhana dari langchain, yang menunjukkan bagaimana menggunakan kerangka kerja langchain untuk memanggil model untuk menyelesaikan tugas.
2. Contoh Langchain
2.1. Menginstal LangChain
Untuk menginstal LangChain, Anda dapat menggunakan Pip dan Conda. Berikut langkah-langkah untuk menginstal LangChain:
Menggunakan Pip:
pip install langchain
Menggunakan Conda:
conda install langchain -c conda-forge
2.2. Menginisialisasi Model
Sebelum menggunakan LangChain, Anda perlu mengimpor paket integrasi LangChain x OpenAI dan mengatur kunci API sebagai variabel lingkungan atau meneruskannya langsung ke kelas OpenAI LLM.
Pertama, dapatkan kunci API OpenAI, yang dapat diperoleh dengan membuat akun dan mengakses tautan ini. Kemudian, Anda dapat mengatur kunci API sebagai variabel lingkungan dengan metode berikut:
export OPENAI_API_KEY="YOUR_API_KEY"
Selanjutnya, inisialisasi model:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Jika Anda tidak ingin mengatur variabel lingkungan, Anda dapat meneruskan kunci API langsung saat menginisialisasi kelas OpenAI LLM:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="YOUR_API_KEY")
2.3. Menggunakan LLM
Menggunakan LLM untuk menjawab pertanyaan sangat sederhana. Anda dapat langsung memanggil metode invoke
dari LLM dan meneruskan pertanyaan sebagai parameter. Selain itu, Anda dapat membuat template prompt untuk mengirim perintah ke model (LLM).
Berikut adalah contoh bagaimana membangun rantai LLM sederhana:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "Anda adalah penulis dokumentasi teknis kelas dunia."),
("user", "{input}")
])
chain = prompt | llm
chain.invoke({"input": "bagaimana langsmith dapat membantu dalam pengujian?"})
2.4. Transformasi Output
Output dari LLM biasanya berupa pesan. Untuk menangani hasil dengan mudah, Anda dapat mengonversi pesan menjadi string. Berikut adalah contoh bagaimana mengonversi pesan output dari LLM menjadi string:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
chain.invoke({"input": "bagaimana langsmith dapat membantu dalam pengujian?"})
Di atas adalah pengantar untuk rantai LLM, diharapkan dapat membantu Anda memahami cara menginstal LangChain dan membangun berbagai jenis rantai.