1. Memulai dengan Cepat

Berikut adalah contoh sederhana dari langchain, yang menunjukkan bagaimana menggunakan kerangka kerja langchain untuk memanggil model untuk menyelesaikan tugas.

2. Contoh Langchain

2.1. Menginstal LangChain

Untuk menginstal LangChain, Anda dapat menggunakan Pip dan Conda. Berikut langkah-langkah untuk menginstal LangChain:

Menggunakan Pip:

pip install langchain

Menggunakan Conda:

conda install langchain -c conda-forge

2.2. Menginisialisasi Model

Sebelum menggunakan LangChain, Anda perlu mengimpor paket integrasi LangChain x OpenAI dan mengatur kunci API sebagai variabel lingkungan atau meneruskannya langsung ke kelas OpenAI LLM.

Pertama, dapatkan kunci API OpenAI, yang dapat diperoleh dengan membuat akun dan mengakses tautan ini. Kemudian, Anda dapat mengatur kunci API sebagai variabel lingkungan dengan metode berikut:

export OPENAI_API_KEY="YOUR_API_KEY"

Selanjutnya, inisialisasi model:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

Jika Anda tidak ingin mengatur variabel lingkungan, Anda dapat meneruskan kunci API langsung saat menginisialisasi kelas OpenAI LLM:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="YOUR_API_KEY")

2.3. Menggunakan LLM

Menggunakan LLM untuk menjawab pertanyaan sangat sederhana. Anda dapat langsung memanggil metode invoke dari LLM dan meneruskan pertanyaan sebagai parameter. Selain itu, Anda dapat membuat template prompt untuk mengirim perintah ke model (LLM).

Berikut adalah contoh bagaimana membangun rantai LLM sederhana:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "Anda adalah penulis dokumentasi teknis kelas dunia."),
    ("user", "{input}")
])

chain = prompt | llm

chain.invoke({"input": "bagaimana langsmith dapat membantu dalam pengujian?"})

2.4. Transformasi Output

Output dari LLM biasanya berupa pesan. Untuk menangani hasil dengan mudah, Anda dapat mengonversi pesan menjadi string. Berikut adalah contoh bagaimana mengonversi pesan output dari LLM menjadi string:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"input": "bagaimana langsmith dapat membantu dalam pengujian?"})

Di atas adalah pengantar untuk rantai LLM, diharapkan dapat membantu Anda memahami cara menginstal LangChain dan membangun berbagai jenis rantai.