LangChain adalah kerangka pengembangan aplikasi AI Python open-source yang menyediakan modul dan alat yang diperlukan untuk membangun aplikasi AI berdasarkan model besar. Dengan LangChain, pengembang dapat dengan mudah mengintegrasikan dengan model bahasa besar (LLMs) untuk menyelesaikan tugas seperti generasi teks, menjawab pertanyaan, menerjemahkan, dan percakapan. LangChain menurunkan hambatan pengembangan aplikasi AI, memungkinkan siapa pun membangun aplikasi kreatif mereka sendiri berdasarkan LLMs.

Fitur-fitur LangChain:

  • LLM dan Prompts: LangChain mengabstraksikan API untuk semua model besar, menyatukan akses ke model besar, dan menyediakan mekanisme untuk mengelola templat prompt.
  • Rantai: LangChain mengenkapsulasi beberapa skenario umum menjadi modul siap pakai, seperti sistem menanyakan pertanyaan berbasis konteks, generasi bahasa alami dari kueri SQL, dll. Tugas-tugas ini dieksekusi langkah demi langkah seperti alur kerja, oleh karena itu dinamakan "rantai."
  • LCEL: Bahasa Ekspresi LangChain (LCEL) adalah fitur inti dari versi baru LangChain, digunakan untuk menyelesaikan masalah orkestrasi alur kerja. Dengan ekspresi LCEL, kita dapat menyesuaikan alur pemrosesan tugas AI secara fleksibel, yang juga dikenal sebagai "rantai" kustom yang fleksibel.
  • Generasi dengan Peningkatan Pemulangan (RAG): Karena model besar (LLMs) tidak memahami informasi baru dan tidak dapat menjawab pertanyaan baru, kita mengimpor informasi baru ke LLM untuk meningkatkan kualitas konten yang dihasilkan. Model ini disebut Generasi dengan Peningkatan Pemulangan (RAG).
  • Agen: Ini adalah pola desain untuk aplikasi berdasarkan model besar (LLMs), memanfaatkan pemahaman bahasa alami dan kemampuan penalaran LLMs (sebagai otak), untuk secara otomatis memanggil sistem dan perangkat eksternal bersama-sama untuk menyelesaikan tugas berdasarkan kebutuhan pengguna. Misalnya, seorang pengguna memasukkan "ambil hari libur besok," dan model besar (LLM) secara otomatis memanggil sistem cuti untuk menginisiasi permohonan cuti.
  • Memori Model: Ini memungkinkan model besar (LLM) untuk mengingat konten percakapan sebelumnya, yang dikenal sebagai memori model.