LangChain é um framework de desenvolvimento de aplicativos de IA em Python de código aberto que fornece módulos e ferramentas necessárias para construir aplicativos de IA com base em modelos grandes. Com LangChain, os desenvolvedores podem facilmente integrar modelos de linguagem grandes (LLMs) para completar tarefas como geração de texto, resposta a perguntas, tradução e conversação. LangChain reduz a barreira para o desenvolvimento de aplicativos de IA, permitindo que qualquer pessoa construa suas próprias aplicações criativas com base em LLMs.

Recursos do LangChain:

  • LLM e Prompts: LangChain abstrai a API para todos os modelos grandes, unifica o acesso aos modelos grandes e fornece um mecanismo para gerenciar modelos de prompt.
  • Correntes: LangChain encapsula alguns cenários comuns em módulos prontos para uso, como sistemas de resposta a perguntas com base em contexto, geração de linguagem natural de consultas SQL, etc. Essas tarefas são executadas passo a passo como um fluxo de trabalho, daí o nome "chain".
  • LCEL: A Linguagem de Expressão LangChain (LCEL) é o recurso principal da nova versão do LangChain, usada para resolver problemas de orquestração de fluxo de trabalho. Com as expressões LCEL, podemos personalizar flexivelmente o fluxo de processamento de tarefas de IA, também conhecido como "chains" personalizados flexíveis.
  • Geração Aumentada por Recuperação (RAG): Como os modelos grandes (LLMs) não compreendem novas informações e não podem responder a novas perguntas, importamos novas informações para LLM para aprimorar a qualidade do conteúdo gerado. Esse modelo é chamado de Geração Aumentada por Recuperação (RAG).
  • Agentes: Este é um padrão de design para aplicativos baseados em modelos grandes (LLMs), aproveitando a capacidade de compreensão e raciocínio da linguagem natural dos LLMs (atuando como o cérebro), para chamar automaticamente sistemas e dispositivos externos juntos para completar tarefas com base nos requisitos do usuário. Por exemplo, um usuário insere "tirar um dia de folga amanhã" e o modelo grande (LLM) chama automaticamente o sistema de licenças para iniciar um pedido de licença.
  • Memória do Modelo: Isso permite que o modelo grande (LLM) se lembre do conteúdo da conversa anterior, conhecido como memória do modelo.