1. Inicio rápido
A continuación se muestra un ejemplo sencillo de langchain, que demuestra cómo utilizar el marco de trabajo langchain para llamar a modelos y completar tareas.
2. Ejemplo de Langchain
2.1. Instalación de LangChain
Para instalar LangChain, puedes utilizar Pip y Conda. Aquí tienes los pasos para instalar LangChain:
Usando Pip:
pip install langchain
Usando Conda:
conda install langchain -c conda-forge
2.2. Inicialización del Modelo
Antes de utilizar LangChain, es necesario importar el paquete de integración LangChain x OpenAI y configurar la clave API como una variable de entorno o pasarla directamente a la clase OpenAI LLM.
Primero, obtén la clave API de OpenAI, que se puede obtener creando una cuenta y accediendo a este enlace. Luego, puedes configurar la clave API como una variable de entorno con el siguiente método:
export OPENAI_API_KEY="TU_CLAVE_API"
A continuación, inicializa el modelo:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI()
Si no deseas configurar la variable de entorno, puedes pasar la clave API directamente al inicializar la clase OpenAI LLM:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(openai_api_key="TU_CLAVE_API")
2.3. Uso de LLM
Utilizar LLM para responder preguntas es muy sencillo. Puedes llamar directamente al método invoke
de LLM y pasar la pregunta como parámetro. Además, puedes generar plantillas de indicaciones para enviar comandos al modelo (LLM).
Lo siguiente demuestra cómo construir una cadena LLM simple:
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_messages([
("system", "Eres un redactor de documentación técnica de clase mundial."),
("user", "{input}")
])
cadena = prompt | llm
cadena.invoke({"input": "¿cómo puede langsmith ayudar con las pruebas?"})
2.4. Transformación de la Salida
La salida de LLM suele ser un mensaje. Para manejar convenientemente el resultado, puedes convertir el mensaje en una cadena. Lo siguiente demuestra cómo convertir el mensaje de salida de LLM a una cadena:
from langchain_core.output_parsers import StrOutputParser
output_parser = StrOutputParser()
cadena = prompt | llm | output_parser
cadena.invoke({"input": "¿cómo puede langsmith ayudar con las pruebas?"})
Lo anterior es una introducción a la cadena LLM, con la esperanza de ayudarte a comprender mejor cómo instalar LangChain y construir diferentes tipos de cadenas.