1. Inicio rápido

A continuación se muestra un ejemplo sencillo de langchain, que demuestra cómo utilizar el marco de trabajo langchain para llamar a modelos y completar tareas.

2. Ejemplo de Langchain

2.1. Instalación de LangChain

Para instalar LangChain, puedes utilizar Pip y Conda. Aquí tienes los pasos para instalar LangChain:

Usando Pip:

pip install langchain

Usando Conda:

conda install langchain -c conda-forge

2.2. Inicialización del Modelo

Antes de utilizar LangChain, es necesario importar el paquete de integración LangChain x OpenAI y configurar la clave API como una variable de entorno o pasarla directamente a la clase OpenAI LLM.

Primero, obtén la clave API de OpenAI, que se puede obtener creando una cuenta y accediendo a este enlace. Luego, puedes configurar la clave API como una variable de entorno con el siguiente método:

export OPENAI_API_KEY="TU_CLAVE_API"

A continuación, inicializa el modelo:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

Si no deseas configurar la variable de entorno, puedes pasar la clave API directamente al inicializar la clase OpenAI LLM:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="TU_CLAVE_API")

2.3. Uso de LLM

Utilizar LLM para responder preguntas es muy sencillo. Puedes llamar directamente al método invoke de LLM y pasar la pregunta como parámetro. Además, puedes generar plantillas de indicaciones para enviar comandos al modelo (LLM).

Lo siguiente demuestra cómo construir una cadena LLM simple:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "Eres un redactor de documentación técnica de clase mundial."),
    ("user", "{input}")
])

cadena = prompt | llm

cadena.invoke({"input": "¿cómo puede langsmith ayudar con las pruebas?"})

2.4. Transformación de la Salida

La salida de LLM suele ser un mensaje. Para manejar convenientemente el resultado, puedes convertir el mensaje en una cadena. Lo siguiente demuestra cómo convertir el mensaje de salida de LLM a una cadena:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

cadena = prompt | llm | output_parser

cadena.invoke({"input": "¿cómo puede langsmith ayudar con las pruebas?"})

Lo anterior es una introducción a la cadena LLM, con la esperanza de ayudarte a comprender mejor cómo instalar LangChain y construir diferentes tipos de cadenas.