1. Introduzione rapida

Di seguito è riportato un semplice esempio di langchain, che dimostra come utilizzare il framework langchain per chiamare i modelli per completare attività.

2. Esempio di LangChain

2.1. Installazione di LangChain

Per installare LangChain, puoi utilizzare Pip e Conda. Ecco i passaggi per installare LangChain:

Utilizzando Pip:

pip install langchain

Utilizzando Conda:

conda install langchain -c conda-forge

2.2. Inizializzazione del Modello

Prima di utilizzare LangChain, è necessario importare il pacchetto di integrazione LangChain x OpenAI e impostare la chiave API come variabile di ambiente o passarla direttamente alla classe OpenAI LLM.

Innanzitutto, ottieni la chiave API di OpenAI, che può essere ottenuta creando un account e accedendo a questo link. Quindi, puoi impostare la chiave API come variabile di ambiente con il seguente metodo:

export OPENAI_API_KEY="LA_TUA_CHIAVE_API"

Successivamente, inizializza il modello:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI()

Se non desideri impostare la variabile di ambiente, puoi passare direttamente la chiave API durante l'inizializzazione della classe OpenAI LLM:

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(openai_api_key="LA_TUA_CHIAVE_API")

2.3. Uso di LLM

Utilizzare LLM per rispondere alle domande è molto semplice. Puoi chiamare direttamente il metodo invoke di LLM e passare la domanda come parametro. Inoltre, puoi generare modelli di prompt per inviare comandi al modello (LLM).

Di seguito viene dimostrato come costruire una semplice catena LLM:

from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate.from_messages([
    ("system", "Sei un redattore di documentazione tecnica di classe mondiale."),
    ("user", "{input}")
])

chain = prompt | llm

chain.invoke({"input": "come può langsmith aiutare con i test?"})

2.4. Trasformazione dell'output

L'output di LLM è generalmente un messaggio. Per gestire comodamente il risultato, puoi convertire il messaggio in una stringa. Viene di seguito dimostrato come convertire il messaggio di output di LLM in una stringa:

from langchain_core.output_parsers import StrOutputParser

output_parser = StrOutputParser()

chain = prompt | llm | output_parser

chain.invoke({"input": "come può langsmith aiutare con i test?"})

Quanto sopra è un'introduzione alla catena LLM, con la speranza di aiutarti a capire meglio come installare LangChain e costruire diversi tipi di catene.