Visão Geral
Os Modelos de Linguagem Grandes (LLMs) estão surgindo como uma tecnologia extremamente capaz para alimentar aplicações de extração de informações.
As soluções clássicas para a extração de informações dependem de uma combinação de pessoas, (muitas) regras feitas à mão (por exemplo, expressões regulares) e modelos de ML personalizados e ajustados.
Tais sistemas tendem a se tornar complexos com o tempo, tornando-se progressivamente mais caros de manter e mais difíceis de aprimorar.
LLMs podem ser adaptados rapidamente para tarefas de extração específicas apenas fornecendo instruções apropriadas a eles e exemplos de referência apropriados.
Este guia mostrará como usar LLMs para aplicações de extração!
Abordagens
Existem 3 abordagens principais para a extração de informações usando LLMs:
- Modo de Chamada de Ferramenta/Função: Alguns LLMs suportam um modo de chamada de ferramenta ou função. Esses LLMs podem estruturar a saída de acordo com um esquema dado. Geralmente, esta abordagem é a mais fácil de trabalhar e espera-se que produza bons resultados.
- Modo JSON: Alguns LLMs podem ser forçados a produzir JSON válido. Isso é semelhante à abordagem de chamada de ferramenta/função, exceto que o esquema é fornecido como parte do prompt. Geralmente, nossa intuição é que isso funcione pior do que a abordagem de chamada de ferramenta/função, mas não confie em nós e verifique para o seu próprio caso de uso!
- Baseado em Prompts: LLMs que conseguem seguir instruções bem podem ser instruídos a gerar texto em um formato desejado. O texto gerado pode ser analisado a jusante usando Analisadores de Saída existentes ou usando analisadores personalizados para um formato estruturado como JSON. Esta abordagem pode ser usada com LLMs que não suportam o modo JSON ou modos de chamada de ferramenta/função. Esta abordagem é mais amplamente aplicável, embora possa produzir resultados piores do que modelos que foram ajustados para extração ou chamada de função.