Przegląd
Duże modele językowe (LLM) stają się coraz bardziej zaawansowaną technologią do zasilania aplikacji do ekstrakcji informacji.
Klasyczne rozwiązania dotyczące ekstrakcji informacji opierają się na połączeniu ludzi, (wiele) ręcznie opracowanych reguł (np. wyrażeń regularnych) i dostosowanych modeli uczenia maszynowego.
Takie systemy mają tendencję do stawania się coraz bardziej skomplikowanymi z czasem, są coraz bardziej kosztowne w utrzymaniu i trudniejsze do ulepszania.
LLM-y można szybko dostosować do konkretnych zadań ekstrakcji, poprzez dostarczenie odpowiednich instrukcji oraz odpowiednich przykładów referencyjnych.
Ten przewodnik pokaże Ci, jak korzystać z LLM-ów do aplikacji ekstrakcji!
Metody
Istnieją 3 ogólne podejścia do ekstrakcji informacji przy użyciu LLM-ów:
- Tryb Wywoływania Narzędzia/Funkcji: Niektóre LLM-y wspierają tryb wywoływania narzędzia lub funkcji. Te LLM-y mogą strukturyzować wyniki zgodnie z danym schematem. Ogólnie rzecz biorąc, to podejście jest najłatwiejsze do pracy i przewiduje się, że przyniesie dobre wyniki.
- Tryb JSON: Niektóre LLM-y można zmusić do generowania poprawnego formatu JSON. Jest to podobne do podejścia wywoływania narzędzia/funkcji, z tym że schemat jest dostarczany jako część polecenia. Ogólnie rzecz biorąc, intuicja podpowiada nam, że to działa gorzej niż podejście wywoływania narzędzia/funkcji, ale nie ufaj nam i zweryfikuj dla własnego przypadku użycia!
- Oparte na Podpowiadaniu: LLM-y, które potrafią dobrze wykonywać instrukcje, można nakazać generowanie tekstu w pożądanym formacie. Wygenerowany tekst można analizować na etapie przetwarzania końcowego za pomocą istniejących analizatorów wyjścia lub za pomocą niestandardowych analizatorów, w celu uzyskania strukturyzowanego formatu, takiego jak JSON. To podejście można stosować z LLM-ami, które nie obsługują trybu JSON ani wywoływania narzędzia/funkcji. To podejście ma szersze zastosowanie, choć może przynieść gorsze wyniki niż modele, które zostały dostosowane dla ekstrakcji lub wywoływania funkcji.