Wskazówki
Jakość wyników ekstrakcji zależy od wielu czynników.
Oto zestaw wskazówek, które pomogą Ci wycisnąć najlepszą wydajność ze swoich modeli:
- Ustaw temperaturę modelu na
0
. - Udoskonal prompt. Prompt powinien być precyzyjny i zwięzły.
- Udokumentuj schemat: Upewnij się, że schemat jest udokumentowany, aby dostarczyć więcej informacji modelowi LLM.
- Podaj przykłady odniesienia! Różnorodne przykłady mogą pomóc, w tym także przykłady, gdzie nic nie powinno być wyekstrahowane.
- Jeśli masz wiele przykładów, użyj wyszukiwarki, aby wybrać najbardziej istotne przykłady.
- Porównaj z najlepszym dostępnym modelem LLM/Chat (np. gpt-4, claude-3, itp.) – sprawdź u dostawcy modelu, który jest najnowszy i najlepszy!
- Jeśli schemat jest bardzo duży, spróbuj podzielić go na kilka mniejszych schematów, przeprowadź oddzielne ekstrakcje i scal wyniki.
- Upewnij się, że schemat pozwala modelowi ODRZUCAĆ wyodrębnianie informacji. Jeśli tego nie robi, model będzie zmuszony do wymyślania informacji!
- Dodaj kroki weryfikacji/korekty (poproś LLM-a o poprawienie lub zweryfikowanie wyników ekstrakcji).
Pamiętaj!
- LLM-y są świetne, ale nie są wymagane we wszystkich przypadkach! Jeśli wyodrębniasz informacje z pojedynczego źródła strukturalnego (np. Linkedin), użycie LLM-a nie jest dobrym pomysłem – tradycyjne web-scraping będzie o wiele tańsze i bardziej wiarygodne.
- człowiek w pętli Jeśli potrzebujesz perfekcyjnej jakości, prawdopodobnie będziesz musiał zaplanować obecność człowieka w pętli – nawet najlepsze LLM-y będą popełniać błędy przy zadaniach złożonych ekstrakcji.