Wskazówki

Jakość wyników ekstrakcji zależy od wielu czynników.

Oto zestaw wskazówek, które pomogą Ci wycisnąć najlepszą wydajność ze swoich modeli:

  • Ustaw temperaturę modelu na 0.
  • Udoskonal prompt. Prompt powinien być precyzyjny i zwięzły.
  • Udokumentuj schemat: Upewnij się, że schemat jest udokumentowany, aby dostarczyć więcej informacji modelowi LLM.
  • Podaj przykłady odniesienia! Różnorodne przykłady mogą pomóc, w tym także przykłady, gdzie nic nie powinno być wyekstrahowane.
  • Jeśli masz wiele przykładów, użyj wyszukiwarki, aby wybrać najbardziej istotne przykłady.
  • Porównaj z najlepszym dostępnym modelem LLM/Chat (np. gpt-4, claude-3, itp.) – sprawdź u dostawcy modelu, który jest najnowszy i najlepszy!
  • Jeśli schemat jest bardzo duży, spróbuj podzielić go na kilka mniejszych schematów, przeprowadź oddzielne ekstrakcje i scal wyniki.
  • Upewnij się, że schemat pozwala modelowi ODRZUCAĆ wyodrębnianie informacji. Jeśli tego nie robi, model będzie zmuszony do wymyślania informacji!
  • Dodaj kroki weryfikacji/korekty (poproś LLM-a o poprawienie lub zweryfikowanie wyników ekstrakcji).

Pamiętaj!

  • LLM-y są świetne, ale nie są wymagane we wszystkich przypadkach! Jeśli wyodrębniasz informacje z pojedynczego źródła strukturalnego (np. Linkedin), użycie LLM-a nie jest dobrym pomysłem – tradycyjne web-scraping będzie o wiele tańsze i bardziej wiarygodne.
  • człowiek w pętli Jeśli potrzebujesz perfekcyjnej jakości, prawdopodobnie będziesz musiał zaplanować obecność człowieka w pętli – nawet najlepsze LLM-y będą popełniać błędy przy zadaniach złożonych ekstrakcji.