अवलोकन

बड़े भाषा मॉडल (LLMs) सूचना निकालने वाले अनुप्रयोगों को सशक्तीकरण के लिए एक अत्यंत सक्षम प्रौद्योगिकी के रूप में उभर रहे हैं।

सूचना निकालन के वैदिक समाधान लोगों, (बहुत) हैंड-क्राफ्टेड नियमों (जैसे, नियमित अभिव्यक्तियों) और अनुकूल फाइन-ट्यून किए गए एमएल मॉडलों का संयोजन पर आधारित होते हैं।

ऐसे प्रणालियाँ समय के साथ पेचीदा हो जाती हैं और प्रगतिशील रूप से अधिक रख-रखाव के लिए और सुधारने के लिए कठिन हो जाती हैं।

LLMs को विशेष निकालन कार्यों के लिए त्वरित रूप से उपयुक्त निर्देशन और उपयुक्त संदर्भ उदाहरण प्रदान करके अनुकूलित किया जा सकता है।

इस मार्गदर्शिका में आपको यह दिखाया जाएगा कि निकालन अनुप्रयोगों के लिए LLMs का उपयोग कैसे करें!

पहुंच

LLMs का उपयोग करके सूचना निकालन के लिए 3 व्यापक दृष्टिकोण हैं:

  • टूल/फ़ंक्शन कॉलिंग मोड: कुछ LLMs टूल या फ़ंक्शन कॉलिंग मोड का समर्थन करते हैं। इन LLMs में आउटपुट को एक दिए गए स्कीमा के अनुसार संरचित किया जा सकता है। सामान्यतः, यह दृष्टिकोण सबसे आसान होता है और इससे अच्छे परिणाम मिलने की उम्मीद होती है।
  • JSON मोड: कुछ LLMs को प्रायोज्य JSON आउटपुट उत्पन्न करने के लिए मजबूर किया जा सकता है। यह टूल/फ़ंक्शन कॉलिंग दृष्टिकोण के समान है, केवल यहां यह स्कीमा प्रॉम्प्ट का हिस्सा होता है। सामान्यतः, हमारा अनुभव है कि यह टूल/फ़ंक्शन कॉलिंग दृष्टिकोण से खराब परिणाम वापस करता है, लेकिन अपने उपयोग मामले के लिए हमें भरोसा नहीं करना चाहिए!
  • प्रम्पटिंग आधारित: जो LLMs अच्छे से निर्देशन का पालन कर सकते हैं, उन्हें इच्छित प्रारूप में पाठ उत्पन्न करने के लिए निर्देशित किया जा सकता है। उत्पन्न पाठ को निचले स्ट्रीम के रूप में पार्श्ववर्तीकरण किया जा सकता है, मौजूदा आउटपुट पार्सर या अपने निजी पार्सर का उपयोग करके JSON जैसे संरचित प्रारूप में। इस दृष्टिकोण का उपयोग ऐसे LLMs के साथ किया जा सकता है जो JSON मोड या टूल/फ़ंक्शन कॉलिंग दृष्टिकोण का समर्थन नहीं करते हैं। यह दृष्टिकोण व्यापक रूप से उपयोग किया जा सकता है, लेकिन नतीजे मॉडल्स जो निकालन या फ़ंक्शन कॉलिंग के लिए फाइन-ट्यून किए गए वहां से भी खराब हो सकते हैं।