Granite 3.3 8B Instruct एक भाषा मॉडल है जो निर्देश-अनुसरण और बहु-चरणीय तर्क के लिए बनाया गया है। यह 128K-टोकन संदर्भ विंडो का समर्थन करता है, जिसका अर्थ है कि आप इसे पूरी रिपोर्ट, लंबे संवाद, या विस्तृत निर्देशों के सेट खिला सकते हैं और सुसंगत उत्तर वापस पा सकते हैं। यदि आपको एक मॉडल की आवश्यकता है जो एक बड़े दस्तावेज़ को पढ़ता है और विशिष्ट जानकारी निकालता है, या प्रश्नों की एक श्रृंखला के माध्यम से तार्किक क्रम में काम करता है, तो यह बिल्कुल उसके लिए डिज़ाइन किया गया है। यह मॉडल टूल कॉलिंग का समर्थन करता है, जो इसे यह तय करने देता है कि अनुमान लगाने के बजाय एक प्रश्न का उत्तर देने के लिए बाहरी फ़ंक्शन कब लागू करें। आप अपने प्रॉम्प्ट के साथ संदर्भ दस्तावेज़ प्रदान कर सकते हैं, और मॉडल अपनी प्रतिक्रिया में सीधे उन्हें उपयोग करता है। तापमान, top-p, और आवृत्ति दंड नियंत्रण आपको आउटपुट टोन को सटीक और तथ्यात्मक से अधिक भिन्न और खोजपूर्ण तक आकार देने देते हैं। व्यवहार में, यह मॉडल सामग्री कार्यप्रवाह, अनुसंधान पाइपलाइन, और चैट इंटरफेस में अच्छी तरह फिट होता है। लेखक इसका उपयोग स्रोत सामग्री को सारांशित करने और संरचित रूपरेखा तैयार करने के लिए करते हैं। विश्लेषक टोकन सीमा तक पहुंचे बिना लंबे दस्तावेज़ों में Q&A सत्र चलाते हैं। Picasso IA पर मॉडल खोलें, अपना प्रॉम्प्ट चिपकाएं, और कुछ सेकंड में एक पूर्ण लंबाई की लिखित प्रतिक्रिया प्राप्त करें।
Granite 3.3 8B Instruct एक भाषा मॉडल है जो विस्तृत निर्देशों का पालन करने और बहु-चरणीय समस्याओं के माध्यम से तर्क करने के लिए सूक्ष्म-ट्यून किया गया है। यह 128K-टोकन संदर्भ विंडो का समर्थन करता है, इसलिए आप छोटे अंशों के बजाय पूरे दस्तावेज़ों के साथ काम कर सकते हैं। Picasso IA पर, आप मॉडल खोलते हैं, अपना प्रॉम्प्ट टाइप या चिपकाते हैं, और कुछ सेकंड में एक सुसंगत लिखित प्रतिक्रिया प्राप्त करते हैं। यह किसी भी ऐसे व्यक्ति के लिए उपयुक्त है जिसे कोई कोड लिखे बिना जटिल इनपुट से सुसंगत, संरचित पाठ आउटपुट की आवश्यकता है।
क्या मुझे इसका उपयोग करने के लिए प्रोग्रामिंग कौशल या तकनीकी ज्ञान की आवश्यकता है? नहीं, बस Picasso IA पर Granite 3.3 8B Instruct खोलें, जो सेटिंग्स चाहते हैं उन्हें समायोजित करें, और जेनरेट हिट करें।
क्या इसे आजमाने के लिए मुक्त है? हां, आप खाता बनाए बिना या भुगतान विवरण दर्ज किए बिना मॉडल को ऑनलाइन मुफ्त में चला सकते हैं। कोई सेटअप आवश्यक नहीं है।
परिणाम प्राप्त करने में कितना समय लगता है? अधिकांश प्रॉम्प्ट 10 सेकंड के तहत एक प्रतिक्रिया लौटाते हैं। लंबे प्रॉम्प्ट या उच्च अधिकतम-टोकन सेटिंग इनपुट लंबाई के आधार पर थोड़ा अधिक समय ले सकते हैं।
कौन से आउटपुट प्रारूप समर्थित हैं? मॉडल डिफ़ॉल्ट रूप से सादा पाठ लौटाता है। आप अपने प्रॉम्प्ट में प्रारूप निर्दिष्ट करके या सेटिंग्स पैनल में प्रतिक्रिया प्रारूप विकल्प का उपयोग करके JSON जैसे संरचित प्रारूप अनुरोध कर सकते हैं।
क्या मैं आउटपुट गुणवत्ता या शैली को कस्टमाइज़ कर सकता हूं? हां। तापमान नियंत्रित करता है कि आउटपुट कितना भिन्न है, top-p कम-संभावना टोकन को फ़िल्टर करता है, और आवृत्ति दंड दोहराए गए वाक्यांशों को कम करता है। इन्हें समायोजित करें ताकि आपके कार्य के लिए आवश्यक टोन और शैली से मेल खाएं।
मैं मॉडल को कितनी बार चला सकता हूं? आप अपनी योजना की पीढ़ी सीमाओं के भीतर कितनी बार चाहें मॉडल को चला सकते हैं। प्रत्येक रन स्वतंत्र है, इसलिए आपके प्रॉम्प्ट को समायोजित करना और फिर से चलाना वर्कफ़्लो का एक सामान्य हिस्सा है।
मैं आउटपुट का कहां उपयोग कर सकता हूं? पाठ आउटपुट डिफ़ॉल्ट रूप से सादा और अप्रारूपित है, दस्तावेज़, ईमेल, कोड फ़ाइलों, या किसी भी सामग्री उपकरण में पेस्ट करने के लिए तैयार है जो आप पहले से उपयोग करते हैं।
यह मॉडल आपके लिए क्या कर सकता है
पूरे दस्तावेज़, प्रतिलेख, या लंबा संवाद इतिहास खिलाएं बिना टोकन सीमा तक पहुंचे।
मॉडल को यह तय करने दें कि बाहरी फ़ंक्शन कब लागू करें और संरचित, कार्य-तैयार प्रतिक्रियाएं लौटाएं।
JSON या अन्य स्वरूपित प्रतिक्रियाएं अनुरोध करें जिन्हें सीधे डाउनस्ट्रीम सिस्टम में खिलाया जा सकता है।
एक एकल स्लाइडर के साथ आउटपुट यादृच्छिकता को सटीक और तथ्यात्मक से भिन्न और खोजपूर्ण तक डायल करें।
अपने प्रॉम्प्ट के लिए संदर्भ दस्तावेज़ संलग्न करें ताकि उत्तर आपकी आपूर्ति की गई सामग्री में लंगर डाले रहें।
मानक सेटिंग्स पर 10 सेकंड के तहत एक विस्तृत प्रॉम्प्ट के लिए एक पूर्ण पाठ प्रतिक्रिया प्राप्त करें।
आउटपुट को बिल्कुल आवश्यक लंबाई रखने के लिए न्यूनतम और अधिकतम टोकन सीमाएं सेट करें।
दोहराव कम करने और विविधता बढ़ाने के लिए पेनल्टी नियंत्रण