• Picasso IA लोगो
    Logo Picasso IA
  • होम
  • AI इमेज
    Nano Banana 2
  • AI वीडियो
    Veo 3.1 Fast
  • AI चैट
    Gemini 3 Pro
  • इमेज एडिट करें
  • इमेज सुधारें
  • बैकग्राउंड हटाएं
  • टेक्स्ट टू स्पीच
  • इफ़ेक्ट्स
    NEW
  • पीढ़ियाँ
  • बिलिंग
  • सहायता
  • खाता
  1. संग्रह
  2. लार्ज लैंग्वेज मॉडल (LLMs)
  3. Granite 3.0 8b Instruct

Granite 3.0 8B Instruct: चैट, सारांश, और कोड

Granite 3.0 8B Instruct 8 अरब पैरामीटर वाला एक ओपन-सोर्स भाषा मॉडल है, जिसे गति और विश्वसनीयता के साथ व्यापक प्रकार के पाठ कार्यों को संभालने के लिए बनाया गया है। चाहे आपको किसी पैराग्राफ का सारांश चाहिए हो, किसी कठिन प्रश्न का उत्तर, या Python में कोई फ़ंक्शन लिखना हो, यह आपकी माँग को संसाधित करके कुछ ही सेकंड में एक सुसंगत, संरचित उत्तर लौटाता है। यह उन सभी के कार्यप्रवाह के लिए उपयुक्त है जो नियमित रूप से पाठ के साथ काम करते हैं, लेकिन धीमे, भारी मॉडलों या जटिल सेटअप से निपटना नहीं चाहते। यह मॉडल कई डोमेन में निर्देश-पालन कार्यों को संभालता है: सारांशीकरण, अनुवाद, बहु-चरणीय समस्याओं पर तर्क करना, और लोकप्रिय प्रोग्रामिंग भाषाओं में कोड जनरेशन। यह एक कॉन्फ़िगर करने योग्य सिस्टम प्रॉम्प्ट का समर्थन करता है, इसलिए आप अपना अनुरोध भेजने से पहले एक व्यक्तित्व या विशिष्ट व्यवहार सेट कर सकते हैं। आप temperature, token limits, और stopping conditions को भी समायोजित कर सकते हैं, जिससे आपको प्रतिक्रिया की लंबाई और रचनात्मकता पर सार्थक नियंत्रण मिलता है। Granite 3.0 8B Instruct सामग्री कार्यप्रवाहों, त्वरित प्रोटोटाइपिंग सत्रों, और दैनिक शोध कार्यों में स्वाभाविक रूप से फिट बैठता है, जहाँ आपको तेज़ उत्तर चाहिए। कोई दस्तावेज़ पेस्ट करें और एक साफ़ सारांश पाएँ, किसी फ़ंक्शन का वर्णन करें और काम करने वाला कोड प्राप्त करें, या कोई तर्क-विचार प्रश्न पूछें और मॉडल के तर्क को चरण दर चरण फ़ॉलो करें। इसे Picasso IA पर खोलें, अपना prompt टाइप करें, और बिना किसी इंस्टॉलेशन या खाते की सेटअप के परिणाम पाएँ।

आधिकारिक

Ibm Granite

181.4k रन

Granite 3.0 8b Instruct

2024-10-15

व्यावसायिक उपयोग

Granite 3.0 8B Instruct: चैट, सारांश, और कोड

विषय-सूची

  • अवलोकन
  • यह कैसे काम करता है
  • अक्सर पूछे जाने वाले प्रश्न
  • क्रेडिट लागत
  • विशेषताएँ
  • उपयोग के मामले
Nano Banana Pro प्राप्त करें

अवलोकन

Granite 3.0 8B Instruct 8 अरब पैरामीटर वाला एक कॉम्पैक्ट भाषा मॉडल है, जिसे व्यापक प्रकार के पाठ कार्यों में निर्देशों का पालन करने के लिए बनाया गया है। Picasso IA पर, आप इसे लंबे दस्तावेज़ों का सारांश बनाने, पाठ का अनुवाद करने, कोड लिखने या डिबग करने, बहु-चरणीय तर्क-विचार समस्याओं पर काम करने, या एक ही prompt से संरचित सामग्री बनाने के लिए चला सकते हैं। यह एक व्यावहारिक मध्य-स्तर में बैठता है: उत्तर देने के लिए इतना छोटा कि कुछ ही सेकंड लगे, और इतना सक्षम कि उन कार्यों को संभाल सके जिनमें मैन्युअल रूप से करने पर काफ़ी समय लग सकता है। यदि आपको ऐसा पाठ मॉडल चाहिए जिसे आप सटीक रूप से निर्देशित कर सकें, बिना जटिल सेटअप के, तो यह एक विश्वसनीय विकल्प है।

यह कैसे काम करता है

  • अपना prompt सादी भाषा में लिखें: कोई प्रश्न पूछें, कोई कार्य बताएं, या वह पाठ पेस्ट करें जिसे आप संसाधित करवाना चाहते हैं।
  • वैकल्पिक रूप से, अपने मुख्य इनपुट से पहले मॉडल के व्यवहार को मार्गदर्शन देने के लिए एक system prompt सेट करें, उदाहरण के लिए: "संक्षिप्त तकनीकी संपादक की तरह उत्तर दें" या "हमेशा बुलेट पॉइंट्स में उत्तर दें।"
  • कम मानों पर केंद्रित, अनुमानित आउटपुट और अधिक मानों पर अधिक विविध, खुले-आख़िरी उत्तरों के बीच बदलने के लिए temperature स्लाइडर समायोजित करें।
  • प्रतिक्रिया की लंबाई नियंत्रित करने के लिए एक max token limit सेट करें, जो तब उपयोगी है जब आपको लंबी प्रतिक्रिया के बजाय छोटा सारांश या संक्षिप्त code snippet चाहिए।
  • generate पर क्लिक करें और कुछ ही सेकंड में एक पूर्ण पाठ उत्तर प्राप्त करें, जिसे आप कॉपी, परिष्कृत, या अपने अगले चरण में भेज सकते हैं।

अक्सर पूछे जाने वाले प्रश्न

क्या इसे उपयोग करने के लिए मुझे प्रोग्रामिंग कौशल या तकनीकी ज्ञान चाहिए? नहीं, बस Picasso IA पर Granite 3.0 8B Instruct खोलें, अपनी पसंद की सेटिंग्स समायोजित करें, और generate पर क्लिक करें।

क्या इसे आज़माना मुफ़्त है? हाँ, शुरू करने के लिए आप किसी विशेष खाता सेटअप के बिना Picasso IA पर Granite 3.0 8B Instruct चला सकते हैं। generation limits की जानकारी के लिए वर्तमान plan details देखें।

परिणाम मिलने में कितना समय लगता है? अधिकांश उत्तर कुछ ही सेकंड में वापस आ जाते हैं। उच्च token limits के साथ लंबे आउटपुट में 15-20 सेकंड तक लग सकते हैं, लेकिन रोज़मर्रा के अधिकांश कार्यों के लिए प्रतीक्षा समय कम होता है।

यह मॉडल किन प्रकार के कार्यों के लिए उपयुक्त है? यह सारांशीकरण, अनुवाद, code generation, प्रश्नों के उत्तर, बहु-चरणीय समस्याओं पर तर्क, और संरचित पाठ आउटपुट को संभालता है। यह विस्तृत निर्देशों का विश्वसनीय रूप से पालन करता है और layered या nested prompts के साथ भी विषय पर बना रहता है।

क्या मैं आउटपुट का tone या style नियंत्रित कर सकता हूँ? हाँ। system prompt फ़ील्ड आपको मुख्य prompt चलने से पहले एक व्यक्तित्व या व्यवहार नियम सेट करने देता है, और temperature setting यह समायोजित करती है कि उत्तर कितना conservative या varied है। साथ मिलकर, ये दो नियंत्रण बिना किसी coding के अधिकांश style समायोजन कवर करते हैं।

आउटपुट किस format में आता है? मॉडल डिफ़ॉल्ट रूप से सादा पाठ लौटाता है। आप अपने prompt में इसे उत्तर को list, table, JSON structure, code block, या किसी अन्य लेआउट में फ़ॉर्मेट करने का निर्देश दे सकते हैं जिसे आप वर्णित करते हैं।

क्या मैं समान परिणामों के लिए वही prompt setup एक से अधिक बार चला सकता हूँ? हाँ। अपने prompt की एक प्रति रखें और अपनी parameter settings नोट करें, और आप मांग पर मिलते-जुलते आउटपुट पुन: उत्पन्न कर सकते हैं। जहाँ उपलब्ध हो, एक निश्चित seed value का उपयोग करने से दोहराए गए runs में और भी अधिक स्थिरता मिलती है।

क्रेडिट लागत

प्रत्येक जेनरेशन 1 क्रेडिट का उपयोग करता है

1 क्रेडिट

या 5 क्रेडिट्स 5 जेनेरेशन के लिए

विशेषताएँ

यह मॉडल आपके लिए क्या कर सकता है

निर्देश पालन

उदाहरण-भारी prompts की आवश्यकता के बिना सारांशीकरण, अनुवाद, कोड जनरेशन, और तर्क-विचार कार्यों को संभालता है।

कस्टम सिस्टम prompts

सत्र के दौरान मॉडल की प्रतिक्रिया को आकार देने के लिए अपने अनुरोध से पहले एक व्यक्तित्व या व्यवहार नियम सेट करें।

समायोज्य आउटपुट लंबाई

मॉडल की प्रतिक्रिया को एक वाक्य जितना छोटा या पूरे दस्तावेज़ जितना लंबा पाने के लिए न्यूनतम और अधिकतम token limits सेट करें।

Temperature नियंत्रण

सटीक तथ्यात्मक उत्तरों और अधिक विविध, रचनात्मक आउटपुट के बीच स्विच करने के लिए randomness को ऊपर या नीचे समायोजित करें।

Stop sequences

विशिष्ट स्ट्रिंग्स परिभाषित करें जो generation को समाप्त करें, ताकि आउटपुट ठीक वहीं रुक जाए जहाँ आपको चाहिए।

Function calling support

संरचित prompts भेजें और ऐसे स्वरूपित उत्तर प्राप्त करें जो सीधे function signatures से मैप हों।

कॉम्पैक्ट 8B आर्किटेक्चर

बड़े मॉडलों की तुलना में तेज़ चलता है, जबकि जटिल कार्यों पर सुसंगत, बहु-चरणीय तर्क भी प्रदान करता है।

उपयोग के मामले

कोई लंबा लेख या रिपोर्ट पेस्ट करें और मुख्य बिंदुओं को सादा पाठ में निकालकर एक संक्षिप्त सारांश पाएँ।

एक बहु-चरणीय तर्क-विचार प्रश्न पूछें और ऐसा संरचित उत्तर प्राप्त करें जो तर्क को चरण दर चरण समझाए।

किसी फ़ंक्शन या एल्गोरिदम का सादा भाषा में वर्णन करें और Python, JavaScript, या किसी अन्य समर्थित भाषा में काम करने वाला कोड वापस पाएँ।

किसी वाक्य या पैराग्राफ को एक भाषा में सबमिट करें और लक्ष्य भाषा में प्राकृतिक लगने वाला अनुवाद प्राप्त करें।

एक सिस्टम प्रॉम्प्ट लिखें जो एक कस्टम व्यक्तित्व सेट करे, फिर उस भूमिका के अनुसार अनुकूलित उत्तर पाने के लिए अनुवर्ती निर्देश भेजें।

यह नियंत्रित करने के लिए कि मॉडल के उत्तर कितने रचनात्मक या सटीक हैं, अलग-अलग temperature और token सेटिंग्स का परीक्षण करें।

एक function-calling prompt भेजें और एक संरचित JSON उत्तर प्राप्त करें जो सीधे किसी विशिष्ट function signature से मैप होता है।

श्रेणी बदलें

इफेक्ट्स

टेक्स्ट से इमेज

टेक्स्ट से इमेज

टेक्स्ट से वीडियो

बड़े भाषा मॉडल

बड़े भाषा मॉडल

टेक्स्ट से स्पीच

टेक्स्ट से स्पीच

सुपर रेजोल्यूशन

सुपर रेजोल्यूशन

लिपसिंक

AI संगीत निर्माण

AI संगीत निर्माण

वीडियो संपादन

स्पीच से टेक्स्ट

स्पीच से टेक्स्ट

AI वीडियो एन्हांस

बैकग्राउंड हटाएँ

बैकग्राउंड हटाएँ