• Picasso IA लोगो
    Logo Picasso IA
  • होम
  • AI इमेज
    Nano Banana 2
  • AI वीडियो
    Veo 3.1 Fast
  • AI चैट
    Gemini 3 Pro
  • इमेज एडिट करें
  • इमेज सुधारें
  • बैकग्राउंड हटाएं
  • टेक्स्ट टू स्पीच
  • इफ़ेक्ट्स
    NEW
  • पीढ़ियाँ
  • बिलिंग
  • सहायता
  • खाता
  1. संग्रह
  2. लार्ज लैंग्वेज मॉडल (LLMs)
  3. Granite 4.0 H Small

Granite 4.0 H Small: निःशुल्क दीर्घ-संदर्भ LLM

Granite 4.0 H Small एक 32-अरब पैरामीटर वाला भाषा मॉडल है, जिसे टेक्स्ट जनरेशन और निर्देशों का पालन करने के लिए बनाया गया है। यदि आपको ऐसी AI चाहिए जो एक लंबे दस्तावेज़ को पढ़ सके, उसका सारांश बना सके, और फिर संदर्भ खोए बिना उसके बारे में विशिष्ट प्रश्नों के उत्तर दे सके, तो यही आपके लिए है। यह एकल-चरणीय prompts और बहु-चरणीय वार्तालापों, दोनों को संभालता है, जिससे ईमेल ड्राफ्ट करने से लेकर कस्टम चैटबॉट चलाने तक हर काम के लिए यह व्यावहारिक बन जाता है। मॉडल tool use, document grounding, और structured output formats का समर्थन करता है, इसलिए यह JSON में उत्तर लौटा सकता है, function calls संभाल सकता है, और आपके द्वारा दिए गए reference documents के सेट के साथ काम कर सकता है। इसके विस्तारित context window की बदौलत लंबे exchanges में भी responses विषय पर बने रहते हैं। आप temperature, top-p filtering, और stop sequences के साथ generation behavior को भी नियंत्रित कर सकते हैं ताकि आपको ठीक वही output format मिले जिसकी आपको आवश्यकता है। लेखक, developers, और researchers यहाँ अलग-अलग उपयोग पाते हैं: structured reports तैयार करना, chatbot flows का prototype बनाना, या दस्तावेज़ों के सेट के विरुद्ध batch question-answering चलाना। किसी local setup की आवश्यकता नहीं। Picasso IA पर मॉडल खोलें, अपना prompt टाइप करें, और कुछ ही सेकंड में response प्राप्त करें।

आधिकारिक

Ibm Granite

204.4k रन

Granite 4.0 H Small

2025-09-25

व्यावसायिक उपयोग

Granite 4.0 H Small: निःशुल्क दीर्घ-संदर्भ LLM

विषय-सूची

  • अवलोकन
  • यह कैसे काम करता है
  • अक्सर पूछे जाने वाले प्रश्न
  • क्रेडिट लागत
  • विशेषताएँ
  • उपयोग के मामले
Nano Banana Pro प्राप्त करें

अवलोकन

Granite 4.0 H Small एक 32-अरब-पैरामीटर वाला instruction-following language model है, जिसे long-context text generation के लिए बनाया गया है। यह जटिल, बहु-चरणीय prompts को उच्च निष्ठा के साथ संसाधित करता है, जिससे यह उन उपयोगकर्ताओं के लिए एक व्यावहारिक विकल्प बन जाता है जिन्हें dense inputs से विस्तृत, structured written output चाहिए। Picasso IA पर, आप इसे किसी भी browser से सीधे चला सकते हैं, बिना software install किए या कोड की एक भी line लिखे। किसी researcher द्वारा लंबे report का सारांश बनाना, या किसी content creator द्वारा rough notes से structured articles तैयार करना, ऐसे कामों के लिए यह model बिल्कुल उसी तरह बनाया गया है।

यह कैसे काम करता है

  • text field में अपना prompt लिखें, या back-and-forth format के लिए messages input का उपयोग करके एक structured conversation दें
  • generate करने से पहले model की भूमिका, tone, या constraints तय करने के लिए एक system prompt जोड़ें
  • वैकल्पिक रूप से reference documents चिपकाएँ या grounded responses के लिए model को अतिरिक्त context देने हेतु tools परिभाषित करें
  • output कितना focused या varied होगा, इसे आकार देने के लिए temperature, top-p, और token limits को समायोजित करें
  • generate पर क्लिक करें और एक पूर्ण text response प्राप्त करें, फिर अपना prompt या parameters समायोजित करके आगे बढ़ें

अक्सर पूछे जाने वाले प्रश्न

क्या मुझे इसे उपयोग करने के लिए programming skills या तकनीकी ज्ञान चाहिए? नहीं, बस Picasso IA पर Granite 4.0 H Small खोलें, अपनी इच्छित settings समायोजित करें, और generate दबाएँ।

क्या इसे आज़माना मुफ्त है? हाँ, आप किसी जटिल setup के बिना सीधे interface से model चला सकते हैं। usage limits और उपलब्ध credits के विवरण के लिए current pricing page देखें।

परिणाम पाने में कितना समय लगता है? Response time prompt की लंबाई और आपके द्वारा अनुरोधित tokens की संख्या पर निर्भर करता है। छोटे prompts आमतौर पर कुछ सेकंड में परिणाम देते हैं; लंबे, अधिक विस्तृत outputs में कुछ अधिक समय लगता है।

कौन-कौन से output formats समर्थित हैं? Model डिफ़ॉल्ट रूप से plain text लौटाता है, लेकिन आप settings panel में response format निर्दिष्ट करके JSON जैसे structured output का अनुरोध कर सकते हैं। इससे यह freeform writing और structured data extraction कार्यों, दोनों के लिए उपयोगी बन जाता है।

क्या मैं output quality या style को अनुकूलित कर सकता हूँ? हाँ। Temperature रचनात्मकता को नियंत्रित करता है, top-p और top-k token selection को संकुचित या विस्तृत करते हैं, और presence या frequency penalties पुनरावृत्ति को कम करते हैं। एक system prompt model के लिए एक विशिष्ट tone, persona, या नियमों का सेट भी परिभाषित कर सकता है जिसका उसे पालन करना चाहिए।

मैं model को कितनी बार चला सकता हूँ? आप एक session में कई generations चला सकते हैं। किसी विशिष्ट output को ठीक-ठीक पुन: उत्पन्न करने के लिए fixed seed का उपयोग करें, या हर बार नया परिणाम पाने के लिए इसे unset छोड़ दें।

मैं outputs का उपयोग कहाँ कर सकता हूँ? आपके द्वारा generate किया गया text आपके उपयोग के लिए है। इसे documents, emails, code editors, या किसी भी publishing workflow में model स्वयं से जुड़ी किसी restriction के बिना copy करें।

क्रेडिट लागत

प्रत्येक जेनरेशन 1 क्रेडिट का उपयोग करता है

1 क्रेडिट

या 5 क्रेडिट्स 5 जेनेरेशन के लिए

विशेषताएँ

यह मॉडल आपके लिए क्या कर सकता है

32B parameter model

जटिल निर्देशों और सूक्ष्म प्रश्नों को निरंतर सटीकता के साथ संभालता है।

Long-context window

लंबी documents को पहले की सामग्री खोए बिना पढ़ता और उत्तर देता है।

Tool use support

कस्टम functions परिभाषित करें और task की आवश्यकता होने पर model उन्हें call करेगा।

Structured output

JSON-formatted responses का अनुरोध करें ताकि परिणाम सीधे अन्य systems में भेजे जा सकें।

Document grounding

अपनी query के साथ reference documents पास करें और स्रोत सामग्री से जुड़े उत्तर प्राप्त करें।

Adjustable generation

output style और length को नियंत्रित करने के लिए temperature, top-p, और stop sequences सेट करें।

Multi-turn conversation

Q&A और chat workflows के लिए पूरी conversation thread में संदर्भ बनाए रखता है।

उपयोग के मामले

लंबी report या article का सारांश बनाने के लिए text चिपकाएँ और उसके बारे में विशिष्ट प्रश्न पूछें

एक छोटी brief से blog post, email, या product description का पहला draft लिखें

एक system prompt देकर और conversation paths का परीक्षण करके multi-turn chatbot flow बनाएं

JSON output का अनुरोध करके, परिभाषित fields के साथ, unstructured text से structured data निकालें

reference content पास करके और targeted questions पूछकर अपने स्वयं के documents में responses को ground करें

plain language में अपनी आवश्यकता बताकर code snippets जनरेट करें या मौजूदा code को समझाएँ

functions परिभाषित करके और model को तय करने देकर कि उन्हें कब call करना है, tool-calling workflows चलाएँ

श्रेणी बदलें

इफेक्ट्स

टेक्स्ट से इमेज

टेक्स्ट से इमेज

टेक्स्ट से वीडियो

बड़े भाषा मॉडल

बड़े भाषा मॉडल

टेक्स्ट से स्पीच

टेक्स्ट से स्पीच

सुपर रेजोल्यूशन

सुपर रेजोल्यूशन

लिपसिंक

AI संगीत निर्माण

AI संगीत निर्माण

वीडियो संपादन

स्पीच से टेक्स्ट

स्पीच से टेक्स्ट

AI वीडियो एन्हांस

बैकग्राउंड हटाएँ

बैकग्राउंड हटाएँ