Granite 4.0 H Small est un modèle de langage de 32 milliards de paramètres conçu pour la génération de texte et le suivi d'instructions. Si vous avez besoin d'une IA capable de lire un long document, de le résumer, puis de répondre à des questions précises à son sujet sans perdre le contexte, c'est ce qu'il vous faut. Il gère à la fois les prompts à tour unique et les conversations à plusieurs tours, ce qui le rend pratique pour tout, de la rédaction d'e-mails à l'exécution d'un chatbot personnalisé. Le modèle prend en charge l'utilisation d'outils, l'ancrage documentaire et les formats de sortie structurés, ce qui lui permet de renvoyer des réponses en JSON, de gérer des appels de fonctions et de travailler avec des ensembles de documents de référence que vous lui fournissez. Les réponses restent centrées sur le sujet même lors d'échanges prolongés grâce à sa fenêtre de contexte étendue. Vous pouvez également contrôler le comportement de génération avec la température, le filtrage top-p et des séquences d'arrêt afin d'obtenir exactement le format de sortie dont vous avez besoin. Les rédacteurs, développeurs et chercheurs trouvent tous des usages différents à cet outil : rédaction de rapports structurés, prototypage de flux de chatbot ou exécution de sessions de questions-réponses par lots sur un ensemble de documents. Aucune configuration locale nécessaire. Ouvrez le modèle sur Picasso IA, tapez votre prompt et obtenez une réponse en quelques secondes.
Granite 4.0 H Small est un modèle de langage suivant les instructions de 32 milliards de paramètres, conçu pour la génération de texte à long contexte. Il traite des prompts complexes en plusieurs étapes avec une grande fidélité, ce qui en fait un choix pratique pour les utilisateurs qui ont besoin d'une sortie écrite détaillée et structurée à partir d'entrées denses. Sur Picasso IA, vous pouvez l'exécuter directement depuis n'importe quel navigateur sans installer de logiciel ni écrire une seule ligne de code. Pensez à un chercheur qui résume un long rapport, ou à un créateur de contenu qui rédige des articles structurés à partir de notes brutes, ce modèle est conçu précisément pour ces tâches.
Ai-je besoin de compétences en programmation ou de connaissances techniques pour utiliser cela ? Non, ouvrez simplement Granite 4.0 H Small sur Picasso IA, ajustez les paramètres souhaités et cliquez sur générer.
Est-ce gratuit à essayer ? Oui, vous pouvez exécuter le modèle directement depuis l'interface sans aucune configuration compliquée. Consultez la page de tarification actuelle pour plus de détails sur les limites d'utilisation et les crédits disponibles.
Combien de temps faut-il pour obtenir des résultats ? Le temps de réponse dépend de la longueur du prompt et du nombre de tokens demandés. Les prompts courts renvoient généralement des résultats en quelques secondes ; les sorties plus longues et plus détaillées prennent un peu plus de temps.
Quels formats de sortie sont pris en charge ? Le modèle renvoie du texte brut par défaut, mais vous pouvez demander une sortie structurée telle que JSON en spécifiant un format de réponse dans le panneau des paramètres. Cela le rend utile à la fois pour l'écriture libre et pour les tâches d'extraction de données structurées.
Puis-je personnaliser la qualité ou le style de la sortie ? Oui. La température contrôle la créativité, top-p et top-k réduisent ou élargissent la sélection de tokens, et les pénalités de présence ou de fréquence réduisent les répétitions. Un prompt système peut également définir un ton, une personnalité ou un ensemble de règles spécifiques que le modèle doit suivre.
Combien de fois puis-je exécuter le modèle ? Vous pouvez lancer plusieurs générations au cours d'une même session. Utilisez une graine fixe pour reproduire exactement une sortie spécifique, ou laissez-la non définie pour obtenir un résultat nouveau à chaque fois.
Où puis-je utiliser les sorties ? Le texte que vous générez vous appartient et peut être utilisé librement. Copiez-le dans des documents, e-mails, éditeurs de code ou tout autre flux de publication sans restrictions liées au modèle lui-même.
Tout ce que ce modèle peut faire pour vous
Gère des instructions complexes et des questions nuancées avec une précision constante.
Lit et répond à de longs documents sans perdre le contenu précédent.
Définissez des fonctions personnalisées et le modèle les appellera lorsque la tâche l'exigera.
Demandez des réponses au format JSON pour intégrer directement les résultats dans d'autres systèmes.
Fournissez des documents de référence avec votre requête et obtenez des réponses liées à cette source.
Définissez la température, top-p et des séquences d'arrêt pour contrôler le style et la longueur de la sortie.
Maintient le contexte sur l'ensemble d'un fil de conversation pour les flux de questions-réponses et de chat.