• Logo Picasso IA
    Logo Picasso IA
  • Accueil
  • IA Image
    Nano Banana 2
  • IA Vidéo
    Veo 3.1 Fast
  • IA Chat
    Gemini 3 Pro
  • Modifier les Images
  • Améliorer l'Image
  • Supprimer l'Arrière-plan
  • Texte en Parole
  • Effets
    NEW
  • Générations
  • Facturation
  • Support
  • Compte
  1. Collection
  2. Grands Modèles de Langage (LLMs)
  3. Granite 4.0 H Small

Granite 4.0 H Small : LLM à long contexte gratuit

Granite 4.0 H Small est un modèle de langage de 32 milliards de paramètres conçu pour la génération de texte et le suivi d'instructions. Si vous avez besoin d'une IA capable de lire un long document, de le résumer, puis de répondre à des questions précises à son sujet sans perdre le contexte, c'est ce qu'il vous faut. Il gère à la fois les prompts à tour unique et les conversations à plusieurs tours, ce qui le rend pratique pour tout, de la rédaction d'e-mails à l'exécution d'un chatbot personnalisé. Le modèle prend en charge l'utilisation d'outils, l'ancrage documentaire et les formats de sortie structurés, ce qui lui permet de renvoyer des réponses en JSON, de gérer des appels de fonctions et de travailler avec des ensembles de documents de référence que vous lui fournissez. Les réponses restent centrées sur le sujet même lors d'échanges prolongés grâce à sa fenêtre de contexte étendue. Vous pouvez également contrôler le comportement de génération avec la température, le filtrage top-p et des séquences d'arrêt afin d'obtenir exactement le format de sortie dont vous avez besoin. Les rédacteurs, développeurs et chercheurs trouvent tous des usages différents à cet outil : rédaction de rapports structurés, prototypage de flux de chatbot ou exécution de sessions de questions-réponses par lots sur un ensemble de documents. Aucune configuration locale nécessaire. Ouvrez le modèle sur Picasso IA, tapez votre prompt et obtenez une réponse en quelques secondes.

Officiel

Ibm Granite

204.4k exécutions

Granite 4.0 H Small

2025-09-25

Usage commercial

Granite 4.0 H Small : LLM à long contexte gratuit

Table des matières

  • Aperçu
  • Comment ça marche
  • Foire aux questions
  • Coût des Crédits
  • Fonctionnalités
  • Cas d'utilisation
Obtenir Nano Banana Pro

Aperçu

Granite 4.0 H Small est un modèle de langage suivant les instructions de 32 milliards de paramètres, conçu pour la génération de texte à long contexte. Il traite des prompts complexes en plusieurs étapes avec une grande fidélité, ce qui en fait un choix pratique pour les utilisateurs qui ont besoin d'une sortie écrite détaillée et structurée à partir d'entrées denses. Sur Picasso IA, vous pouvez l'exécuter directement depuis n'importe quel navigateur sans installer de logiciel ni écrire une seule ligne de code. Pensez à un chercheur qui résume un long rapport, ou à un créateur de contenu qui rédige des articles structurés à partir de notes brutes, ce modèle est conçu précisément pour ces tâches.

Comment ça marche

  • Rédigez votre prompt dans le champ de texte, ou fournissez une conversation structurée à l'aide de l'entrée messages pour un format aller-retour
  • Ajoutez un prompt système pour définir le rôle, le ton ou les contraintes du modèle avant sa génération
  • Collez éventuellement des documents de référence ou définissez des outils pour donner au modèle un contexte supplémentaire en vue de réponses fondées
  • Ajustez temperature, top-p et les limites de tokens pour façonner le degré de concentration ou de variété de la sortie
  • Cliquez sur générer et recevez une réponse texte complète, puis itérez en ajustant votre prompt ou vos paramètres

Foire aux questions

Ai-je besoin de compétences en programmation ou de connaissances techniques pour utiliser cela ? Non, ouvrez simplement Granite 4.0 H Small sur Picasso IA, ajustez les paramètres souhaités et cliquez sur générer.

Est-ce gratuit à essayer ? Oui, vous pouvez exécuter le modèle directement depuis l'interface sans aucune configuration compliquée. Consultez la page de tarification actuelle pour plus de détails sur les limites d'utilisation et les crédits disponibles.

Combien de temps faut-il pour obtenir des résultats ? Le temps de réponse dépend de la longueur du prompt et du nombre de tokens demandés. Les prompts courts renvoient généralement des résultats en quelques secondes ; les sorties plus longues et plus détaillées prennent un peu plus de temps.

Quels formats de sortie sont pris en charge ? Le modèle renvoie du texte brut par défaut, mais vous pouvez demander une sortie structurée telle que JSON en spécifiant un format de réponse dans le panneau des paramètres. Cela le rend utile à la fois pour l'écriture libre et pour les tâches d'extraction de données structurées.

Puis-je personnaliser la qualité ou le style de la sortie ? Oui. La température contrôle la créativité, top-p et top-k réduisent ou élargissent la sélection de tokens, et les pénalités de présence ou de fréquence réduisent les répétitions. Un prompt système peut également définir un ton, une personnalité ou un ensemble de règles spécifiques que le modèle doit suivre.

Combien de fois puis-je exécuter le modèle ? Vous pouvez lancer plusieurs générations au cours d'une même session. Utilisez une graine fixe pour reproduire exactement une sortie spécifique, ou laissez-la non définie pour obtenir un résultat nouveau à chaque fois.

Où puis-je utiliser les sorties ? Le texte que vous générez vous appartient et peut être utilisé librement. Copiez-le dans des documents, e-mails, éditeurs de code ou tout autre flux de publication sans restrictions liées au modèle lui-même.

Coût des Crédits

Chaque génération consomme 1 crédit

1 crédit

ou 5 crédits pour 5 générations

Fonctionnalités

Tout ce que ce modèle peut faire pour vous

Modèle de 32B paramètres

Gère des instructions complexes et des questions nuancées avec une précision constante.

Fenêtre de long contexte

Lit et répond à de longs documents sans perdre le contenu précédent.

Prise en charge de l'utilisation d'outils

Définissez des fonctions personnalisées et le modèle les appellera lorsque la tâche l'exigera.

Sortie structurée

Demandez des réponses au format JSON pour intégrer directement les résultats dans d'autres systèmes.

Ancrage documentaire

Fournissez des documents de référence avec votre requête et obtenez des réponses liées à cette source.

Génération ajustable

Définissez la température, top-p et des séquences d'arrêt pour contrôler le style et la longueur de la sortie.

Conversation à plusieurs tours

Maintient le contexte sur l'ensemble d'un fil de conversation pour les flux de questions-réponses et de chat.

Cas d'utilisation

Résumez un long rapport ou article en collant le texte et en posant des questions précises à son sujet

Rédigez une première version d'un article de blog, d'un e-mail ou d'une description de produit à partir d'un bref résumé

Créez un flux de chatbot à plusieurs tours en fournissant un prompt système et en testant les parcours de conversation

Extrayez des données structurées à partir d'un texte non structuré en demandant une sortie JSON avec des champs définis

Ancrez les réponses dans vos propres documents en fournissant du contenu de référence et en posant des questions ciblées

Générez des extraits de code ou expliquez du code existant en décrivant ce dont vous avez besoin en langage clair

Exécutez des flux de travail d'appel d'outils en définissant des fonctions et en laissant le modèle décider quand les appeler

Changer de Catégorie

Effets

Texte en image

Texte en image

Texte en vidéo

Grands Modèles de Langage

Grands Modèles de Langage

Texte en parole

Texte en parole

Super résolution

Super résolution

Synchronisation labiale

Génération de musique IA

Génération de musique IA

Édition vidéo

Parole en texte

Parole en texte

Amélioration vidéo IA

Suppression d'arrière-plan

Suppression d'arrière-plan