Granite 4.0 H Small é um modelo de linguagem com 32 bilhões de parâmetros criado para geração de texto e seguimento de instruções. Se você precisa de uma IA que consiga ler um documento longo, resumí-lo e depois responder a perguntas específicas sobre ele sem perder o contexto, é isso que você quer. Ele lida tanto com prompts de uma única interação quanto com conversas de várias interações, tornando-o prático para tudo, desde redigir e-mails até executar um chatbot personalizado. O modelo oferece suporte a uso de ferramentas, grounding de documentos e formatos de saída estruturados, então ele pode retornar respostas em JSON, lidar com chamadas de funções e მუშაობar com conjuntos de documentos de referência que você fornecer. As respostas permanecem no tópico mesmo em trocas longas graças à sua janela de contexto estendida. Você também pode controlar o comportamento da geração com temperature, top-p filtering e stop sequences para obter exatamente o formato de saída de que precisa. Escritores, desenvolvedores e pesquisadores encontram usos diferentes aqui: redigir relatórios estruturados, prototipar fluxos de chatbot ou executar perguntas e respostas em lote com base em um conjunto de documentos. Nenhuma configuração local necessária. Abra o modelo no Picasso IA, digite seu prompt e receba uma resposta em segundos.
Granite 4.0 H Small é um modelo de linguagem de 32 bilhões de parâmetros que segue instruções e foi criado para geração de texto com contexto longo. Ele processa prompts complexos e em várias etapas com alta fidelidade, tornando-se uma escolha prática para usuários que precisam de saída escrita detalhada e estruturada a partir de entradas densas. No Picasso IA, você pode executá-lo diretamente de qualquer navegador sem instalar software ou escrever uma única linha de código. Pense em um pesquisador resumindo um relatório extenso, ou em um criador de conteúdo redigindo artigos estruturados a partir de anotações brutas; este modelo foi criado precisamente para essas tarefas.
Preciso de habilidades de programação ou conhecimento técnico para usar isto? Não, basta abrir Granite 4.0 H Small no Picasso IA, ajustar as configurações que você quiser e clicar em gerar.
É gratuito para testar? Sim, você pode executar o modelo diretamente pela interface sem nenhuma configuração complicada. Consulte a página de preços atual para detalhes sobre limites de uso e créditos disponíveis.
Quanto tempo leva para obter resultados? O tempo de resposta depende do comprimento do prompt e de quantos tokens você solicita. Prompts curtos geralmente retornam resultados em alguns segundos; saídas mais longas e detalhadas levam um pouco mais de tempo.
Quais formatos de saída são compatíveis? O modelo retorna texto simples por padrão, mas você pode solicitar saída estruturada, como JSON, especificando um formato de resposta no painel de configurações. Isso o torna útil tanto para escrita livre quanto para tarefas estruturadas de extração de dados.
Posso personalizar a qualidade ou o estilo da saída? Sim. Temperature controla a criatividade, top-p e top-k estreitam ou ampliam a seleção de tokens, e as penalidades de presença ou frequência reduzem a repetição. Um system prompt também pode definir um tom específico, uma persona ou um conjunto de regras que o modelo deve seguir.
Quantas vezes posso executar o modelo? Você pode executar várias gerações em uma sessão. Use uma seed fixa para reproduzir exatamente uma saída específica, ou deixe-a indefinida para obter um resultado novo a cada vez.
Onde posso usar as saídas? O texto que você gerar é seu para usar livremente. Copie-o para documentos, e-mails, editores de código ou qualquer fluxo de publicação sem restrições ligadas ao próprio modelo.
Tudo o que este modelo pode fazer por você
Lida com instruções complexas e perguntas sutis com precisão consistente.
Lê e responde a documentos extensos sem perder conteúdo anterior.
Defina funções personalizadas e o modelo as chamará quando a tarefa exigir.
Solicite respostas formatadas em JSON para enviar resultados diretamente para outros sistemas.
Passe documentos de referência junto com sua consulta e obtenha respostas vinculadas a esse material de origem.
Defina temperature, top-p e stop sequences para controlar o estilo e o comprimento da saída.
Mantém o contexto ao longo de uma conversa completa para fluxos de perguntas e respostas e chat.