Granite 4.0 H Small es un modelo de lenguaje de 32 mil millones de parámetros creado para la generación de texto y el seguimiento de instrucciones. Si necesitas una IA que pueda leer un documento largo, resumirlo y luego responder preguntas específicas sobre él sin perder el contexto, esto es lo que buscas. Gestiona tanto prompts de un solo turno como conversaciones de varios turnos, lo que lo hace práctico para todo, desde redactar correos electrónicos hasta ejecutar un chatbot personalizado. El modelo admite el uso de herramientas, el anclaje de documentos y formatos de salida estructurados, por lo que puede devolver respuestas en JSON, manejar llamadas a funciones y trabajar con conjuntos de documentos de referencia que le proporciones. Las respuestas se mantienen centradas en el tema incluso en intercambios largos gracias a su ventana de contexto ampliada. También puedes controlar el comportamiento de generación con temperatura, filtrado top-p y secuencias de parada para obtener exactamente el formato de salida que necesitas. Escritores, desarrolladores e investigadores encuentran aquí distintos usos: redactar informes estructurados, prototipar flujos de chatbot o ejecutar preguntas y respuestas por lotes sobre un conjunto de documentos. No se necesita configuración local. Abre el modelo en Picasso IA, escribe tu prompt y obtén una respuesta en segundos.
Granite 4.0 H Small es un modelo de lenguaje de 32 mil millones de parámetros que sigue instrucciones y está diseñado para la generación de texto de contexto largo. Procesa prompts complejos y de varios pasos con alta fidelidad, lo que lo convierte en una opción práctica para usuarios que necesitan una salida escrita detallada y estructurada a partir de entradas densas. En Picasso IA, puedes ejecutarlo directamente desde cualquier navegador sin instalar software ni escribir una sola línea de código. Piensa en un investigador que resume un informe extenso, o en un creador de contenido que redacta artículos estructurados a partir de notas sueltas: este modelo está creado precisamente para esas tareas.
¿Necesito habilidades de programación o conocimientos técnicos para usar esto? No, solo abre Granite 4.0 H Small en Picasso IA, ajusta la configuración que quieras y pulsa generar.
¿Es gratis probarlo? Sí, puedes ejecutar el modelo directamente desde la interfaz sin ninguna configuración complicada. Consulta la página de precios actual para obtener detalles sobre los límites de uso y los créditos disponibles.
¿Cuánto tarda en obtener resultados? El tiempo de respuesta depende de la longitud del prompt y de cuántos tokens solicites. Los prompts cortos suelen devolver resultados en unos segundos; las salidas más largas y detalladas tardan algo más.
¿Qué formatos de salida son compatibles? El modelo devuelve texto sin formato por defecto, pero puedes solicitar salida estructurada como JSON especificando un formato de respuesta en el panel de configuración. Esto lo hace útil tanto para escritura libre como para tareas de extracción de datos estructurados.
¿Puedo personalizar la calidad o el estilo de la salida? Sí. La temperatura controla la creatividad, top-p y top-k estrechan o amplían la selección de tokens, y las penalizaciones de presencia o frecuencia reducen la repetición. Un prompt del sistema también puede definir un tono específico, una personalidad o un conjunto de reglas que el modelo debe seguir.
¿Cuántas veces puedo ejecutar el modelo? Puedes realizar varias generaciones en una sola sesión. Usa una semilla fija para reproducir exactamente una salida específica, o déjala sin establecer para obtener un resultado nuevo cada vez.
¿Dónde puedo usar las salidas? El texto que generas es tuyo para usarlo libremente. Cópialo en documentos, correos electrónicos, editores de código o cualquier flujo de publicación sin restricciones vinculadas al modelo en sí.
Todo lo que este modelo puede hacer por ti
Gestiona instrucciones complejas y preguntas matizadas con precisión constante.
Lee y responde a documentos extensos sin perder el contenido anterior.
Define funciones personalizadas y el modelo las llamará cuando la tarea lo requiera.
Solicita respuestas en formato JSON para integrar los resultados directamente en otros sistemas.
Pasa documentos de referencia con tu consulta y obtén respuestas vinculadas a ese material fuente.
Establece temperatura, top-p y secuencias de parada para controlar el estilo y la longitud de la salida.
Mantiene el contexto a lo largo de un hilo completo de conversación para flujos de preguntas y respuestas y chat.