Flux Canny Dev es un modelo de generación de imágenes de pesos abiertos que utiliza la detección de bordes Canny para controlar la estructura y la composición de las imágenes generadas. Tú proporcionas una imagen de referencia y un prompt de texto, y el modelo lee los bordes de esa imagen para preservar el diseño mientras genera contenido visual completamente nuevo a su alrededor. El resultado sigue el contorno exacto de tu referencia, pero se ve exactamente como lo describiste. El modelo genera hasta 1 megapíxel y puede coincidir automáticamente con el tamaño de tu imagen de entrada. Puedes producir varias variaciones en una sola ejecución, guardarlas como WebP, JPG o PNG, y establecer la calidad de salida de 0 a 100. El número de pasos de inferencia (28 a 50) te permite intercambiar velocidad por detalle en cada ejecución. Encaja de forma natural en flujos de trabajo donde la composición importa: reemplazar la estética de una foto de producto manteniendo la silueta del sujeto, aplicar un nuevo estilo visual a un boceto o iterar sobre un diseño sin reconstruirlo desde cero. Abre el modelo en Picasso IA, sube tu referencia, escribe un prompt y genera.
Flux Canny Dev genera nuevas imágenes que siguen los contornos estructurales de una foto o dibujo de referencia, mientras aplica el estilo visual y el sujeto que describes en un prompt de texto. El modelo extrae automáticamente las líneas de borde de tu imagen de control, así que no necesitas hacer ningún preprocesamiento por tu parte. Esto es útil cuando necesitas recrear una composición específica, transferir un diseño a un estilo artístico diferente o mantener la consistencia espacial entre una serie de resultados. Disponible en Picasso IA, funciona completamente en el navegador sin instalación ni configuración.
¿Necesito habilidades de programación o conocimientos técnicos para usar esto? No, solo abre Flux Canny Dev en Picasso IA, ajusta la configuración que quieras y pulsa generar.
¿Es gratis probarlo? Sí, puedes ejecutar Flux Canny Dev sin pagar por adelantado. Empieza con la configuración predeterminada para ver cómo tu imagen de control se traduce en un resultado generado antes de ajustar nada.
¿Cuánto tarda en obtener resultados? La mayoría de las generaciones terminan en menos de un minuto. Usar menos pasos de inferencia acelera el proceso, aunque los recuentos de pasos muy bajos producen resultados menos detallados.
¿Qué formatos de salida son compatibles? Puedes descargar los resultados como WebP, JPG o PNG. WebP es el formato predeterminado y funciona bien para uso web. PNG no tiene pérdidas y es adecuado para impresión o para seguir editando en software de diseño.
¿Puedo personalizar la calidad o el estilo de salida? Sí. El parámetro de guía controla qué tan de cerca sigue la imagen tu prompt de texto frente a la estructura de bordes. La configuración de calidad de salida (0-100) ajusta la compresión para las exportaciones WebP y JPG. Más pasos de inferencia generalmente producen resultados más nítidos y coherentes.
¿Cuántas veces puedo ejecutar el modelo? Puedes iterar tantas veces como necesites. Si un resultado está cerca pero no del todo bien, ajusta el prompt, modifica la guía o cambia a una imagen de control diferente y vuelve a ejecutar.
¿Dónde puedo usar las salidas? Las imágenes generadas son tuyas para usarlas en cualquier proyecto: publicaciones en redes sociales, trabajo para clientes, arte conceptual, diseños para impresión o maquetas de producto. Las descargas no tienen marcas de agua.
Todo lo que este modelo puede hacer por ti
Extrae bordes Canny de cualquier imagen de referencia, así que no necesitas preparar un mapa de bordes separado.
Mantiene intactos el diseño, las formas y la estructura de tu referencia mientras genera visuales completamente nuevos.
Produce imágenes de hasta 1 megapíxel o coincide con el tamaño de tu imagen de entrada con un solo ajuste.
Guarda los resultados como WebP, JPG o PNG con calidad de salida ajustable de 0 a 100.
Ejecuta varias variaciones en una sola sesión estableciendo la cantidad de salidas antes de generar.
Establece entre 28 y 50 pasos de denoising para equilibrar la velocidad de generación frente al detalle de salida.
Fija el valor de la semilla para reproducir exactamente el mismo resultado cuando vuelvas a ejecutar con entradas idénticas.