En esta nueva fase, Firefly se posiciona como un estudio creativo de IA todo en uno, donde es posible generar, pulir y dar forma a ideas sin salir de la misma plataforma. El objetivo es que ilustradores, fotógrafos, marcas y equipos creativos puedan producir series completas de imágenes que mantengan su identidad visual sin tener que partir de cero en cada proyecto.
Modelos personalizados: tu estilo convertido en un modelo de IA reutilizable
Adobe ha abierto a beta pública los Modelos Personalizados de Firefly, una función que ya se presentó en la conferencia Adobe MAX y que hasta ahora estaba limitada a una beta privada. Esta capacidad permite entrenar un modelo específico con imágenes propias para capturar un estilo de ilustración, un tipo de personaje o un acabado fotográfico concretos.
La idea es que puedas subir tus recursos visuales y que Firefly analice aspectos como el grosor de los trazos, las paletas de color, la iluminación o los rasgos característicos de tus personajes. A partir de ese entrenamiento, la IA genera nuevas imágenes que respetan esos atributos y mantienen una coherencia clara entre piezas, algo clave para series, campañas y proyectos de larga duración.
Estos modelos personalizados están especialmente orientados a tres usos principales: estilos de ilustración con un tipo de línea y relleno muy definidos, personajes que deben repetirse de forma consistente en muchas escenas y estilos fotográficos con un look reconocible (luz, color, atmósfera) que se pretende replicar en distintas tomas.
Para quienes trabajan con grandes volúmenes de contenido, la ventaja está en que ese modelo entrenado pasa a formar parte del flujo de trabajo diario. Se puede reutilizar en diferentes proyectos, briefs o campañas sin perder lo que hace único al autor, lo que a medio plazo se convierte en una forma de escalar producción sin renunciar al estilo propio.
Adobe señala además que estos modelos se crean como privados por defecto, de modo que las imágenes generadas con ellos siguen vinculadas al usuario o a la organización que los ha entrenado. Esta privacidad resulta especialmente relevante en Europa, donde la protección de datos y los derechos sobre los contenidos generados con IA son cuestiones muy vigiladas por estudios creativos, agencias y departamentos de marketing.
Cómo entrenar un modelo con tu propio estilo visual
Para que Firefly pueda aprender un estilo concreto, el sistema exige una base mínima de imágenes de referencia. Los usuarios deben facilitar entre 10 y 30 archivos en formato JPG o PNG, con una resolución de al menos 1024×1024 píxeles y una relación de aspecto uniforme (por ejemplo, todos cuadrados, todos horizontales hasta 16:9 o todos verticales hasta 9:16).
Adobe recomienda subir recursos que muestren de forma clara el concepto visual que se quiera replicar: misma paleta de colores, un tipo de iluminación reconocible, una línea de dibujo coherente o un tratamiento fotográfico similar. Cuanto más consistentes sean esas muestras, más fácil será para el modelo captar la estética deseada y reproducirla en nuevas generaciones.
En paralelo, la compañía desaconseja usar imágenes borrosas, de baja resolución o poco representativas del estilo final. En su documentación de mejores prácticas, Adobe detalla una serie de consejos para mejorar los resultados: evitar mezclar estilos demasiado dispares en un mismo entrenamiento, no incluir referencias con ruido visual innecesario y mantener un enfoque claro en la atmósfera general que se busca.
Una vez completado el proceso de entrenamiento, el modelo personalizado se integra directamente en las herramientas de Firefly. A partir de ahí, el usuario puede introducir prompts de texto o indicaciones más detalladas y dejar que el sistema genere imágenes que encajen con su estética, sin tener que ajustar manualmente cada detalle en cada nueva pieza.
La función se ofrece actualmente en fase beta para clientes premium, con un coste por entrenamiento de 500 créditos generativos del saldo mensual del usuario. Para creadores y equipos de contenido en España o Europa que ya trabajan con flujos de producción intensivos, esta inversión se orienta a consolidar un modelo que luego se puede reutilizar durante meses en campañas, redes sociales, materiales internos o piezas comerciales.
Firefly como centro creativo con más de 30 modelos de IA
Más allá de los modelos personalizados, Adobe está reforzando Firefly como un espacio donde conviven los principales modelos de IA del sector. Actualmente, la plataforma integra más de 30 modelos dedicados a imagen y vídeo, entre ellos Nano Banana 2 y Veo 3.1 de Google, Gen-4.5 de Runway, el modelo Firefly Image 5 de Adobe (ya disponible para el público general) y nuevas incorporaciones como Kling 2.5 Turbo.
Esta combinación permite que los creadores elijan el modelo que mejor encaje con cada proyecto: algunos están optimizados para movimiento cinematográfico y secuencias de vídeo, otros destacan en ilustración estilizada, en fotorrealismo o en diseños más experimentales. La idea de Adobe es que Firefly funcione como un entorno único donde se pueda generar con un modelo, refinar los resultados con otro y, después, seguir editando con las aplicaciones creativas habituales.
Para facilitar la experimentación, Adobe está ofreciendo en este momento generaciones ilimitadas de imágenes y vídeos con una amplia selección de modelos disponibles dentro de Firefly. Aunque estas promociones suelen ser temporales, abren la puerta a que estudios y profesionales europeos prueben diferentes configuraciones antes de estandarizar sus flujos de trabajo.
En la práctica, Firefly se convierte en un punto de encuentro entre la generación de contenido basada en IA y las herramientas clásicas de la suite Adobe, algo que encaja con la realidad de muchos equipos de diseño y marketing en España: necesitan agilidad para producir, pero también control sobre el acabado, el formato final y la coherencia con la marca.
Nuevas herramientas para pasar de la idea al resultado final
Además del entrenamiento de modelos personalizados, Adobe está añadiendo a Firefly herramientas específicas pensadas para recortar tiempos entre el concepto inicial y la pieza terminada. La plataforma incorpora funciones de edición de imagen y vídeo que permiten tratar las generaciones de IA como materiales de trabajo editables, no como resultados cerrados.
Entre las novedades destaca Quick Cut, una utilidad que convierte metraje en bruto en un primer montaje estructurado en cuestión de minutos. Esta función resulta especialmente atractiva para creadores de contenido, agencias de publicidad o departamentos de comunicación que producen vídeo para redes sociales y necesitan versiones preliminares rápidas sobre las que luego trabajar con más detalle.
En el terreno de la imagen estática, Firefly amplía las opciones de edición para añadir o eliminar objetos, ampliar escenas más allá de los límites originales y ajustar con precisión elementos generados como fondos, luces o texturas. Todo ello se integra en una experiencia donde generación y edición conviven en la misma interfaz, evitando saltos constantes entre aplicaciones.
Este enfoque encaja con una tendencia clara en el sector creativo europeo: usar la IA no solo para “inventar” imágenes nuevas, sino también como herramienta de producción que ahorra tiempo en tareas repetitivas y deja más margen para las decisiones de dirección de arte, narrativa visual o estrategia de campaña.
Al unir generación, edición y modelos personalizados bajo el mismo techo, Firefly aspira a convertirse en un entorno en el que el usuario pueda avanzar desde la idea inicial al borrador, y del borrador al acabado final, con menos fricción y sin tener que reconstruir el estilo visual en cada etapa.
De escribir prompts a conversar con la IA: Project Moonlight
Junto a las novedades de Firefly, Adobe está impulsando una evolución importante en la forma de interactuar con la IA: pasar de los prompts tradicionales a una interfaz conversacional. Ese cambio se materializa en Project Moonlight, un sistema agéntico que se encuentra ahora mismo en beta privada.
Moonlight introduce asistentes de IA capaces de interpretar instrucciones en forma de chat paso a paso. En lugar de depender de un único prompt largo y complejo, los usuarios pueden ir describiendo lo que quieren conseguir, recibiendo propuestas y ajustando resultados en tiempo real. La idea es que la conversación se parezca más al trabajo con un colaborador humano que entiende contexto, estilo y objetivos.
Adobe planea integrar estos asistentes agénticos en Photoshop, Express y Acrobat, entre otros productos. Los agentes ejecutarán acciones reales en las aplicaciones —como aplicar efectos, reorganizar elementos o generar contenidos específicos— y el usuario tendrá la posibilidad de revisar, retocar y desarrollar cada paso, manteniendo siempre el control creativo.
Según la compañía, Moonlight está diseñado para conocer el estilo de cada creador, apoyarse en sus propios recursos y bibliotecas y, con el tiempo, anticiparse a sus preferencias. En este modelo, el profesional se sitúa como “director creativo” de su propio universo visual, marcando la dirección mientras la IA se encarga de buena parte del trabajo operativo.
De momento, el acceso a la beta privada de Project Moonlight se está ampliando progresivamente. Los usuarios interesados pueden solicitar su participación y aportar feedback, algo que previsiblemente influirá en cómo se integran estas funciones en los flujos de trabajo creativos utilizados en Europa, donde la adopción de asistentes de IA va de la mano de exigencias claras de transparencia y control.
Con la llegada de los modelos personalizados a beta pública, el refuerzo de Firefly como hub de modelos de IA y el desarrollo de interfaces conversacionales como Moonlight, Adobe está moviendo ficha para que la IA generativa no solo produzca imágenes espectaculares, sino que sea capaz de adaptarse a la forma de trabajar y al estilo propio de cada creador. Para profesionales, marcas y equipos creativos en España y el resto de Europa, estas herramientas abren un escenario en el que la identidad visual ya no tiene que sacrificarse en favor de la velocidad, sino que puede escalarse manteniendo el sello personal.