Est-ce que nous avons déjà assisté à une amélioration aussi significative de la modélisation d’images par une intelligence artificielle en si peu de temps ? C’est la question qui se pose avec l’annonce faite aujourd’hui par Adobe lors de sa conférence annuelle MAX consacrée aux créatifs. L’entreprise a mis à jour les modèles qui alimentent Firefly, son service de création d’images génératives basé sur l’intelligence artificielle. Le nouveau modèle, baptisé Firefly Image 2, serait plus performant pour reproduire des êtres humains, y compris les traits du visage, la peau, le corps et les mains, qui ont longtemps posé problème à des modèles similaires. Va-t-on assister à un bond en avant dans la génération d’images par IA ?
Pourquoi cet intérêt soudain pour Firefly ? Il faut savoir que les utilisateurs de ce service ont généré trois milliards d’images depuis son lancement il y a seulement six mois, dont un milliard le mois dernier seulement. Qui plus est, 90% des utilisateurs de Firefly sont complètement nouveaux chez Adobe. Il y a fort à parier que la majorité de ces utilisateurs utilisent l’application web de Firefly, ce qui expliquerait pourquoi Adobe a décidé il y a quelques semaines de transformer ce qui était essentiellement un site de démonstration pour Firefly en un service à part entière du Creative Cloud. Mais d’où vient cette popularité soudaine ?
Avec le nouveau modèle Firefly, Adobe transforme la création d’image par IA.
Alexandru Costin, le vice-président d’Adobe chargé de l’IA générative et de Sensei, m’explique que le nouveau modèle n’a pas seulement été élaboré à partir d’un plus grand nombre d’images récentes provenant d’Adobe Stock et d’autres sources commercialement sûres. Il est également significativement plus gros. « Firefly regroupe plusieurs modèles, et nous avons augmenté leur taille d’un facteur trois », dit-il. « C’est comme si le cerveau était trois fois plus gros et qu’il savait comment établir ces connections et générer des pixels plus beaux, plus précis pour l’utilisateur ». Le volume des données a également été presque doublé, ce qui devrait permettre au modèle de mieux comprendre ce que les utilisateurs demandent. Comment Adobe réussit-elle à gérer la charge de travail accrue ?
Ce grand modèle est évidemment plus gourmand en ressources, mais Costin affirme qu’il devrait fonctionner à la même vitesse que le premier modèle. « Nous continuons d’investir dans la distillation, l’élagage, l’optimisation et la quantification. Nous travaillons beaucoup pour que nos clients aient une expérience similaire sans pour autant faire exploser les coûts du cloud ». Mais n’y a-t-il pas un déséquilibre entre qualité et optimisation ?
Pour l’instant, le nouveau modèle sera accessible via l’application web de Firefly, mais il sera également intégré à des applications du Creative Cloud comme Photoshop, où il alimente des fonctionnalités populaire comme le remplissage génératif. Pour Adobe, le rôle de l’IA générative ne se limite pas à la création de contenus, elle sert surtout à l’édition générative, selon Costin. La capacité à télécharger une image existante et à demander à Firefly de reproduire son style, ainsi que la fonctionnalité d’auto-complétion pour l’écriture des commandes sont parmi les nouveautés de ce nouveau modèle. Que nous réserve encore Adobe avec Firefly ?
Source : Techcrunch