Quel impact les nouvelles technologies d’IA auront-elles sur la réalité augmentée ?
À l’Augmented World Expo, Snap a dévoilé une version préliminaire de son modèle de diffusion d’images en temps réel, capable de générer des expériences de réalité augmentée (RA) saisissantes. Que signifie cette avancée pour les utilisateurs de Snap et les créateurs de contenus RA ?
Sur scène, Bobby Murphy, co-fondateur et CTO de Snap, a expliqué que le modèle est suffisamment compact pour fonctionner sur un smartphone et assez rapide pour re-rendre des images en temps réel, en étant guidé par une simple commande textuelle. Est-ce que la technologie évolue vers une utilisation plus intuitive et accessible à tous ?
Murphy a souligné que, même si l’émergence des modèles de diffusion d’images génératives d’IA est enthousiasmante, ces modèles doivent être nettement plus rapides pour avoir un véritable impact sur la RA. Pourquoi cette accélération est-elle cruciale pour l’avenir de la réalité augmentée ?
Les modèles de ML génératifs en temps réel ouvrent une nouvelle ère pour la réalité augmentée, en redéfinissant notre approche de la création et du rendu des expériences en RA.
Les utilisateurs de Snapchat commenceront à voir ces Lenses avec ce modèle génératif dans les mois à venir, et Snap prévoit de le rendre disponible pour les créateurs d’ici la fin de l’année. Comment ces outils transformeront-ils la création de contenus RA ?
En plus de cela, Murphy a annoncé le lancement de Lens Studio 5.0 pour les développeurs, avec de nouveaux outils d’IA générative permettant de créer des effets RA bien plus rapidement. Cette avancée est-elle la solution pour réduire le temps de production des créateurs de semaines, voire de mois ?
Les créateurs peuvent maintenant générer des Lenses selfies avec des effets faciaux ML hautement réalistes et des effets de stylisation personnalisés appliquant une transformation réaliste au visage, au corps et à l’environnement de l’utilisateur en temps réel. Cela inclut la génération d’assets 3D en quelques minutes. Ces capacités redéfiniront-elles notre conception des effets RA ?
De plus, les créateurs RA peuvent générer des personnages comme des aliens ou des sorciers via des commandes textuelles ou des images grâce à la technologie Face Mesh de Snap. Quelle sera la prochaine étape dans le développement de ces technologies ?
La dernière version de Lens Studio intègre également un assistant IA pour répondre aux questions des créateurs. Cette assistance améliorera-t-elle la créativité et la productivité des développeurs ?
Source : Techcrunch