time lapse photography of man riding car

Credits image : Samuele Errico Piccarini / Unsplash

HardwareIntelligence ArtificielleTechnologie
0

Comment LeRobot révolutionne-t-il l’apprentissage autonome ?

Comment les robots d’aujourd’hui apprennent-ils à naviguer dans notre environnement complexe et centré sur l’humain ? C’est une question qui semble sortir tout droit d’un roman de science-fiction, et pourtant elle est bien ancrée dans la réalité grâce aux avancées technologiques d’entreprises comme Hugging Face et Yaak. L’initiative LeRobot de Hugging Face, lancée l’année dernière, a vu une expansion notable avec une nouvelle collaboration qui promet de redéfinir la formation et l’autonomie des systèmes robotiques.

Mais qu’apporte réellement cette collaboration récente ? Sous le nom de Learning to Drive (L2D), le duo a introduit un ensemble colossal de données, dépassant le pétabyte, provenant de capteurs installés sur des voitures dans des auto-écoles allemandes. Ces données incluent des images, des informations GPS, et des paramètres de dynamique du véhicule, collectées au fil des interactions sur des routes envahies de zones de construction, d’intersections et d’autoroutes.

Pourquoi encore un nouveau jeu de données dans un domaine déjà saturé, pourriez-vous demander ? Contrairement à d’autres ensembles qui se concentrent sur des tâches planificatrices comme la détection d’objets, avec des annotations très précises difficiles à étendre, L2D se distingue. Il supporte le développement d’un apprentissage de bout en bout, c’est-à-dire la capacité d’un système à prédire une action directement à partir d’entrées de capteurs.

Cette avancée offre l’opportunité à la communauté IA de bâtir des modèles de conduite autonome de bout en bout, relançant l’ambition d’une intelligence spatiale complète et accessible.

Les collaborations passées dans le domaine de la conduite autonome ont souvent été marquées par des enjeux de taille des données et de diversité des scènes capturées. Or, Harsimrat Sandhawalia, cofondateur de Yaak, et Remi Cadene, du projet IA pour la robotique chez Hugging Face, insistent sur le fait que L2D devient le plus grand jeu de données open-source, fournissant des “épisodes” uniques et divers pour entraîner l’intelligence spatiale de bout en bout.

Que signifie cette avancée pour l’avenir des voitures autonomes ? Hugging Face et Yaak prévoient des tests en boucle fermée dans des conditions réelles cet été, utilisant des modèles formés via L2D et LeRobot dans des véhicules avec conducteur de sécurité. Ils incitent la communauté IA à soumettre des modèles pour des évaluations sur des tâches spécifiques, comme naviguer dans des ronds-points ou se garer dans des espaces restreints.

L’accessibilité à des données de cette ampleur va-t-elle réellement permettre la démocratisation de la technologie IA dans les voitures autonomes ? Est-ce l’aube d’une nouvelle ère où les véhicules et robots s’intégreront harmonieusement dans notre quotidien, traitant chaque rue, chaque obstacle, avec une intelligence quasi-humaine ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.