woman in black and white dress sitting on bed

Credits image : Barbara Zandoval / Unsplash

HardwareIntelligence Artificielle
0

La réglementation des IA, nouveau graal des startups technologiques ?

Quels sont les enjeux de la régulation des modèles d’IA et comment une startup française prévoit-elle de s’imposer avec un outil innovant ? Giskard, une jeune pousse de l’Hexagone, se lance dans l’aventure avec un framework de test open-source pour les grands modèles de langage. Mais quel est l’impact de ces outils et en quoi sont-ils essentiels pour les développeurs ?

Les systèmes de test pour l’IA deviennent-ils le sujet brûlant à l’heure où l’Union européenne se prépare à appliquer sa réglementation avec l’Acte IA ? Avec l’augmentation de la responsabilité des entreprises développeuses d’IA, n’est-il pas crucial pour elles de démontrer leur conformité pour éviter d’importantes sanctions financières ? Giskard s’inscrit comme précurseur d’une approche réglementaire en fournissant une solution plus efficiente. Mais en quoi consiste-t-elle précisément ?

Se pourrait-il qu’un ancien de Dataiku, qui a expérimenté les défis de l’intégration des modèles NLP en pratique, lance une solution qui pallie les manquements actuels ? Alex Combessie, co-fondateur et PDG de Giskard, semble avoir tiré de son expérience les leçons nécessaires pour proposer une approche plus adaptée aux besoins réels des développeurs. Mais quelles sont les spécificités techniques de cette solution ?

Avec Giskard, le travail de test ne se limite plus à la performance technique : quelle sera la place des aspects éthiques dans ce nouveau paradigme ?

Le framework de Giskard repose sur trois composants clés, dont une bibliothèque Python open-source aisément intégrable à un projet de modèle de langage. La promesse ? Être en harmonie avec les outils populaires de l’écosystème ML et permettre des tests réguliers sur des enjeux diversifiés – mais comment exactement les développeurs peuvent-ils utiliser ces tests de manières concrètes ?

N’abandonnant pas l’aspect interactif de la vérification, Giskard s’intègre dans la chaîne d’intégration et de déploiement continue pour que les tests soient effectués à chaque itération du code. Un rapport d’analyse est-il alors délivré systématiquement aux développeurs pour remonter les anomalies ?

La personnalisation des tests selon les cas d’utilisation des modèles semble être le nerf de la guerre. Mais comment Giskard assure-t-il que cette personnalisation soit en adéquation avec des données factuelles et récentes, par exemple pour un bot de discussion sur le changement climatique ?

Si l’anticipation des erreurs est essentielle, quid du débogage ? Avec son AI Quality Hub et son outil de monitoring en temps réel, LLMon, Giskard envisage un écosystème complet. Les startups comme Giskard seraient-elles en train de redéfinir les standards de développement pour les grands modèles de langage ?

Au cœur de ces développements, ne faut-il pas également s’intéresser à comment la réglementation va prendre forme ? Les discussions autour de l’Acte IA demeurent floues quant à l’application aux modèles fondamentaux ou aux cas d’usage précis. Giskard est-il alors le prophète d’une nouvelle ère de compliance pour les LLMs, notamment en cas de régulation appliquée uniquement aux cas d’usage enrichis par des données externes ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.