Qu’est-ce que nous réserve l’avenir de l’intelligence artificielle avec les actions d’Elon Musk et de sa société xAI ?
La compagnie xAI se lance dans une aventure audacieuse en mettant à disposition le code de base du modèle Grok AI, sans toutefois inclure le code d’entraînement. Descrit comme un modèle de « 314 milliards de paramètres Mixture-of-Expert » sur GitHub, cette publication soulève plusieurs questions. Pourquoi choisir de ne pas divulguer le code d’entraînement ? Quelles pourraient être les impacts de cette demi-mesure pour la communauté des développeurs et des chercheurs en IA ?
Avec un entraînement réalisé sur une pile technologique « personnalisée », les détails de la formation du Grok-1 restent flous. La licence Apache 2.0 sous laquelle le modèle est publié autorise les utilisations commerciales, mais en l’absence du code d’entraînement, quelle est réellement la portée de cette ouverture ? La semaine dernière, Musk a annoncé sur X l’intention de xAI d’ouvrir le code source du modèle Grok. Mais cet acte d’ouverture est-il aussi transparent et bénéfique qu’il y paraît ?
La transparence et l’ouverture dans le domaine de l’IA sont-elles réellement au service de la communauté ?
D’autres grandes entreprises ont partagé certains de leurs modèles d’IA, incluant des projets de Meta et de Google. Face à ces initiatives, la démarche de xAI s’inscrit-elle dans une véritable volonté de favoriser l’innovation ouverte, ou cache-t-elle des stratégies moins avouables ?
Des créateurs d’outils alimentés par l’IA commencent déjà à envisager d’intégrer Grok dans leurs solutions. Cette anticipation témoigne-t-elle d’un engouement véritable pour Grok ou d’une recherche de publicité autour du buzz généré par Elon Musk ?
Musk, engagé dans une bataille juridique avec OpenAI, critique vivement la société pour avoir, selon lui, trahi l’objectif non lucratif de l’IA. Est-ce que cette querelle personnelle détourne l’attention des vrais enjeux éthiques et sociétaux de l’intelligence artificielle ou met-elle en lumière des débats nécessaires ?
Si des géants ainsi que des nouveaux acteurs de l’IA ouvrent leurs travaux, jusqu’où peut-on réellement parler d’une démocratisation de l’intelligence artificielle ? Dans quelle mesure l’ouverture partielle du modèle Grok contribue-t-elle véritablement à l’avancement de la recherche et à l’éthique dans ce domaine en pleine expansion ?
Source : Techcrunch