turned on gray laptop computer

Credits image : Luca Bravo / Unsplash

Intelligence ArtificielleTechnologie
0

Les modèles d’IA générative pour le codage sont-ils vraiment sûrs ?

Peut-on vraiment faire confiance aux modèles d’IA générative pour coder à notre place? La startup française Mistral vient de dévoiler son premier modèle d’IA génératif pour le codage, baptisé Codestral. Mais que cache vraiment cette innovation ?

En quoi Codestral diffère-t-il des autres modèles de génération de code? D’après Mistral, ce modèle est conçu pour aider les développeurs à écrire et interagir avec du code dans plus de 80 langages de programmation comme Python, Java, C++ et JavaScript. Cependant, la startup applique des restrictions strictes sur l’utilisation commerciale de Codestral. Quelle est la véritable raison de ces limitations? S’agit-il de protéger des contenus potentiellement protégés par des droits d’auteur sur lesquels Codestral aurait été entraîné?

La performance du modèle est-elle à la hauteur de ses ambitions? Avec ses 22 milliards de paramètres, Codestral nécessite un ordinateur puissant. Bien que les premiers benchmarks soient encourageants, ils demeurent sujets à caution. Ces résultats suffiront-ils à convaincre les développeurs ? De plus, les outils d’IA générative ne sont pas exempts de défauts.

Codestral soulève plus de questions qu’il n’apporte de réponses claires sur l’avenir du codage assisté par IA.

Les développeurs semblent de plus en plus séduits par ces outils d’IA, comme l’indique un sondage de Stack Overflow de juin 2023. Près de 44 % des développeurs utilisent déjà des outils d’IA dans leur processus de développement, et 26 % prévoient de le faire bientôt. Mais à quel coût? Une analyse de GitClear a montré que ces outils peuvent entraîner une augmentation du code erroné intégré aux projets. Devons-nous ignorer ces risques potentiels?

Les implications pour la sécurité des logiciels sont également alarmantes. Selon des chercheurs en sécurité, ces outils pourraient amplifier les bugs existants et les problèmes de sécurité. Une étude de Purdue a révélé que plus de la moitié des réponses de ChatGPT aux questions de programmation étaient erronées. Est-ce un risque acceptable dans un monde où la sécurité des logiciels est cruciale?

Malgré ces préoccupations, des entreprises comme Mistral continuent de miser gros sur ces technologies. La startup a lancé une version hébergée de Codestral sur sa plateforme Le Chat et prévoit une intégration dans divers environnements de développement. Mais cela suffira-t-il pour convaincre un marché de plus en plus sceptique?

La question demeure : les modèles d’IA générative pour le codage sont-ils vraiment prêts pour un usage généralisé ou présentent-ils encore trop de risques?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.