Github website on desktop

Credits image : Luke Chesser / Unsplash

Intelligence ArtificielleSmartphonesTechnologie
0

Les bugs peuvent-ils vraiment craindre l’IA?

Les bugs auraient-ils du souci à se faire ? Plus tôt dans la journée, Sentry a dévoilé une fonctionnalité d’Auto-correction IA pour le débogage du code en production. Peu après, GitHub présentait sa première version bêta d’une fonctionnalité similaire de scan automatique pour détecter et réparer les vulnérabilités de sécurité pendant le processus de codage. Mais comment ces innovations vont-elles transformer le développement de logiciels ?

GitHub affirme que son nouveau système est capable de remédier à plus des deux tiers des vulnérabilités qu’il détecte. La promesse semble ambitieuse, mais dans quelle mesure les développeurs peuvent-ils réellement s’en remettre à cette technologie sans intervenir eux-mêmes dans le code ? En outre, GitHub assure que l’autofix du scan de code couvrira plus de 90 % des types d’alertes dans les langages qu’il prend en charge, qui incluent actuellement JavaScript, Typescript, Java et Python. Comment, alors, cette promesse s’articule-t-elle avec les défis quotidiens des développeurs et des équipes de sécurité ?

Cette fonctionnalité est désormais accessible à tous les clients de GitHub Advanced Security (GHAS). L’introduction de cet outil dans GitHub Copilot est-elle la clé pour accélérer le développement tout en renforçant la sécurité des applications ?

« Les bugs auraient-ils du souci à se faire avec l’arrivée de la fonctionnalité d’autocorrection de GitHub ? »

Comme le suggère GitHub, Copilot a déjà révolutionné le quotidien des développeurs en automatisant les tâches répétitives. L’autofix par scan de code va-t-il pousser cette automatisation un cran plus loin en permettant aux équipes de développement de récupérer un temps précieux autrefois consacré à la résolution des vulnérabilités ? Si les équipes de sécurité peUvent désormais se concentrer sur des stratégies de protection plus globales, jusqu’où cette facilité peut-elle mener sans compromettre la rigueur nécessaire au processus de développement ?

Derrière le rideau, cette nouvelle fonctionnalité s’appuie sur le moteur CodeQL, le moteur d’analyse sémantique de GitHub, pour détecter les vulnérabilités dans le code, même avant son exécution. Après son acquisition de la startup d’analyse de code Semmle fin 2019, GitHub a rendu la première génération de CodeQL accessible au public, cette technologie a-t-elle continué à évoluer pour devenir un pilier de la sécurité dans le développement logiciel ?

GitHub utilise également une combinaison d’heuristiques et d’APIs de GitHub Copilot pour proposer ses corrections. En générant les corrections et leurs explications, GitHub s’appuie sur le modèle GPT-4 d’OpenAI. La société se montre confiante dans la justesse de la majorité des suggestions d’autocorrection, mais qu’en est-il de ce « petit pourcentage » de corrections suggérées qui pourrait refléter une incompréhension significative de la base de code ou de la vulnérabilité ?

Les innovations en matière de sécurité et d’efficacité du développement logiciel continuent de pousser les limites de ce qui est possible. Alors que GitHub et Sentry mettent en avant des solutions prometteuses pour l’automatisation de la correction des bugs et des vulnérabilités, il reste à voir comment ces outils évolueront pour répondre aux besoins complexes des projets logiciels modernes. La question qui demeure est : les développeurs sont-ils prêts à faire de la place à l’IA dans leur processus de codage ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.