a close up of a computer screen with a purple background

Credits image : Jonathan Kemper / Unsplash

HardwareIntelligence ArtificielleTechnologie
0

L’intégration de ChatGPT dans nos applications est-elle la prochaine grande révolution technologique ?

L’IA de OpenAI s’intégrera-t-elle bientôt à toutes nos applications quotidiennes ? Ce jeudi, la startup a annoncé une mise à jour importante : l’application de bureau ChatGPT sur MacOS peut désormais lire le code dans plusieurs applications de développement comme VS Code ou Xcode. Mais qu’est-ce que cela signifie réellement pour les développeurs et le futur des agents IA ?

Jusqu’à présent, les développeurs copieraient leur code dans ChatGPT pour obtenir des suggestions et répondre à leurs requêtes. Avec cette nouveauté, une partie du code est automatiquement envoyée à ChatGPT pour apporter du contexte à la requête. Toutefois, une question demeure : pourquoi ChatGPT ne peut-il pas écrire du code directement dans ces applications de développement, contrairement à d’autres outils IA populaires comme GitHub Copilot ?

OpenAI appelle cette fonctionnalité « Work with Apps », une avancée vers la création de systèmes à agents. Comprendre les autres applications sur notre écran est un défi majeur pour les agents IA. Mais pourquoi OpenAI cible-t-elle principalement les applications de codage pour le moment ? Cela ne limiterait-il pas le potentiel incroyable des LLMs (Modèles de Langage de Grande Échelle) ?

OpenAI affirme que cette fonctionnalité est un moyen de « collaborer avec les outils de codage ».

Dans une démonstration avec TechCrunch, un employé d’OpenAI a montré comment ChatGPT pouvait lire un projet Xcode incomplet et y ajouter le code manquant. Cependant, les utilisateurs doivent toujours coller la réponse de ChatGPT dans leur environnement de développement. Qu’est-ce que cela signifie pour l’avenir des intégrations IA dans nos systèmes ? L’API d’accessibilité de MacOS, qui permet cette lecture des applications, est-elle vraiment suffisante ?

Quant à Microsoft VS Code, il est nécessaire d’installer une extension spéciale pour interroger le contenu. Apple VoiceOver ne peut lire que le texte, ce qui limite ChatGPT quand il s’agit d’éléments visuels. Comment OpenAI pourrait-elle surmonter ces limitations dans d’autres applications n’utilisant pas cet API d’accessibilité ?

D’autres entreprises, comme Anthropic, explorent déjà des solutions avec des IA capables d’analyser des captures d’écran pour comprendre nos bureaux et utiliser d’autres applications. Leur système est lent et fait des erreurs. Mais serait-ce une direction plus libre et générale que celle prise par OpenAI ?

OpenAI semble prendre son temps pour lancer cette fonctionnalité sur Windows, un choix intéressant compte tenu de son partenariat avec Microsoft. Sommés-nous proches du moment où ChatGPT, surnommé « Operator », remplacera nos tâches répétitives sur nos ordinateurs ? Quel sera l’impact de cette technologie sur notre manière de travailler?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.