Comment Apple se positionne-t-il dans la course à l’intelligence artificielle générative ? C’est une question qui attire toute notre attention à l’approche de la prochaine conférence World Wide Developer (WWDC), prévue pour la semaine prochaine. Selon les dernières rumeurs, la firme de Cupertino pourrait bien nous surprendre avec plusieurs annonces majeures en partenariat avec OpenAI, visant notamment à améliorer Siri.
Ces informations, relayées par Bloomberg, font état de la prochaine keynote d’Apple prévue lundi à 10h PT, où un nouvel outil appelé « Apple Intelligence » pourrait être dévoilé. Apple semble vouloir conserver les initiales « AI » pour son propre modèle de langage étendu (LLM), une stratégie de nommage qui n’est sans doute pas anodine.
Mais qu’en est-il réellement de cette « Apple Intelligence » ? Il apparaît que ce nom recouvre une initiative plus large incluant le fameux partenariat avec OpenAI et l’éventuelle création d’un chatbot. Cette nouveauté serait proposée en version bêta sur inscription, à l’image des mises à jour des systèmes d’exploitation destinées aux développeurs après la WWDC. Les utilisateurs pourraient ainsi en bénéficier sur les prochaines versions des iPhone, iPad et Mac.
Un aperçu d’Apple Intelligence : opt-in beta et intégration avec OpenAI pour transformer l’expérience utilisateur.
Malheureusement, tous les appareils ne seraient pas compatibles. Seuls les iPads et Macs dotés d’une puce M1 ou supérieure, ainsi que l’iPhone 15 Pro, pourraient en profiter. Les modèles standards d’iPhone 15 seraient exclus de cette révolution technologique. Est-ce une stratégie d’Apple pour pousser les consommateurs à opter pour des modèles haut de gamme ?
Quelle sera l’utilité pratique de l’Apple Intelligence ? Il semble que la priorité soit d’améliorer des applications existantes. Par exemple, le système pourrait offrir des résumés de pages Safari et de notifications enrichies. Siri, quant à lui, bénéficierait d’une mise à niveau impressionnante en 2024, avec des capacités étendues telles que l’édition de photos à la voix. Apple jouerait donc la carte de l’efficacité et de l’amélioration intuitive du système d’exploitation, plutôt que l’effet spectaculaire.
On apprend également que, malgré certaines limitations matérielles, le système ne serait pas entièrement local. Il combinerait des processus en local et dans le cloud, en fonction de la complexité des tâches à accomplir. Cela pose une autre question : quelle sera l’impact sur la confidentialité et la sécurité des données des utilisateurs ?
Source : Techcrunch