« Dans l’IA, soit tu leads, soit tu follow ! »
Restez au fait de l’industrie en rapide évolution de l’IA peut s’apparenter à une course de marathon à sprint. Pour vous permettre de vous tenir à jour sans transpirer, voici un résumé abrégé des actualités récentes du monde de l’apprentissage automatisé.
Cette semaine, DeepMind, le laboratoire de R&D en IA de Google, a publié un document proposant un cadre d’évaluation des risques sociétaux et éthiques des systèmes d’IA. Et ils n’ont pas choisi la date de publication au hasard ! En effet, ce cadre invite les développeurs d’IA, les développeurs d’applications et les « parties prenantes du public » à participer à l’évaluation et à l’audit de l’IA.
La semaine prochaine aura lieu le Sommet sur la sécurité de l’IA, un événement parrainé par le gouvernement britannique qui réunira des gouvernements internationaux, des entreprises leader en IA, des groupes de la société civile et des experts en recherche pour se pencher sur la meilleure manière de gérer les risques liés aux avancées les plus récentes en matière d’IA, y compris l’IA générative (par ex. ChatGPT, Stable Diffusion et autres). À cet événement, le Royaume-Uni prévoit de présenter un groupe consultatif mondial sur l’IA, largement inspiré du Groupe d’experts intergouvernemental sur l’évolution du climat des Nations Unies. Ce groupe sera composé d’un panel rotatif d’universitaires rédigeant des rapports réguliers sur les récentes innovations en matière d’IA et les dangers associés.
Le monde de l’IA est en ébullition, entre éthique, transparence et innovation, chaque acteur cherche à prendre le lead.
DeepMind, fait part de sa vision, très visiblement, avant les discussions pratiques lors du sommet de deux jours. Le laboratoire de recherche soulève quelques points raisonnables (bien qu’évidents), tels que l’appel à des approches pour examiner les systèmes d’IA au « point d’interaction humaine » et les manières dont ces systèmes pourraient être utilisés et intégrés dans la société.
Il fait cependant bon de souligner le paradoxe que représente la position de DeepMind en terme de transparence. En effet, une étude récente menée par des chercheurs de Stanford classe dix grands modèles d’IA en fonction de leur ouverture d’esprit. PaLM 2, l’un des principaux modèles d’IA de Google pour analyser les textes, obtient un maigre 40% sur des critères tels que la divulgation des sources de ses données d’entraînement, des informations sur le matériel utilisé, le travail impliqué dans l’apprentissage et d’autres détails.
DeepMind n’a pas développé directement PaLM 2. Mais le labo n’a pas été régulièrement transparent sur ses propres modèles, et le fait que sa société mère soit déficiente en matière de transparence suggère qu’il n’y a pas beaucoup de pression en haut lieu pour que DeepMind fasse mieux.
Cela dit, en plus de ses réflexions publiques sur la politique, DeepMind semble prendre des mesures pour changer la perception qu’elle ne se montre pas assez ouverte sur les architectures et le fonctionnement interne de ses modèles. Le laboratoire, avec OpenAI et Anthropic, s’est engagé il y a quelques mois à donner au gouvernement britannique un « accès prioritaire ou précoce » à ses modèles d’IA pour soutenir la recherche en matière d’évaluation et de sécurité.
En conclusion, tandis que le marathon de la transparence et de l’innovation bat son plein dans le monde de l’IA, il semble que certains coureurs préfèrent ne pas dévoiler toutes leurs cartes. Que ce soit stratégique ou non, il est certain qu’au rythme où vont les choses, l’industrie de l’IA restera un terrain de jeu passionnant à suivre, bien que potentiellement déroutant pour ceux qui préfèrent les sprints aux marathons.
Sur ce, gardons les circuits imprimés croisés pour le Sommet de la sécurité de l’IA de la semaine prochaine, et souhaitons-leur de sprinter plutôt que de traîner des pieds.
Source : Techcrunch