« Si l’IA était une popstar, serions-nous son backing vocal ou son rival ? »
Bienvenue, cher lecteur curieux et futé, dans cette nouvelle chronique pleine de rebondissements techologiques et de révélations bouleversantes. Accrochez-vous, car cette semaine, nous allons explorer une étude qui casse le mythe de l’IA apocalyptique. Oui, vous avez bien lu.
Des chercheurs des universités de Bath et de Darmstadt ont plongé tête la première dans les mystères des modèles génératifs, comme ceux de la famille Llama de Meta. Leurs conclusions ? Ces petits prodiges de l’intelligence artificielle sont certes impressionnants, mais pas assez pour menacer l’existence de l’humanité. Ils ne peuvent pas apprendre seuls ni acquérir de nouvelles compétences sans instruction explicite. Un genre d’étudiant un peu flemmard, en somme.
« La menace perçue d’une IA en roue libre est grandement exagérée. »
Les chercheurs ont mené des milliers d’expériences pour tester si ces modèles pouvaient effectuer des tâches en dehors de leur domaine de formation. Verdict ? Ils peuvent suivre des instructions de surface, mais pour ce qui est de faire preuve d’initiative, c’est une autre histoire. Harish Tayyar Madabushi, co-auteur de l’étude, le dit clairement : la crainte que l’IA devienne incontrôlable est injustifiée et détourne l’attention des véritables problèmes qui méritent notre attention.
Bien sûr, l’étude a ses limites. Les chercheurs n’ont pas testé les modèles les plus récents et les plus performants d’OpenAI et d’Anthropic. Mais ce n’est pas la première étude à montrer que les technologies d’IA génératives actuelles ne sont pas si menaçantes. Déplacer notre attention vers des scénarios Catastrophe avec un grand C pourrait bien mener à des décisions politiques regrettables.
L’IA générative pourrait ne pas provoquer notre extinction, mais elle a déjà des impacts problématiques. De la pornographie non consensuelle en deepfake aux arrestations erronées par reconnaissance faciale, il y a de quoi se méfier. Les décideurs politiques doivent garder à l’esprit que ce qui est bon pour les entreprises derrière ces technologies n’est pas nécessairement bon pour nous.
Alors, mes amis, continuons de garder nos capes de scepticismes en place, car la vraie menace, c’est de se laisser berner par les fausses promesses. Une IA apocalyptique ? Pas encore. Mais une IA aux effets nocifs ? Absolument.
Et pour finir sur une note plus légère, souvenez-vous : programmer ou ne pas programmer, telle est la question. Mais rassurez-vous, Hamlet n’a toujours pas été remplacé par un chatbot.
Source : Techcrunch