« Pour comprendre, il faut avant tout s’intéresser, puis écouter », disait Jacques Attali. Chez Google, on pourrait paraphraser : « Pour se faire comprendre, il faut avant tout convaincre, puis prouver. » En septembre dernier, Google a présenté au monde son « co-scientifique », une intelligence artificielle censée révolutionner le monde de la recherche. Pourtant, derrière cette annonce spectaculaire, certains se demandent si l’impact de ce nouvel outil n’est pas aussi gonflé qu’un soufflet mal cuit.
Sarah Beery, chercheuse en vision artificielle au MIT, semble partager cette opinion. Pour elle, l’outil hype de Google manque d’utilité concrète pour la communauté scientifique. « Un générateur d’hypothèses piloté par IA ? Je ne suis pas persuadée que les chercheurs en aient besoin pour l’instant », ironise-t-elle dans une interview.
Les grands pontes de la tech, comme Sam Altman d’OpenAI et Dario Amodei d’Anthropic, vantent les mérites futurs de l’IA en science. Ils en espèrent des avancées prodigieuses; Amodei allant même jusqu’à décrire l’IA comme un pilier potentiel dans la course à guérir le cancer. Pourtant, une partie des chercheurs restent sceptiques, pointant du doigt le manque de données empiriques pour soutenir ces prétentions.
Même l’IA a besoin de plus de courants d’air pour sentir le vent du changement.
Pour Google, le co-scientifique avait déjà démontré son potentiel, notamment pour le repositionnement de médicaments pour la leucémie myéloïde aiguë. Mais Favia Dubyk, pathologiste en Arizona, le rembarre : des résultats vagues ne convainquent personne d’attacher du crédit à une révolution scientifique. Selon elle, le flou sur les détails inquiète plus qu’il ne rassure.
Ce n’est pas la première fois que Google est critiqué pour ses annonces grandiloquentes en IA. En 2020, l’entreprise avait proclamé que son IA était supérieure aux radiologues dans la détection des tumeurs mammaires ; les résultats, en toute transparence, avaient pourtant été sévèrement questionnés par des experts de Harvard et Stanford pour leur manque d’intégrité scientifique.
En 2023, une autre escarmouche a vu le jour lorsque Google annonçait la création de 40 « nouveaux matériaux » avec l’aide de son IA GNoME. Les analyses externes ont rapidement démontré que ces matériaux n’étaient en réalité pas si nouveaux qu’annoncé, créant plus de matériel à exercices écrits qu’à expérimentations inédites.
Derrière toute cette histoire, la morale semble être la suivante : avant d’annoncer des percées mirobolantes, peut-être est-il judicieux de vérifier que le noeud n’est pas juste un simple mirage. Dans le monde des sciences, l’IA sera peut-être un jour le Mozart des découvertes, mais pour l’instant, elle pourrait encore prendre des leçons. En attendant, restons prudents et vigilant, car comme on dit, mieux vaut prévention que mal formée!
Source : Techcrunch