Comme disait un célèbre philosophe : « L’intelligence artificielle, c’est comme une tartine de confiture, plus tu l’étends, moins elle est concentrée! ». Ah, Google et ses charmantes péripéties avec l’intelligence artificielle ! Cette fois-ci, la firme de Mountain View met en pause les talents d’artiste de son chatbot Gemini, suite à une petite confusion… artistique dirons-nous.
Imaginez un peu : des Nazis, les Pères fondateurs des États-Unis et même le Pape représentés comme des personnes de couleur. Un véritable festival de diversité historiquement… inexact. Google, pris de court par la viralité de ces créations pour le moins surprenantes, a décidé de freiner un peu les ambitions picturales de Gemini, au moins le temps de rajuster le tir.
« Peindre l’histoire avec un pinceau trop large peut parfois laisser des coups de brosse inattendus. »
Apparemment, un utilisateur ingénieux a trouvé le moyen de duper les filtres de contenu de Gemini en mal orthographiant « soldat » dans une requête. Résultat ? Des soldats nazis d’une diversité surprenante. Et il ne s’arrête pas là. Le génie derrière ces expériences, un certain @JohnLu0x sur X, anciennement Twitter, a également fait jaillir du néant des couples glamour de diverses ethnies… mais oh surprise, point de couple « blanc » ne pouvait être généré sans tomber dans le piège des stéréotypes nuisibles.
John L., notre personnage principal dans cette comédie d’erreurs, suggère qu’en voulant bien faire, Google a peut-être été un peu trop enthousiaste, manquant ainsi de nuance. Et comme souvent dans ces cas-là, l’internet s’est emparé de l’affaire, oscillant entre stupeur et amusement.
Ce n’est pas la première fois que Google trébuche sur le chemin pavé de bonnes intentions de l’intelligence artificielle. Rappelez-vous Bard, l’ancêtre maladroit de Gemini, et son faux pas légendaire sur l’espace. Comme quoi, dans la course effrénée contre les titans de l’IA, même les géants peuvent perdre pied.
En attendant, Google promet de peaufiner Gemini pour nous offrir une version améliorée prochainement. Espérons que cette fois-ci, l’IA saura distinguer l’art de la précision historique. Car après tout, réécrire l’histoire, ce n’est pas ce qu’on attend d’un chatbot, même le plus intelligent. C’est peut-être ça, le vrai « bug » dans la matrice.
Source : Engadget