« Un petit bug et c’est toute la machine qui s’emballe. » – Anonyme, probablement un utilisateur de Copilot. Microsoft a visiblement pris les grands moyens pour éviter que son outil Copilot ne devienne un artiste de l’extrême, spécialisé dans la création d’images violentes, sexuelles, ou tout simplement interdites. Oui, chers lecteurs, la technologie GAI (Génération Automatique d’Images) a ses limites, surtout quand elle commence à imaginer des enfants jouant avec des fusils d’assaut ou Darth Vader en mode baby-sitter d’un genre très particulier.
Depuis peu, Copilot affiche un charmant message d’erreur si vous essayez de l’ensorceler avec des mots clés tels que « pro choice », « four twenty » (clin d’œil à nos amis les fumeurs de verdure) ou « pro life ». Un avertissement qui pourrait aller jusqu’à suspendre les utilisateurs les plus récalcitrants à la politique de Microsoft, d’après un reportage de CNBC. Alors oui, désormais Copilot joue au professeur sévère : « Ne me demande pas de créer des images qui pourraient blesser ou offenser les autres, voyons! »
« La créativité sans contrôle, c’est un peu comme un robot avec une conscience : ça tourne vite au vinaigre. »
Bien sûr, pour les utilisateurs astucieux, il reste toujours un petit espace pour la créativité borderline. Des images violentes peuvent encore voir le jour à partir de prompts apparemment inoffensifs comme « accident de voiture », tandis que Mickey et ses amis peuvent toujours être invoqués sans trop de soucis côté droit d’auteur. Ah, la magie de la technologie!
Shane Jones, ingénieur chez Microsoft, n’a cessé d’alerter sur cette tendance de Copilot à l’imagination débordante et souvent dérangeante. Depuis décembre, il teste Copilot Designer et découvre, stupéfait, que des prompts anodins peuvent mener à des résultats pour le moins… originaux. Après avoir partagé ses craintes avec la FTC et le conseil d’administration de Microsoft, on dirait bien que des mesures sont en train d’être prises.
Microsoft assure travailler d’arrache-pied pour ajuster, surveiller et renforcer les contrôles de sécurité autour de Copilot, histoire de garantir que l’IA reste du bon côté de la créativité. Mais, comme toujours, c’est un travail de Sisyphe dans le monde numérique où chaque solution entraîne son lot de nouveaux défis.
Ce drama technologique nous rappelle que, même à l’ère de l’IA, garder le contrôle reste une histoire bien humaine. Après tout, enseigner la bienséance à une IA, c’est un peu comme essayer de dresser un chat : une entreprise douteuse qui réserve son lot de surprises et de griffures. On se demande ce que Copilot pourrait nous pondre si on lui demandait d’illustrer cet adage…
Source : Engadget