« L’intelligence artificielle n’est pas toujours là pour jouer aux échecs !» Bonjour à tous, c’est la devise qui anime nos chers législateurs américains en ce moment. Eh oui, le général des avocats de tous les 50 états américains, plus 4 territoires, a signé une lettre appelant le Congrès à prendre des mesures contre le matériel d’abus sexuel d’enfants (CSAM) activé par l’IA.
« Bien que les crimes internet contre les enfants soient déjà activement poursuivis, nous sommes préoccupés par le fait que l’IA crée une nouvelle frontière pour les abus qui rendent ces poursuites plus difficiles », clame haut et fort la lettre. Et nous voilà parti dans la valse des images deep fake, créées par des acteurs malveillants pour dépeindre de manière réaliste des individus dans de fausses situations.
« Les deepfakes peuvent être aussi nuisibles qu’amusants. »
Parfois, les résultats font juste sourire, comme lorsqu’on s’est tous laissé berner en croyant que le Pape avait un manteau Balenciaga à la pointe de la mode. Mais, dans les pires cas, cette technologie a été utilisée pour faciliter des abus.
« Que les enfants sur les photos-source pour les deepfakes soient physiquement abusés ou non, la création et la circulation d’images sexualisées représentant de véritables enfants menacent le bien-être physique, psychologique et émotionnel des enfants qui en sont victimes, ainsi que celui de leurs parents », lit-on dans la lettre.
Les signataires poussent le Congrès à mettre en place un comité pour rechercher des solutions pour couvrir expressément le CSAM généré par l’IA. Et n’oublions pas, les deepfakes sexuellement exploitantes, déjà répandues en ligne, laissent les victimes sans grandes protections juridiques.
À l’étranger, les législateurs européens cherchent à travailler avec d’autres pays pour ratifier un code de conduite de l’IA, mais les négociations sont encore en cours. En somme, si la technologie vous fait monter le rouge aux joues, rappelez-vous que nos amis législateurs tentent de nous protéger. Donc, chers lecteurs, soyez patients et n’oubliez jamais, un deepfake n’est finalement qu’un miroir déformant de la réalité.
Source : Techcrunch