Peut-on vraiment faire confiance aux outils de détection de deepfakes? Reality Defender est une des nombreuses startups qui développent des outils pour détecter les deepfakes et autres contenus générés par l’IA. Aujourd’hui, elle annonce avoir levé 15 millions de dollars lors d’un tour de financement de série A mené par DCVC, avec la participation de Comcast, Ex/ante, Parameter Ventures et AI Grant de Nat Friedman. Mais qu’est-ce qui rend Reality Defender différente des autres startups?
Le fondateur et PDG Ben Colman prévoit de doubler l’équipe de 23 personnes de Reality Defender au cours de l’année prochaine et d’améliorer ses modèles de détection de contenu IA. En quoi ces améliorations seront-elles bénéfiques?
Colman, ancien vice-président de Goldman Sachs, a lancé Reality Defender en 2021 aux côtés d’Ali Shahriyari et Gaurav Bharaj. Leur objectif principal est de rester en avance sur les nouvelles méthodes de deepfakes avant même leur apparition publique. Mais est-ce vraiment possible de prévoir ces nouveaux défis ?
« Reality Defender vise à prévenir plutôt que de simplement réagir aux problèmes causés par les deepfakes. »
Au départ, Reality Defender était une organisation à but non lucratif. Cependant, l’équipe a cherché des financements extérieurs lorsqu’elle a pris conscience de l’ampleur du problème des deepfakes et de la demande commerciale croissante pour des technologies de détection de deepfakes. Alors, les deepfakes sont-ils vraiment un problème aussi important ?
L’augmentation du volume de deepfakes est due en grande partie à la démocratisation des outils d’IA. La possibilité de cloner une voix ou de créer une image ou une vidéo deepfake, c’est-à-dire une image ou une vidéo numériquement manipulée pour remplacer de manière convaincante la ressemblance d’une personne, coûtait autrefois des centaines à des milliers de dollars et nécessitait des connaissances en science des données. Aujourd’hui, des plateformes comme ElevenLabs et des modèles open source comme Stable Diffusion ont rendu ces opérations possibles à peu ou pas de frais. Mais ces outils sont-ils toujours utilisés à des fins malveillantes ?
Reality Defender prétend détecter une gamme de deepfakes et de médias générés par l’IA, offrant une API et une application web qui analysent les vidéos, l’audio, le texte et les images pour détecter des signes de modifications orchestrées par l’IA. Mais pouvons-nous vraiment détecter de manière fiable les deepfakes ?
Colman soutient l’exactitude de Reality Defender et affirme que l’entreprise travaille activement à atténuer les biais dans ses algorithmes. Leurs modèles de détection sont constamment formés, reformés et améliorés pour s’adapter à de nouvelles situations et cas d’utilisation, tout en représentant fidèlement le monde réel et non seulement un petit sous-ensemble de données ou d’individus. Mais sans un audit tiers pour appuyer ces affirmations, peut-on vraiment croire en la précision de Reality Defender ?
Alors que la concurrence est féroce dans le marché des logiciels de détection de deepfakes, valorisé à 3,86 milliards de dollars en 2020, Reality Defender prévoit d’introduire un outil « d’IA explicative » qui permettra aux clients de scanner un document pour voir les paragraphes de texte générés par l’IA codés en couleur. En fin de compte, est-ce que Reality Defender parviendra à maintenir sa position de leader dans ce domaine en tumulte ?
Source : Techcrunch