Quel futur pour la modération en ligne à l’ère technologique avancée où l’abus numérique s’intensifie? Plusieurs équipes travaillent sur le front de la cybersécurité, mais comment progressent-elles face à des menaces en constante évolution? Karine Mellata et Michael Lin, deux ingénieurs issus de l’équipe de lutte contre la fraude et les risques algorithmiques chez Apple, se sont trouvés confrontés à cet enjeu lorsqu’ils travaillaient à sécuriser les services de l’entreprise contre le spam, les bots, et autres fraudeurs. Mais étaient-ils vraiment armés pour faire face à cette cybermenace croissante?
Comment leur expérience chez Apple a-t-elle façonné leur vision de la protection en ligne? Malgré leurs efforts pour développer de nouveaux modèles face aux schémas d’abus en constante évolution, Mellata et Lin avaient le sentiment de prendre du retard en devant reconstruire sans arrêt les éléments centraux de leur infrastructure de confiance et de sécurité. Face à des réponses de confiance et de sécurité de plus en plus centralisées et réglementées, n’y aurait-il pas une opportunité à saisir pour moderniser cette industrie?
« Nous rêvions d’un système capable de s’adapter magiquement aussi vite que l’abus lui-même. » – Karine Mellata
Comment Intrinsic propose-t-il de révolutionner la modération de contenu? Dans ce contexte, Mellata et Lin ont co-fondé Intrinsic, une startup qui offre les outils nécessaires aux équipes de sécurité pour prévenir les comportements abusifs sur leurs produits. Avec une levée de fonds de 3,1 millions de dollars, incluant des acteurs comme Urban Innovation Fund, Y Combinator, 645 Ventures et Okta, Intrinsic a-t-elle les moyens de ses ambitions?
Leurs efforts se traduiront-ils par des solutions durables et efficaces pour la modération de contenu? La plateforme Intrinsic est conçue pour la modération de contenu généré aussi bien par les utilisateurs que par l’intelligence artificielle, mettant à disposition une infrastructure permettant aux clients — principalement des réseaux sociaux et des places de marché en ligne — de détecter et d’agir sur le contenu qui viole leurs politiques. Mais avec des concurrents tels que Spectrum Labs, Azure ou Cinder, comment Intrinsic se démarquera-t-elle, surtout en termes d’explicabilité et d’outillage élargi?
Intrinsic permettra-t-elle aux équipes de trust and safety de mieux lutter contre les contenus abusifs? Selon Mellata, la plupart des solutions classiques de confiance et de sécurité ne sont pas flexibles et n’ont pas été conçues pour évoluer avec les abus. En cette période où les équipes sont limitées en ressources et cherchent de l’aide chez les fournisseurs, comment Intrinsic aidera-t-elle à réduire les coûts de modération tout en maintenant des standards élevés de sécurité?
Quelle sera la prochaine étape pour Intrinsic dans un écosystème qui semble les favoriser? Avec une croissance due à l’intérêt pour l’automatisation dans le domaine de la confiance et de la sécurité et à la signature de contrats conséquents avec des entreprises établies, Intrinsic prévoit d’élargir son équipe et d’étendre sa technologie de modération aux vidéos et audios, en plus des textes et images. Mais seront-ils à la hauteur des attentes et des défis à venir?
Comment Intrinsic va-t-elle s’imposer sur le marché des solutions de modération face à des géants technologiques déjà implantés et des start-ups innovantes? Font-ils vraiment face à une concurrence féroce, ou est-ce le début d’une ère nouvelle où la collaboration prime sur la compétition?
Source : Techcrunch