Est-il prudent ou même éthique d’utiliser l’intelligence artificielle pour détecter les infections sexuellement transmissibles (IST) à partir de photos? C’est la question que pose l’initiative controversée d’une entreprise nommée Calmara, qui propose un concept pour le moins surprenant. Mais derrière cette proposition se cache-t-elle une réelle avancée ou de sérieux risques?
Le projet de Calmara consiste à encourager ses utilisateurs à prendre une photo des parties génitales de leur partenaire pour ensuite analyser l’image via son IA. Cela soulève immédiatement une question cruciale : peut-on réellement se fier à une telle méthode pour prendre des décisions concernant notre santé sexuelle?
La proposition de Calmara est entachée de nombreux problèmes, notamment le fait qu’une grande partie des IST sont asymptomatiques. Cela signifie qu’une personne peut être porteuse d’une IST sans que cela soit visuellement détectable. Les tests de dépistage des IST traditionnels s’appuient sur des analyses de sang et d’urine pour une bonne raison : ils sont plus fiables que les examens visuels.
« Des start-up proposent des solutions plus responsables pour le dépistage des IST accessible à tous. »
Mais alors, pourquoi certains choisissent-ils de suivre une voie aussi incertaine que celle proposée par Calmara? La co-fondatrice Mei-Ling Lu insiste sur le fait que Calmara ne se veut pas un outil médical sérieux, mais plutôt un « produit de style de vie ». Cependant, cette affirmation est-elle suffisante pour dédouaner l’entreprise des risques potentiels, surtout quand on sait que leur IA présente un taux d’exactitude prétendu de 65-90%?
Par ailleurs, HeHealth, société mère de Calmara, adopte une approche visiblement plus rassurante en aidant ses utilisateurs à se connecter avec des cliniques partenaires pour des dépistages complets. Néanmoins, même cet effort ne parvient pas à masquer les inquiétudes grandissantes concernant la confidentialité et la sécurité des données utilisateurs. Valentina Milanova, fondatrice de Daye, soulève des questions importantes sur l’anonymat et la traçabilité des données.
Ces préoccupations de confidentialité se doublent de risques légaux : que se passe-t-il si un mineur utilise ce service? Calmara se retrouverait alors dans une situation délicate, possession de contenus potentiellement illégaux sans avoir un cadre légal solide pour se protéger. En outre, le partage d’informations avec des « fournisseurs de services et partenaires » sans préciser la nature exacte de ces partages et leur impact sur la confidentialité des utilisateurs ajoute une couche supplémentaire de danger.
En conclusion, le cas de Calmara sert d’avertissement quant à l’enthousiasme parfois aveugle pour les nouvelles technologies, en particulier quand elles touchent à des domaines aussi sensibles que la santé sexuelle. Il est crucial de se demander si les entreprises derrière ces innovations prennent pleinement en compte les conséquences potentielles, ou si elles sont trop empressées de mettre sur le marché des solutions non abouties.
Peut-être est-il temps de s’interroger: les progrès technologiques dans le domaine de la santé doivent-ils être accueillis les bras ouverts sans une évaluation approfondie des risques et bénéfices? Est-ce le signe d’un futur où la tech prendra des décisions critiques pour nous, ou devons-nous freiner cette course en avant pour mieux sécuriser et encadrer ces innovations?
Source : Techcrunch