OpenAI, est-elle vraiment transparente dans ses pratiques internes ? C’est la question que beaucoup se posent après qu’un groupe de lanceurs d’alerte a accusé l’entreprise d’imposer des accords de non-divulgation (NDA) « illégalement restrictifs » à ses employés. Quels sont les dangers potentiels du silence imposé par ces accords ?
Selon une lettre adressée à la SEC par ces lanceurs d’alerte et publiée par The Washington Post, OpenAI aurait violé des règles de la SEC visant à protéger le droit des employés de signaler leurs inquiétudes aux autorités fédérales sans craindre de représailles. OpenAI cherche-t-elle à masquer des failings internes derrière un rideau de silence ?
La lettre demande à la SEC de prendre des mesures « rapides et agressives » pour faire respecter les règles prétendument violées. Les infractions incluent la signature d’accords « qui n’exemptaient pas les divulgations de violations de la SEC » et obligeaient les employés à obtenir le consentement de l’entreprise avant de révéler des informations confidentielles aux autorités. Ne s’agit-il que d’incompréhensions ou d’une stratégie délibérément opaque ?
Un porte-parole d’OpenAI, Hannah Wong, a déclaré à la presse que « notre politique de lanceur d’alerte protège le droit des employés de faire des divulgations protégées ». OpenAI aurait-elle pris des mesures correctives suffisantes, ou est-ce simplement une façade ?
La question centrale reste de savoir si les accords NDA d’OpenAI entravent la transparence nécessaire au sein de l’industrie technologique.
La SEC a répondu à la plainte, bien que les détails sur les actions potentielles restent flous. Les lanceurs d’alerte insistent pour que la SEC applique les règles de manière stricte, arguant que des changements internes, bien qu’appréciés, ne suffisent pas si les contrats illégaux ne sont pas examinés et sanctionnés pour donner l’exemple à l’industrie tech au sens large. Est-ce un simple acte de précaution, ou un signal d’alarme ?
Source : Engadget