Les régulateurs chinois s’attaquent-ils aux modèles d’IA comme ChatGPT avec leurs propositions de restrictions dans le pays? Les règles proposées exigent-elles une identification de l’utilisateur, des examens de sécurité et interdisent tout contenu contestataire?
Les entreprises technologiques chinoises se lancent-elles rapidement dans la création de modèles de langage à grande échelle ? En outre, ces modèles de SenseTime, Baidu et Alibaba sont-ils en retard par rapport à des systèmes tels que GPT-4 ?
Il est clair que l’industrie se consacre de manière égale au développement de ces capacités.
Les régulateurs chinois pourraient-ils étouffer l’innovation avec leurs restrictions proposées, affectant ainsi les ambitions de l’industrie chinoise de l’IA ? Serait-il impossible pour les modèles d’IA générative de respecter ces restrictions en raison de leur nature ?
Ces nouvelles exigences sont-elles susceptibles de ralentir le développement de l’IA en Chine? Ce genre de clause de moralité est-elle courante en Chine et permet-elle au gouvernement d’exercer son influence en toute impunité?
Les entreprises technologiques et les startups pourraient-elles être dissuadées d’opérer en Chine par peur de violer massivement ces règles ? De plus, est-ce que cela pourrait les pousser à chercher d’autres alternatives en dehors de la Chine ?
La citation du PDG d’Alibaba met-elle en lumière l’avenir de l’IA en Chine ? Les régulations pourraient-elles étouffer l’innovation ou, au contraire, protéger les gens contre le vol massif de leurs données ?
Allons-nous assister à une révision des règles après la période de consultation d’un mois ou verrons-nous leur entrée en vigueur plus tard cette année ? La Chine sera-t-elle un acteur clé pour l’IA ou sera-t-elle freinée par ses propres mesures restrictives ?
Source : Techcrunch