« Changement discrétionnaire, intention militaire? » Comme dans une relation où l’un change soudainement de statut Facebook sans prévenir, OpenAI a modifié sa politique d’utilisation sans tambour ni trompette. Avant, si la guerre et l’armée toquaient à la porte d’OpenAI, le portier GPT leur répondait : « Non merci, on ne peut pas servir. » Dorénavant, ces mots ont disparu comme les chaussettes dans une machine à laver, nous laissant dans l’interrogation la plus poignante depuis « Mais qui a tué Pamela Rose? »
Les fins limiers de The Intercept ont flairé ce changement le 10 janvier, aussi clairement que l’odeur du café au bureau un lundi matin.
La suppression des termes « militaire et guerre » dans la politique d’utilisation d’OpenAI laisse présager des applications militaires désormais envisagées par l’entreprise.
En tech, les révisions discrètes de conditions d’utilisation sont aussi courantes que les mises à jour inopinées qui ruinent nos habitudes. Ici, OpenAI fait œuvre de pionnier, en mode « je change les règles du jeu tout en prétendant que c’est juste pour une mise à jour ». On parle quand même d’une volte-face significative et concrète, et non d’une simple faute de frappe corrigée dans la discrétion.
Vous pouvez mettre à jour vos connaissances en allant lire la nouvelle politique d’utilisation ici, et l’ancienne version là. Et si vous êtes fan de « spot the difference », jetez un œil sur les captures d’écran avant et après le changement de politique. C’est un peu comme chercher Waldo, mais en beaucoup moins drôle.
La rengaine officielle, c’est que le nouveau texte serait plus lisible et flexible. Mais entre nous, une liste de choses interdites si précises qu’elle en deviendrait presque sexy, ça a son charme, non? « Ne faites de mal à personne », tel est le nouveau mantra d’OpenAI, aussi vaste qu’interprétable à leur avantage.
Toutefois, tout n’est pas permis dans l’arène de la guerre des étoiles… euh, je veux dire du développement des technologies. Il reste une prohibition générale sur le développement et l’utilisation d’armes, bien séparée de l’utilisation « militaire et guerre ». Après tout, l’armée, c’est pas que des gros flingues et des missiles; il y a aussi des tonnes de recherches, de fonds et de soutien à l’infrastructure. Notre ami GPT pourrait bien aider un ingénieur à décortiquer des décennies de documentation sur les aqueducs régionaux, qui sait ?
La grande question, c’est maintenant de savoir où tracer la ligne rouge entre ce qui est accepté et ce qui ne l’est pas, surtout quand il s’agit de coopérer avec le militaire. C’est un peu comme essayer de se mettre d’accord sur où mettre le fromage dans un hamburger, ça peut vite devenir philosophique.
En fin de compte, avec l’omission salivaire des mots « militaire et guerre », il semble que notre bon vieil ami OpenAI ne cracherait pas sur une poignée de dollars venant de l’armée. Et quand j’ai demandé à OpenAI de me confirmer ou infirmer la chose, ils ont préféré se murer dans un silence plus profond que celui d’un sous-marin en plongée. Je reste à l’affût, mais s’ils répondent, vous serez les premiers informés.
En attendant, aux dernières nouvelles, l’IA est toujours prête pour le service, mais pour l’armée, elle n’a pas encore dit « oui ». Si ça change, ce sera sans doute sur le champ… de bataille des communications de presse.
Source : Techcrunch