Skip to main content

16 Fév, 2024

OpenAI recrute un détective pour trouver qui fait fuir ses précieuses informations

OpenAI recrute un détective pour trouver qui fait fuir ses précieuses informations

« Votre expertise sera déterminante pour protéger OpenAI contre les risques internes, contribuant ainsi aux avantages sociétaux plus larges de l’intelligence artificielle. »

OpenAI cherche à embaucher un « enquêteur sur les risques internes » pour « renforcer notre organisation contre les menaces de sécurité internes ».

Selon l’offre d’emploi de l’entreprise, repérée pour la première fois par MSPowerUser, l’enquêteur est censé aider l’entreprise à protéger ses actifs en « analysant les activités anormales, en promouvant une culture de la sécurité et en interagissant avec divers départements pour atténuer les risques ». Selon la Wayback Machine, l’offre d’emploi a été publiée à la mi-janvier.

« Vous jouerez un rôle crucial dans la sauvegarde des actifs d’OpenAI en analysant les activités anormales, en promouvant une culture de la sécurité et en interagissant avec divers départements pour atténuer les risques », peut-on lire dans l’offre d’emploi. « Votre expertise sera déterminante dans la protection d’OpenAI contre les risques internes, contribuant ainsi aux avantages sociétaux plus larges de l’intelligence artificielle. »

En fait, il semble qu’OpenAI en ait assez de toutes les fuites très médiatisées concernant sa technologie controversée, qui ont porté sur d’importantes décisions commerciales, des luttes intestines et de bonnes vieilles fuites de données de clients.

L’année dernière, le PDG Sam Altman a été licencié et réembauché de manière très médiatisée. Cette période turbulente a été marquée par des révélations provenant de sources internes et par des clichés bizarres de la culture d’entreprise très inhabituelle d’OpenAI.

Par exemple, le désordre au sein du conseil d’administration a été mis en lumière, et il est apparu que Microsoft, le plus gros investisseur d’OpenAI, a été pris de court par la décision d’évincer M. Altman. Et c’est sans parler des comptes rendus détaillés du scientifique en chef d’OpenAI et ancien membre du conseil d’administration, Ilya Sutskever, qui brûlait des effigies et menait des chants rituels au sein de l’entreprise.

Le plus embarrassant a sans doute été la fuite d’informations sur une IA expérimentale et secrète portant le nom de code « Q* ». Reuters et The Information ont rapporté en novembre que certains dirigeants d’OpenAI auraient été effrayés par le projet, ce qui a conduit au licenciement de M. Altman.

Malgré son nom, OpenAI est une entreprise à but lucratif qui s’est toujours efforcée de garder secret le fonctionnement de ses principaux produits.

Mais au vu des informations que nous avons pu obtenir sur le fonctionnement interne de l’entreprise, il est clair qu’OpenAI est un lieu de travail où il y a des fuites – et il semble que l’enquêteur interne sur les risques qu’elle recrute sera chargé de mettre un terme à cette culture.

Le seul problème ? Historiquement, certaines des affirmations et révélations les plus surprenantes concernant OpenAI ne sont pas venues de fuyards anonymes, mais de la direction de l’entreprise elle-même.

Altman lui-même est une source inépuisable d’affirmations extravagantes, qu’il s’agisse de prédire l’arrivée prochaine d’une IA de niveau humain ou d’affirmer publiquement qu’il est fasciné par Terminator.

Le Sutskever susmentionné ne fait pas non plus exception à la règle. Souvenez-vous, en 2022, avant la sortie de ChatGPT, il avait fait les gros titres en affirmant que certains réseaux neuronaux pourraient déjà être « légèrement conscients ».

En d’autres termes, le nouveau détective interne d’OpenAI ne devra pas seulement s’inquiéter de la base de l’entreprise. Il devra peut-être aussi avoir de sévères conversations avec ses propres dirigeants.

https://futurism.com/the-byte/openai-hiring-investigator