Google, Microsoft et OpenAI unissent leurs forces pour créer un forum sur la sécurité de l’IA
Google, Microsoft et OpenAI unissent leurs forces pour créer un forum sur la sécurité de l’IA

Avec la startup Anthropic, les entreprises ont formé le groupe pour établir des pratiques d’IA responsables. Microsoft, Google et OpenAI font partie des entreprises qui se sont associées pour une nouvelle initiative axée sur l’IA.
Le fabricant de ChatGPT Open AI, la startup Anthropic et les géants de la technologie Google et Microsoft ont forgé une alliance pour créer un cadre pour les normes de sécurité et le développement responsable de ce qu’ils appellent des modèles « Frontier AI » .
Les quatre entreprises technologiques ont annoncé mercredi la création du Frontier Model Forum dans un article de blog et ont partagé les principaux domaines d’intérêt du groupe. L’annonce intervient moins d’une semaine après que les hauts dirigeants de ces quatre sociétés, ainsi que d’autres, dont Meta et Amazon, ont rencontré le président Biden et se sont engagés à réduire les dangers que l’intelligence artificielle effrénée peut poser et à respecter les mesures de sécurité de l’IA qui donnent la priorité au public pour la sécurité et la confiance.
Le Frontier Model Forum a défini son plan pour l’année à venir avec trois domaines prioritaires. Il s’agit notamment de déterminer les meilleures pratiques pour développer et lancer des applications d’IA, de poursuivre la recherche sur la sécurité de l’IA et d’avoir des discussions transparentes sur la vulnérabilité, les risques et la sécurité avec les législateurs, les institutions universitaires et les pairs de l’industrie.
Dans le cadre de sa stratégie plus large, le groupe est ouvert à l’adhésion d’autres organisations en tant que membres si elles répondent aux critères concernant les modèles frontières, qu’ils ont définis comme « des modèles d’apprentissage automatique à grande échelle qui dépassent les capacités actuellement présentes dans les modèles existants les plus avancés ». Les sociétés fondatrices prévoient également de constituer un conseil consultatif dans les mois à venir.
« Les entreprises qui créent la technologie de l’IA ont la responsabilité de s’assurer qu’elle est sûre, sécurisée et reste sous contrôle humain », a déclaré le président et vice-président de Microsoft, Brad Smith, dans un communiqué. « Cette initiative est une étape essentielle pour rassembler le secteur de la technologie afin de faire progresser l’IA de manière responsable et de relever les défis afin qu’elle profite à toute l’humanité. »
Les inquiétudes concernant les risques de sûreté et de sécurité de l’IA ont suscité des appels à une surveillance multilatérale et à la mise en place de garde-fous pour les consommateurs et les entreprises. Les entreprises technologiques sont invitées à résoudre les problèmes liés aux deepfakes, aux menaces de cybersécurité, à la discrimination et à la collecte de données.
https://www.cnet.com/tech/google-microsoft-openai-join-forces-to-create-ai-safety-forum/