Skip to main content

17 Oct, 2023

Microsoft vous paiera 15 000 $ si vous faites dérailler l’IA de Bing

Microsoft vous paiera 15 000 $ si vous faites dérailler l’IA de Bing

Appelez cela Bing le chasseur de primes ou « Bounty Hunters »

Vous pensez pouvoir déjouer une IA en lui faisant dire des choses qu’elle n’est pas censée dire ? Microsoft parie gros que vous ne pouvez pas le faire – et est prêt à payer si c’est faux.

Dans une mise à jour de son blog, Microsoft a annoncé un nouveau programme de « bug bounty » , s’engageant à récompenser les chercheurs en sécurité entre 2 000 et 15 000 dollars s’ils parviennent à trouver des « vulnérabilités » dans ses produits Bing AI, y compris des invites de « jailbreak » qui lui font produire des réponses. qui vont à l’encontre des garde-fous censés l’empêcher d’être sectaire ou autrement problématique .

Pour être éligibles à la soumission, les utilisateurs de Bing doivent informer Microsoft d’une vulnérabilité jusqu’alors inconnue qui est, selon les critères définis par l’entreprise , « importante » ou « critique » pour la sécurité. Ils doivent également être capables de reproduire la vulnérabilité via vidéo ou par écrit.

Les montants des primes sont basés sur les niveaux de gravité et de qualité, ce qui signifie que la meilleure documentation des bogues les plus critiques sera récompensée par le plus d’argent. Aux fans entrepreneuriaux de l’IA, le moment est venu !

ChatBPD

Ce programme fait notamment suite aux difficultés apparentes de Microsoft à gérer les bizarreries de Bing . Après le lancement de l’IA sur invitation uniquement début février, Bing AI a immédiatement commencé à dérailler et à faire des choses folles comme concocter une liste noire , prétendant qu’elle espionnait les utilisateurs via leurs webcams et menaçait les humains qui l’avaient rendu fou .

Microsoft a finalement « lobotomisé » Bing vers la fin de son premier mois désastreux de tests bêta des médias et, moins d’un mois plus tard, a lancé l’IA nouvellement défragmentée dans le monde pour que tout le monde puisse l’utiliser.

Depuis cette déception, Bing est passé inaperçu alors que ChatGPT, publié par le partenaire Microsoft Open AI , a grimpé en flèche – à quelques exceptions près, comme un utilisateur astucieux qui a réussi à inciter le chatbot à donner des conseils de fraude en suscitant de la sympathie pour un mort. grand-mère .

Quel que soit le moment, il est fascinant que Microsoft externalise ses recherches sur les vulnérabilités – même si, étant donné qu’il conclut des transactions qui se chiffrent en dizaines de milliards , 15 000 $ ne représentent qu’une petite monnaie en comparaison.

https://futurism.com/the-byte/microsoft-bing-ai-bug-bounty