Google offre jusqu’à 30 000 $ aux chasseurs de bugs d’IA

[ad_1]
Le géant américain de la technologie a lancé un nouveau programme mondial de récompenses, destiné à identifier les défauts de sécurité dans ses produits avec des fonctions d’IA, telles que Gemini, Google Search ou les outils de la suite d’espace de travail.
Google renforce sa vigilance autour de ses produits alimentés par l’intelligence artificielle. Le géant de la technologie a lancé, le lundi 6 octobre, un nouveau programme mondial de récompenses destiné à identifier les défauts de sécurité dans ses produits avec des fonctions d’IA, telles que Gemini, Google Search ou les outils de la suite d’espace de travail. Appelée «Programme de récompense de la vulnérabilité de l’IA», ce système est conforme aux «primes de bug», ces programmes qui paient des chercheurs en cybersécurité pour la découverte de vulnérabilités. Le prix est une rémunération attrayante, qui peut aller jusqu’à 30 000 dollars (plus de 25 000 euros) pour les rapports les plus graves et les plus innovants.
«Nous avons appris que la portée des récompenses liées à l’IA n’était pas toujours claire. Pour répondre à ces préoccupations, nous avons clarifié quelles catégories de problèmes sont désormais couvertes.Expliquez Jason Parsons et Zak Bennett, responsables de la sécurité de Google, dans un communiqué de presse. Le géant californien expérimente déjà, depuis octobre 2023, avec l’intégration des défauts de l’IA dans son programme de chasse aux abus. Dans ce contexte, il avait déjà distribué pas moins de 430 000 dollars (370 000 euros) aux chercheurs. Mais cette fois, Google crée un cadre distinct, avec ses propres règles, ses produits éligibles et ses échelles de paie.
Sauter l’annonce
Problèmes de contenu généré par l’AI-AI
Parmi les vulnérabilités les mieux payées figurent les «actions voyous» – ces attaques qui permettent à la modification du statut de compte ou des données d’une victime – voire des fuites d’informations sensibles. Ces défauts peuvent, par exemple, provoquer un assistant vocal pour déverrouiller une porte ou exfiltrer les e-mails sans consentement. Les rapports seront classés en fonction de leur impact et du type de produit concerné: jusqu’à 20 000 $ (17 000 euros) pour un défaut critique dans un service phare comme Google Search ou Gemini, avec des bonus de qualité qui peuvent augmenter la récompense à 30 000 $.
Cependant, les problèmes liés au contenu généré par l’IA, tels que les discours de haine, sont exclus du système. «Nous ne pensons pas qu’un programme de récompense soit le bon format pour résoudre ces problèmes. Leur résolution nécessite des efforts multidisciplinaires et une surveillance à long terme.estime Google, invitant les utilisateurs à signaler ces abus via les outils intégrés dans ses produits. Alors que l’IA est au cœur de la concurrence entre les géants de la technologie américaine, Google espère mobiliser des chercheurs du monde entier pour affiner une technologie qui est devenue au cœur de son écosystème. Remarque aux pirates «éthiques» en herbe.
[ad_2]
hd1




