Blog

O programa AI Bug Bounty da Microsoft oferece recompensas de até $15.000.

A Microsoft implementou um programa de recompensas por descoberta de falhas, com prêmios que podem chegar a US $ 15.000, com o intuito de aprimorar a segurança de sistemas de inteligência artificial por meio de avaliações externas de segurança.

O programa inicial abordará os recursos impulsionados pela inteligência artificial no Bing, como o Bing Chat, o Bing Image Creator e as integrações do Bing no Microsoft Edge, Microsoft Start e Skype.

A companhia introduziu um novo sistema de recompensas durante uma exposição na conferência de segurança BlueHat. O objetivo é motivar especialistas em segurança a identificar vulnerabilidades nos produtos de inteligência artificial da Microsoft antes que sejam exploradas por indivíduos mal-intencionados.

A Microsoft declara em um comunicado:

“Conforme mencionado em nosso post de revisão anual de recompensas no blog no mês passado, estamos sempre aprimorando e atualizando nossos programas de recompensa para auxiliar os clientes da Microsoft a se manterem atualizados diante das mudanças constantes na segurança e nas novas tecnologias emergentes.”

Programa Bounty da Microsoft se amplia para abranger Inteligência Artificial.

O programa de recompensas recém-lançado pela Microsoft é uma expansão de um programa já em vigor, que premiou mais de US $ 13 milhões para pesquisadores. Esta iniciativa veio após a empresa ter atualizado suas avaliações de gravidade de vulnerabilidades para sistemas de inteligência artificial e ter promovido um desafio de pesquisa em segurança de IA.

Conforme estabelecido pelas diretrizes do programa de recompensas, as vulnerabilidades qualificadas devem cumprir os níveis de gravidade estabelecidos pela Microsoft, não ter sido reportadas anteriormente e conter instruções precisas e replicáveis.

As avaliações levarão em consideração a seriedade técnica e a excelência do relatório.

A Microsoft oferece recompensas mínimas a partir de US$ 2.000 para falhas de durabilidade moderada, chegando a US$ 15.000 para vulnerabilidades críticas. Recompensas mais elevadas podem ser concedidas pela Microsoft em casos de problemas com impacto significativo nos clientes.

Forma de se envolver

Os pesquisadores que desejam contribuir podem enviar falhas de segurança por meio do site do Centro de Resposta de Segurança da Microsoft.

A Microsoft recomenda a utilização de contas de teste para a prática de caça de recompensas éticas, a fim de evitar a exposição de dados dos clientes ou a interrupção do serviço.

O programa se concentra em vulnerabilidades técnicas encontradas no uso da tecnologia AI em experiências do Bing. Há restrições em certas atividades, como acessar dados alheios, explorar problemas do lado do servidor, demonstrar provas de conceito e realizar testes automatizados que resultem em alto tráfego.

Pode me fornecer mais detalhes ou o próprio texto para que eu possa parafraseá-lo adequadamente?

O programa de incentivo de falhas em inteligência artificial da Microsoft aponta para uma tendência mais ampla na indústria de detectar e compartilhar vulnerabilidades de maneira responsável em sistemas de IA, antes que possam ser exploradas.

Apesar de atualmente restrito às capacidades de inteligência artificial do Bing, as vantagens podem ser ampliadas no futuro à medida que a Microsoft desenvolve e fortalece mais funcionalidades de IA.

Principal imagem: Fotografia por Andrii Yalanskyi/Shutterstock

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button