As organizações estão adotando cada vez mais a IA para aumentar a velocidade e a escala do impacto positivo que desejam proporcionar às partes interessadas. Embora o uso da IA seja benéfico, ele abriu uma nova superfície de ataque que os sistemas de segurança tradicionais não foram projetados para avaliar ou proteger contra os vetores de ameaças recém-descobertos.
A avaliação proativa de vulnerabilidades nesses sistemas de IA, enquanto os desenvolve, é uma maneira mais eficiente e econômica de permitir que seus desenvolvedores criem os aplicativos de IA mais impactantes e obtenham uma vantagem competitiva significativa em seu setor.
A Red teaming de IA do Prisma® AIRS™ testa a inferência de um determinado aplicativo LLM ou baseado em LLM quanto a essas vulnerabilidades. Ele testa se um aplicativo está gerando resultados fora da marca ou se um agente está executando uma tarefa para a qual não foi projetado.