O Bloom é uma ferramenta da Anthropic para pessoas pesquisadoras de segurança em IA avaliarem o comportamento de LLMs. Ele investiga comportamentos como a bajulação e a autopreservação. Em comparação com benchmarks estáticos, ele usa uma configuração inicial que define os comportamentos alvo e os parâmetros de avaliação para gerar dinamicamente conversas de teste diversificadas e, em seguida, avaliar os resultados. Essa abordagem para avaliação comportamental automatizada é necessária para acompanhar o ritmo dos lançamentos de modelos, permitindo que times de pesquisa externos conduzam avaliações. O Petri é uma ferramenta complementar que identifica quais comportamentos surgem para um determinado modelo, enquanto o Bloom identifica em quais cenários e com que frequência esses comportamentos ocorrem, formando juntos um conjunto de avaliação mais completo. Uma preocupação é que o Bloom requer um modelo professor (ou avaliador) que avalia um determinado modelo aluno. Modelos professores podem ter pontos cegos e vieses, portanto, usar múltiplos avaliadores pode reduzir o viés nos resultados. Times de pesquisa em segurança de IA devem avaliar o Bloom como um complemento aos benchmarks estáticos para avaliar comportamentos emergentes de modelos.